La rivoluzione Nvidia nel cloud computing

Sono numerose le novità  annunciate oggi da Nvidia alla GPU Technology Conference 2012 di San Jose, in California, e segnano una svolta importante nella storia dell’azienda che per la prima volta rilascia le GPU per il cloud.
Frutto di cinque anni di lavoro, le tecnologie su Gpu per il cloud di NVIDIA, si basano sulla nuova architettura Kepler, progettata per essere utilizzata su larga scala nei data center.
Le funzionalità  di virtualizzazione consentono alle GPU di essere condivise da più utenti contemporaneamente e di offrire un’elevatissima qualità  di visualizzazione in streaming senza ritardi, tanto da far sembrare un data center remoto proprio come se fosse dietro la porta accanto. L’ efficienza energetica e la densità  di tale architettura, inoltre, riducono i costi dei data center.
Si tratta della terza pietra miliare che rivoluziona il mondo del computing: dopo aver introdotto nel 1999 la prima Cpu grafica e dopo aver lanciato Cuda nel 2006, che ha introdotto l’elaborazione di calcolo in parallelo, ora è la volta del cloud computing, il fenomeno che sta cambiando a tante persone il modo di usare il computer.
La Gpu per il cloud offre a chi gioca o lavora in remoto un’esperienza senza limiti da un PC o da una console. L’implementazione delle tecnologie Kepler per il cloud, Nvidia GeForce GRID, potenzia i servizi di gioco su cloud. I gaming-as-a-service provider potranno usare tali tecnologie per fornire esperienze di gioco a distanza, con la possibilità  di superare ciò che offre una tradizionale console.

Nvidia ha anche presentato la prima Gpu virtualizzata al mondo, rivoluzionando la grafica per il cloud computing. Si tratta della piattaforma Nvidia VGX, pensata per i dipartimenti IT delle grandi aziende, al fine di mettere a disposizione un desktop virtualizzato ai collaboratori che, per poter beneficiare della grafica e delle performance di un vero PC o una vera workstation con Gpu, devono semplicemente connettersi con i loro dispositivi.

La piattaforma NVIDIA VGX nei data center permette ai collaboratori di avvalersi di un vero cloud Pc collegandosi con il proprio dispositivo (thin client, notebook, tablet o smartphone) senza preoccuparsi del sistema operativo, accedendo così a numerose applicazioni che prima potevano utilizzare solo sul Pc dell’ufficio.
I dipendenti possono aver accesso per la prima volta a un Pc accelerato da una Gpu in grado di offrire un’esperienza simile a quella che si avrebbe con un tradizionale Pc. Le diverse opzioni di gestione della piattaforma e la latenza molto bassa estendono poi la possibilità  anche a chi si occupa di progettazione 3D e di simulazione, ambiti che, fino ad oggi, erano troppo complessi per essere gestiti in un ambiente virtualizzato.
L’integrazione della piattaforma Vgx nella rete aziendale consente ai dipartimenti IT delle grandi aziende di rispondere alle nuove esigenze come, la possibilità  per i collaboratori di portare i loro dispositivi in ufficio. La piattaforma, infatti, fornisce i contenuti, riducendo i costi IT complessivi, rafforzando la sicurezza dei dati e semplificando la gestione del data center.

Nvidia VGX si basa su tre conquiste tecnologiche:

• le Schede NVIDIA VGX. Sono progettate per gestire un grande numero di utilizzatori in modo efficiente. La prima scheda Nvidia VGX è dotata di quattro Gpu (graphics processing units), ciascuna con 192 core Nvidia Cusa e 4 GByte di frame buffer, 16 GByte di memoria e interfaccia PCIe. Questa famiglia di schede per server è progettata per il raffreddamento passivo e per inserirsi senza problemi nelle piattaforme server esistenti, si tratta delle prime Gpu board al mondo progettate per i datacenter..
Le schede beneficiano di diverse soluzioni avanzate, inclusa la virtualizzazione hardware, che permette a numerosi utenti di condividere una singola Gpu e ottenere una ricca esperienza grafica interattiva; supporto remoto a display a bassa latenza, che riduce sensibilmente il ritardo cui sono attualmente  abituati gli utenti e una nuova tecnologia che assicura maggiore efficienza energetica.
• Nvidia VGX Hypervisor. Questo software permette la virtualizzazione e la condivisione di Gpu. Aziende leader, come Citrix, stanno lavorando nell’integrare GPU Hypervisor e presto saranno disponibili le date di rilascio.
• Nvidia User Selectable Machines (USMs). Quest’opzione consente alle aziende di configurare le capacità  grafiche in base alle diverse esigenze di ciascun utilizzatore della rete. Le possibilità  vanno da vere esperienze da PC con lo standard Nvidia USM fino alla progettazione 3D professionale con GPU Nvidia Quadro o Nvidia Nvs.

La piattaforma Nvidia VGX consente a un numero molto elevato di utenti (fino a 100) di far riferimento a un singolo server equipaggiato con una scheda VGX, migliorando sensibilmente la densità , se paragonata a soluzioni con tradizionale infrastruttura desktop virtuale (VDI), riducendo al contempo problemi come quello della latenza o del limitato supporto di applicazioni, che sono tipici delle soluzioni di virtualizzazione tradizionale.
Infine alla Gpu Technology Conference Nvidia ha annunciato anche una nuova famiglia di Gpu Tesla basata sull’architettura Kepler che rende più semplice e accessibile il Gpu computing per un’ampia serie di applicazioni tecniche e scientifiche nell’ambito dell’high performance computing (Hpc).

Le nuove Gpu Nvidia Tesla K10 e K20 sono acceleratori realizzati per gestire le problematiche più complesse in ambito HPC.

La Gpu Nvidia Tesla K10 offre uno dei più elevati throughput al mondo per le applicazioni di elaborazione dei dati in ambito signal, image e sismico. Ottimizzato per i clienti che si occupano di ricerca petrolifera e del gas, nonché per l’industria della difesa, una singola scheda acceleratrice Tesla K10 dispone di due Gpu GK104 Kepler che assicurano performance aggregate di 4,58 teraflop di peak single-precision floating point e 320 GByte al secondo di memory bandwidth.
La Gpu Nvidia Tesla K20 Gpu è il nuovo prodotto di riferimento della famiglia di Gpu Tesla, progettato per gli ambienti HPC computazionalmente più intensivi. Attesa come la GPU con le più elevate performance al mondo e la più efficiente, la Tesla K20 sarà  disponibile nel quarto trimestre del 2012.
In aggiunta all’architettura Kepler, Nvidia ha rilasciato oggi la piattaforma di parallel programming CUDA 5. Resa disponibile agli oltre 20.000 membri del programma GPU Computing Registered Developer, la piattaforma consentirà  agli sviluppatori di esplorare nuove strade per beneficiare delle nuove Gpu Kepler, incluso il dynamic parallelism.
Il modello CUDA 5 parallel programming sarà  disponibile nel terzo quadrimestre del 2012. Gli sviluppatori possono avere accesso alla preview release  registrandosi come GPU Computing Registered Developer sul sito CUDA. http://developer.nvidia.com/category/zone/cuda-zone

PCProfessionale © riproduzione riservata.