Nvidia GTC 2013 – Day 2

Il keynote di Jen-Hsun Huang è l’evento più importante del GTC e l’occasione per il Ceo e cofondatore di Nvidia di ricordare  i traguardi conseguiti nell’anno che è passato, tracciare la strada per il futuro e, come sempre accade, annunciare le novità  per il presente.Jen-Hsun Huang ha quindi articolato il keynote in cinque punti coprendo il passato, il presente e le sfide future.

Il punto di partenza non poteva non essere la Gpu e tutto ciò che le tecnologie legate ad essa hanno permesso di ottenere nel corso degli anni. La crescita della potenza di calcolo e la possibilità  di programmare il modo in cui la Gpu opera sulle informazioni che le vengono passate hanno portato un realismo sempre maggiore nella grafica 3D legata sia al mondo professionale sia a quello consumer con i videogiochi.

Una volta comprese le potenzialità  offerte delle architetture delle Gpu il passo successivo è stato di sviluppare un ecosistema che permettesse sfruttare la potenza di calcolo dei processori grafici per scopi diversi da quelli iniziali. Dalla prima introduzione del Cg (C for Graphics) si è passati alla nascita di Cuda (Compute Unified Device Architecture) e all’esplosione del Gpu Computing che fa leva sulla naturale capacità  di calcolo parallelo delle architetture Gpu per accelerare l’esecuzione di algoritmi generici per la soluzione di problemi legati alla ricerca scientifica, ingegneristica, finanziaria, medica e molto altro ancora.

L’impatto delle Gpu sulle prestazioni di calcolo è indiscutibile, come confermano i dati relativi alla classifica dei primi 500 supercalcolatori al mondo.

In questo panorama, Jen-Hsun ha mostrato in modo fiero la GeForce GTX Titan che permette di creare i più potenti desktop da gioco o, da un altro punto di vista, un vero e proprio supercalcolatore personale.

Dopo aver ricordato la strada percorsa sino a oggi, Jen-Hsun svela qualche dettaglio sul futuro presentando le roadmap di sviluppo delle Gpu e di Tegra.

L’architettura Kepler ha quasi un anno di vita e nel 2014 arriverà  Maxwell. Quest’ultima porterà  in dote la tecnologia Unified Virtual Memory che permetterà  di presentare come un unico spazio la memoria legata alla Gpu e alla Cpu; ciò offrirà  una maggiore flessibilità  nell’accesso dei dati da parte delle due diverse unità  di calcolo.

Dopo Maxwell, presumibilmente nel 2016, sarà  il turno di Volta, l’architettura con la quale Nvidia spingerà  sempre di più sul fattore dell’efficienza grazie all’utilizzo della tecnologia Stacked Dram. La memoria non sarà  più un elemento installato sul Pcb, ma diventerà  parte integrante del package della Gpu con l’obiettivo di ridurre in modo drastico le latenze di accesso e le interferenze nella trasmissione delle informazioni. Grazie alla tecnologia Stacked Dram sarà  possibile raggiungere una banda di trasferimento dati pari a 1 Tbyte al secondo tra la memoria e la Gpu.

La strada che Nvidia intende seguire sarà , però, ben più articolata. Jen-Hsun si spinge oltre descrivendo cioè che ritiene sarà  il futuro prossimo: ogni dispositivo con un display avrà  bisogno di un processore capace di elaborare immagini. In quest’ottica come oggetto in cui si concentra la capacità  di elaborazione perderà  il suo significato originario, perché questa stessa capacità  di calcolo dovrà  essere presente in ogni dispositivo. In questo scenario si inserisce l’obiettivo di Nvidia, ovvero quello di riuscire a realizzare un processore capace di entrare in tutti i dispositivi, di qualunque tipo essi siano.

Tegra è stato il primo passo in questa direzione, seguito da Tegra 2, Tegra 3 e oggi da Tegra 4. Sino a oggi nessuno di questi processori ha però fornito un ponte di collegamento con Cuda. Ecco quindi che Logan, la prossima generazione di processori Tegra in arrivo nella prima parte del 2014, introdurrà  per la prima volta un’architettura derivata da Kepler e fornirà  il supporto nativo per Cuda 5, OpenGL 4.3.

Dopo Logan sarà  la volta di Parker, il primo SoC (System on a Chip) a combinare l’architettura Denver (soluzione Arm a 64 bit) per la parte Cpu e quella Maxwell per la Gpu. Il tutto sarà  realizzato utilizzando transistor con tecnologia FinFet. Jen-Hsun sottolinea come in soli 5 anni la potenza di calcolo in questo campo aumenterà  di 100 volte, con un incremento di 10 volte tra Logan e Parker.

La chiusura del keynote è dedicata, come anticipato, all’annuncio di un prodotto per il presente: si tratta del Grid Vca (Visual Computing Appliance), il primo sistema della casa californiana per l’elaborazione da remoto (remote graphics e più in generale remote computing).

Il Grid Vca è un rack in formato 4U all’interno del quale sono presenti due processori Intel Xeon con architettura a 8 core, un quantitativo di memoria di sistema che può arrivare fino a 384 Gbyte e fino a 8 schede Grid K1 o K2 di classe Quadro che permettono di avere all’interno del Grid Vca 8 o 16 Gpu GK104 con architettura Kepler.

Il progetto alla base del Grid Vca è di offrire un’alternativa alla workstation fissa o portatile per quelle realtà  che necessitano di potenza calcolo, massima flessibilità  di utilizzo e accesso alle risorse. Grid Vca è una soluzione pronta all’uso adatta inoltre alle strutture professionali e aziendali nelle quali non è presente una struttura IT organizzata.

Grid Vca sposta di fatto gli acceleratori grafici fuori dalle workstation classiche e le rende disponibili da remoto in modo indipendente dal client utilizzato. Per raggiungere questo risultato Grid Vca sfrutta un sistema di virtualizzazione basato sul software Nvidia Vgx Hypervisor che consente di creare in remoto spazi di lavoro indipendenti a ciascuno dei quali è associata una Gpu.

Il risultato è quello di avere a disposizione delle vere e proprie workstation remote in modo da poter utilizzare applicazioni complesse in modo non solo più efficiente, ma anche con prestazioni superiori a quanto potrebbe essere ottenuto con un acceleratore grafico integrato nel client. Ciò significa poter lavorare tanto su un desktop quanto, come estremo, su un tablet con lo stesso livello di prestazioni di una workstation “classica”; poter interrompere il lavoro su una postazione e riprenderlo su un’altra postazione senza la necessità  di interrompere le elaborazioni o di spostare fisicamente dei dati. Ancora da un singolo client è possibile inoltre accedere a diversi spazi di lavoro in modo contemporaneo e quindi avere il controllo di più workstation da una singola postazione.

PCProfessionale © riproduzione riservata.
Giornalista con background in Ingegneria Aerospaziale. Appassionato di tecnologia, fotografia e viaggi nelle terre fredde.

Nessun Articolo da visualizzare