Successivo

Magazine

Trinity Reloaded

Michele Braga | 25 Luglio 2013

Preview

Con il termine Apu (Accelerated Processing Unit) si definiscono tutti i processori caratterizzati da un die monolitico nel quale sono […]

Schermata 2013-07-25 a 11.03.13

Con il termine Apu (Accelerated Processing Unit) si definiscono tutti i processori caratterizzati da un die monolitico nel quale sono racchiuse Cpu, Gpu e funzioni dedicate all’elaborazione generica di tipo GpGpu (General Purpose Gpu). Amd ha avviato lo sviluppo di questa idea dal 2005 con il progetto Fusion poi rinominato con l’acronimo Hsa (Heterogeneous System Architecture). La prima implementazione concreta ha visto la luce nel 2011 con l’architettura Llano, mentre lo scorso anno è stata la volta di Trinity; questa è stata ottimizzata e rinominata Richland in attesa del prossimo passo verso il traguardo finale. L’obiettivo è di realizzare una famiglia di processori, adatti sia a sistemi desktop sia a quelli notebook, all’interno dei quali architetture di calcolo eterogenee – seriali (Cpu) e parallele (Gpu) – operino come una sola entità  efficientee capace di offrire il meglio delle due soluzioni. A tale scopo, nel 2012, è stato istituito il consorzio no profit Hsa Fundation che opera da agglomerante e un punto di riferimento per le specifiche tecniche, oltre a fornire supporto per la progettazione di hardware e software compatibile.

 di Michele Braga

ICON_EDICOLAL’approccio Hsa è impiegato di norma nei Soc (System on a chip) destinati a smartphone e tablet, dove tutto è ottimizzato in funzione dell’efficienza al fine di ottenere un prodotto di dimensioni compatte e dotato di buona autonomia, ma capace di eseguire applicazioni anche complesse. Un’architettura Hsa permette alle applicazioni di sfruttare a fondo tutte le risorse del processore: in particolare il core grafico è utilizzato per i calcoli in virgola mobile senza dover adottare sistemi di protezione della memoria o di scheduling per non interferire con le altre unità  di calcolo presenti nel Soc.

Portare questo tipo di architettura all’interno di un Pc dove la Cpu ha giocato e gioca ancora, sebbene in misura sempre minore, un ruolo dominante rispetto alla Gpu – ancora identificata come un acceleratore di supporto – è un percorso lungo e complesso. Il cambiamento deve avvenire in modo congiunto a livello sia hardware sia software; in caso contrario, non si otterrebbero l’efficienza e i benefici che un’architettura Hsa è in grado di fornire. In pratica l’applicazione – che deve essere scritta in modo “corretto” – può sfruttare al meglio le risorse di calcolo in base al tipo di elaborazione che deve essere svolta. Gli acceleratori – con questo temine sono identificate tutte le unità  che affiancano la Cpu classica – devono rispondere a requisiti precisi: non utilizzare un set di istruzioni (Isa, Instruction Set Architecture) rigidamente proprietario, supportare linguaggi di programmazione a alto livello, utilizzare lo stesso approccio di accesso alla memoria di sistema rispetto alla Cpu e conservare la coerenza sia della memoria di sistema sia delle cache.

Nel caso dell’architettura Amd, lo sviluppo del progetto Hsa prevede più fasi: la prima, attuata con Trinity, ha permesso di realizzare l’ottimizzazione della piattaforma attraverso l’introduzione del supporto a Gpu Compute C++, a Hsa Mmu e al sistema di controllo energetico condiviso. La seconda, che dovrebbe avvenire con Kavery alla fine di quest’anno, permetterà  di realizzare l’integrazione dell’architettura attraverso l’utilizzo della tecnologia Unified Address Space per Cpu e Gpu, la completa coerenza della memoria tra Cpu e Gpu e l’utilizzo da parte di quest’ultima degli stessi puntatori di memoria della Cpu.

La terza fase, che avverrà  non prima della fine del 2014, consisterà  nel raggiungere l’integrazione a livello di sistema, cioè un utilizzo coordinato delle risorse di calcolo in base al tipo di elaborazione da eseguire attraverso una schedulazione intelligente.

I vantaggi saranno più significativi sul fronte notebook, dove la potenza di calcolo è limitata da fattori energetici e di autonomia, ma le Apu troveranno forte impiego in computer desktop economici e anche in dispositivi di elettronica di consumo, come le prossime console Microsoft e Sony. (…)

Estratto dell’articolo pubblicato sul numero 269 di PC Professionale