Successivo

Magazine

Calcolo ibrido

Michele Braga | 30 Luglio 2010

Preview

Dalla combinazione tra l’architettura X86 delle Cpu e quella delle Gpu prendono forma i processori di prossima generazione, in arrivo […]

CpuApe

Dalla combinazione tra l’architettura X86 delle Cpu e quella delle Gpu prendono forma i processori di prossima generazione, in arrivo a fine 2010. Ecco tutti i segreti.

A cura di Michele Braga

ICON_EDICOLAAbbiamo ormai passato la metà  dell’anno e la pausa estiva è un’ottima occasione per fare un bilancio del settore in previsione di ciò che arriverà  sul mercato nella seconda metà  del 2010 e nella prima parte del 2011. A meno di stravolgimenti di programma in corso d’opera, i prossimi mesi passeranno agli annali come quelli che hanno marcato un cambio generazionale, se non epocale, all’interno dell’architettura del Pc. Sino ad oggi siamo stati abituati a parlare di Cpu (Central Processing Unit) e Gpu (Graphics Processing Unit), ma presto dovremo abituarci al nuovo termine Apu (Accelerated Processing Unit) con il quale saranno identificati i futuri processori per sistemi desktop, notebook e server.
Per comprendere cos’è una Apu e quali sono stati i motivi che hanno spinto verso questa nuova filosofia di progetto dobbiamo fare qualche premessa. Negli ultimi 10 anni il modello di utilizzo del computer è cambiato e con esso si sono evolute anche le applicazioni e le necessità  degli utenti. Il Pc, che una volta era uno strumento prettamente dedicato alla produttività  personale, è diventato il fulcro dell’era digitale: video, film, fotografie e musica sono solo alcuni esempi di contenuti che sempre più spesso si appoggiano al mondo informatico. L’incremento di qualità  dei contenuti ha inoltre reso necessario l’utilizzo di sottosistemi di accelerazione hardware dedicati per non congestionare il processore di sistema e limitare la possibilità  di eseguire altre operazioni durante la riproduzione ad esempio di un filmato in alta definizione.
Per rispondere alla crescente richiesta di funzioni che un computer dovrebbe essere in grado di svolgere, l’industria è da sempre alla ricerca di soluzioni che permettano un incremento di prestazioni a fronte di un costo sostenibile. La famosa legge empirica formulata da Gordon Moore (uno dei fondatori di Intel) nel 1965 ha trovato nel corso di 45 anni continue conferme: il numero di transistor che possono essere integrati in un circuito è duplicata ogni due anni. La possibilità  di incrementare il numero di transistor all’interno di un processore ha permesso di sviluppare architetture via via più complesse e performanti, tanto che oggi la più economica delle Cpu moderne offre tutto il necessario per svolgere le attività  di produttività  tradizionali al costo di poche decine di euro.
La filosofia che ha accompagnato il settore fino al 2004 può essere condensata in poche parole: più MHz per avere maggiori prestazioni. Questo concetto è stato sottolineato con così tanta forza che ancora oggi i meno esperti sono convinti che a una maggiore frequenza operativa corrisponda in modo logico e in senso assoluto un maggior livello di prestazioni. Nella realtà  ciò è vero quando si considera una specifica architettura, mentre questa stessa indicazione non può essere applicata in senso generale nel momento in cui si analizzano processori di generazione o architettura differenti.
Sulla base di questa linea guida Intel e AMD hanno portato avanti per anni una vera e propria battaglia. L’architettura NetBurst sviluppata da Intel per la serie di processori Pentium 4 avrebbe dovuto permettere, secondo i piani dell’azienda di Santa Clara, di raggiungere la soglia dei 10 GHz nel corso di pochi anni. Come sappiamo le cose sono andate in modo ben diverso: la tecnologia di produzione del silicio ha mostrato di non permettere ancora il raggiungimento di queste frequenze mantenendo consumi accettabili sia in termini di corrente assorbita sia in termini di calore sviluppato durante il funzionamento.
Quando AMD e Intel si accorsero che la rincorsa frenetica ai MHz conduceva in un vicolo cieco si rese necessario trovare un approccio evolutivo completamente differente. La soluzione al problema era già  abbozzata e sotto gli occhi di tutti da molto tempo: i centri di calcolo, così come le workstation e l’emergente settore dei processori grafici avevano tutti un denominatore comune per conseguire la scalabilità  delle prestazioni, ovvero l’utilizzo di più unità  di calcolo inserite in una struttura organizzata.

(Estratto dall’articolo pubblicato sul numero 233 – agosto 2010)