AMD e Nvidia in ritardo sulle Gpu a 40 nm DirectX 11

I due principali produttori di schede grafiche discrete, AMD e Nvidia, sono alle prese con qualche problema di troppo con il processo produttivo a 40 nm alla base delle Gpu di prossima generazione.

fab12inr014_174.jpgLa nuova tecnologia sviluppata da Tsmc sarebbe dovuta entrare nella fase preliminare lo scorso mese di settembre, e fornire i primi prodotti entro la fine del 2008. Come invece abbiamo avuto modo di vedere i ritardi si sono accumulati continuamente, e il primo chip a 40 nm (RV740 che equipaggia la Radeon HD4770) è arrivato solo da una decina di giorni, circa 4 mesi dopo il previsto.

Se i primi piani di introduzione della prossima generazione di Gpu a 40 nm (e il contemporaneo passaggio generazionale alle DirectX 11) indicavano in precedenza l’estate o l’inizio dell’autunno per entrambe i produttori, le cose oggi sono decisamente più complicate.

AMD dovrebbe essere il primo produttore a introdurre sul mercato la nuova generazione con il chip RV870, ma solo nei mesi di ottobre/novembre, con un ritardo di almeno 4 mesi rispetto ai piani iniziali.

Nvidia d’altro canto non se la passa molto meglio, per il colosso di Santa Clara la commercializzazione delle schede GeForce con Gpu a 40 nm (GT214, GT216 e GT218) è rinviata a fine anno insieme al poco ottimismo rimasto. Secondo Jen-Hsun Huang, CEO di Nvidia, le probabilità  di riuscire a raggiungere il mercato entro Natale sono circa del 25%. La nuova generazione top di gamma nome in codice GT300 arriverà  poco dopo, ma difficilmente riuscirà  a raggiungere gli scaffali contemporaneamente alla rivale AMD.

PCProfessionale © riproduzione riservata.

8 Commenti

  1. Se ti serve la doppia precisione allora è decisamente meglio puntare su schede più “avanzate”, come le Nvidia Tesla (anche le Quadro in caso…) oppure le AMD FIreStream (oppure FirePro o FireGL).

    Sul mercato esistono schede che hanno nella doppia precisione il loro punto di forza, ma il prezzo è, solitamente, molto elevato. Per approfondire i punti di riferimento sono Nvidia Tesla e AMD FireStream. 😉

  2. @Davide: conosco MatLab (anche se non lo uso quotidianamente) ed ero anche a conoscenza di alcuni dei plug-in per cuda (Jacket non lo conoscevo ma mi sto leggendo un po’ di documentazione). Il problema (almeno per me) è che si tratta sempre di implementazioni a singola precisione, il che è un po’ tanto limitativo quando si tratta di fare simulazioni serie sperando che queste convergano. Questo è (anche) dovuto al fatto che le GPU raramente supportano in maniera nativa le doppia precisione (ci sono sviluppi in questa direzione?) ma il problema resta e non è un problema da poco.

  3. @g_andrini Says:
    Maggio 11th, 2009 at 19:12

    Le DX11 sono praticamente inutili, visto che probabilmente non si svilupperano mai giochi per queste librerie grafiche, come avvenuto per le DX10.

    Non concordo sul concetto che non sono mai state sfruttate le DX10: forse ti sei dimenticato questi titoli:

    Crysis
    Alan Wake
    BioShock
    Company of Heroes (patch)
    Age of Conan
    Halo 2 PC
    UT2007 (patch)
    Flight Simulator X
    EVE Online (patch)
    Hellgate: London

    per una lista più esaustiva e completa vi segnalo il riferimento su Wikipedia http://it.wikipedia.org/wiki/Lista_di_videogiochi_con_supporto_DirectX_10

    le DX 10 hanno apportato una grossa innovazione, soprattutto sul piano della qualità. Peccato che l’OS che doveva portarle in auge ha avuto pessima penetrazione nel mercato, per tutti i motivi che già conosciamo…

  4. Per le operazioni prettamente matematiche e simulative ti posso indirizzare su Matlab che, complice una buona schiera di sviluppatori autonomi, ha sempre più plugin in grado di sfruttare le Gpu per calcoli complessi. FDTD, matrici, autovalori e autovettori dovrebbero essere già calcolabili con le Gpu, dato il loro grande interesse in praticamente ogni campo simulativo/scientifico.
    Per Matlab esistono anche software (ad esempio Jacket) sviluppati con il preciso scopo di convertire il codice classico in altro specifico per le GPU. 😉

  5. @Davide: le applicazioni sarebbero molteplici: velocizzare le simulazioni FDTD (finite difference time domain), invertire grosse matrici, trovare autovalori ed autovettori ecc ecc
    Avevo letto che, a partire dalla versione 7 Mathematica (della Wolfram) avrebbe supportato le Cuda ma poi non ho trovato informazioni sulla documentazione ufficiale.

  6. I tasselli sono già pronti, CUDA, AMD Stream, OpenCL e DirectX 11 permettono di fare questo, mancano solo i software.
    In particolare, cosa ti interesserebbe fare con la potenza della scheda grafica?

  7. Perdonate il quasi off-topic: ma il supporto alle OpenCL (o qualcosa di analogo)? Quando potremo sfruttare la potenza delle GPU per fare calcoli scientifici non a livello solo di proof-of-concept ma per la ricerca scientifica di tutti i giorni? (magari senza dover essere laureati in informatica)

Comments are closed.