AMD e la piattaforma hUMA

AMD prosegue lo sviluppo della piattaforma per il calcolo eterogeneo e svela alcuni dettagli dell’architettura di memoria unificata hUMA.

Autore: Daniele Preda

Lo studio e la realizzazione di processori e di una piattaforma adatta alla gestione eterogenea dei calcoli è da diverso tempo al centro degli sforzi AMD. Il chip maker ha recentemente reso nota l’architettura di memoria unificata hUMA, o heterogeneous unifom memory access, che sarà inclusa nella prossima generazione Kaveri.
Questo traguardo è il risultato di un lungo processo che ha visto la progressiva integrazione delle potenzialità di CPU e delle attuali GPU. Tutto parte dall’accesso UMA, che si riferisce al modo in cui i core attivi riconoscono e accedono alla memoria.
Tutti i processi che lavorano in modalità UMA reale condividono un singolo indirizzo di memoria. L’avvento delle GPU ha tuttavia sbilanciato questo equilibrio creando un sistema non-unifom memory access (NUMA), dove sono richieste differenti risorse per accedere ad aree differenti di memoria. Questo si traduce in una complessità di programmazione, di sincronizzazione e di traduzione degli indirizzi.
Con l’introduzione della piattaforma HSA si è riportato il comparto GPU all’interno di un’unica logica operativa, eliminando il complicato accesso alle risorse tramite GPU Computing e sviluppando una piattaforma eterogenea. Ciò consente di sfruttare in modo semplice e diretto le capacità delle CPU e delle GPU presenti nel sistema, unificando l’accesso alla RAM, a tutto vantaggio delle prestazioni. In questo senso, interviene l’architettura heterogeneous unifom memory access (hUMA).
L’approccio consente di ottenere un accesso bidirezionale coerente alla memoria, ogni aggiornamento effettuato da un determinato processo è perciò visibile dagli altri componenti di elaborazione, siano essi parte della CPU o della GPU.
Questo assicura l’accesso all’intera area di memoria, senza restrizioni. Come anticipato, le prime varianti a beneficiare di una simile architettura saranno quelle della famiglia Kaveri a 28 nm, che dovrebbero essere disponibili nella seconda metà dell’anno.
Secondo le aspettative, le nuove unità hUMA vanteranno una maggiore facilità di programmazione e non richiederanno API specifiche, dato che tutta la logica di funzionamento è integrata in hardware.
AMD si aspetta notevoli migliorie nell’utilizzo dei sistemi moderni, nell’ergonomia generale e nelle prestazioni effettive.
Basti pensare che in 10 anni di evoluzione informatica, le CPU sono passate da una potenza di calcolo di 12,24 GFlops a 336 GFlops, mentre le GPU, in questo caso AMD Radeon, si sono evolute da 31,2 GFlops a 4.301 GFlops.
Questo grazie all’architettura altamente parallelizzata e all’impiego di numerosi core suddivisi in moduli di calcolo strutturati. Proprio questa enorme differenza e l’impiego diretto delle GPU nelle operazioni di routine permetterebbero importanti passi in avanti nella reattività e velocità di risposta dei moderni PC.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.