▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

AMD e la piattaforma hUMA

AMD prosegue lo sviluppo della piattaforma per il calcolo eterogeneo e svela alcuni dettagli dell’architettura di memoria unificata hUMA.

Tecnologie & Trend
Lo studio e la realizzazione di processori e di una piattaforma adatta alla gestione eterogenea dei calcoli è da diverso tempo al centro degli sforzi AMD. Il chip maker ha recentemente reso nota l’architettura di memoria unificata hUMA, o heterogeneous unifom memory access, che sarà inclusa nella prossima generazione Kaveri.
Questo traguardo è il risultato di un lungo processo che ha visto la progressiva integrazione delle potenzialità di CPU e delle attuali GPU. Tutto parte dall’accesso UMA, che si riferisce al modo in cui i core attivi riconoscono e accedono alla memoria.
amd-e-la-piattaforma-huma-1.jpgTutti i processi che lavorano in modalità UMA reale condividono un singolo indirizzo di memoria. L’avvento delle GPU ha tuttavia sbilanciato questo equilibrio creando un sistema non-unifom memory access (NUMA), dove sono richieste differenti risorse per accedere ad aree differenti di memoria. Questo si traduce in una complessità di programmazione, di sincronizzazione e di traduzione degli indirizzi.
Con l’introduzione della piattaforma HSA si è riportato il comparto GPU all’interno di un’unica logica operativa, eliminando il complicato accesso alle risorse tramite GPU Computing e sviluppando una piattaforma eterogenea. Ciò consente di sfruttare in modo semplice e diretto le capacità delle CPU e delle GPU presenti nel sistema, unificando l’accesso alla RAM, a tutto vantaggio delle prestazioni. In questo senso, interviene l’architettura heterogeneous unifom memory access (hUMA).
amd-e-la-piattaforma-huma-2.jpgL’approccio consente di ottenere un accesso bidirezionale coerente alla memoria, ogni aggiornamento effettuato da un determinato processo è perciò visibile dagli altri componenti di elaborazione, siano essi parte della CPU o della GPU.
Questo assicura l’accesso all’intera area di memoria, senza restrizioni. Come anticipato, le prime varianti a beneficiare di una simile architettura saranno quelle della famiglia Kaveri a 28 nm, che dovrebbero essere disponibili nella seconda metà dell’anno.
Secondo le aspettative, le nuove unità hUMA vanteranno una maggiore facilità di programmazione e non richiederanno API specifiche, dato che tutta la logica di funzionamento è integrata in hardware.
AMD si aspetta notevoli migliorie nell’utilizzo dei sistemi moderni, nell’ergonomia generale e nelle prestazioni effettive.
amd-e-la-piattaforma-huma-3.jpgBasti pensare che in 10 anni di evoluzione informatica, le CPU sono passate da una potenza di calcolo di 12,24 GFlops a 336 GFlops, mentre le GPU, in questo caso AMD Radeon, si sono evolute da 31,2 GFlops a 4.301 GFlops.
Questo grazie all’architettura altamente parallelizzata e all’impiego di numerosi core suddivisi in moduli di calcolo strutturati. Proprio questa enorme differenza e l’impiego diretto delle GPU nelle operazioni di routine permetterebbero importanti passi in avanti nella reattività e velocità di risposta dei moderni PC.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ChannelCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Mantieniti aggiornato sul mondo del canale ICT

Iscriviti alla newsletter