Nvidia si prepara a lanciare sul mercato il chip Tegra K1 “Denver” a 64-bit entro la fine dell’anno mentre la corrispettiva versione quad-core a 32 bit è già disponibile su alcuni terminali (Xiaomi MiPad in primis). La casa di Santa Clara ha voluto esplicitare le caratteristiche tecniche principali che contraddistinguono il nuovo chip. Vediamole insieme.

Anzitutto il SoC Tegra K1 “Denver” è composto da una CPU dual-core customizzata da Nvidia ma basata sull’architettura ARMv8 (a 64-bit dunque), mentre la CPU è la medesima già vista sul fratello minore: 192 core Kepler. I due chip Tegra K1 a 32 e 64 bit sono “pin compatibili” e quindi intercambiabili sul medesimo socket.

La microarchitettura superscalare 7-way (ovvero che esegue sette micro-istruzioni per ciclo di clock), unita ad una cache L1 da 128KB per le istruzioni e 64 KB per i dati – con in più una cache L2 da 2 MB -, garantiscono un elevato throughput (quantità di dati trasmessi in una data unità di tempo) single core.

Altra caratteristica interessante è l’adozione della tecnologia Dynamic Code Optimization che, in pratica, ottimizza il codice utilizzato più frequentemente in modo da migliorare le prestazioni e ridurre i consumi. Il codice ottimizzato viene poi conservato in una memoria dedicata da 128 MB. Dynamic Code Optimization è compatibile con tutte le applicazioni ARM e non necessita di alcun intervento da parte degli sviluppatori.

Denver-Hot-Chips-Core

Le prestazioni, stando a quanto riferito da Nvidia, non hanno rivali nella gestione delle applicazioni sia single-thread che multi-thread; anche l’esecuzione di più programmi in contemporanea (multitasking) è stata curata ottimamente.  Il risparmio energetico viene garantito grazie alla gestione dinamica di clock e voltaggi.

Nvidia assicura che il SoC Tegra K1 “Denver” riuscirà a portare prestazioni da PC all’interno del mondo mobile, senza gravare eccessivamente sui consumi energetici. Gli sviluppatori sono inoltre al lavoro per rendere “portare” Android L sulla nuova piattaforma hardware.

Non vediamo l’ora di poter testare con mano il lavoro svolto da Nvidia.

Via