Con l'architettura Kepler anche nVidia ha deciso di portare la tecnica DVFS (Dynamic Voltage and Frequency Scaling) nel mondo GPU. Questa tecnica è presenta da diverso tempo nel settore CPU e consente di adattare la frequenza ed il voltaggio operativo dei core in maniera dinamica a seconda dell'utilizzo, arginando i limiti di TDP.
Il nome scelto da Nvidia è GPU Boost ed il suo funzionamento è descritto nelle nostre pagine a questo indirizzo. Anche AMD ha una tecnica simile per le GPU - introdotta due anni fa con la serie HD 6900 e chiamata Powertune - che però si discosta per un'implementazione ed un fine diverso. Invece di monitorare in via analogica il consumo ed il voltaggio dalla sezione di alimentazione per combinare questi parametri con la lettura della temperatura della GPU e aumentare le frequenze di clock e di conseguenza le prestazioni, AMD utilizza un sistema completamente programmabile (digitale) che, insieme all'analisi in presa diretta di consumi, temperature e carico di lavoro, sfrutta complicati algoritmi di predizione per pianificare ed attuare scenari di funzionamento in tempo reale che mantengano costanti le prestazioni in qualsiasi condizione di utilizzo.
La scelta di AMD ha uno scopo ben preciso: assicurare che tutti i chip prodotti (ad esempio Tahiti XT) offrano le stesse prestazioni, indipendentemente dalla selezione e dalla resa. Nvidia con il GPU Boost non può garantire questo, perchè le variabili in gioco sono troppe (differenze di leakage tra chip e chip, condizioni di funzionamento diverse, temperature, tensioni, reffreddamento). Ecco perchè la casa di Santa Clara indica un valore medio di GPU Boost che equivale un po' ad ammettere che due GTX 680 non andranno mai uguale al 100%, anche a default.
Semplificando: quello di nVidia è un metodo indeterministico e quello di AMD un metodo deterministico.
Tra i pro e i contro di queste scelte bisogna ammettere che la tecnica di Nvidia è la più semplice da implementare (bastano pochi sensori ed il gioco è fatto) e agli occhi dell'utente è quella che dà maggiori risultati (la scheda si auto-overclocca). Sicuramente migliorerà con la prossima generazione di GPU se si troverà un modo per risolvere la "disparità" di risultato. La stessa AMD potrebbe adottarlo sulle proprie GPU trasformando il Powertune in un Boost controllato.
Come abbiamo visto nei precedenti test 3D, il nostro sample di GTX 680 è decisamente "fortunato" (probabilmente una GPU selezionata appositamente da Nvidia) e riesce a mantenere quasi sempre una frequenza di GPU boost vicina ai 1100MHz (50MHz sopra la media), ma non è detto questo si verifichi anche sui modelli retail o comunque su tutti gli esemplari.