Feature: GPU Boost 2.0, Display OC e calcoli DP
La GTX Titan sfoggia la prima evoluzione della tecnologia di overclock dinamico GPU Boost introdotta lo scorso anno con la GTX 680. Ricordiamo che si tratta di sistema per migliorare le prestazioni della scheda andando ad aumentare in automatico la frequenza di funzionamento del chip grafico. L'incremento è ovviamente circoscritto da determinati parametri di funzionamento.
Sulla GTX 680 i parametri rilevati dal GPU Boost sono quelli di consumo, temperatura e carico ma di questi solo uno è il fattore principale che determina l'operazione di auto-overclock: il consumo. Nel caso ideale, fissato un limite alla potenza assorbita, la scheda tende a lavorare sempre al massimo del TDP e non incrementa ulteriormente il clock anche quando sussistono le condizioni e ci sono le risorse per farlo. Con il GPU Boost 2.0 della GTX Titan il ruolo da protagonista del power target è sostituito dalla temperatura.
Se la scheda non supera un determinato valore di temperatura (80°C nel caso specifico) la frequenza di funzionamento continua a salire e può esser accompagnata da un piccolo overvolt per raggiungere una maggiore stabilità. Ovviamente il punto di TDP massimo c'è sempre ma in questo caso è meno trasparente, calcolato sempre ai margini del power draw. Questa nuova implementazione consente, qualora si utilizzi un sistema di raffreddamento a liquido, di ottenere un boost prestazionale decisamente interessate.
GPU Boost 2.0 è accompagnato da una nuova funzione che adesso consente di modificare direttamente la tensione di alimentazione della GPU. Si tratta di un'opzione software disabilitata di default (da Nvidia) e abilitata/disabilitata via vBIOS (dai partner AIB) che consente di superare il range di auto-overvolt del sistema.
Nonostate queste migliorie, restano ancora valide le considerazione che abbiamo fatto in passato sul sistema GPU Boost, che rimane un metodo indeterministico perchè non offre la possibilità di valutare il prodotto in maniera continua e isolata dal cotesto di funzionamento, ma che risulta tremendamente efficiente in quanto consente di sfruttare tutte le risorse a disposizione per spremere le performance della scheda.
Dopo l'Adaptive Vsync, introdotto sempre con la GTX 680, tra le novità proposte da Nvidia per migliorare l'esperienza di gioco sulla GeForce GTX Titan troviamo il Display Overclocking. Si tratta di una nuova feature del pacchetto delle tecnologia VSync sperimentato dai programmatori della casa di Santa Clara che va ad aumentare la frequenza di aggiornamento del monitor collegato alla scheda, giocando sul margine di overclock dei pixel lasciato quasi sempre attivo dai produttori di display LCD per PC.
Al pari dell'Adaptive Vsync, anche questa particolare funzionalità sarà successivamente abilitata su tutte le soluzioni della famiglia GeForce GTX con un semplice aggiorna dei driver.
Chiudiamo queste preview parlando della funzione di calcolo in double precision. Il chip GK110 sulle Tesla è un mostro di potenza computazionale e nel trapiantarlo su una GeForce Nvidia ha saggiamente deciso di mantenere una finestra aperta per questa funzione specifica per i programmatori e per l'ambiente CUDA in generale.
Di default la GTX Titan opera con il rapporto ridotto 1/24 della potenza in double precision (DP/SP, simile alla GTX 680 per intenderci) ma abilitando l'apposita funzione "CUDA – Double Precision", dal pannello driver, il rapporto sale alla configurazione Tesla (1/3, 64 DP CUDA Cores per SMX). In questa seconda modalità la frequenza di clock della GPU viene ridotta per non mettere in difficolta le ben più costose schede professionali della serie Tesla K20.