[Official Thread] GPU Nvidia Volta, Turing e Ampère

Tutti i principali componenti di un computer
Rispondi
Avatar utente
Mitch
Messaggi: 10815
Iscritto il: mercoledì 30 novembre 2011, 9:24
Località: Benevento

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Mitch »

Il nabbo di turno ha scritto:
lunedì 20 agosto 2018, 20:12
Prime impressioni a caldo Mitch?
Senza whitepaper e senza benchmark non possiamo dire molto :s
Comunque la 2070 potrebbe far gola a molti.... :sisi:
"Happiness is an attitude. We either make ourselves miserable, or happy and strong. The amount of work is the same."

Avatar utente
Il nabbo di turno
Messaggi: 4101
Iscritto il: venerdì 30 agosto 2013, 19:52

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Il nabbo di turno »

Mitch ha scritto:
lunedì 20 agosto 2018, 20:21
Il nabbo di turno ha scritto:
lunedì 20 agosto 2018, 20:12
Prime impressioni a caldo Mitch?
Senza whitepaper e senza benchmark non possiamo dire molto :s
Comunque la 2070 potrebbe far gola a molti.... :sisi:
Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
In medio stat virtus!

Avatar utente
Mitch
Messaggi: 10815
Iscritto il: mercoledì 30 novembre 2011, 9:24
Località: Benevento

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Mitch »

Nuovo EVGA Precision X1 per le GPU Turing
evga_precisionx1.png
https://www.evga.com/precisionx1/
Non hai i permessi necessari per visualizzare i file allegati in questo messaggio.
"Happiness is an attitude. We either make ourselves miserable, or happy and strong. The amount of work is the same."

Avatar utente
Mitch
Messaggi: 10815
Iscritto il: mercoledì 30 novembre 2011, 9:24
Località: Benevento

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Mitch »

Mitch ha scritto:
martedì 14 agosto 2018, 12:22
1999: Nvidia passa ai pixel e vertex shader programmabili
2018: Nvidia propone il raytracing rendering in real time come il nuovo vangelo per lo sviluppo dell'architettura delle GPU
Forse ero sotto qualche droga pesante quando ho scritto 1999 perchè in realtà la Geffo 3 è del 2001 :asd:
Ma l'idea che volevo dare si è capita. xD

Comunque, per uno come me che ama le GPU, il rendering e la grafica in generale, devo confessare che durante i primi 3 minuti della presentazione Nvidia mi è scesa una lacrimuccia... :cry:

"Happiness is an attitude. We either make ourselves miserable, or happy and strong. The amount of work is the same."

Avatar utente
Mitch
Messaggi: 10815
Iscritto il: mercoledì 30 novembre 2011, 9:24
Località: Benevento

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Mitch »

Il nabbo di turno ha scritto:
lunedì 20 agosto 2018, 20:44
Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
Non è tanto l'andare di più di poco o di tanto, si tratta di quello che la 2070 può fare e la 1080 non può fare al meglio per limiti HW.
"Happiness is an attitude. We either make ourselves miserable, or happy and strong. The amount of work is the same."

Avatar utente
Mitch
Messaggi: 10815
Iscritto il: mercoledì 30 novembre 2011, 9:24
Località: Benevento

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Mitch »

Radiatore vapor chamber delle FE di Nvidia:

raddy_FE.jpg
Non hai i permessi necessari per visualizzare i file allegati in questo messaggio.
"Happiness is an attitude. We either make ourselves miserable, or happy and strong. The amount of work is the same."

badcharms
Messaggi: 65
Iscritto il: martedì 15 settembre 2015, 8:53

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da badcharms »

Mitch ha scritto:
martedì 21 agosto 2018, 0:27
Il nabbo di turno ha scritto:
lunedì 20 agosto 2018, 20:44
Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
Non è tanto l'andare di più di poco o di tanto, si tratta di quello che la 2070 può fare e la 1080 non può fare al meglio per limiti HW.
Tensor Core e RT Core sono un ottima cosa, ma sono interdipendenti, solo gli RT core non sono sufficienti e serve il denoising tramite AI.
Non sono un esperto, ma da quello che so l'addestramento di una rete neurale è molto più pesante che l'uso della stessa rete addestrata, in questo senso il numero dei tensor core nelle RTX può essere anche sovra abbondante per scopi consumer (video game). Certo per uno sviluppatore non doversi prendere una scheda video professionale per fare addestramento di reti è una bella comodità, ma c'è da capire quanto Nvidia metterà limiti per segmentare il mercato.

Credo che più del ray tracing la cosa interessante di queste nuove VGA Nvidia sia l'aspetto AI applicato alla grafica, in particolar modo l'upsampling senza perdita significativa di qualità tramite reti neurali, con i pannelli sempre più risoluti ha molto senso investire in questo settore, le differenze tra un pixel e quello adiacente in 4k sono poche e riuscire a risparmiare risorse ad altissime risoluzioni, magari con soluzioni trasparenti allo sviluppatore possono portare a notevoli vantaggi prestazionali.

Per chiudere, quello che mi convince poco è l'uso di tre tipi di core differenti, mi sembra un po' un ritorno a vertex e pixel shader separati, non si sfrutterebbero meglio i transistor con un unico tipo di core con istruzioni aggiuntive per la gestione di operazioni di IA e RT? Probabilmente è troppo presto per questo tipo di implementazione, che avrebbe sicuramente il vantaggio di essere più general purpose e più facilmente adattabile a contesti differenti, ma meno performante di core dedicati.

Avatar utente
Mitch
Messaggi: 10815
Iscritto il: mercoledì 30 novembre 2011, 9:24
Località: Benevento

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Mitch »

@badcharms
Indubbiamente la 2080Ti stuzzica anche gli sviluppatori perchè (da quel che mi sembra di capre) ha lo stesso rapporto RT / Tensor Cores / SM delle Quadro. Per il resto aspettiamo di avere maggiori info. Nvidia ha fatto delle scelte ... rischiose o coraggiose staremo a vedere.
"Happiness is an attitude. We either make ourselves miserable, or happy and strong. The amount of work is the same."

Avatar utente
Sasha
Messaggi: 5501
Iscritto il: venerdì 25 gennaio 2013, 20:28
Località: Roma

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Sasha »

badcharms ha scritto:
martedì 21 agosto 2018, 9:45
Mitch ha scritto:
martedì 21 agosto 2018, 0:27
Il nabbo di turno ha scritto:
lunedì 20 agosto 2018, 20:44
Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
Non è tanto l'andare di più di poco o di tanto, si tratta di quello che la 2070 può fare e la 1080 non può fare al meglio per limiti HW.
Tensor Core e RT Core sono un ottima cosa, ma sono interdipendenti, solo gli RT core non sono sufficienti e serve il denoising tramite AI.
Non sono un esperto, ma da quello che so l'addestramento di una rete neurale è molto più pesante che l'uso della stessa rete addestrata, in questo senso il numero dei tensor core nelle RTX può essere anche sovra abbondante per scopi consumer (video game). Certo per uno sviluppatore non doversi prendere una scheda video professionale per fare addestramento di reti è una bella comodità, ma c'è da capire quanto Nvidia metterà limiti per segmentare il mercato.
vero, perché ad esempio nella fase di ricerca del modello da applicare (la fase di training) puoi avere una fase di forward propagation ed una fase di back propagation. Nella fase di forward propagation fai calcoli con pesi che hai trovato durante l'iterazione precedente, nella fase di back propagation fai calcoli per controllare che il risultato ottenuto attraverso la moltiplicazione di questi pesi minimizzi una determinata funzione di errore e cerchi eventuali altri pesi per ridurre questo errore. Ottenuto il modello... La fase di back propagation non serve più e la fase di forward propagation viene eseguita una sola volta per ogni fotogramma. Questo è un metodo, ma ne esistono ovviamente altri, a seconda degli scopi.

Questo non significa però che se hai X tensor core utilizzati durante la fase di training, te ne servono di meno durante la fase di applicazione del modello. Poiché la fase di forward propagation è sempre quella, più ne hai/riesci ad utilizzare, meglio è nell'ottica di latenza per l'esecuzione dell'algoritmo e quindi maggiore sarà il framerate finale.
badcharms ha scritto:
martedì 21 agosto 2018, 9:45
Credo che più del ray tracing la cosa interessante di queste nuove VGA Nvidia sia l'aspetto AI applicato alla grafica, in particolar modo l'upsampling senza perdita significativa di qualità tramite reti neurali, con i pannelli sempre più risoluti ha molto senso investire in questo settore, le differenze tra un pixel e quello adiacente in 4k sono poche e riuscire a risparmiare risorse ad altissime risoluzioni, magari con soluzioni trasparenti allo sviluppatore possono portare a notevoli vantaggi prestazionali.
Condivido, decisamente interessante :D
badcharms ha scritto:
martedì 21 agosto 2018, 9:45
Per chiudere, quello che mi convince poco è l'uso di tre tipi di core differenti, mi sembra un po' un ritorno a vertex e pixel shader separati, non si sfrutterebbero meglio i transistor con un unico tipo di core con istruzioni aggiuntive per la gestione di operazioni di IA e RT? Probabilmente è troppo presto per questo tipo di implementazione, che avrebbe sicuramente il vantaggio di essere più general purpose e più facilmente adattabile a contesti differenti, ma meno performante di core dedicati.
li chiamano core... ma non sono totalmente indipendenti tra loro... L'accesso alla memoria, l'unità di fetch e decode... Tutta sta roba è molto probabilmente condivisa, in modo analogo a qualsiasi altra CPU/GPU. Di conseguenza, esiste un'istruzione per indicare alla pipeline della RTX di turno, quale sia l'unità di esecuzione da fare attivare (in modo analogo all'immagine qui: Silvermont, Intel’s Low Power Architecture). Probabilmente ci sono loop o salti nella pipeline... Di sicuro non sono indipendenti! Il fuffa marketing di NVIDIA li ha voluti chiamare core. Sarebbe stato più intelligente probabilmente chiamarle unità di esecuzione.

E no, non ha senso avere unità di esecuzione General Purpose. Ha avuto senso unificare gli shader perché all'epoca vertex e pixel shader venivano utilizzati in fasi alterne durante la creazione di un frame. Quindi unificarli avrebbe permesso di aumentare l'utilizzo dei transistor in ogni frame. Ma qui, Ray Tracing e Tensor Core non è che vengano utilizzati nella stessa percentuale dei CUDA core durante la creazione di un fotogramma... In futuro si vedrà, per ora ha senso averle come unità dedicate.

Avatar utente
Mitch
Messaggi: 10815
Iscritto il: mercoledì 30 novembre 2011, 9:24
Località: Benevento

Re: [Official Thread] GPU Nvidia Volta e (rumour) Ampère/Turing

Messaggio da Mitch »

L'EVGA RTX 2080 Ti RCX3 è praticamente un panino triple-slot :O

Immagine
Immagine

https://www.cowcotland.com/news/63717/g ... -evga.html
"Happiness is an attitude. We either make ourselves miserable, or happy and strong. The amount of work is the same."

Rispondi