Senza whitepaper e senza benchmark non possiamo dire molto
Comunque la 2070 potrebbe far gola a molti....
Senza whitepaper e senza benchmark non possiamo dire molto
Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
Forse ero sotto qualche droga pesante quando ho scritto 1999 perchè in realtà la Geffo 3 è del 2001
Non è tanto l'andare di più di poco o di tanto, si tratta di quello che la 2070 può fare e la 1080 non può fare al meglio per limiti HW.Il nabbo di turno ha scritto: ↑lunedì 20 agosto 2018, 20:44Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
Tensor Core e RT Core sono un ottima cosa, ma sono interdipendenti, solo gli RT core non sono sufficienti e serve il denoising tramite AI.Mitch ha scritto: ↑martedì 21 agosto 2018, 0:27Non è tanto l'andare di più di poco o di tanto, si tratta di quello che la 2070 può fare e la 1080 non può fare al meglio per limiti HW.Il nabbo di turno ha scritto: ↑lunedì 20 agosto 2018, 20:44Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
vero, perché ad esempio nella fase di ricerca del modello da applicare (la fase di training) puoi avere una fase di forward propagation ed una fase di back propagation. Nella fase di forward propagation fai calcoli con pesi che hai trovato durante l'iterazione precedente, nella fase di back propagation fai calcoli per controllare che il risultato ottenuto attraverso la moltiplicazione di questi pesi minimizzi una determinata funzione di errore e cerchi eventuali altri pesi per ridurre questo errore. Ottenuto il modello... La fase di back propagation non serve più e la fase di forward propagation viene eseguita una sola volta per ogni fotogramma. Questo è un metodo, ma ne esistono ovviamente altri, a seconda degli scopi.badcharms ha scritto: ↑martedì 21 agosto 2018, 9:45Tensor Core e RT Core sono un ottima cosa, ma sono interdipendenti, solo gli RT core non sono sufficienti e serve il denoising tramite AI.Mitch ha scritto: ↑martedì 21 agosto 2018, 0:27Non è tanto l'andare di più di poco o di tanto, si tratta di quello che la 2070 può fare e la 1080 non può fare al meglio per limiti HW.Il nabbo di turno ha scritto: ↑lunedì 20 agosto 2018, 20:44Andrà poco più di una 1080 con quelle specs, e di 1080 usate sono reperibili sotto i 500 euro...
Non sono un esperto, ma da quello che so l'addestramento di una rete neurale è molto più pesante che l'uso della stessa rete addestrata, in questo senso il numero dei tensor core nelle RTX può essere anche sovra abbondante per scopi consumer (video game). Certo per uno sviluppatore non doversi prendere una scheda video professionale per fare addestramento di reti è una bella comodità, ma c'è da capire quanto Nvidia metterà limiti per segmentare il mercato.
Condivido, decisamente interessantebadcharms ha scritto: ↑martedì 21 agosto 2018, 9:45Credo che più del ray tracing la cosa interessante di queste nuove VGA Nvidia sia l'aspetto AI applicato alla grafica, in particolar modo l'upsampling senza perdita significativa di qualità tramite reti neurali, con i pannelli sempre più risoluti ha molto senso investire in questo settore, le differenze tra un pixel e quello adiacente in 4k sono poche e riuscire a risparmiare risorse ad altissime risoluzioni, magari con soluzioni trasparenti allo sviluppatore possono portare a notevoli vantaggi prestazionali.
li chiamano core... ma non sono totalmente indipendenti tra loro... L'accesso alla memoria, l'unità di fetch e decode... Tutta sta roba è molto probabilmente condivisa, in modo analogo a qualsiasi altra CPU/GPU. Di conseguenza, esiste un'istruzione per indicare alla pipeline della RTX di turno, quale sia l'unità di esecuzione da fare attivare (in modo analogo all'immagine qui: Silvermont, Intel’s Low Power Architecture). Probabilmente ci sono loop o salti nella pipeline... Di sicuro non sono indipendenti! Il fuffa marketing di NVIDIA li ha voluti chiamare core. Sarebbe stato più intelligente probabilmente chiamarle unità di esecuzione.badcharms ha scritto: ↑martedì 21 agosto 2018, 9:45Per chiudere, quello che mi convince poco è l'uso di tre tipi di core differenti, mi sembra un po' un ritorno a vertex e pixel shader separati, non si sfrutterebbero meglio i transistor con un unico tipo di core con istruzioni aggiuntive per la gestione di operazioni di IA e RT? Probabilmente è troppo presto per questo tipo di implementazione, che avrebbe sicuramente il vantaggio di essere più general purpose e più facilmente adattabile a contesti differenti, ma meno performante di core dedicati.