La presentazione ufficiale delle GeForce RTX 3000 ha messo la parola fine a una furibonda stagione di indiscrezioni, confermandone parecchie e smentendone qualcuna. Si parla comunque di buone notizie, nella maggior parte dei casi, a cominciare dalla potenza per arrivare ai prezzi che non sono scesi, almeno per i modelli consumer, ma sono diventati più convenienti grazie a prestazioni a quanto pare nettamente superiori al passato e grazie al riposizionamento di tutti i modelli.
Nessuna Titan, per ora, ma una GeForce RTX 3090 da 24 GB e 1549 euro di prezzo che, disponibile dal 24 settembre e pensata per l'8K a 60fps, la sostituisce abbassando la spesa e andando a strizzare l'occhio al segmento creator, laddove si fondono il gaming e l'ambito professionale. Non fa parte quindi, cosa sottolineata dal fatto che sia l'unica a supportare il multi-GPU con un connettore NVLink 3, del segmento consumer dove nel ruolo di ammiraglia troviamo la RTX 3080 che, pensata per il 4K a 60fps e oltre e in arrivo il 17 settembre a 719 euro, promette prestazioni doppie rispetto a una 2080 e con un prezzo di lancio più basso sul mercato italiano. Ed è un qualcosa che ritroviamo con la RTX 3070, una scheda per il 1440p ad alto framerate che, in arrivo a ottobre con un prezzo di 519 euro, promette una potenza leggermente superiore rispetto a una RTX 2080 Ti e punta senza alcun dubbio a infastidire le nuove console, intercettando anche una buona parte di quelli che hanno saltato la serie 2000, in un mondo in cui il PC da gioco è in costante crescita. Non si sa nulla, invece, della RTX 3060, ma ci aspettiamo comunque prestazioni e prezzi in linea con quelli delle sorelle maggiori.
Stesso prezzo, maggiore potenza
Nel paragonare le nuove schede a quelle del passato, NVIDIA ha tenuto conto anche delle prestazioni legate al DLSS (Deep Learning Super Sampling) e al ray tracing, cosa che rende difficile stimare il salto prestazionale puro a partire dai benchmark. Anche perché se l'architettura Ampere è un'evoluzione di quella Turing, il numero di Tensor Core e di RT Core, che sono rispettivamente legati al deep learning e all'accelerazione hardware del ray tracing, è aumentato, garantendo un'ulteriore spinta alle prestazioni quando questi sono chiamati in causa. Il problema è che non sono sempre sfruttati, anche se il supporto è in rapido aumento e con l'evoluzione delle console e dei motori grafici dovrebbe crescere rapidamente. In ogni caso i dati diffusi da NVIDIA includono la stima della potenza delle GPU in ogni singolo campo, cosa che ci permette di valutare le differenze in termini di capacità tra le nuove schede, e le percentuali legate all'aumento effettivo di potenza che ci consentono di raffrontarle a quelle passate anche nei titoli privi di supporto per le tecnologie RTX.
La buona notizia è che l'incremento prestazionale appare netto in ogni caso. Per la GeForce RTX 3080 di prestazioni doppie rispetto alla RTX 2080, presumibilmente con le tecnologie RTX attive, ma si parla anche di una potenza bruta di 30-40 punti percentuali superiore a quella di una RTX 2080 Ti. Una scheda superata anche dalla RTX 3070, a quanto pare più potente del 60% di una RTX 2070, e inevitabilmente distrutta dalla RTX 3090, che dovrebbe superare del 50% una costosissima Titan. Abbastanza da mandarla in pensione chiudendo un quadro che promette un incremento di potenza ben più ampio di quello visto con Turing su Pascal. Certo, l'architettura precedente si è fatta carico di introdurre nuove e costose tecnologie, ma visto lo scarso supporto iniziale e la qualità non eccelsa della prima versione del DLSS, l'attenzione si è spostata sui prezzi. Un errore che NVIDIA non ha ripetuto, ammortizzando la spesa dei nuovi dissipatori di lusso dei modelli di fascia alta con l'adozione dei transistor a 8 nanometri Samsung, derivati da quelli a 10 nanometri e più economici ma comunque sufficienti perché la nuova architettura possa vantare un rapporto tra efficienza e prestazioni doppio rispetto a Turing.
Purtroppo non tutte le nuove schede NVIDIA godono di un dissipatore di nuova generazione: dotato di una ventola frontale e una posteriore pensate per aumentare il flusso d'aria fino al 55%, sarebbe stato difficile ammortizzarne il prezzo sulla RTX 3070. Lo troviamo invece in versione gigante sull'enorme RTX 3090, una scheda da tre slot che non a caso viene chiamata Big Ferocious GPU, e lo troviamo ovviamente sulla RTX 3080, che per ora ricopre il ruolo di ammiraglia della famiglia consumer, con benefici evidenti, almeno su carta. NVIDIA ha infatti snocciolato numeri altisonanti garantendo 20 gradi in meno e una rumorosità tre volte inferiore rispetto a quello delle schede Turing, arrivando a promettere 30 gradi in meno e rumorosità ridotta di 10 volte per la RTX 3090. Sulla RTX 3070 troviamo invece una doppia ventola in stile RTX 2000, anche se reinterpretata per essere coerente con l'estetica delle nuove GeForce, massicce, eleganti e con una grossa X alla X-Men nel centro. Comunque anche per quella che attualmente è il fanalino di coda della famiglia, ci aspettiamo comunque rumorosità e temperature inferiori, se non altro rispetto alla RTX 2080 Ti, grazie ai nuovi transistor e a ottimizzazioni su un raffreddamento già superiore a quelli a singola ventola del passato.
Specifiche e potenza nominale
L'evoluzione della tecnologia NVIDIA passa sia per l'hardware che per il software, a partire dall'aumento di transistor che per la RTX 3080 e la RTX 3090, basate su due versioni della GPU Ampere GA102, sono ben 28 miliardi. Un numero enorme che si traduce in 10496 CUDA Core per la RTX 3090, 8704 CUDA Core per la RTX 3080 e 5888 CUDA Core per la RTX 3070 che in questo caso straccia anche una RTX Titan, lasciando immaginare un potenziale addirittura superiore a quello dichiarato da NVIDIA. Per quest'ultima però scende la frequenza base, che pur toccando 1730MHz in boost parte da 1500MHz, mentre sale per le sorelle maggiori che arrivano a 1440MHz per la RTX 3080, capace di toccare i 1710MHz in boost, e a 1400MHz, per la RTX 3090 che in boost tocca quota 1700MHz. Ma ci sono altri fattori concorrenti che frenano una scheda e ce ne sono altri ancora a determinare incrementi prestazionali che in questo caso si basano anche su Shader, RT Core e Tensor Core di nuova generazione, con gli ultimi due che promettono il doppio in termini di rapporto tra prezzo ed efficienza di quelli della generazione precedente.
In termini numerici NVIDIA indica una potenza FP32 doppia rispetto alla generazione precedente per gli SM (streaming multiprocessor), snocciolando stime di potenza che non sono facili da leggere in termini prestazionali ma che come abbiamo anticipato ci danno modo di rapportare tra loro le tre RTX 3000 presentate da NVIDIA. Secondo quanto leggiamo la RTX 3080 ha a disposizione 30 TFLOP di potenza per gli Shader, 58 TFLOP per il raytracing e 238 TFLOP quando si parla di Tensor Core e quindi di deep learning. La RTX 3070 si ferma invece a 20 TFLOP (Shader), 40 TFLOP (RT Core) e 163 TFLOP (Tensor Core), mentre la RTX 3090 si invola fino a 36 TFLOP (Shader), 69 TFLOP (RT Core) e 285 TFLOP (Tensor Core), con una potenza complessiva che dovrebbe essere del 20% superiore a quella della RTX 3080. Non proprio un abisso, quindi, nonostante il gran divario di prezzo che trova però giustificazione nei 24 GB di memoria GDDR6X da 19,5 Gbps con bus a 384-bit contrapposti ai 10 GB di GDDR6X da 19 Gbps con bus a 320-bit della RTX 3080 e agli 8 GB con bus a 256-bit della RTX 3070, che tra l'altro si accontenta di GDDR6 da 16 Gbps. Ma non dovrebbero essere un freno per la scheda, con ottimizzazioni che garantiscono comunque una banda di 512 Gbps che sale a 760 Gbps per la sorella maggiore e arriva a ben 936 Gbps per l'erede della Titan.
Tra le novità accessorie troviamo invece l'interessante tecnologia NVIDA RTX IO che cambia il panorama della decompressione dei dati per eliminare i colli di bottiglia dagli SSD, permettendo caricamenti istantanei in modo simile a quanto avviene nelle console di nuova generazione Microsoft e Sony, a patto ovviamente che abbiano una velocità sufficiente, rendendo tra l'altro utile il supporto PCIe 4.0. Resta invece da vedere se la nuova interfaccia possa portare benefici tangibili con le nuove RTX che ovviamente lo supportano ma, almeno nel caso della 3080 e 3070, non dovrebbero esserci grossi problemi anche con gli slot PCIe 3.0. Lo scopriremo presto, comunque, curiosi di provare le nuove schede video NVIDIA che su carta promettono un aumento netto nel rapporto tra prezzo e potenza, elevando la qualità di ogni singolo comparto. Oltre a montare un dissipatore superiore godono infatti di rifiniture meccaniche e di un PCB decisamente più compatto che facilita il raffreddamento. Sembrano quindi poter garantire effettivamente temperature sensibilmente inferiori, nonostante l'incremento prestazionale. Ma quest'ultimo ha comunque un prezzo che, combinato con i transistor a 8 nanometri, si traduce in consumi elevati.
Oltre la potenza: dai consumi al supporto
In quanto a consumi la GeForce RTX 3070 se la cava piuttosto bene, con 220W, ma la RTX 3080 arriva ai 320W vociferati mentre la RTX 3090 tocca quota 350W. Per questo NVIDIA ha deciso di adottare un nuovo connettore da 12-pin che riduce il numero di cavi necessari per l'alimentazione di schede affamate di energia. Risulta però compatibile con qualsivoglia alimentatore, tramite adattatore, e non è stato scelto da tutti i costruttori. Alcuni infatti hanno già ufficializzato modelli custom dotati di classici connettori a 8-pin, fino a tre per le schede più spinte. MSI ha anche confermato il passaggio al raffreddamento TORX 4.0 ma non è l'unica ad aver spinto sulla dissipazione, forse anche per restare in pari con quella avanza di NVIDIA, con ASUS che ha lavorato sulle sue tecnologie per garantire il massimo, rivedendo anche l'estetica dei modelli come risulta evidente dalla ROG Strix GeForce RTX 3080 in foto. Sono già in arrivo, inoltre, le lineup Colorful, EVGA, Gainward, Galaxy, GIGABYTE, Innovision 3D, MSI, Palit, PNY e ZOTAC, mentre ACER, Alienware, ASUS, Dell, Dell, HP, Lenovo e MSI sono pronte per aggiornare i loro preassemblati.
ASUS tra l'altro è la prima ad aver tirato fuori uno dei nuovi monitor 1080p dal refresh di 360Hz che, in arrivo anche da Alienware e ACER, ora è alla portata anche di schede di fascia medio-alta visto il balzo della RTX 3070. Il prezzo del ROG Swift 360Hz PG259QN è di 699 dollari, ma promette, in combinazione con ottimizzazioni come NVIDIA Reflex a breve implementato su Destiny 2, una latenza complessiva di 12,3 millisecondi, inclusi i 2 millisecondi di ritardo del mouse. Abbastanza insomma per ridurre al minimo l'impatto del sistema sui riflessi dei giocatori più reattivi del pianeta. Ma ci sono novità anche per chi lavora con la decodifica AV1 che dimezza la banda per il video HDR in 8K, ovviamente supportato dalla connessione HDMI 2.1, che rientra in una serie di funzionalità intriganti tra cui i miglioramenti al già preciso NVIDIA Broadcast, ora capace di eliminare anche i suoni di sottofondo, e l'evoluzione della possibilità di usare motori di gioco per fare film con OMNIVERSE MACHINIMA.
Con NVIDIA Studio invece il deep learning viene applicato alle animazioni dei capelli, alle espressioni, ai tessuti, al pathfinding e alla trasformazione di ambienti reali in mondi di gioco fotorealistici, anche a partire da semplici filmati. Un qualcosa che ha dato vita alla nuova versione della demo di Marbles, ancora pesante con 1440p, ma probabilmente destinata a diventare più digeribile anche in questa generazione grazie all'evoluzione del deep learning applicato ai videogiochi, un valore aggiunto notevole come evidenziato dai miglioramenti del DLSS. Non ha invece problemi Fortnite, che grazie al motore leggero esalta l'applicazione massiccia della tecnologia, e non pare averne Call of Duty: Black Ops Cold War, che non sembra però abusare della tecnologia a differenza di Cyberpunk, un titolo massiccio ma che sfrutta il ray tracing per quasi tutto, pur limitando probabilmente risoluzione degli effetti e portata per evitare che risulti eccessivamente pesante. Ma ci aspettiamo che nei prossimi anni il livello salga ulteriormente, sfruttando la potenza di una nuova generazione di schede video che, almeno su carta, non ci ha deluso. Ed è anche per questo che non vediamo l'ora di provarle.