Cosa c'è di nuovo?
HWReload

Registrati e partecipa alle attività del forum

  • Cari amici, il 10 marzo 2021 un incendio ha distrutto il datacenter OVH che ospitava i nostri server facendoci perdere tutto il lavoro fatto in questi anni.
    Speriamo di poter ripristinare quanto prima i contenuti. Se avevate un account è andato perso quindi vi chiediamo di registrarvi nuovamente.
    Vogliate scusarci per il disagio e grazie per la comprensione.

GUIDA GPU e Scheda Video - Cos'è? Come funziona?

R3d3x

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
66
GPU e Scheda Video - Cos'è? Come funziona?



Livello di Conoscenza: Base
1. Conoscenze di base di GPU e Graphics Card

GPU
è l'acronimo inglese per Graphics Processing Unit tradotto è Unità di Elaborazione Grafica.

La GPU è quindi il nucleo delle schede video (sebbene spesso si usi il termine GPU come Sineddoche - figura retorica nel nominare una parte per il tutto - per l'intera Scheda Video), definito anche come processore grafico o coprocessore, la cui funzione è il rendering (dall'inglese interpretazione/traduzione/esecuzione) delle immagini grafiche che noi rivediamo sullo schermo.


↑ Qui una scheda video NVIDIA GTX 1080Ti denudata (naked) di Heatsink e Ventole, al centro possiamo vedere la GPU​

La Graphics Card o Video Card (dall'inglese Scheda Grafica, Scheda Video) contiene quasi un altro PC al suo interno quindi la GPU, la memoria, e tanto altro utile ai fini dell'elaborazione, dell'alimentazione della stessa e al suo raffreddamento.


↑ GPU-Z in esecuzione​

Il programma più adatto per guardare tutte le specifiche della nostra scheda video è GPU-Z. È un Must Have tra i propri programmi come per CPU-Z. Durante le varie spiegazioni vedremo sempre i vari riferimenti al programma in modo tale da riuscire a capire a cosa serve ogni valore.

1.1 Schede Video Dedicate ed Integrate


↑ Inserimento nello slot PCIe di una scheda video​

Sappiamo che esistono schede video dedicate ovvero una scheda fisica che va aggiunta al PC in collegamento tramite gli slot PCIe (quegli slot posti sulla scheda madre dove solitamente alloggiano le schede video o le altre periferiche connesse tramite PCIe), ed una scheda video integrata che è invece integrata nel package (tradotto in confezione/pacco sarebbe l'intero involucro esterno che racchiude il tutto) del processore. Quest'ultime sono famose come iGPU (acronimo di integrated GPU con il quale si identificano le GPU integrate) vanno menzionate soprattutto le Intel Graphics e le APU (acronimo per Accelerated Processing Unit) di AMD.
Non molti lo sanno ma due delle più potenti APU sono utilizzate sulle console come ad esempio la PS4 Pro (APU Jaguar Neo) e Xbox One X (APU Jaguar Scorpio).

Infine abbiamo anche delle soluzioni doppie con un rapido switch automatico da una soluzione ad un altra come nel caso dei notebook, opzione che può essere resa manuale tramite il BIOS (passando quindi da un opzione dinamica ad una fissa); in questo caso si passa dall'utilizzo della iGPU per applicativi leggeri, all'utilizzo della scheda video dedicata e saldata alla piastra madre per applicativi più pesanti come rendering, gaming etc.

1.2 Competitor, Scopi delle GPU e Famiglie


Attualmente i maggiori competitor in GPU sono: NVIDIA Corporation, AMD (Advanced Micro Devices) ed Intel.
Prima ne esistevano molti di più, ma sono stati schiacciati dalla concorrenza non riuscendo a tenere il passo. Alcune sono fallite, altre hanno semplicemente abbandonato questa lotta pur rimanendo nello stesso campo. Ricordiamo tra queste: ATI (acquisita da AMD nel 2006 e rimasta con questo nome fino al 2010), Matrox (Ancora oggi, sviluppa schede video professionali e non più da gaming), 3dfx (famose sono le Voodoo le prime GPU accelerate 3D e inventori del primo SLI, che fu assorbita da NVIDIA nel 2001), SIS, VIA, etc.

Le GPU hanno principalmente 3 scopi oltre quello base di mandare a video le informazioni della CPU: Gaming, Editing e General-Purpose (GP-GPU).
Sebbene i primi due siano facilmente immaginabili, il terzo è un genere differente di scopo infatti le GPGPU non hanno uscite video come le restanti poiché si prestano ad altri scopi, vengono utilizzate per l'esecuzione di calcoli paralleli particolarmente complessi come: criptovalute (mining), matematica e sicurezza (crittografia), fisica (meccanica quantistica), chimica e biologia (modellazione proteica), astronomia e astrofisica (decodifica segnali spaziali), calcolo distribuito (BIONIC) etc.


Distinguiamo le famiglie di NVIDIA in: GeForce per Gaming, Quadro per Editing e Tesla per General Purpose.
Distinguiamo le famiglie di AMD in: RX Vega per uso base integrate nelle APU, Radeon per Gaming e Radeon Pro (probabilmente prima più famose come FirePro) per Editing e FireStream per General Purpose.
Distinguiamo le famiglie di Intel in: Intel Graphics per uso base integrate nei processori Intel e Xeon Phi per General Purpose.

Qui direi di accennare ad una curiosità: le Adreno (GPU degli smartphone con SoC Qualcomm) furono inizialmente sviluppate da ATI con il nome Imageon, questo prima del 2006 con l'acquisizione da parte di AMD. Nel 2009 dopo che AMD vendette la divisione, Qualcomm decise di rinominare queste GPU con l'anagramma della parola Radeon, ovvero Adreno.

1.3 Schede Video Reference e Schede Video Custom sviluppate dai Partner



↑ In alto vediamo una EVGA GTX 1080 (Custom), in basso vediamo una NVIDIA GTX 1080 (Reference)​

Bene queste aziende di schede video dedicate (AMD e NVIDIA), sono gli ideatori delle GPU, si fanno produrre i chip da aziende esterne (Vedi capitolo: Produzione Wafer, Binning e Rebrand) e poi le mettono nelle loro schede video definite come Schede Video Reference (dall'inglese riferimento) questo significa che sono il punto di riferimento per ogni altra scheda con la stessa GPU sviluppata dalle aziende.
In genere i prodotti reference non sono la prima scelta dei consumatori, in quanto, sebbene siano potenzialmente allo stesso livello di tutti le altre GPU, possiedono molte possibilità di miglioramento in determinati ambiti della scheda video.
Da qui sono nati dei partner che vendono solo schede video (acquistando le GPU da NVIDIA e AMD) e che apportano modifiche all'intera scheda video definita quindi Custom. Queste modifiche possono essere al sistema di dissipazione (heatsink, ventole, etc.), al PCB (acronimo per Printed Circuit Board, tradotto in circuito stampato) questo implica dimensioni ITX o dimensioni schede video più lunghe per adattarci sopra magari un dissipatore con 3 ventole invece che con 2.
Ancora possono modificare la parte dei VRM (ora ci arriviamo) aumentandoli; possono modificare il BIOS o apportare revisioni, e inoltre possono acquistare chip binned (Vedi capitolo: Produzione Wafer, Binning e Rebrand) per modificare al massimo la frequenza della GPU e rivenderle come versioni maggiormente overclockate rispetto ad altri chip con frequenze più basse.

Spesso la maggior differenza è quella estetica, anche perchè il chip della GPU è sempre lo stesso, questo si traduce in genere in performance simili sotto il profilo della resa in fps con una differenza tra quelle overclockate di fabbrica nell'ordine di 2-3 fps al massimo in base al titolo ma spesso con un esborso che non vale la differenza di prezzo.
Spesso la differenza di binning, di raffreddamento, di VRM e PCB non giustifica quella differenza di prezzo; figurarsi gli RGB.

Questo non è sempre vero e non è sempre falso, ogni custom va comunque valutata da un recensore esperto che abbia a sua disposizione il materiale per poterla recensire.
Aneddoto realmente successo: "Alcune schede video della molto famosa e blasonata marca X, spesso nominate per l'ottimo sistema di raffreddamento, avevano una così pessima dissipazione dei VRM in queste schede tale da causare il thermal throttling (è il sistema di protezione della scheda quando supera la temperatura critica, la scheda si spegna e le frequenze si arrestano per evitare danni al chip. Vedi capitolo 2.5) della scheda nei momenti di maggior picco. Situazione che si ripeteva puntualmente con la medesima custom a tantissimi utenti che l'hanno acquistata. " Questo ci fa capire quanto sia importante prima di valutare una qualsiasi custom di qualsiasi marca (a prescindere se sia meno conosciuta o più conosciuta) è essenziale leggere le review fatte dalle maggiori redazioni (e non vorrei sottolinearlo in modo così ovvio, ma le maggiori redazioni sono americane, russe e tedesche... Non di certo video su Youtube, se non delle suddette redazioni, e non di certo da italiani o da redazioni italiane che nella maggior parte dei casi tradurranno articoli esteri solo come editori ma per nulla esperti del settore).

Passiamo ora a tutti i partner conosciuti che ancora collaborano (molti sono partner minori che producono solo occasionalmente):
NVIDIA ha come partner: MSI, ASUS, Gigabyte, GALAX (chiamata KFA2 in Europa e Kurotoshikou nel mercato Asiatico), Palit, Gainward (acquisita da Palit), EVGA, Zotac, Inno3D, PNY, Manli, Yeston, Colorful, Maxsun, Biostar, ed altri come Point of View, ASL, Atum, AXLE, ELSA, EMTEK, Geekstar, Leadtek, SNKTech, Alienware.

AMD ha come partner: MSI, ASUS, Gigabyte, Sapphire, XFX, Powercolor, ASRock, HIS, Yeston, Biostar, Kurotoshikou (ovvero Galax nel mercato asiatico), Maxsun, ed altri come Arez, ColorFire, Dataland, Onda, PCYES, Pradreon, VisionTek.

Raramente qui in Italia, ma soprattutto nei forum esteri o parlando con tecnici di aziende, ci si può riferire a questi partner come AIB suppliers (acronimo di Add in Board tradotto aggiungere alla scheda, suppliers tradotto come fornitore), per essere precisi chiunque aggiunga o faccia modifiche su di un qualsiasi tipo di scheda come ad esempio G.Skill che modifica le memorie vendute da SK Hynix o Samsung (definito come manufacturer o produttore), può essere definito AIB suppliers; la scheda viene invece definita AIB o Custom. Quindi non solo i partner che modificano le schede video, ma qualsiasi partner che modifica qualsiasi scheda può essere correttamente definito AIB suppliers.


Livello di Conoscenza: Appassionato di Hardware


2. Componenti di una scheda video


Qui vediamo l'intera scheda video scoperchiata (spesso chiamata barebone) dall'heatsink, dalle ventole e dallo chassis. Possiamo quindi vedere tutti i componenti interni della scheda video saldati al PCB (Circuito Stampato).

2.1 Printed Circuit Board

↑ Visione trasversale del PCB​

Il PCB (acronimo di Printed Circuit Board tradotto come circuito stampato) non è altro che l'unione di vari layer (dall'inglese strati, livelli) di materiale posti a più livelli, per questo anche detto Multi-Layer PCB. Non approfondirò oltre, vi dirò solo che c'è quindi un top layer e un bottom layer ovvero uno strato superficiale superiore e uno strato superficiale inferiore, quelli che riusciamo a vedere solitamente; le piste che vedete sulla scheda madre che si diramano all'interno del PCB vengono chiamate PCB Tracks.

La lunghezza fisica della scheda video è decisa dai partner in base alle modifiche scelte per il PCB. Possono crea schede lunghe ben oltre i 300mm o, viceversa, schede di dimensioni più compatte definite solitamente in formato ITX. Questo form factor (dall'inglese fattore forma) in versione ITX o anche dette in versioni Mini, sono compatibili con case di piccole dimensioni in genere in form factor mATX o ITX. Questa tipologia di schede video, sebbene possiedano la stessa GPU, hanno caratteristiche tecniche inferiori es. un dissipatore più piccolo con un unica ventola (minor capacità di raffreddamento = Temperature più alte) minor numero di VRM (overclock meno spinto e stabile), meno uscite video etc.
Prima di cambiare case o scheda video assicuratevi quindi della lunghezza che il case può supportare, in genere indicato nelle specifiche del case come Maximum GPU Length, ovvero la lunghezza massima delle schede video supportate. Viceversa quando cambiare scheda video assicuratevi che la lunghezza supportata dal case sia compatibile con la lunghezza della nuova scheda video.
Le schede video con PCB identico a quello delle schede video Reference ma con altre modifiche come sulla frequenza del processore o sul dissipatore, vengono chiamate Semi-Custom; se viene fatta una modifica anche al PCB, non si tratta più di reference o una semi-custom ma di una vera e propria Custom.

2.2 Graphic Processor Unit


↑ GPU montata su di una scheda video.​

La GPU (acronimo di Graphic Processor Unit tradotto come Unità di Elaborazione Grafica) viene definita anche come coprocessore o processore grafico. Naturalmente funziona quindi come un vero e proprio processore con una sua frequenza, con voltaggi e tensioni che si applicano. A differenza della CPU che possiede un ALU (acronimo per arithmetic-logic unit o unità aritmetica-logica), la GPU è dotata di molti più calcolatori.
La CPU nasce per processare le istruzioni ed è basata su di un sistema chiamato MIMD (multiple instruction, multiple data) potendo svolgere più istruzioni; la GPU nasce per effettuare dei calcoli, motivo per il quale essa è basata su un sistema chiamato SIMD (Single istruction, multiple data). Quindi nonostante possa eseguire un’unica istruzione per volta, riesce a farlo con una tecnica di parallelizzazione del lavoro impressionante, il che comporta a sua volta un impressionante capacità di calcolo. (Dovreste quindi capire perchè si preferisce usare una GPU per il General Purpose. Vedi Capitolo 1.2).


↑ GPU-Z​

La GPU ha 3 fondamentali valori che migliorano di anno in anno in base all'affinamento delle fabbriche, e allo sviluppo delle architetture ovvero:
  • La dimensione del Die, (in inglese Die Size) misurabile in mm².
  • Il numero di transistors, in genere nell'ordine dei 10-20 mila milioni. Qui ritroviamo la famosa legge di Moore, ovvero che: "Il numero di transistor raddoppia ogni due anni."
  • Il processo costruttivo (in inglese Process Size o Technology) esprime la lunghezza del gate (ovvero la distanza tra drain e source nei transistors) misurabile in nanometri (7nm, 10nm, 12nm, 14nm, 16nm, 28nm, 32nm etc.)

↑ Transistor, tra il drain e la source, vediamo il gate di 18nm​

Attualmente nel 2018/2019, il processo produttivo usato dalle GPU NVIDIA Turing è di 12nm mentre siamo a 7nm per le GPU AMD (Radeon VII). Questo processo produttivo indica la dimensione minima del gate di ogni singolo transistor. Per renderci conto della dimensione della quale parliamo, vi faccio un paragone: un globulo rosso è mediamente 7000nm, mentre il virus dell'HIV (quello che causa l'AIDS) è di 120nm ovvero 100 volte più grande del gate dei transistor.

I vantaggi nel passare ad un processo costruttivo più piccolo e, più in generale, cercare di migliorare sempre più la miniaturizzazione, sono molteplici: si va dal miglioramento della resa produttiva con conseguente abbattimento di costi (più un processore è "piccolo" e più GPU possono essere fabbricate con un solo wafer), alla diminuzione del consumo elettrico e della temperatura operativo; oppure con stesse dimensioni ma passando per la possibilità di integrare un numero di transistor sempre maggiore con conseguente aumento della potenza elaborativa, senza però l'aumento della dissipazione di calore.
Anche se il processore produttivo è tecnicamente solo un numero senza un reale valore, questo poichè non è l'unica dimensione che va calcolata, inoltre non identifica la reale densità di transistor.

Il Die è traducibile in italiano come circuito integrato o stampo, ovvero un piccolo blocco posto all'interno del package (l'involucro esterno della GPU). La dimensione del Circuito integrato (Die Size) può aumentare in base alla quantità di transistor che utilizza, ma non è detto che se ha un processo produttivo a 7nm sia di dimensioni più piccole rispetto ad uno di 14nm, anzi, in genere è più grande per ospitare più transistor possibili. (Per maggiori informazioni sul Die, Vedi Capitolo: Produzione Wafer)

Il transistor, il cui nome deriva dalla crasi delle parole inglesi transconductance e varistor, è un componente elettronico realizzato con materiali semiconduttori come il silicio.
ll transistor non è altro che un interruttore. Come interruttore, il transistor permette o impedisce il transito della corrente all'interno del circuito elettrico: il sistema può dunque assumere il valore binario di "0" o "1", permettendo di realizzare i circuiti elettronici digitali alla base della logica booleana (le variabili possono assumere valori vero e falso, o in questo caso 0 e 1). Il circuito elettrico è composto dalla porta (gate), dalla sorgente (source) e dal pozzo (drain).


Per chi non avesse la basi di informatica/elettronica o su come funziona la logica booleana applicata ai circuiti:
A 0, corrisponde un circuito aperto, non consente il passaggio di elettricità. Ad 1, il circuito è chiuso ed è quindi collegato, permettendo il passaggio di corrente.
Ogni microchip (processore o memoria) è composto da miliardi di transistors che permettono di archiviare dati o eseguire le istruzioni e gli algoritmi dei vari software informatici.
I transistor possono essere usati anche come amplificatori e sono infatti alla base dell'elettronica analogica, ma riguarda altri ambiti che non discuteremo qui.
Il transistor è l’elemento cardine dell’elettronica digitale, averne di più, aumenta la capacità di calcolo aritmetica e logica correlato al processo produttivo.

Le Unità Shader o SPU (Shader Processing Unit) sono dei blocchi fondamentali in una scheda grafica che si occupano delle operazioni di shading (tradotto ombreggiatura).
Le SPU si occupano degli effetti di rendering vero e proprio di una scena, e sono spesso indicati come numero di CUDA cores (Nvidia) o di Stream Processors (AMD).

Le unità shader sono costruite in maniera diversa da Nvidia e AMD, quindi i CUDA cores (Prima Processing Core) e gli Stream Processor (Prima ATI Stream) non sono direttamente paragonabili (la potenza di un CUDA non è in rapporto 1:1 con quella di uno Stream Processor).
La posizione, il colore, gli effetti nonché le texture, i vertici e il numero di pixel di un oggetto sono informazioni messe insieme secondo un algoritmo implementato dalle SPU per costruire la scena virtuale, algoritmo che può cambiare mentre la scena stessa è mostrata all'utente. Ogni “effetto” da applicare va a finire in una pipeline (coda) prima di essere processato.


↑ Ordine nel quale vengono svolte le operazioni nei vecchi Shader​

Un tempo le unità shader erano divise fra Pixel Shaders (che si occupavano del colore, per mostrare a video vari effetti come le esplosioni) e Vertex Shaders (che avevano la responsabilità del trasformare o deformare pixel e quindi di comporre anche il movimento); il risultato finale era una combinazione delle soluzioni elaborate dai due tipi di unità. Questo poteva comportare latenze di calcolo non indifferenti, in quanto i primi potevano dover aspettare il prodotto dei secondi o viceversa.


↑ Shader Unificati a confronto con i vecchi Shader​

Oggigiorno questa distinzione è scomparsa e tutte le “caratteristiche” di una scena suddette sono state affidate ad un’architettura a shader unificati, Unified Shader Model o Shader Model 4.0. Nel quale vengono gestite le 3 tipologie di shader: Pixel Shaders, Vertex Sharders, e Geometry Shader. Quest'ultima caratteristica è stata introdotta con DirectX 10.




Guardando queste immagini dovremmo già riuscire a capire molto:
- Quella in alto è la forma reale del design del chip. Il chip in questione è un GF100 (GTX 485).
- Quella a sinistra è il diagramma della stessa GPU ma schematizzato tramite illustrazione. Il chip in questione è un GF100 (GTX 485).
- Quella a destra è il diagramma di un'altra GPU che sfrutta la medesima base con chip GF100 ma con alcune zone disabilitate (GTX 465) per differenziare l'offerta e per recuperare alcuni chip con aree danneggiate.


↑ Uno dei 4 GPC
In questa immagine invece abbiamo zoomato sul diagramma, e ho riportato uno dei 4 GPC (acronimo di Graphic Processing Cluster, con la parola Cluster si intende generalmente un gruppo ben definito e raggruppato di core in una zona delimitata).


↑ Polymorph Engine composizione
Qui ancora uno zoom all'interno del Polymorph Engine. Il Polymorph Engine (in basso nel GPC) racchiude tutti gli stadi di tipo fixed function che compongono la prima parte della pipeline grafica dedicata alle operazioni geometriche mentre il Raster Engine (in alto nel GPC) gli elementi di tipo fixed function che concorrono alle operazioni di rasterizzazione.


↑ Streaming Multiprocessor (SM) e Cuda Core
Facciamo quindi uno zoom ancora più approfondito di un singolo Streaming Multiprocessor. Al suo interno vediamo ben 32 Cuda Core sul quale è riproposto un ulteriore zoom nell'immagine stessa.

Work in Progress

2.3 Memoria Video



↑ In giallo sono evidenziate le memorie video posizionate a semi cerchio attorno alla GPU.​

La Memoria Video (spesso definita erroneamente VRAM) ha una sua frequenza e una dimensione variabile in base alla scheda. Quest'ultima è la memoria video sulla quale la GPU può elaborare e dove viene memorizzato il framebuffer. È una memoria buffer della scheda video nella quale vengono memorizzate le informazioni destinate all'output per la rappresentazione di un intero fotogramma (frame in inglese, da cui il nome framebuffer).

La frequenza di clock della memoria è la frequenza massima, espressa in Megahertz (MHz), alla quale può operare la memoria stessa, ovvero il numero di volte che essa può leggere/scrivere dati. La frequenza di clock della memoria scala a seconda dell’operazione che la scheda grafica sta attualmente compiendo. Si può dire che, più alta è più la memoria è veloce, e quindi più aumenta il memory bandwidth.

In realtà sebbene sia ancora chiamata VRAM, quest'ultima è in disuso da molti anni, già superata dalla WRAM delle Matrox, dalla poi Multibank DRAM (MDRAM), dalla SGRAM (acronimo per Synchoronus Graphics RAM) ma erano tutte memorie single-port.
Si è quindi passati all'evoluzione con delle dual-port, e quindi alle GDDR SDRAM (si esattamente come successe per la RAM con le DDR SDRAM) ovvero acronimo per Graphics Double Data Rate, Synchronous Dynamic Random-Access Memory disegnate per l'appunto per le GPU e quindi si distinguono dalle normali DDR SDRAM utilizzate dal processore. Le loro caratteristiche principali sono frequenze di clock più elevate sia per il core DRAM che per l'interfaccia I / O, che fornisce maggiore larghezza di banda di memoria per le GPU. Le GDDR SDRAM sono state succedute da GDDR2, GDDR3, GDDR4, GDDR5, GDDR5X, e GDDR6. Queste tendono a risparmiare sempre più energia aumentando però il bandwidth.
La produzione di queste memorie è in genere affidata ad aziende esterne famose produttrici di memorie ovvero: Samsung, SK Hynix e Micron.

Famoso il caso delle RTX 2080/2080Ti con Memorie Video Micron in quanto quest'ultime a seguito dei test hanno subito una rapida degradazione delle memorie, che causano i famosi artefatti e lo stuttering che stanno dilagando.
Le memorie sono prodotte per reggere fino ai 95° oltre i quali iniziano a dare i problemi sopra citati. Questo, si è ipotizzato, per via del posizionamento di alcuni chip GDDR6 (nello specifico M6 ed M7), integrati praticamente sopra le tracce di alimentazione del PCB, queste passano tra le fasi PWM e il socket della GPU; che quindi ne aumentano la temperatura interna dei chip di memoria.

Come controllo che memorie possiedo?
GPU-Z nella scheda Graphics Card alla voce Memory Type.

Cosa fare nel caso abbia memorie Micron?
Memorie di produzione antecedenti a Dicembre 2018 riscontrano quasi da subito (dall'acquisto o entro 2 mesi) questi artefatti, in tal caso vi conviene contattare il venditore/produttore per l'RMA.

Quali schede soffrono di questo problema?
Quelle che hanno Memorie GDDR6 Micron, ogni modello è potenzialmente sensibile a questo problema (dalle 2080ti alle 2060).

Ma perché la fascia bassa (RTX 2060) ne ha risentito di meno?
Perché sono uscite nel mezzo del casino quindi sono state subito troncate le spedizioni con le Micron.
Clicca per espandere...
Sono state inoltre create nuovi tipi di memorie video, chiamate HBM (acronimo per High Bandwidth Memory) con la collaborazione di Samsung, SK Hynix e AMD.
Quest'ultime, sono state implementate per la prima volta sulle R9 Fury, Fury X e Nano. Le HBM sono state succedute da HBM 2, HBM 3, e HBM 4.

Naturalmente, l'uso della Memoria Video è stato implementato sulla scheda per velocizzare le operazioni e i calcoli della GPU, la quale impiegherebbe troppo tempo ad accedere alla memoria principale della CPU con la quale litigherebbe per l'uso. Un quantitativo insufficiente di Memoria Video può creare del bottleneck (tradotto in collo di bottiglia, in cui una grande mole di dati generati da un componente passa per una strettoia che riduce le sue prestazioni per arrivare ad un altro componente, quindi come una bottiglia).
In genere schede video da gaming e da editing di fascia alta possiedono molta più Memoria Video dovendo gestire una maggior quantità di dati a risoluzioni maggiori come il 4K o con carichi molto elevati come il rendering di video 4K o per lavori con GPGPU.


↑ Esempio in Battlefield 4 dell'aumento esponenziale della memoria occupata a varie risoluzioni con vari settaggi e filtri​

La Memoria Video serve inoltre a mantenere durante il Gaming informazioni come Texture, Frame Buffer, Depth Buffer, e altri asset richiesti per renderizzare un frame come Shadow Maps, Bump Maps, e Lighting Information.
Risoluzione, profondità del colore, quantità di texture, i vari filtri (antialising in primis avendo un effetto massivo sulla memoria video) e molto altro possono aumentare il peso sulla Memoria Video. Per esempio poiché le immagini sono in genere a 32 bits per Pixel (più in là vedremo il Bit Depth), significa in Full HD moltiplicare 32bits x 1920 x 1080 = 8,3 MB per un singolo Frame, mentre se saliamo di risoluzione in Ultra HD o 4K 32bits x 38240 x 2160 = 33,2 MB per singolo Frame.

Da qui capirete subito che rispondere alla domanda "di quanta Memoria Video ho bisogno?" è abbastanza arduo e vi riporto quindi un aneddoto:
"All'uscita della GTX 680, quest'ultima aveva 2GB di Memoria Video ed erano abbastanza all'epoca, ma in quel periodo alcuni dei maggiori titoli appena usciti arrivarono a superare questa quantità. I 3GB di Memoria Video sarebbero stati fondamentali in quel determinato anno ed infatti NVIDIA, sebbene sempre tirchia di memoria, corse ai ripari con la GTX 770 che non è altro che un rebrand della GTX 680 (più avanti approfondirò meglio la questione dei rebrand), ma a differenza di quest'ultima la GTX 770 aveva 3GB di Memoria Video non era quindi più potente ma aveva più Memoria Video. Questo riusciva a garantire migliori performance, poiché un insufficienza di Memoria Video causava un brusco calo di prestazioni con Stuttering (traducibile dall'inglese come "balbuzie" ma forse la traduzione più corretta per noi è un immagine a singhiozzo, ovvero avrete dei veri e propri salti di fotogrammi)."
Per i più recenti al mondo dell'hardware, è la stessa cosa che è successa con le GTX 1060 3GB superate in alcuni giochi dalle fasce inferiori ovvero 1050 Ti 4GB e dalle RX 470/570 4GB; questo ci fa capire quant'è importante che un azienda imparasse dai propri sbagli, poiché nel periodo dal 2016 al 2018, soltanto 3GB di Memoria Video con determinati titoli e settaggi in Full HD sono spesso limitanti e tendono a saturarsi dando quindi il fenomeno dello stuttering.
Nel 2019 possiamo dire che in Full HD sono consigliati un minimo di 4-6GB di Memoria Video, in Quad HD (2K) 6-8GB di Memoria Video, in Ultra HD (4K) minimo 8GB di Memoria Video. Le cose si complicano ulteriormente se parliamo invece di Realtà Virtuale o VR, ma soprassederò dal spiegare ancora.

Ma cosa succede quando saturiamo la Memoria Video?
Si tende come detto ad avere stuttering (balbuzie dell'immagine) oltre che un brusco calo degli fps, questo perchè la memoria in eccesso deve essere comunque usata, ma viene messa nella memoria centrale (RAM), che come accennato prima, è più lenta e impiega quindi più tempo. Peggio se quest'ultima si satura si deve passare alla memoria dello storage. La GPU deve continuamente strappare texture dalla Memoria Video e dalla Memoria Centrale, causando un brusco decremento degli fps e quindi quella balbuzie di immagini che citavamo prima.

2.4 Video BIOS e Memoria ROM


↑ Piano posteriore rispetto all'heatsink e alle ventole. Sono saldate su questo piano le Memorie ROM.
La Memoria ROM (acronimo per Read Only Memory è una memoria non volatile, il cui contenuto in genere non è modificabile ma può essere aggiornato) dove risiede il BIOS (acronimo di Basic Input-Output System) della GPU, per essere più precisi viene chiamato Video BIOS, posizionato in genere sull'altro lato della scheda quello coperto dal Backplate (a breve lo vedremo) per schede di recente fattura o già visibile sulle più vecchie. Gran parte delle differenze tra schede video da gaming e schede video professionali risiede proprio qui.
Qui ritroviamo il Firmware della GPU, il quale permetterà alla scheda di avviarsi correttamente ogni qual volta accendiate il PC. Questa fase prende il nome di “boot” o “bootstrap” e permetterà la lettura delle informazioni necessarie per inviare in output i primi segnali video con la visione dello splash screen (schermata di caricamento).
Alcune Custom avanzate hanno anche due o più BIOS differenti in base al raffreddamento della GPU, se normale ad aria o se si utilizza l'impianto a liquido.

I BIOS delle schede video, come anticipato, sono aggiornabili come quelli delle schede madri. In questo caso l'aggiornamento ne migliora l'efficienza e in parte le prestazioni, potendo migliorare quindi voltaggi applicati e frequenze operative sia di base che in boost.

2.5 TDP e Connettori di Alimentazione


↑ Varie combinazioni di connettori di alimentazione.​

I connettori di alimentazione che in base all'alimentazione necessaria possono essere a 6, 8, 6+6, 6+8 o 8+8 Pin; è la fonte di alimentazione primaria della scheda video.
Si è reso necessario nel corso degli anni il cambio di alimentazione dalla sola scheda madre all'utilizzo di un cavo dedicato all'alimentazione della scheda video.
I partner possono modificare le schede video aggiungendo un ulteriore connettore o ampliandolo.

Non tutta l'alimentazione proviene dai connettori, infatti schede video più vecchie o di fascia più bassa spesso omettono questo connettore in quanto l'alimentazione della scheda madre (tramite il +12V) è sufficiente ad alimentarle. In genere queste non devono superare i 5,5 Ampere di alimentazione definiti dal PCI-SIG (Peripheral Component Interconnect Special Interest Group, ovvero il consorzio che gestisce l'industria degli slot PCI-E). Tutt'oggi le schede video, soprattutto di fascia molto alta, traggono beneficio dalla scheda madre per ottenere più potenza. Ad esempio una Custom Vega 64 può richiedere 0.7 A in idle (inattiva), 2 A in gaming e 2.5 A sotto tortura.

Prima di continuare facciamo qualche richiamo di Fisica:
Viene misurato in watt, ma cos'è il watt? Il watt è l'unità di misura della potenza, non va confuso con il Wattora (Wh) e con i relativi multipli che sono una misura di energia (potenza × tempo) che corrisponde all'energia prodotta da 1 watt in un ora ovvero 3.600 Joule. Esempio con una scheda video da 180 W (ipotizziamo sia un consumo fisso) accesa per 1 ora, abbiamo 180 Wh che corrispondono a 648.000 Joule di energia. Immaginate questo consumo in giorno va quindi moltiplicato per 24 ore, per 30 giorni in un mese avrete circa 129.600 Wh, parliamo quindi cifre abbastanza grandi e per questo in genere indicate come kilowattora (kWh) ovvero 129,6 kWh.
1 Watt equivale ad 1 Joule al secondo (1 J/s) ma equivale anche ad 1 Volt moltiplicato per gli Ampere (1 V × A).
1 Joule è quindi uguale alla formula inversa ad 1 W per secondo (W × s) ma equivale anche ad 1 Newton per metro (1 N m).

Passiamo ora a questo famoso TDP acronimo per Thremal Design Power, che molti intendono come solo consumo della scheda ma non è così. Il TDP è invece un indicazione del calore dissipato dalla scheda che andrà poi dissipato tramite il dissipatore (heatsink) e le ventole montate sulla scheda (Vedi Capitolo 2.7).

Spesso vediamo varie modalità impostabili per la scheda video tramite applicazione, ad esempio modalità silenziosa, modalità gaming/OC o modalità normale. Possiamo infatti avere un cTDP (TDP Configurabile):
  • TDP nominale : frequenza nominale e TDP della GPU.
  • cTDP down: quando si desidera una modalità di funzionamento più fredda o più silenziosa, questa modalità specifica un TDP inferiore e una frequenza garantita inferiore rispetto alla modalità nominale.
  • cTDP up: quando è disponibile un raffreddamento extra, questa modalità specifica un TDP più alto e una frequenza garantita più elevata rispetto alla modalità nominale.
Il TDP non è quindi la massima potenza che una GPU potrebbe mai generare (quello è il picco di potenza) ma più realmente è la potenza massima che utilizzerebbe durante un applicativo per il quale è stata creata. Spesso viene definito SDP ovvero Scenario Design Power, il TDP diviso per determinati scenari.


Come possiamo vedere (sempre da quella Custom Vega 64 che citavo prima) la Vega 64 ha da specifiche un TDP di 295W eppure guardando questo grafico, li sfora arrivando a picchi di oltre 330W (la reference ad esempio aveva picchi di anche 380 Watt). Questi picchi sono chiamati picchi di potenza, e sono quelli su cui noi dobbiamo anche basare la scelta dell'alimentatore. Vien da se che una CPU da 100W (i cui picchi possono arrivare a 150W in OC e sotto tortura) ed una Vega da 295W (i cui picchi, sotto tortura e OC, possono sfiorare i 400W) a cui si sommano approssimativamente un 50 W (tra LED, dissipatore, hard disk, MB etc.) rappresentano il consumo massimo di 600W in tutti i picchi e che quindi un alimentatore da 650W rappresenta la miglior scelta per queste componenti

Il Power Rating è la massima potenza entrante in quel determinato componente elettrico in base alle specifiche dichiarate dal produttore, sebbene anche questa si differenzi in due modi ovvero l'Average Power Rating, in genere dichiarato, e il Maximum Power Rating.


↑ Rappresentazione dei punti Tj, Tc, Ta.
Il sistema di raffreddamento di scheda video può essere progettato per un TDP di 180W, il che significa che può dissipare 180 Joule di calore al secondo, senza eccedere la temperatura di giunzione dei transistor (abbreviato in Tj) in inglese chiamata transistor junction temperature, è la più alta temperatura alla quale un semiconduttore può lavorare. La temperatura è uguale all'ammontare di calore trasferito dalla junction (tradotto giunzione) al case, moltiplicato per la resistenza termica che ritroviamo tra la junction e il case (abbreviata Rjc).

Il calore trasferito ci darà la temperatura del package a contatto con l'heatsink (dissipatore), questo valore è la temperature del case (abbreviato in Tc) in inglese case temperature. L'heatsink fa da collegamento (e da traferimento) tra la Tc e la Ta, ovvero tra la Case Temperature e la Ambient Temperature.

Il TjMax è massima temperatura della giunzione per il funzionamento del chip, oltre la quale abbiamo la possibilità di avere un malfunzionamento temporaneo o permanente.
La temperatura interna (Tj) viene misurata da un sensore. Se il core raggiunge il suo TjMax, questo attiverà un meccanismo di protezione per raffreddare il processore chiamato Thermal Throttling (traducibile come strozzamento termico), ovvero un abbassamento delle frequenze operative o il loro arresto.


↑ Trasmissione di calore da punto a punto passando per le resistenze termiche.
La Tj non è facilmente misurabile con una termocoppia o una telecamera infrarossi, viene in genere misurata indirettamente tramite il voltaggio/temperatura, e resa più accurata da tecniche JEDEC come JESD 51-1 e JESD 51-51. In genere il calcolo è fatto dalla temperatura ambiente a cui si sommano la resistenza j-a (dalla junction all'ambiente) moltiplicata per la potenza dissipata:
Tj = Ta + (R θja × PD)


2.6 VRM, Fasi e PWM



↑ Scheda Video "Naked", evidenziati i VRM e le loro componenti.​

I VRM acronimo per Voltage Regulator Module, tradotto sono dei moduli regolatori delle tensioni in entrata dall'alimentatore dirette verso la GPU e la VRAM.
Molti non lo capiscono o fraintendono "il VRM non è un unica cosa ma un insieme di cose" ed è infatti costituito dal Voltage Controller (Regolatore di Tensioni/Voltaggi), dal PWM, e dalle Phases (Fase). Il PWM (acronimo per Pulse Width Modulation) è il modulatore di larghezza degli impulsi.
Le Fasi (in inglese Phases) sono a loro volta composte da Condensatori a stato solido (in inglese Capacitor), Induttori (in inglese Choke) e più MOSFETS; questo implica che un solo condensatore + un solo Choke + i relativi MOSFETS formano un unica Fase, per ogni gruppo quindi abbiamo una fase.

Tutta questa roba ha un solo scopo ultimo, garantire alla GPU e alla VRAM una potenza stabile e "pulita"; una scheda video che possiede più VRM è in grado di suddividere più facilmente il carico tra più VRM e quindi di conseguenza diminuire il lavoro per ogni singolo VRM, il che implica maggiore stabilità ma soprattutto minori temperature per i VRM.

C'è un porzione di VRM dedita alla sola Memoria Video. In genere è un solo gruppo di VRM, ma in alcune custom potrebbe essere anche 2 o 3. Ad esempio sulla recente MSI RTX 2080Ti Lightning Z ne ritroviamo ben 3 per la sola Memoria Video.

Ora dovreste già aver capito da soli perchè magari scrivono Fasi 12+2 o 5+1 o 6+3, poiché il primo numero sono le fasi dedicate alla sola GPU mentre il secondo numero sono le fasi dedicate alla sola Memoria Video (Idem per le schede madri nel caso di 12+2, quando dite ho 14 fasi per l'OC del processore state sbagliando NON SI SOMMANO. Per il processore sono solo 12 mentre per la RAM ne avete 2).

In genere il numero di VRM è modificato da ogni produttore di schede video, creando un PCB Custom (Circuito Stampato modificato) sul quale agire.
Le Top Custom avranno sempre un PCB di maggiori dimensioni per riuscire a contenere più VRM, e in genere, un migliore modulo di raffreddamento.

2.7 Back Plate e Dissipatori

↑ A sinistra scheda video con Back Plate (dall'inglese Piastra Posteriore), a destra senza Back Plate.
Il Backplate che nasconde tutta la parte anti-estetica nel retro del PCB (il lato opposto alle ventole) utile anche ai fini della dissipazione del calore.


↑ A sinistra scheda video scoperta di ventole e chassis, a destra scheda video in cui è rimosso anche l'heatsink.
Continuando a parlare di dissipazione, attualmente vedete schede video sempre più grandi, spesse e pesanti ma l'80% della vostra scheda video è composto dall' Heat Sink (traducibile con dissipatore) e dalle Ventole, oltre che dai LED RGB...


↑ Lettura termica tramite FLIR, in evidenza la zona centrale dei VRM più calda della GPU stessa
Il calore sprigionato della GPU, dalla VRAM e dai VRM (che sono le tre parti della scheda video che sprigionano più calore, soprattutto i VRM) - per irraggiamento e convezione - viene trasmesso all' Heat Sink fatto in alluminio e/o rame (materiali con alta conducibilità termica) tramite pad termicondittivi o paste termoconduttive (utili al fine di eliminare il velo d'aria poco conduttivo - Qui la guida alla pasta termica).
L'Heat Sink (Dissipatore), in genere, è formato da dei tubi in rame chiamati Heat Pipe, e da una parte a forma di lamelle (definito come gruppo lamellare) questo per aumentare l'efficienza nella sottrazione di calore (aumento del rapporto superficie/volume) al cui apice ritroviamo delle ventole, le quali creano un flusso d'aria che asporta il calore trasferendolo lontano dal componente.


↑ Varie tipologie di raffreddamento.
Inoltre bisogna fare una differenziazione tra due tipi di raffreddamento ad aria, l'opzione biventala (due ventole) o triventola (tre ventole) che normalmente vediamo e le forme Blower (come in foto).
Le Blower risucchiano aria dalla parte bassa del case laddove l'aria è più fredda e la immettono nei gruppi lamellari dirottandole fuori dal case, abbassando la temperatura interna del case rispetto alle versioni normali. Una Blower può essere preferita laddove ci sia poco spazio nel case e non si necessita di overclock della GPU mentre magari potrebbe essere elevata la temperatura interna per la presenza di molti Hard Disk.
Le Custom biventola e triventola sono invece preferite rispetto alla Blower (come le vecchie Founder Edition di NVIDIA o di AMD, ma anche alcune create da alcuni partner), poiché hanno una miglior dissipazione della GPU, dei VRM e della Memoria Video. Questo poiché l'aria non viene continuamente spinta fuori dal case passando per tutta la scheda video quindi l'aria calda dei VRM passa sopra l'aria calda delle memorie e poi della GPU per poi uscire, ma viene estratta verso la parte bassa del case che "dovrebbe" essere portata fuori dalla ventola frontale più basse che aspira aria fredda e dovrebbe mandare l'aria calda in uscita dalla scheda video attraverso le feritoie posteriori.
Esistono delle schede video chiamate Barebone che sono completamente prive di sistema di raffreddamento (vendute proprio così) ma hanno un PCB modificato, per applicare più facilmente un sistema custom senza dove smontare il dissipatore.
Esistono le schede video con dissipazione passiva ovvero senza alcuna ventola ma solo con il gruppo lamellare, in genere sono solo per schede con un basso TDP.
Esistono schede video con un sistema di dissipazione a liquido All in One.
Esistono schede video già predisposte per l'impianto a liquido custom (Esempio Aorus RTX 2080 Waterforce) o che vengono moddate (modificate) tramite un GPU Waterblock.
Infine tramite alcuni adattatori (come l'NZXT Kraken G10 o il Corsair Hydro Series HG10) è possibile attaccare un dissipatore a liquido per CPU alla scheda video.

2.8 Accessori

↑ Supporti per le schede video più pesanti
Questo enorme peso da parte degli Heatsink delle schede video ha costretto molti a montare anche un Bracket (dall'inglese supporto), ovvero un supporto che sostenga la scheda video dal basso oltre a dover rinforzare la connessione con la scheda madre con dei PCI-E in metallo.
In genere sono supporti in metallo montati a parte ma potrebbero essere inclusi (molto raro) nel case come fanno alcune aziende recentemente (Lo Sharkoon Pure Steel è un esempio) oppure possono essere fatte in plexyglass o alluminio con personalizzazioni varie.

Per evitare che il peso pieghi lo slot PCI-E, un ulteriore soluzione è stata quella di togliere la scheda video dalla motherboard e posizionarla verticalmente. In genere questa modifica viene fatta utilizzando un Vertical Mount il quale deve essere compatibile con il case e deve avere un PCI-E Riser (che tratteremo a breve).
La soluzione ha principalmente un fine estetico più che pratico, in quanto viene mostrata la parte delle ventole invece che la parte laterale, generalmente più accattivante.
Questa opzione però ha alcune problematiche:
  • Il Riser, se non di qualità, potrebbe ridurre le prestazioni
  • L'aria calda viene continuamente spinta con il plexyglass/vetro temprato/alluminio, soffocando in parte l'airflow della scheda
  • Posizionando la scheda video in verticale si toglie la possibilità di utilizzare gli slot inferiori se non tramite un ulteriore riser e un posizionamento non regola dell'altra scheda che può essere una seconda scheda per il Multi-GPU o un ulteriore tipo di scheda come schede audio, schede Wi-Fi etc.
 
Ultima modifica:

R3d3x

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
66
3. Interfaccia di connessione Scheda Video ↔ Scheda Madre


↑ Le storiche interfacce di connessione con la motherboard
Parliamo adesso dell'attuale interfaccia di connessione con la scheda madre, ovvero la PCI-Express 3.0 x16 (verrà a breve sostituito dal PCI-Express 4.0) questo slot fisico posto sulla scheda madre consente l'inserimento della scheda video, con la quale può scambiare i dati e alla quale porta alimentazione.
Da parte loro, le schede video attuali, devono essere compatibili con lo slot PCI-Express (Le generazioni sono retro-compatibili 1.0, 2.0, 3.0, 4.0 etc.) attualmente diventato lo standard condiviso da tutte le schede madri e le schede video.

3.1 Storia Interfacce di Connessione Scheda Video ↔ Scheda Madre
Il primo BUS di connessione parallelo fu l'ISA (acronimo per Industry Standard Architecture, nel 1981) migliorato con l'EISA (acronimo di Extended-ISA, nel 1988), e poi con il VESA (acronimo di Video Electronics Standards Association nel 1995), vennero tutti rimpiazzati dal PCI (acronimo per Peripheral Component Interconnect, 1993) e dalle sue tante generazioni.
Nel frattempo nel 1996-1997, in seguito all'accelerazione 3D, nasce e si diffonde lo standard AGP (acronimo per Accelerated Graphics Port), basato sulla PCI 2.1. L'AGP è la prima interfaccia (posta sulle schede madri) nata esclusivamente per le schede grafiche che si è migliorata nel tempo da AGP x1 (AGP 1.0) in AGP x2 e AGP x4 (AGP 2.0) ed infine in AGP x8 (AGP 3.0) per poi essere sostituita dalle PCI-Express.
Dato che le AGP rappresentavano l'unica fonte di alimentazione della scheda video, ci fu la necessità di cambiare l'alimentazione da 1,5 V a 3,3 V ed eventualmente essere retro-compatibili. Per questo abbiamo 3 tipi di AGP: AGP 1,5 V; AGP 3,3 V e AGP Universal.
Dall'AGP 3.0, si è capito che l'alimentazione non bastava poiché 50W erano insufficienti e hanno iniziato ad aggiungere anche un connettore Molex sulla scheda video.


A quel punto nel 2002 nacque lo standard PCI-E 1.0 (in slot x1, x4, x8, x16), che era un BUS seriale (il primo non più parallelo) che permetteva di rimuovere il connettore Molex per le schede di fascia media e bassa, e di erogare fino a 75W, oltre a dare più banda passente. Nel 2006 ci fu l'aggiornamento al PCI-E 2.0 (in slot x1, x4, x8, x16), retrocompatibili con i PCI-E 1.0, ma lo migliorano in ampiezza di banda raddoppiandola da 2,5 GT/s (Gigatransfer al secondo) a 5 GT/s; inoltre aumenta la frequenza da 100MHz a 250MHz. Nel 2010 nasce lo standard attuale ovvero il PCI-E 3.0 che porta la banda a 8 GT/s.
Durante il 2018 è stato presentato il PCI-E 4.0 con 16 GT/s, le prime schede madri a possederlo sono le AM4 X570 di AMD uscite nel 2019.
Il 2 Giugno 2019 è stato presentato il PCI-E 5.0 con 32 GT/s (128GByte/s di Bandwidth) con retrocompatibilità per i vecchi PCI-E.

3.2 PCI-E Riser


↑ PCI-E Riser per montare un Vertical Mount, per posizionare la scheda video in verticale.​

Già dai PCI-E 2.0 si iniziano inoltre a sviluppare delle prolunghe definite PCI-E Riser, per poter spostare la propria scheda video dalla posizione orizzontale sulla scheda madre ad una qualsiasi altra collocazione, attualmente è molto usato per i fini estetici il Vertical Mount GPU con appunto il PCI-E Riser.

Work in Progress

3.3 Output Video


↑ Varie uscite video, in ordine: Display Port, HDMI, DVI e VGA​

Sopra le varie interfacce di connessione per le uscite video e il relativo cavo per collegarsi ai monitor tra queste ricordiamo le più famose: HDMI, VGA, DVI, DP.
VGA (acronimo per Video Graphics Array, che non centra una mazza con le schede grafiche non chiamatele quindi VGA) introdotto da IBM nel 1987, è un connettore a 15 pin con un segnale di tipo analogico, e quindi non trasporta l'audio.
È stata la base di tutto ed una delle interfacce più importanti presenti sulla scheda video anche se ormai è obsoleta (risoluzione massima 640x480), è il "denominatore comune" che tutte le schede grafiche devono essere in grado di gestire, ancor prima di caricare driver. Lo splash screen (la schermata di caricamento) che appare all'avvio di windows, è visualizzato mentre la macchina sta lavorando in modalità VGA (non ha ancora caricato i driver specifici) ed è anche il motivo per il quale la schermata ha sempre bassa risoluzione e profondità di colore. La risoluzione fu superata prima dal SVGA o Super VGA, che identifica ormai una risoluzione di 800x600 e poi dall'XGA, che identifica una risoluzione di 1024x728, e con altre svariate risoluzioni e standard (WVGA, SVGA, SWVGA, XGA+, SXGA, SXGA+, WXGA, UXGA, QXGA, WSXGA, WSXGA+, WUXGA, WQXGA, QSXGA).
DVI (acronimo per Digital Visual Interface) introdotto nel 1999, con segnale analogico e/o digitale con un evoluzione da DVI-A (solo analogico) a DVI-I (ibrido sia digitale sia analogico) e a DVI-D (solo digitale) con una risoluzione fino al 2560x1600 (WQXGA) a 60Hz o in Full HD (1920x1080) fino a 144Hz.
Ci sono cavi DVI Single Link che si limitano quindi al Full HD e cavi DVI Dual Link che riescono invece superano il Full HD arrivando al WQXGA.
HDMI (acronimo per High Definition Multimedia Interface) introdotto nel 2002, con segnale digitale con audio annesso. Nel corso degli anni è stato aggiornato diverse volte con versioni più recenti, in grado di supportare risoluzioni e frequenze più elevate. L'HDMI 1.0 poteva utilizzare il FHD (1920x1080) e l'WUXGA (1920x1200) a 60Hz ma con l'HDMI 2.0 si è arrivati al 4K a 60 Hz.
DP (acronimo per Display Port) introdotto nel 2006, con un segnale digitale con audio annesso. La più recente versione DP 1.4 regge una risoluzione 8K a 60Hz o 4K a 120Hz. Supporta inoltre la tecnologia G-Sync e Free-Sync.


↑ NZXT S340 Elite con uscita HDMI sul front panel, e uscita Type-C su di un scheda video VR Ready​

Piccola nota per il VR (Realtà Virtuale), viene predisposta in alcune schede video l'uscita USB Type-C insieme alle uscite video per i sensori VR.
Sempre per il VR alcuni case portano l'uscita HDMI sul frontale in modo da creare una prolunga dal back della scheda video al frontale del case.

3.4 Schede Video Esterne


↑ Un eGFX contenente una scheda video marcata MSI.​

Interfaccia di connessione tra schede video esterne e PC: ExpressCard, USB Type-C, Thunderbold 3
eGPU, eGFX.
Work in Progress


4. Multi-GPU: SLI, CrossFireX e NV LINK


↑ Due NVIDIA GeForce in SLI​

Qual è il motivo che ha portato alla loro nascita? Semplice l'utilizzo del calcolo parallelo è fondamentale nelle scene 3D, provate ad immaginare la quantità di elementi, di figure geometriche da ruotare o traslare o da ridimensionare secondo i requisiti per il prossimo fotogramma di animazione del gioco. Questi oggetti hanno ovunque da poche a migliaia di triangoli che li compongono; inoltre ogni triangolo deve essere proiettato sullo schermo anche cose che non vediamo (dal retro agli oggetti frontali ad oggetti che sono più lontani dallo spettatore e sono coperti da quelli più vicini). Tutto questo considerando una risoluzione che genera milioni di pixel e va di pari passo aumentando nel tempo aumentando il numero di pixel da renderizzare e non abbiamo nemmeno menzionato i programmi di texture mapping o vertex e pixel shader. Ma non è finita qui, tutte queste operazioni devono essere fatte in 1/60 di secondo per poter avere una minima fluidità o per i giocatori più esigenti addirittura 1/144 di secondo.

"Il mondo delle schede video si evolve molto più velocemente di quello dei processori, ma spesso non basta e quindi l'unico modo per superare ulteriormente questo limite è l'utilizzo di schede in parallelo."

Parliamo ora dell'interfaccia di connessione tra schede video ovvero l'utilizzo di tecnologie multi-GPU: SLI, CrossFireX, e NV LINK. Piccola nota di chiarezza: multi-GPU (o mGPU) è usato per indicare due schede in parallelo sia che utilizzino lo SLI o che utilizzino il CrossFire, ma non si può utilizzare la parola SLI per indicare il CrossFire.
Cos'è il multi-GPU? Consente a due, tre o quattro unità di elaborazione grafica (GPU) di condividere il carico di lavoro durante il rendering di grafica 3D in tempo reale; idealmente si utilizzano due (o più) schede identiche in cui una è la Master (dall'inglese Padrona, in genere è posta al primo slot PCI-E) e le altre sono le Slaves (dall'inglese Schiave), ognuna fa i propri conti ma tutte le informazioni sono mandate all'unità Master tramite il connettore Bridge (dall'inglese ponte) che provvederà all'output finale dell'immagine inviandola al monitor.

design-visualization-nvlink-animation-843-u.gif

L'NVLink rompe questo limite del Master-Slave, creando una collaborazione tra le due GPU a livello paritario che ne aumenta di molto le performance.
NVLink porta la velocità di trasmissione per corsia da 8 GT/s (PCie 3.0) a 20 GT/s (NVLink 1.0) per poi arrivare con NVLink 2.0 a 25 GT/s per corsia che tradotto in 8+8 corsie sono quindi 200 Gbit/s (che è uguale a 25 GByte/s) quindi 25 GByte/s + 25 GByte/s su di un unico grande collegamento come nel caso della RTX 2080 oppure su due grandi collegamenti come le RTX 2080Ti che quindi raddoppiamo a 50 GByte/s + 50 GByte/s quindi un totale di 100 GByte/s* per le RTX 2080Ti e 50 GByte/s* per le RTX 2080.
Naturalmente confrontato con il mondo professionale parliamo di ben altre cifre, NVLink di 2 NVidia Tesla V100 porta a valori quali 25 GByte/s + 25 GByte/s ma moltiplicati per ben 6 grandi collegamenti quindi un totale di 150 Gbyte/s + 150 Gbyte/s, per un totale di ben 300 GByte/s* per le Tesla V100.
*Parliamo sempre di valori teorici, che differiscono nella pratica.

4.1 Storia Multi-GPU
Per aumentare le prestazioni, nel 1998 si è pensato di unire la potenza di calcolo di più schede video insieme con una tecnologia definita SLI (acronimo di Scan Line Interleave), il primo ad introdurlo fu 3dfx sulle sue Voodoo 2 con accelerazione 3D con un piccolo cavo che le collegava alternando linee di pixel per ogni scheda; però questo non è bastato per mantenere a galla 3dfx anche perché spesso causa più che altro disastri grafici. Alla fine è stata assorbita da NVIDIA nel 2001, la quale ne assorbì i brevetti e nel 2004 decise di riproporre questa tecnologia sempre con l'acronimo SLI ma con un altro significato ovvero Scalable Link Interface. L'introduzione dello SLI iniziò con le Motherboard che utilizzavano non più l'AGP, ma il PCI Express (di cui parleremo a breve); inoltre le schede dovevano essere perfettamente identiche.
Nel 2005 ATI (successivamente acquistata da AMD nel 2006) dà la sua risposta nel mercato allo SLI con il CrossFire, ovvero la sua personale soluzione per il multi-GPU che crea una divisione tra le schede in Master e Slave che risolve solo successivamente.
Nel 2006 si è arrivati al supporto del Quad-SLI (differente dal Quad Way SLI) con ben 4 schede video in parallelo, inizialmente non potendo fornire 4 slot x16 si usarono solo due slot e delle "GPU doppie" con due PCB uniti (NVIDIA GeForce 7950 GX2), ma in entrambi i casi le prestazioni miglioravano di poco soprattutto per le applicazioni DirectX 9 limitate appunto da queste API (acronimo per Application Programming Interface sono delle librerie software. Le API permettono infatti di evitare ai programmatori di riscrivere ogni volta tutte le funzioni necessarie al programma dal nulla, ovvero dal basso livello, rientrando quindi nel più vasto concetto di riuso di codice. Vedrò di approfondire poi.)
Nel 2007 ATI si aggiorna con il supporto a 4 schede in CrossFire, il quale viene rinominato in CrossFire X; inoltre c'è la possibilità di utilizzare il CF anche per GPU doppie come l'HD 3870 X2.
Nel 2008 arriva sul mercato il Three-way SLI ovvero il supporto allo SLI per 3 schede video in 3 connettori fisici, con ogni scheda collegata tramite un bridge esterno alle altre due.
Nel 2014 viene annunciato l'NV Link, che utilizza un'interfaccia di comunicazione proprietaria ad alta velocità (NVHS) sviluppata da Nvidia.
Nel 2016 viene implementato anche nelle schede video Pascal; con Volta invece abbiamo avuto un miglioramento con l'NV Link 2.0.

4.2 Funzionamento SLI 3dfx e NVIDIA

↑ Scan Line Interleaving (3dfx SLI) in modalità a linee pari e dispari.​

Nella tecnologia Scan Line Interleaving di 3dfx, il carico di lavoro era ripartito tra le due schede video demandando ad una scheda l'elaborazione delle linee pari dello schermo e all'altra l'elaborazione delle linee dispari; successivamente le due scene venivano fuse per ottenere l'immagine finale. Questo approccio risultò essere molto efficiente per alcuni tipi di applicazioni e in certi ambiti le prestazioni subivano effettivamente quasi un raddoppio.


↑ Scalable Link Interface (NVIDIA SLI) in modalità SFR.


↑ SLI in modalità SFR, mostra come l'Output finale sia delegata alla scheda Master​

La tecnica di ripartizione del carico di lavoro alla base della tecnologia Scalable Link Interface invece è basata su un principio completamente differente dal suo omonimo.
Invece di far elaborare le linee pari dello schermo ad una GPU e quelle dispari all'altra, NVIDIA ha deciso di utilizzare due modalità di ripartizione del carico di lavoro:
  • Split Frame Rendering (SFR): con questa tecnica il rendering permette di suddividere la scena orizzontalmente in due parti da assegnare alle due schede. La suddivisione non è necessariamente al 50%, ma varia dinamicamente da un fotogramma all'altro: il driver analizza infatti l'immagine e definisce le percentuali da assegnare a ciascuna scheda video (in modalità SFR che vedremo a breve). Questo nuovo approccio consente di bilanciare in maniera ottimale il calcolo in quanto una suddivisione statica al 50% sarebbe risultata completamente inefficiente in casi, come nei simulatori di volo, dove, ad esempio, la zona inferiore dello schermo è solo un'immagine statica (l'abitacolo nel caso in esame) e quella superiore contiene invece moltissimi poligoni ed è interamente 3D.
  • Alternate Frame Rendering (AFR): il rendering della scena viene eseguito in modo sequenziale, con la prima scheda che renderizza i frames pari e l'altra quelli dispari. In genere è quella più efficiente e con la miglior resa a livello di produzione di fps. Quando si utilizza lo SLI con AFR, il framerate può essere spesso inferiore al framerate riportato dalle applicazioni di benchmarking e può anche essere più povero del framerate del suo equivalente a GPU singola. Questo fenomeno è noto come micro stuttering.
  • SLI AA (Anti-Alising): Questa ulteriore modalità non migliora le performance a livello di fps, ma aumenta la qualità dell'immagine. Questo poiché una scheda singola al massimo del dettaglio può in genere sopportare un filtro Anti-Alising x4 o x8, con questa configurazione si può raddoppiare se non quadruplicare l'anti-alising arrivando a x16 o x32. L'Anti-Alising è un filtro usato per migliorare i contorni, ma tranquilli che lo affronteremo meglio poi.
NVIDIA ha deciso di rendere disponibili entrambi i criteri in quanto non esiste la modalità migliore in assoluto; a seconda dell'applicazione in esecuzione, può essere migliore una o l'altra modalità. Per semplificare la scelta sono disponibili dei profili ottimizzati per un grande numero di applicazioni 3D e, semplicemente selezionando il profilo desiderato, è possibile sfruttare al meglio le potenzialità di una configurazione SLI. La configurazione SLI infatti, non è sempre a two-way ma può essere in three-way o quad-way SLI e in base a questa scelta si possono scegliere migliori opzioni di ripartizione:


↑ Modalità AFR in three-way SLI


Modalità AFR of SFR in quad-way SLI, ovvero la combinazione delle due modalità tramite l'utilizzo di 4 schede video​

I dati sui vertici, elaborati dal processore, vengono inviati alla prima scheda video e da questa ultima vengono duplicati alla seconda, utilizzando il connettore posto nella parte superiore delle due schede; questo permette a ciascuna scheda video di avere a disposizione le informazioni necessarie per la generazione della scena 3D. Una volta che il frame è stato generato dalla scheda video secondaria, i dati vengono inviati al frame buffer della scheda principale, quella alla quale viene collegato il monitor, e da quest'ultima mandati sullo schermo.

Nota Bene: Lo SLI permette l'utilizzo solo di schede uguali con lo stessa identica GPU, possono quindi essere di diversi partner. Esempio: MSI GTX 1070 + ASUS GTX 1070.
Il CrossFire X permette l'utilizzo di schede diverse (con qualche limitazione), ma la più potente si adeguerà alla più lenta. Esempio: RX 570 + RX 580, la RX 580 funzionerà come una seconda RX 570.
NVIDIA, inoltre, attua una politica aziendale di scegliere quali GPU possano essere messe in SLI e quali no, nel caso della generazione Pascal, GPU al di sotto della GTX 1070 (esclusa) non potevano essere messe in SLI quindi la GTX 1060 non poteva essere utilizzata per il multi-GPU.

4.3 Funzionamento CrossFire
Dopo aver parlato delle modalità di ripartizione di NVIDIA passiamo ora a quelle di AMD abbastanza simili:
  • SuperTiling: Modalità standard. Divide lo schermo in una scacchiera e i riquadri vengono renderizzati da ciascuna delle due schede (paragonando lo schermo a una scacchiera, una scheda renderizza i riquadri neri, l'altra quelli bianchi). Il SuperTiling supporta tutte le applicazioni Direct3D, ma non le OpenGL. È la modalità che offre il guadagno prestazionale minore, per il fatto che la computazione della geometria della scena non può essere divisa tra le due schede. Inoltre questa modalità funziona solo con schede aventi lo stesso numero di pipeline.
  • Scissor: anche conosciuto con il nome di Split Frame Rendering (SFR), utilizzato nello SLI di NVIDIA, divide lo schermo in due rettangoli orizzontali. È la modalità predefinita per le applicazioni OpenGL. Le prestazioni però sono analoghe a quelle del SuperTiling, anche se in teoria il primo dovrebbe essere migliore in quanto vi è una maggiore probabilità che i calcoli siano equamente distribuiti tra le due schede. Con la modalità Scissor il sistema deve calcolare il punto di divisione per bilanciare il carico tra le GPU.
  • Alternate Frame Rendering (AFR): una scheda renderizza i frame pari, l'altra quelli dispari. Questa modalità esibisce le prestazioni migliori, ma è incompatibile con i giochi che utilizzano funzioni render-to-texture, in quanto una scheda non ha accesso alla memoria texture dell'altra. Come NVIDIA, AMD utilizza nei driver dei profili per abilitare l'AFR nei giochi compatibili, ma non permette l'impostazione manuale per i giochi OpenGL. Quando si utilizza CrossFire con AFR, il framerate può essere spesso inferiore al framerate riportato dalle applicazioni di benchmarking e può anche essere più povero del framerate del suo equivalente a GPU singola. Questo fenomeno è noto come micro stuttering.
  • CrossFire Super AA: questa modalità non è studiata per incrementare il framerate, ma migliora la qualità delle scene utilizzando il Super AA (Super Antialiasing), che è in grado di raddoppiare il fattore di antialiasing (es. 4x, 8x, 12x) senza alcun calo nel framerate.
Nota Bene: Il CrossFire X permette l'utilizzo di schede diverse (con qualche limitazione), ma la più potente si adeguerà alla più lenta. Esempio: RX 570 + RX 580, la RX 580 funzionerà come una seconda RX 570. Lo SLI permette l'utilizzo solo di schede uguali, possono però essere di diversi partner. Esempio: MSI GTX 1070 + ASUS GTX 1070.


4.4 Bridge

Nvidia ha 3 tipi (4 se si conta il recente NVLink) di bridge SLI:
  • Bridge standard (400 MHz Pixel Clock e 1GB/s di larghezza di banda )
  • LED Bridge (540 MHz Pixel Clock)
  • Bridge a larghezza di banda elevata (HB Bridge, ovvero High-Bandwidth) (650 MHz Pixel Clock e 2GB/s Bandwidth)
Il Bridge standard è tradizionalmente incluso con schede madri che supportano SLI ed è consigliato per monitor fino a 1920 × 1080 e 2560 × 1440 @ 60 Hz. Il LED Bridge è venduto da Nvidia, EVGA, e altri ed è consigliato per monitor fino a 2560×1440 @120 Hz+ e 4K. I LED Bridge possono funzionare solo con l'aumento del Pixel Clock se la GPU supporta quel determinato clock. L'High-Bandwidth Bridge è venduto solo da Nvidia ed è consigliato per monitor fino a 5K e Surround.
Elettricamente c'è poca differenza tra il normale ponte SLI e il ponte SLI HB. È simile a due ponti regolari combinati in un PCB. La qualità del segnale del ponte è migliorata, tuttavia, poiché il ponte SLI HB ha una lunghezza della traccia regolata per assicurarsi che tutte le tracce sul ponte abbiano esattamente la stessa lunghezza.

Esistono Bridge per connettere schede video posizionate nel 1 e 2 slot (two-way SLI), oppure nel 1 e 3 slot (two-way SLI) oppure 1 e 4 slot (two-way SLI), così come esistono bridge che connettono 1, 2 e 3 slot (three-way SLI), e bridge che connettono 1, 2, 3 e 4 slot per un quad-way SLI.


Perché esistono connettori tra slot 1 e 3 e 1 e 4 vi starete chiedendo? Semplice per evitare che la scheda di sotto "ammazzi" l'airflow della scheda di sopra, lasciando quindi più spazio per quest'ultimo.

Il bridge SLI viene utilizzato per ridurre i vincoli di larghezza di banda e inviare i dati tra entrambe le schede grafiche direttamente. È possibile eseguire SLI senza utilizzare il connettore bridge su una coppia di schede grafiche di fascia bassa con i driver adatti. Poiché queste schede grafiche non utilizzano la stessa larghezza di banda, i dati possono essere trasmessi solo attraverso i chipset sulla scheda madre. Tuttavia, se sono installate due schede grafiche di fascia alta e il bridge SLI viene omesso, le prestazioni ne risentiranno gravemente, poiché il chipset non ha abbastanza larghezza di banda.

AMD nella fascia entry level e mainstream, non utilizza un Bridge ma utilizza solo il bus PCI-E. Lo utilizza invece nella fascia alta infatti, il nuovo Bridge CrossFire ha un'ampiezza di banda maggiore di quello utilizzato nello SLI, inoltre permette l'inserimento di schede video aggiuntive, in previsione di un eventuale utilizzo per i calcoli fisici.

Gli attuali SLI Bridge HB non sono compatibili con la nuova serie di schede grafiche RTX 20 del 2018. Queste schede utilizzano NVLink e richiedono un bridge NVLink a 3 slot o 4 slot. Solo due schede possono essere collegate con NVLink; lo SLI three-way e quad-way non sono possibili utilizzando il bridge NVLink.


4.5 Hybrid SLI nei Notebook
Nvidia Optimus
è una tecnologia di commutazione della GPU creata da NVIDIA che, in base al carico di risorse generato dalle applicazioni software client, passa senza interruzioni tra due adattatori grafici all'interno di un sistema informatico per fornire le massime prestazioni o il minimo assorbimento di potenza dalla grafica del sistema hardware di rendering. Sviluppato per Microsoft e Linux, ma è stato creato un progetto chiamato Bumblebee per un implementazione open source alternativa del supporto di NVIDIA Optimus per Linux (Ricordate che ci sono varie distribuzioni).

Hybrid SLI è il nome generico per due tecnologie, GeForce Boost e HybridPower. HybridPower è stato in seguito ribattezzato Nvidia Optimus .
GeForce Boost ha permesso di combinare la potenza di rendering di un iGPU e una GPU dedicata per aumentare le prestazioni.
HybridPower, d'altra parte, è un'altra modalità che non è per il miglioramento delle prestazioni. Il setup è composto da un iGPU e una GPU sul modulo MXM . L'iGPU assisterà la GPU per migliorare le prestazioni quando il laptop è collegato a una presa di corrente mentre il modulo MXM si spegnerà quando il laptop sarà scollegato dalla presa di corrente per ridurre il consumo energetico complessivo della grafica. Hybrid SLI è disponibile anche su schede madri e PC desktop con schede video dedicate.

Quando un utente avvia un'applicazione, il driver grafico tenta di determinare se l'applicazione trarrebbe vantaggio dalla GPU dedicata. In tal caso, la GPU viene risvegliata da uno stato di inattività (idle) e le vengono passate tutte le chiamate di rendering. Anche in questo caso, tuttavia, il processore grafico integrato (iGPU) viene utilizzato per produrre l'immagine finale. Quando vengono utilizzate applicazioni meno esigenti, l'iGPU assume il controllo esclusivo, consentendo una maggiore durata della batteria e un minore rumore della ventola. Con Windows, i Driver Nvidia offrono anche la possibilità di selezionare manualmente la GPU nel menu di scelta rapida all'avvio di un applicazione.

All'interno dello strato di interfaccia hardware del driver delle GPU Nvidia, l'Optimus Routing Layer fornisce una gestione intelligente della grafica. Optimus Routing Layer include anche una libreria a livello del kernel per il riconoscimento e la gestione di classi e oggetti specifici associati a diversi dispositivi grafici. Questa innovazione di Nvidia migliora lo stato e la gestione del contesto, allocando le risorse necessarie per ogni driver client (per ogni applicazione ad esempio). In questo schema di gestione del contesto, ogni applicazione non è a conoscenza delle altre applicazioni che utilizzano contemporaneamente la GPU.

Riconoscendo le classi designate, Optimus Routing Layer può aiutare a determinare quando la GPU può essere utilizzata per migliorare le prestazioni di rendering. In particolare, invia un segnale per accendere la GPU quando trova una di queste 3 tipologie di chiamata:
  • Chiamate DX (DX Calls): qualsiasi motore grafico 3D o applicazione DirectX (DX) attiverà questa tipologia di chiamate.
  • Chiamate DXVA (DXVA Calls): la riproduzione video attiverà questa tipologia di chiamate (DXVA acronimo per DirectX Video Acceleration).
  • Chiamate CUDA (CUDA Calls): le applicazioni CUDA attiveranno questa tipologia di chiamate.
I profili predefiniti aiutano anche a determinare se è necessaria una potenza grafica aggiuntiva. Questi possono essere gestiti utilizzando il pannello di controllo Nvidia.

Optimus evita l'uso di un multiplexer hardware (una specie di combinatore di segnali) e previene i glitch (malfunzionamenti) associati alla modifica del driver da iGPU a GPU dedicata, trasferendo la superficie dello schermo dal framebuffer della GPU dedicata, tramite il bus PCI Express, al framebuffer basato sulla memoria principale utilizzato dall'iGPU. Optimus Copy Engine è una nuova alternativa ai tradizionali trasferimenti DMA (acronimo per Direct Memory Access, un accesso alla memoria principale senza passare per la CPU) tra la memoria del framebuffer GPU e la memoria principale utilizzata da iGPU.


4.6 AMD Hybrid CrossFire/CrossFireX/Dual Graphics
È la controparte AMD dell'Hybrid SLI, il funzionamento è circa lo stesso, con 3 modalità di funzionamento:
  • Solo iGPU
  • Solo GPU dedicata
  • Ibrido tra iGPU e GPU dedicata
Hybrid CrossFireX è una tecnologia che consente all'iGPU e alla GPU dedicata di creare una configurazione CrossFire per migliorare la capacità del sistema di rendering di scene 3D, mentre la tecnologia Hybrid CrossFire X è presente sul I chipset 790GX e 890G, con due slot fisici PCI-E x16 in dotazione con lbandwidth x8, possono formare una configurazione ibrida di CrossFire X con due schede video e iGPU, migliorando le funzionalità di rendering 3D.

Il SurroundView è il termine usato per controllare più monitor in extended desktop mode o in clone/mirror/duplicate mode. L'iGPU e la GPU dedicata funzionano in parallelo per pilotare display multipli. Il successore di SurroundView è AMD Eyefinity (nota anche come DCE acronimo di display controller engine).

Il PowerXpress consente il passaggio senza interruzioni dalla grafica integrata (iGPU) alla grafica dedicata su notebook quando il notebook è collegato all'alimentazione per migliorare le funzionalità di rendering 3D e viceversa quando scollegato dall'alimentazione elettrica per aumentare la durata della batteria. Il processo non richiede il riavvio del sistema come nel passato e alcune implementazioni correnti di notebook.


4.7 Memoria Video nel mGPU
Spesso non si capisce bene questo concetto ovvero come viene utilizzata la memoria video nel multi-GPU, e per cercare di fare chiarezza nella mia testa tempo fa mi rivolsi al supporto NVIDIA americano per avere qualche conferma.

Schede Video AMD e NVIDIA in multi-GPU (qualsiasi scheda in SLI o CrossFireX) con qualsiasi libreria sia in DX11, che in DX12, che in Vulkan etc. la VRAM è solo copiata, in quanto ognuna renderizza un immagine che occupa nello stesso momento un peso uguale su entrambe le memorie.
L'utilizzo di DX12 / Vulkan non cambia la situazione in queste schede per un impossibilità dovuta al tipo di connessione Master-Slave.

Schede Video NVIDIA in NVLink (che rappresenta un sorpasso della connessione Master-Slave) possono usare entrambi le memorie video per differenti scopi rappresentando quindi non un effettiva condivisione ma una somma di memoria 6GB+6GB non significa che abbiate 12GB.
Questo può avvenire solo in DX12 e Vulkan, mentre non succede in DX11 neanche utilizzando NVLink.

Per chiarire il concetto memoria condivisa, memoria sommata, memoria copiata:

La memoria condivisa, significa che se io ho un unico grandissimo e unico file grande 7GB significa che posso tranquillamente utilizzare 6GB di una scheda e 1GB della restante scheda, in quanto la scheda accede e condivide con l'altra scheda la memoria come se fossero un tutt'uno. Questo non può avvenire poichè causerebbe un enorme aumento della latenza tra le GPU, dovendo accedere alla memoria dell'altra scheda come memoria aggiuntiva ma più distante.

La memoria sommata, significa che la memoria si divide in due blocchi, se ho 6 file grandi 2 GB l'uno, posso tranquillamente fare 3 file da 2GB su di una scheda occupando 6GB e 3 file da 2GB sull'altra scheda occupando altri 6GB. Se ho 1 file da 6GB occuperò in totale 6GB dei 6GB+6GB.

La memoria copiata significa che se io ho 1 file da 6GB sulla prima scheda, questo file deve copiato uguale sulla scheda Slave occupando 6GB e saturando anche la sua memoria video quindi occuperò 12GB dei 6GB+6GB con un solo file da 6GB.


↑ Vi lascio qui il breve responso di Uday Kumar, del supporto americano NVIDIA​

4.8 Linee PCI-E x16, x8 e x4


4.9 Vantaggi e Svantaggi del multi-GPU
Vantaggi mGPU:
  • Maggiori Prestazioni.
  • Potenziare il PC senza dover vendere la scheda video.
  • Combo di schede con un ottimo rapporto qualità/prezzo possono superare schede più costose.
  • Combo di schede top di gamma creano più potenza della singola scheda più potente esistente. (Es: 2xGTX 980 Ti, 2x GTX 1080 Ti, 2x RTX 2080 Ti)
Svantaggi mGPU:
  • Molte CPU attuali non supportano due schede in PCIe x16 + PCIe x16, più spesso le vediamo in PCIe x8 + PCIe x8, se non c'è un NVMe a prendersi 4 linee o se si possiede Ryzen che riserva 4 linee per gli NVMe, altrimenti potremmo avere le schede video in PCIe x8 + PCIe x4 e l'NVMe in PCIe x4.
  • Maggiori Consumi.
  • Spesa per PSU maggiorato (750W/850W nei migliori casi).
  • Spesa per il Bridge.
  • Maggiore Calore, sopratutto se poste una sopra l'altra e non distanziate da almeno uno slot.
  • Alcuni giochi non supportano SLI/CF, quindi userete una sola scheda video.
  • Molti giochi non sono ottimizzati per lo SLI.
  • Limitazioni varie per GPU "diverse" in base a se usate SLI o CF.
  • Le Prestazioni non sono il doppio quindi il 100% in più, ma in genere un 20-50% in più rispetto ad una scheda video (spesso di meno, in altri casi di più), in determinati casi il gioco non vale la candela conviene di più sostituire la scheda e vendere la vecchia.
 
Ultima modifica:

R3d3x

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
66
Livello di Conoscenza: NERD


5. Produzione Wafer


↑ Due video in cui spiegano approfonditamente i vari passaggi della produzione.​

Nella foto sottostante vediamo i Wafer di silicio con una struttura cristallina regolare, e con il silicio avente una struttura cubica diamantata con una spaziatura reticolare di 0.543 nm. Sono Wafer purissimi al 99,9999999%, le impurità in genere sono volute tramite il drogaggio del silicio con concentrazioni tra 10¹³ e 10 ¹⁶ atomi per cm³ di boro, fosforo, arsenico e antimonio che vengono aggiunti al fuso tramite la Ion Implantation e definiscono (in base ai materiali usati per il drogaggio) se il wafer è di tipo-n (fori con carica negativa) o di tipo-p (fori con carica positiva); le restanti impurità sono ridotte al minimo possibile tramite vari filtri e un asetticità elevata se non totale.

process-gravure-tsmc-7nm-5nm-f.jpg

↑ In foto dei Wafer già tagliati e incisi tramite fotolitografia, ma non ancora sfaldati.​

Nello specifico, si parte dalla quarzite grezza che viene raffinata fino a diventare silicio policristallino, di grado elettronico (EGS), ovvero silicio con meno di un'impurità ogni miliardo di atomi. Il polisilicio di tipo EGS viene sottoposto ad accrescimento cristallino per ottenere un lingotto cilindrico monocristallino ultrapuro chiamato boule tramite una delle due tecniche, o tramite il processo di Czocharalski (CZ) o tramite la Float Zone (FZ).


↑ In foto il Processo di Czocharalski
Ogni lingotto viene segato tramite una sega a filo (sega wafer), in modo da ottenere i wafer citati prima e lappato (la lappatura è quando usiamo un abrasivo per rendere una superficie metallica a specchio e per levigare la superficie) per evitare che sulla superficie del wafer ci siano irregolarità che si ripercuoterebbero in maniera pesante sul buon funzionamento del circuito integrato. A causa delle irregolarità, infatti, si potrebbero avere variazioni dello spessore delle piste conduttrici, con conseguenti variazioni, in qualche punto, della conducibilità elettrica delle stesse.
Una volta realizzati i wafer, la cui parte inferiore è definita bulk (massa), questi hanno una diametro di 10-12 pollici e con uno spessore inferiore al millimetro. La parte superiore sarà quella lavorata, ovvero sulla superficie del wafer.

Una volta realizzato il wafer è necessario proteggerlo da processi corrosivi (come l'acqua nell'aria) tramite un materiale isolante, ovvero l'ossido di silicio (SiO2), che impedirà cortocircuiti tra le piste conduttrici disposte su layer (livelli) diversi. Il materiale viene depositato sul wafer, e viene esposto ad agenti ossidanti quali aria e acqua, ad alte temperature oltre i 1000°, altrimenti si formerebbe del quarzo. Costringendo l'ossido ad avere una crescita termica sulla fetta di silicio, infatti, si fa in modo che esso si deformi non costituendo più una struttura cristallina ma amorfa. L'ossido di silicio viene quindi usato per la passivazione (tecnica che serve ad impedire la corrosione dei metalli) mentre per proteggerlo dall'umidità si utilizza il nitruro di silicio (Si3N4). Questi strati isolanti vengono di solito deposti per sputtering (una specie di vaporizzazione catodica) o chemical vapor deposition (CVD).


↑ Fotoresist di Tipo-P e di Tipo-N​

La fabbricazione dei circuiti integrati sui wafer di silicio richiede che molti layer, ognuno con uno schema diverso, siano depositati sulla superficie uno alla volta, e che il drogaggio delle zone attive venga fatto nelle giuste dosi evitando che esso diffonda in regioni diverse da quelle di progetto. I vari pattern usati nella deposizione dei layer sul substrato sono realizzati grazie ad un processo chiamato litografia. Durante la litografia, i wafer vengono rivestiti di un materiale chiamato photoresist (PR), e selettivamente esposto a radiazioni luminose (fotolitografia). Quindi la radiazione luminosa attraversa una maschera sulla quale è stato precedentemente realizzato il pattern che si vuole conferire al layer sul substrato di silicio, e che è trasparente ovunque tranne nelle zone sulle quali sono state realizzate le forme dello schema. Quando il photoresist viene bombardato da un'opportuna radiazione, esso polimerizza. Dopo l'esposizione il PR è soggetto a sviluppo (come una pellicola fotografica) che distrugge le zone esposte alla radiazione o quelle in ombra a seconda che si sia usato un PR positivo (type-p) o negativo (type-n). Viene rimosso il photoresist in eccesso tramite etching o lift-off (in base alla tipologia, se p o n), cercando di ridurre al minimo i possibili danni alla parte sottostante. L'ultimo passo è l'hard banking, necessario per indurire il photoresist e migliorarne l'adesione alla superficie del wafer.
Segue poi la fase del taglio nei singoli dice. Ci riferiamo spesso al die anche come Integrated Circuit Die (il cui acronimo è ICD, o IC, traducibile come Circuito Integrato Stampato), il plurale della parola inglese die ha tre possibili forme: dice, dies, e die.


↑ Ecco un Die "naked" ovvero nudo, senza il Chip Carrier​

Lo sfaldamento del wafer, si verifica in genere solo in alcune direzioni ben definite. I die sono allineati in una delle varie direzioni note come Crystal Orientations; l'orientamento è definito dall'indice Miller con 100 o 111 facce che sono le più comuni per il silicio.
Il calcolo del wafer lungo i piani di clivaggio consente di suddividerlo facilmente in singoli dice (stampi) in modo che i miliardi di singoli elementi del circuito su un wafer medio possano essere separati in molti circuiti singoli identici l'uno all'altro.
A questo punto vengono eseguiti i Wafer Test e tutti i chip vengono controllati, e si definisce resa, il rapporto tra il numero di dice funzionanti e quello di dice totali prodotti. Tale valore nelle moderne fabbriche è anche superiore al 90% in base allo sviluppo del processo produttivo a quei determinati nanometri.


↑ IHS separato deliddato dal chip carrier, visibile il Die coperto di pasta termica.​

Questi dice vengono poi applicati all'interno di contenitori detti chip carrier (tradotto come porta-chip o anche detto PlCC, acronimo di Plastic Leaded Chip Carrier) che rappresenta una parte del package (infatti il processo di chiusura e imballaggio, è detto die-packing) e collegati ai terminali metallici del package con filo metallico (processo di wire bonding). I terminali del package sono il tramite con cui il die può comunicare con il circuito in cui verrà inserito.
Il pezzo di metallo che chiude il chip carrier viene chiamato IHS (acronimo di Integrated Heat Spreader), unito al Die tramite il TIM (acronimo di Thermal Interface Material) che rappresenta la pasta termica che fa passare il calore dal die all'IHS. Al di sopra dell'IHS verrà poi posta la pasta termica o un pad termico che servirà a condurre il calore dal package della GPU all'Heatsink della scheda video. Il Delid è l'apertura del package, in genere con l'obiettivo di rimuovere la pasta termica prodotta dalla fabbrica per cambiarla con una pasta termica più efficiente in genere Metallo Liquido; questa procedura è molto rischiosa ma garantisce in genere, se fatta correttamente, migliori temperature, a volte anche di parecchi gradi.


5.1 Binning, Rebrand e Nomi in Codice

NVIDIA
e AMD sono i due più famosi produttori di schede video dedicate, ma ciò che loro fanno è solo il design del die (il cui sviluppo costa non poco) oltre definire le varie specifiche delle schede video, per questo sono definiti come aziende Fabless, ovvero svolgono il ruolo di progettazione e vendita ma la fabbricazione è affidata a ditte esterne definite come fab (per l'appunto fab-less, senza fabbrica) ovvero a fonderie di semiconduttori in genere site in Cina o a Taiwan, risparmiando quindi sui costi di adeguamento delle strutture, utilizzando i guadagni in ricerca e sviluppo, guardando poi verso il mercato finale.
La vera produzione delle GPU è quindi affidata alle fab, e tra le più famose annoveriamo TSMC (Taiwan Semiconductor Manufacotory Company, 1° posto tra le più grandi al mondo), WaferTech (sussidiaria controllata interamente ormai da TSMC), GlobalFoundries (al 2° posto tra le più grandi al mondo nata dalla cessione di una fonderia AMD nel 2009 diventata in quell'anno una fabless, e spesso criticata per quella scelta) e UMC (3° in tutto il mondo).
Le Fab sono definite dal diametro dei wafer che producono da 1-inch (25,4mm) a 16,7-inch (450mm) - i valori sono in continuo cambiamento e possono variare.


↑ Diagramma di una GPU​

Non tutte le GPU prodotte sono uguali: a causa proprio del processo di costruzione come avete visto molto lungo e complesso, e può quindi capitare che chip usciti dalla stessa linea di produzione siano leggermente diversi.
Un aspetto che viene tecnicamente definito Binning ovvero la classificazione dei prodotti in base alle loro caratteristiche, secondo il quale vengono categorizzati i chip, teoricamente identici, che escono da una linea di produzione in base alle loro performance termiche e di frequenza.
Le GPU con un "binning" più alto sono solitamente quelle capaci di operare a una frequenza di clock maggiore, rispetto a quelle con un "binning" più basso. Le specifiche di base sono pensate secondo un minimo comune denominatore (tutte le GPU devono avere almeno un certo grado di prestazioni per poter essere accettate), e alcuni assemblatori terzi, come Gigabyte per esempio, possono assicurarsi lotti delle GPU migliori per creare schede come GTX 1080Ti di diverse fasce:

1) Aorus GeForce GTX 1080 TI Extreme (Gigabyte) - Boost: 1746 MHz / Base: 1632 MHz in OC mode o in Gaming mode Boost: 1721 MHz / Base: 1607 MHz
2) Aorus GeForce GTX 1080 TI (Gigabyte) - Boost: 1708 MHz / Base: 1594 MHz in OC mode o in Gaming mode Boost: 1683 MHz / Base: 1569 MHz
3) GeForce GTX 1080 TI Gaming OC (Gigabyte) - Boost: 1657 MHz / Base: 1544 MHz in OC mode o in Gaming mode Boost: 1632 MHz / Base: 1518 MHz
4) GeForce GTX 1080 TI Founder Edition (Gigabyte) - Boost: 1582 MHz / Base: 1480 MHz

In ordine la prima ha "teoricamente" un binning più alto rispetto alle altre, poi la seconda, poi la terza e infine come binning più basso abbiamo la quarta.
Naturalmente, il numero di queste GPU "super efficienti" è limitato in ognuno dei lotti di produzione, quindi gli assemblatori di schede video sono sempre disposti a pagare di più rispetto al prezzo base per potersele assicurare, quindi piazzano un ulteriore rincaro nella vendita di queste particolari schede video.
Queste varianti implicano un livello di binning diverso e una crescente "raffinatezza" nel processo produttivo. C'è da dire che stesse varianti dello stesso chip binned possono avere un binning diverso, ovvero un chip può essere definito "più fortunato" rispetto ad un altro poiché durante la fase di overclock a parità di voltaggi, frequenze e dissipazione; riesce a mantenere stabilmente frequenze più alte rispetto ad una sua stessa variante.

Il binning implica che moltissime GPU non riescono a raggiungere le performance minime richieste, questo a causa della complessità delle procedure di costruzione dei chip.
È normale che da questa grande produzione, un grande numero di chip sia da scartare. Non tutti questi scarti sono da buttare però.
Alcuni non sono difettosi come altri, e disabilitando alcune delle parti problematiche, o riducendo la frequenza operativa, si riesce comunque a realizzare una scheda video, anche se incapace di fornire le prestazioni di quelle pienamente riuscite. Questo è il motivo che rende interessante schede basate sulle GTX 1070: la 1070 in partenza era una 1080 non inutilizzabile, poiché non riusciva a raggiungere le prestazioni di riferimento previste. In questi casi, AMD e NVIDIA possono comunque utilizzare il chip prodotto, e i consumatori beneficiarne ugualmente, visto che possono acquistare schede video dalle funzionalità ridotte, ma sempre molto interessanti, a prezzi di molto inferiori.

Naturalmente, gli scarti ottenuti dalla produzione di una GPU nuova sono sostanzialmente più alti rispetto a quelli ottenuti da un chip di qualche anno prima, dovuto all'affinamento del processo di produzione dei chip. Praticamente le intere serie Radeon R9 2xx e R9 3xx esistono perché l'alta efficienza produttiva consentiva ad AMD di tagliare i prezzi e reintrodurre quelli che erano i suoi prodotti di punta su un mercato, per così dire, di fascia media.
Definiamo questo processo Rebrand di una scheda video, molto usato soprattutto da AMD come nel caso della serie Polaris RX 4xx, con un rebrand si è passati alla serie RX 5xx, sebbene il fenomeno del minig abbia colpito duramente i prezzi delle schede video AMD e in parte di quelle NVIDIA, quando i prezzi delle schede di fascia mainstream, ovvero RX 580 8GB e delle 1060 6GB, si sono normalizzati; i prezzi delle RX 580 hanno subito una brusca discesa in quanto l'alta efficienza produttiva consentiva di tagliare i prezzi che fino a quel momento erano alterati dal fenomeno del mining.

GPU ------> GPU Rebrand
RX 460 -----> RX 560
RX 470 -----> RX 570
RX 480 -----> RX 580

Una volta che il processo di costruzione è terminato, AMD e NVIDIA finiscono con l'immagazzinare grandi quantità di chip. Una parte li vendono come Schede Video Reference e un'altra parte - più sostanziosa - le vendono a produttori terzi (partner commerciali). Una domanda che potreste porvi al momento guardando tra le 4 schede con differente binning di Gigabyte, è il pensare: "ma a cosa serve la GTX 1080 Ti Founder Edition di Gigabyte?"
Semplice, appena ricevono le scorte per non rimanere in dietro (in attesa di sviluppare tutta la parte del sistema di raffreddamento e adattarlo al PCB) utilizzano i chip con il sistema di dissipazione reference per iniziare ad ottenere i primi guadagni da poter reinvestire.


↑ GPU-Z​

Ogni GPU ha un nome diverso da quello delle schede video. Prendiamo per esempio le GPU NVIDIA della serie 10, in questo caso il numero più basso indica il chip più potente nelle prime 3 cifre, mentre la seconda parte indica la variante dello stesso chip dal più potente (numero più alto) al più debole (numero più basso):
GP100 (Quadro GP100), GP102-450 (Titan Xp) GP102-400 (Titan X Pascal), GP102-350 (GTX 1080 Ti), GP104-400 (GTX 1080), GP104-300 (GTX 1070 Ti), GP104-200 (GTX 1070), GP106-400 (GTX 1060 6GB), GP106-300 (GTX 1060 3GB), GP107-400 (GTX 1050 Ti), GP107-300 (GTX 1050).
Come si può notare Titan Xp, Titan X Pascal e GTX 1080 Ti condividono la medesima GPU102 ma con qualche differenza interna che ne crea le GPU Variant (-450, -400, -350), allo stesso modo GTX 1080, GTX 1070Ti e GTX 1070 condividono il medesimo chip, GP104, ma con differenze interne, le ultime 3 cifre servono appunto per differenziare queste varianti (-400, -300, -200). Quindi tutto questo ambaradan si conclude dicendo che una Titan Xp ha come sigla completa della sua GPU, GP102-450-A1.
Infine insieme a queste cifre, ormai comprensibili, ritroviamo la sigla A1 ovvero la GPU Revision, nient'altro che il numero di eventuali revisioni fatte alla GPU.

Successivamente parliamo della sigla iniziale che in realtà non ho spiegato, ovvero GP. Questa sigla specifica l'architettura della GPU ovvero in questo caso l'architettura NVIDIA Pascal, mentre se avessi avuto una scheda video della generazione precedente avrei ritrovato la sigla GM ovvero l'architettura NVIDIA Maxwell o precedente ancora a Maxwell avrei avuto l'archiettura NVIDIA Kepler quindi GK. Infine se avessi avuto una GPU serie 20, avrei ritrovato la sigla TU ovvero l'architettura NVIDIA Turing, questo poiché NVIDIA in genere utilizza nomi di famosi matematici e fisici. Attualmente sia AMD che NVIDIA si rivolgono a TSMC o a Global Foundry (definiti appunto come Foundry) per la produzione delle loro GPU. La maggior parte sono prodotte da TSMC, ma anche Global Foundry fa del suo ad esempio con le Vega 56 e 64 (ricordatevi che GF è sempre un acquisizione delle vecchie fonderie di AMD)
 
Ultima modifica:

R3d3x

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
66
6. Refresh Rate, V-Sync, Frame Buffer, e Input Lag
Il Refresh Rate di un monitor è la sua velocità di aggiornamento in un secondo. Ora supponiamo di avere un monitor a 60 Hz che corrisponde all'aggiornamento del display ogni sessantesimo di secondo, ovvero 1/60 s questo si traduce in millisecondi in esattamente 16,7 ms, quindi ogni 16,7 ms il monitor mostrerà un immagine diversa da quella precedente per dare la sensazione di movimento e lo farà per 60 volte con 60 differenti immagini. Tutto ciò serve a dare una sensazione di movimento che parte già dai 24 Hz ma che aumenta ma mano di fluidità con il salire del refresh rate. Il soggetto risulta quindi meno a scatti, ma il movimento che si crea è fluido.
Durante un gioco non c'è alcuna garanzia che la scheda video possa renderizzare un frame in 16,7 ms poiché dipende dalla complessità del frame, che può quindi essere creato in più tempo (ad esempio 20 ms) o in meno tempo (ad esempio 10 ms), rispetto ai canonici 16,7 ms. (Immaginate che a 144 Hz il display si aggiorna in un 1/144 di secondo quindi ogni 6,9 ms il frame deve essere pronto!)

Questo significa anche, che un monitor che nasce con un pannello a 144 Hz se è impostato a livello software a 60 Hz invece che a 144 Hz, avrà come refresh rate massimo 60 Hz e non 144 Hz. Quindi i vostri fps si regoleranno sui 60 Hz del pannello. Se non sapete impostare refresh rate più alti ecco la guida:


Approfondimento:
I Monitor CRT, funzionavano più o meno così:


Immaginate un imbuto in cui la parte più stretta veniva riscaldata da un riscaldatore (ecco perchè i televisori sulla parte posteriore era sempre caldi) questo riscaldamento del catodo ovvero un elemento metallico emette elettroni per effetto termoionico, questi elettroni vengono sparati da un cannone e fatti convergere in un fascio (raggi catodici). Questo raggio viene deflesso da campi magnetici o elettrici in modo da colpire un punto dello schermo che rappresenta l'anodo. La superficie è rivestita di materiale fluorescente, detti fosfori (metalli di transizione o terre rare), che eccitato dagli elettroni ricevuti, emette luce.
Giusto per completezza, i Monitor CRT a colori hanno 3 cannoni di elettroni che sparano i colori Red, Green e Blue, che combinati quindi danno i colori attraversando in un unico punto uno dei buchi della shadow mask.

Il tubo catodico presenta una curva di risposta caratteristica del triodo (o valvola termoionica), che conduce ad una relazione non lineare tra la corrente elettronica e l'intensità della luce emessa, chiamata funzione gamma. Nei primi televisori questo era positivo poiché aveva l'effetto di comprimere il contrasto (riducendo il rischio di saturazione delle parti più chiare o scure), ma in alcune applicazioni informatiche dove la resa dei colori deve essere lineare, come nel desktop publishing, deve essere applicata una correzione gamma.

Con i Monitor CRT, c'era il Vertical Blanking Interval (o Intervallo di Vuoto Verticale o VBI o anche VBLANK) ovvero il tempo che intercorre tra la fine della riga finale di un frame e l'inizio della prima riga del frame successivo. Era originariamente necessario a causa dell'inerzia induttiva delle bobine magnetiche che deviano il fascio di elettroni verticalmente in un tubo a raggi catodici (CRT) ; il campo magnetico, e quindi la posizione che viene disegnata, non può cambiare istantaneamente. Per la deflessione orizzontale, c'è anche una pausa tra le linee successive, per consentire al raggio di ritornare da destra a sinistra, chiamato horizontal retrace o intervallo di blanking orizzontale (Horizontal Blanking Interval) per potersi spostare dalla prima riga alla seconda riga tornando indietro e così via.

Questo era la base del refresh rate dei monitor, ad oggi i più recenti CRT non hanno un tempo di soppressione così lungo mentre gli LCD non lo hanno affatto ma devono comunque "ri-orientarsi" tramite un Vertical Blanking Signal, che gli fa capire che c'è bisogno di tornare dalla riga finale a quella iniziale.


Abbiamo quindi display emissivi (LED) e non emissivi (LCD), i primi convertono l'energia elettrica in luce come appunto i pannelli LED (Light Emitting Diode) o al plasma, i secondi utilizzano l'effetto ottico per convertire la luce da una fonte certa nel pattern grafico desiderato come appunto nei pannelli LCD (Liquid Crystal Display).

Il V-Sync Signal o Vertical Blanking Synchronization Signal (se avete letto l'approfondimento capirete meglio del perchè di questo nome :asd roba che quando l'ho capito mi è venuto un po' di mind fuck) è il segnale che manda il monitor alla GPU per dire che è pronto per il prossimo frame.

Noi abbiamo la possibilità di scegliere come il frame debba essere passato al display. Può passare il nuovo fotogramma al display non appena è completamente renderizzato, comunemente noto come l'esecuzione del gioco con V-Sync OFF (o sincronizzazione verticale disattivata e quindi non si sincronizza in base al segnale di vertical blanking del monitor), oppure può attendere fino a quando il display è pronto per l'aggiornamento prima di inviare il nuovo fotogramma, noto come V-Sync ON (o sincronizzazione verticale attiva, quindi si sincronizza con il segnale di Vertical Blanking del monitor). Prima di andare avanti è opportuno però parlare di frame buffer.

Cos'è il frame buffer? È una regione di memoria fisica utilizzata per archiviare temporaneamente i dati mentre vengono spostati da un luogo a un altro, in particolare il frame buffer è un buffer di memoria contenente un frame completo di dati o meglio un bitmap dei dati dell'immagine ovvero una vera e propria mappa di dove si trova ogni pixel.

Il Bitmap ha due proprietà:
- Risoluzione, è determinata dal numero di pixel contenuti nell'unità di misura considerata, si misura in PPI (Pixel Per Inch) oppure in DPI (Dot Per Inch).
- Profondità, è definita dalla memoria che si dedica ad ogni pixel, ovvero dal numero di bit dedicati ad ogni pixel per descrivere il colore, e si misura in BPP (Bit Per Pixel); maggiore è il numero di bit, maggiore è il numero di colori che è possibile descrivere. I valori di colore sono comunemente memorizzati in binari a 1 bit (monocromatici), a 4 bit pallettizzati, a 8 bit pallettizzati, a 16 bit di colore elevato (High Color) e a 24 bit di colori reali (True Color). A volte viene utilizzato un canale alfa aggiuntivo per conservare le informazioni sulla trasparenza dei pixel. Approfondito nel capitolo → 6.5 Framebuffer e Profondità del Colore (Bit Depth)

La grafica bitmap non è vantaggiosa se l'utente necessita di apportare modifiche all'immagine, perché nel caso ad esempio di uno zoom, la risoluzione e quindi la qualità dell'immagine peggiora. I software grafici, per ridurre il problema, sono in grado di ripristinare la risoluzione inserendo nuovi pixel che vengono calcolati facendo una interpolazione, il processo inserisce, perciò, deliberatamente una quantità di informazioni presunte e non necessariamente reali. La grafica bitmap si mostra idonea e per rappresentare immagini della realtà, per modificare contrasti e luminosità di queste, per applicare filtri di colore.

La quantità totale di memoria richiesta per il framebuffer dipende quindi dalla risoluzione del segnale di uscita e dalla profondità del colore.

6.1 V-Sync ON (Sincronizzazione Verticale - Attivata)
Viene utilizzato per risolvere il problema del tearing (strappo dell'immagine). Con il V-Sync attivo, vengono limitati i frame renderizzati dalla scheda grafica in base alla frequenza di aggiornamento massima del display attiva in quel momento, quindi la GPU cercherà di fare 60 fps per un monitor 60 Hz o 144 fps per un 144 Hz.
Se gli fps (frame per second) scendono sotto il Refresh Rate impostato del Monitor fps si ha dello stuttering (traducibile dall'inglese come "balbuzie", ovvero l'interruzione della fluidità dei fotogrammi). Esempio V-Sync attivo che limita i frame a 60 fps con monitor impostato a 60Hz, in una scena concitata gli fps vanno a 30-35 fps e quello che appare a schermo è lo stuttering.

Ora guardiamo il V-Sync Attivo a livello di Frame Buffer come si comporta
Quindi una volta che la GPU ha renderizzato il bitmap e quando ha il risultato di quello che ha calcolato lo schiaffa nel frame buffer ovvero all'interno di un po' di memoria della scheda video, e poi questo viene mandato al Video Display Controller (Hardware che guida il display e aggiorna continuamente il contenuto del display leggendo il contenuto della memoria grafica).

Se la GPU calcolasse direttamente l'immagine nell'area di memoria (buffer) e la mettesse a display, il risultato sarebbe orribile, non avremmo immagini complete ma in costruzione progressiva, poiché il frame buffer è occupato a passare i dati al Video Display Controller che mostra a monitor riga per riga fino alla fine del frame e quindi la GPU non può calcolare su questo frame buffer e deve quindi aspettare.

La soluzione a questo problema è un doppio buffer (double buffer) che consiste nell'accettare un po' latenza aggiuntiva ma mantenendo permanentemente due buffer. Uno viene utilizzato dalla GPU su cui scrivere e fare quindi il rendering dell'immagine (back buffer o secondary buffer) mentre un altro contiene l'immagine precedente creata (front buffer o primary buffer).

Il Monitor è quindi pronto per un nuovo frame e manda il segnale di Vertical Blank (o V-Sync Signal) mentre la GPU ha già elaborato il prossimo frame sul back buffer.


4.png
A questo punto però, il back buffer dovrebbe copiare le proprie informazioni sul front buffer per poi mandarle a monitor, ma questo porterebbe una latenza enorme e saremmo punto e a capo. Invece questi Back e Front Buffer si scambiano di ruolo e alla fine del frame arriva il Vertical Blank Signal che li fa switchare di ruolo (quindi solo quando c'è il segnale di V-Sync attivato). Quindi il vecchio front buffer che ha appena finito di dare riga per riga al monitor, diventa il nuovo back buffer e va ad essere scritto dalla GPU che renderizza su di esso il frame, mentre il vecchio back buffer diventa un nuovo front buffer che manda l'immagine a monitor riga per riga.


Cosa succede però se la GPU che sta creando il frame va in difficoltà e impiega troppo tempo a crearlo? Dato che il nuovo frame nel Frame Buffer non è ancora pronto, la scheda manderà a display il precedente frame posto nel front buffer, e quindi il monitor mostrerà due volte lo stesso frame. Questo causerà lo stutter se si ripeterà più e più volte andando a bloccare quella che è la fluidità guadagnata da un maggiore refresh rate del monitor.


giphy.gif

↑ Esempio di Stuttering (balbuzie dei fotogrammi) in Game.


↑ Nel rettangolo in verde abbiamo il back buffer, e in quelli grigi il front buffer. Stutter​

È qui che entra in gioco un altra opzione che è possibile attivare tramite pannello di controllo ovvero un triple buffer (un unico Front Buffer e un doppio Back Buffer) ma quest'ultimo aumenta ancora di più la latenza già aggiunta da un doppio buffer rispetto ad un buffer singolo.

Come funziona questo triplo buffer? Semplice, la GPU renderizza il frame sul terzo buffer, nel frattempo c'è un secondo buffer sul quale è già stata renderizzata un immagine e attende nel frattempo che il primo buffer (front buffer) manda a monitor tutte le informazioni.

Quando arriva il segnale di V-Sync dal monitor (V-Sync ON), il secondo buffer (back buffer) diventa il primo buffer (front buffer), il front buffer diventa il terzo buffer (back buffer) dove la GPU renderizza, e il terzo buffer dove è appena stata renderizzata l'immagine diventa il secondo buffer che memorizza questa immagine e la mantiene disponibile fin quando non sarà poi necessaria e così via.


Questo implica che nel caso la GPU fosse lenta a renderizzare sul back buffer terziario, c'è già disponibile il back buffer secondario che compensa la situazione rimuovendo lo stutter. Questa non è la miglior soluzione poiché aumenta la latenza generale.


6.2 V-Sync OFF (Sincronizzazione Verticale - Disattivata)

Di base il gioco verrà avviato con il V-Sync OFF quindi è la situazione standard che consente alla scheda grafica di effettuare il rendering dei frame senza alcun vincolo e senza tetto (o cap), non c'è quindi un tetto massimo per gli fps che può fare la scheda video rispetto alla velocità di aggiornamento del monitor. Quello che vediamo nella seguente immagine è nei rettangoli in verde il frame buffer e nei rettangoli in grigio il front buffer.
Il vantaggio del V-Sync OFF è quello di avere la minor latency (latenza) possibile poiché appena ha il frame renderizzato lo manda subito a display. Quando la latenza è importante? In giochi competitivi, il V-Sync attivo aumenterebbe l'input lag. Se giocate competitivo meglio subire lo strappo del fotogramma che aumentare la latenza.

Ora guardiamo il V-Sync a livello di Frame Buffer come si comporta


Con il segnale di V-Sync disattivato, il frame buffer effettuerà lo swap (scambio) da front buffer a back buffer e viceversa non appena l'immagine nel back buffer sarà pronta.
Mettiamo che la GPU renderizza sul Back Buffer e che poi questo diventi il Front buffer che deve essere quindi caricato riga per riga a display, quindi appare l'immagine completa. Ma cosa accade se nel mentre il front buffer carica riga per riga ed è arrivato a metà del frame, nel frattempo sul back buffer la GPU ha già renderizzato l'immagine successiva?
In questo caso il front buffer switcha (si scambia) immediatamente di ruolo con il back buffer, e la restante metà dell'immagine viene presa dal nuovo frame presente nel nuovo front buffer. Così si crea il tearing.


8.png
Questa situazione come dicevamo, causa un artefatto nell'immagine definito Tearing del frame (o spezzamento o strappo dell'immagine, del frame, o del fotogramma), poiché il display non si aggiornare con l'intera immagine istantaneamente, ma invece si aggiorna riga per riga, e di solito parte dalla parte superiore del display alla parte inferiore.


↑ Esempio di Tearing (Strappo) del fotogramma in Game.


↑ Nel rettangolo in verde abbiamo il back buffer, e in quelli grigi il front buffer. Tearing​

Riassumendo per il V-Sync OFF:
  • SI Tearing (Spezzamento dell'immagine durante il game, in particolare durante rapidi spostamenti o rapidi cambi di scena)
  • Minor Input Lag possibile
  • Utilizzabile durante Giochi Competitivi (eSports) e/o frenetici (Giochi di Corsa, Simulatori, Spara-tutto ecc.)
Riassumendo per il V-Sync ON con Double Buffer:
  • NO Tearing
  • Possibile Stuttering (Se fps scendono sotto il Refresh Rate)
  • Aumento dell'Input Lag
  • Giochi in genere non competitivi (o non a livello dei cosiddetti pro gamer) o non molto frenetici in cui il tearing dà fastidio (Action RPG, MMORPG, MOBA, ecc.)
Riassumendo per il V-Sync ON con Triple Buffer:
  • NO Tearing
  • NO Stuttering (rare occasioni)
  • Aumento considerevole dell'Input Lag
  • Giochi non competitivi e non frenetici, quando volete godervelo al meglio della sua bellezza fregandovene dell'input lag (Open World, MMORPG ecc.)
6.3 Input Lag e Latenza
L'input lag è il ritardo che parte da quando noi clicchiamo un tasto sulla nostra tastiera e vediamo l'azione che viene eseguita a display


↑ Esempi su di un gioco di Input Lag in base a Refresh Rate del Monitor e tetto di fps sbloccato o meno.
6.4 Adaptive Sync, Free Sync e G-Gync
Nel tempo però per cercare di limitare queste problematiche sono state inventate nuove soluzioni:
  • Adaptive Sync / Free Sync / G-Sync Compatibile / G-Sync (Sincronizzazione Adattiva): Il monitor farà combaciare il refrash rate con gli fps prodotti dalla GPU
  • Adaptive Sync - Half Refresh Rate (Sincronizzazione Adattiva - Velocità di aggiornamento dimezzata)
  • Fast-Sync (Sincronizzazione - Veloce): Non c'è limite agli fps renderizzabili, e la latenza è quindi quasi simile a quella V-Sync OFF, ma tutti gli fps che superano il refresh rate massimo del monitor vengono ignorati. Se gli fps (frame per second) scendono sotto il tetto massimo di fps, si ha dello stuttering (traducibile dall'inglese come "balbuzie" ma forse la traduzione più corretta per noi è un immagine a singhiozzo, ovvero avrete dei veri e propri salti di fotogrammi). Utilizza un triple buffer (Front Buffer - Back Buffer - Back Buffer 2)
  • Freesync 2 e G-Sync HDR
Alcuni concetti da avere ben chiari in mente:
  • Più fps riducono l'input lag (Esempio: 1s/60fps = 17 ms, 1s/200fps = 5 ms)
  • Più è alto il Refresh Rate del Monitor più si riduce l'input lag (Esempio: 1s/60Hz = 17 ms, 1s/200Hz = 5 ms )
  • Se gli fps superano il Refresh Rate del Monitor, si ottiene in genere minor input lag ma questo non è universalmente valido per tutti i giochi.
  • V-Sync aumenta l'Input Lag per vari motivi, il primo è che blocca gli fps a quelli del refresh rate del monitor (144fps massimo su monitor 144Hz)
  • V-Sync elimina il Tearing
  • V-Sync può essere usato su qualsiasi Monitor
  • V-Sync, se la GPU non regge il tuo frame rate, dimezzerà il frame rate a metà del refresh rate del monitor (30Hz se non riuscite a mantenere i 60fps a 60Hz)
  • Adaptive-Sync (G-Sync e Free-Sync) adatterà dinamicamente il refresh rate del monitor al frame rate prodotto dalla GPU, eliminando il tearing.
  • Adaptive-Sync non è supportato da tutti monitor. Ci deve essere la dicitura Adaptive Sync valido sia per il Free-Sync (per schede video AMD) che per il G-Sync Compatibile (per schede video NVIDIA).
  • NVIDIA ha inoltre un modulo hardware installato nei monitor che richiede una licenza che causa un sovrapprezzo dei monitor, in media di 100-200€. Questi monitor possono sfruttare il G-Sync, resta però simile ad un Adaptive-Sync. Questo significa che performano allo stesso modo, ma il G-Sync deve rispettare dei determinati standard in tutti i monitor venduti con la dicitura G-Sync, mentre potrebbe esserci una leggera variabilità nei monitor che utilizzano lo standard open source come il Free-Sync.
  • Adaptive-Sync aggiunge input lag ma non quanto ne porta il V-Sync
  • Adaptive-Sync funziona solo sotto al refresh rate massimo del tuo monitor (fino a 144fps su di un monitor 144Hz), al di sopra del quale vi darà tearing (non può aggiornare il monitor ad una velocità superiore a quella delle specifiche del monitor).
  • Fast-Sync elimina il tearing introducendo un 3° buffer (oltre al Front e Back buffer, si aggiunge un secondo Back Buffer)
  • Fast-Sync può essere usato su qualsiasi Monitor.
  • Fast-Sync richiede una GPU NVIDIA (Maxwell, Pascal o Turing).
  • Fast-Sync aggiunge input lag ma non quanto ne porta il V-Sync
  • Fast-Sync funziona solo quando la GPU renderizza più frame del refresh rate del tuo monitor (oltre 144fps su di un monitor 144Hz)
  • Fast-Sync e G-Sync possono essere utilizzati in combinazione.

Work in Progress
6.5 Framebuffer e Profondità del Colore (Bit Depth)

Nelle applicazioni che fanno uso intensivo della grafica, come molti videogiochi, si può raggiungere un compromesso tra la rapidità di successione dei quadri e la qualità del colore aumentando o diminuendo la profondità di colore dello schermo.
Le grafiche a profondità più bassa occupano meno memoria nel framebuffer (area di memoria) della scheda video e richiedono una minore ampiezza di banda dello schermo. Per questo motivo, consentono una visualizzazione più veloce. Profondità grafiche maggiori permettono una miglior qualità del colore, ma a spese della rapidità di visualizzazione e di risposta del sistema.

Nel framebuffer sono contenute le informazioni sul colore di ciascun pixel, ovvero di ciascun punto dello schermo, che possono essere a 1-bit (bianco e nero), 4-bit o 8-bit (modalità a tavolozza), 16-bit (Highcolor) o 24-bit (Truecolor).

Attualmente i nostri monitor sono in Truecolor con 8-bit per canale RGB; poiché un byte è formato da 8 bit, può memorizzare 256 ( 2 ⁸ ) intensità differenti per ogni canale. La combinazione delle intensità dei tre canali (256 da Red x 256 da Green x 256 da Blue) consente di rappresentare 16.777.216 colori differenti 16,7 milioni di colori.
Ad essere più precisi, i nostri monitor sono nella modalità Truecolor a 32 bit (4 byte).
Questo poiché si aggiungono ai 24-bit di RGB (3 x 8-bit), altri 8-bit (4 x 8-bit) che possono essere:
  • Vuoti, senza alcuna utilità, o per meglio dire con un utilità secondaria ovvero per ottimizzare l'accesso dei processori ai 24-bit di colore (dato che 32 è una potenza di 2, renderebbe più facile la ricerca ai processori)
  • Utilizzati dal canale alpha, che viene usato per semplificare la rappresentazione di immagini traslucide, e viene utilizzato dagli ambienti desktop per effetti come finestre traslucide, ombre e dissolvenze.
Sebbene si fosse in grado di salire oltre gli 8-bit per canale, quindi anche 12-bit e 16-bit, non c'era un miglioramento denotabile nel passare a queste soluzioni in quanto l'occhio umano non era in grado di percepirle oltre i 10-bit per canale, rimasero quindi un utilizzo di nicchia soprattutto per evitare errori di arrotondamento nell'elaborazione di immagini o nelle scansioni di scanner ad alta qualità. Solo successivamente sono tornati in voga i 10-bit e i 12-bit.

Se ad esempio andate nel pannello di controllo NVIDIA (in modifica la risoluzione), oltre che trovare le impostazioni per la risoluzione e per il refresh rate, troverete sotto una terza opzioni modificabile: Impostazioni Colore NVIDIA.
Nella quale potrete scegliere l'impostazione massima del Truecolor a 32 bit, con 8 bpc (ad 8-bit per canale oppure salire a 10 bpc o a 12 bpc se il monitor lo permette), il formato Colore RGB (potete scegliere i vari modelli del colore, dopo li vedremo meglio) e l'intervallo dinamico output (vi ricordate che dicevo che esiste il 4° canale, definito come canale alpha, e che può essere utilizzato oppure vuoto? Bene, se è vuoto abbiamo da 16 a 235 colori, se utilizzato aggiungiamo le trasparenze, le ombre e le luminosità arrivando quindi ad un intervallo dinamico di colori da 0 a 255).

Attualmente dato il crescente bisogno di miglioramento, per adeguarsi al formato colore dell'sRGB (approfondiremo poi) non bastavano più i 6 bpc (acronimo di bit per colore, i 6 bpc sono molto utilizzati dai vecchi monitor) ma ne servivano almeno 8 bpc, per questo motivo la maggior parte degli attuali monitor è un 8 bpc.



6.6 Monitor HDR, Monitor FRC e Daltonismo

HDR è l'acronimo di High Dynamic Range ovvero un intervallo dinamico superiore rispetto a quello standard chiamato SDR (ovvero Standard Dynamic Range). Per l'HDR servono almeno 10 bpc - "Oh ma guarda un po' allora è per questo che spesso lo chiamano HDR10?" - sebbene bastino, questi creano un po' di effetto banding (dall'inglese a fasce, a bande, a strati nel senso che vedete proprio il distacco da un colore ad un altro). Per evitare questo effetto banding prima si utilizzava il dithering (dall'inglese vibrazione, oscillazione) che comporta quindi creazione di rumore tra le due bande di colori in modo tale da "appiattire" almeno in minima parte il distacco e quindi l'effetto banding.


Dai vari test effettuati l'HDR con 10 bit produce l'effetto banding, per questo motivo la società Dolby Laboratories introduce il suo standard chiamato Dolby Vision, ha infatti concluso che per un vero HDR risultavano più efficaci i 12 bit per canale e quindi lo standard Dolby Vision è superiore all'HDR10.
C'è, però, un altro problema per raggiungere lo standard Dolby Vision, ovvero la necessità di Monitor/TV da almeno 4000 nits di luminosità che arrivino fino ai 10.000 nits per sfruttare i 12 bit per canale, e ovviamente non tutte le TV e i Monitor sono in grado di riprodurli. I monitor HDR10 in genere riescono a riprodurre in media 1000 nits fino ad un massimo di 4000 nits, motivo per il quale con questa luminosità riescono un po' a limitare l'effetto banding, poiché se riproducesse i video al massimo della luminosità si inizierebbe a notare molto di più il famoso effetto banding.

A questo punto solo per completezza vi dico che esiste lo standard di Samsung e Amazon Video (sviluppato dall'unione di Samsung, Panasonic e 20th Century Fox) chiamato HDR10+ o HDR 10 Plus che cerca di colmare le differenze tra HDR10 e Dolby Vision, HDR10 + aggiorna HDR10 aggiungendo metadati dinamici che possono essere utilizzati per regolare in modo più accurato i livelli di luminosità su base scena per scena o frame per frame, oltre ad innalzare la luminosità ad un massimo effettivo di 4000 nits come per il Dolby Vision.

Qual è, invece, la differenza tra monitor HDR 10 bit e monitor HDR 8bit+FRC?
La tecnologia Frame Rate Control è utilizzata da LG e da altre società per migliorare la profondità del colore di 2 bit in più. Spiegandolo in parole povere in quanto non sono un esperto nel campo, sapete che gli LCD sono composti da cristalli liquidi, questi cristalli possono avere degli orientamenti ma non abbastanza per coprire 1024 orientamenti tra 0° e 90°, per creare sfumature di colori, quindi si usa un trucco pressoché simile all'effetto dithering.
Esempio: Monitor HDR 8bit+FRC vuole ottenere la sfumatura 401. Il pixel deve visualizzare la sfumatura 401, ma il pannello può produrre solo 400 e 404, quindi ciò che fa è spostare rapidamente il pixel tra 400 e 404. Nel 75% dei casi mostrerà un 400 e nel 25% dei casi un 404, quindi per questo parliamo di frame rate (percentuale del fotogramma) creiamo quindi una sorta di dithering temporaneo. A 30 Hz o comunque a bassi refresh rate, spesso questo causa un famoso problema definito flicker (sfarfallio del monitor), molto dannoso per la vista e non sempre visibile ad occhio nudo. Vi lascio qualche metodo per verificare se il vostro monitor è flicker free (senza sfarfallii).


Il problema dei pannelli FRC è che il tuo occhio può distinguere 256 colori per blu, per rosso, e anche di più per il verde (ecco perchè i daltonici sono spesso di tipo deuteranomalia ovvero non vedono il verde, ma possono essere anche protanomalia non vedendo il rosso o tritanomalia non vedendo il blu fino poi alla acromatopasia, la completa assenza di colore) quindi lo sfarfallio di colori che si creava quando i monitor erano prevalentemente a 6-bit con l'FRC era evidente, ma risulta meno problematico ed evidente con gli 8-bit.
Quindi per un Gamer un 8bit+FRC va più che bene per giocare e si può dire che non appesantisca neanche il framebuffer come i monitor 10 bit, non va invece bene per un designer/editor che dovrebbe preferire un 10 bit in quanto molte videocamere possono ormai riprodurre a 10 bit i filmati, e quindi la trasformazione da 10 bit agli 8 bit, durante l'editing, creerebbe un leggero banding.


Colorspace.png

↑ Modelli colore più famosi: CMYK, sRGB, Adobe RGB, ProPhoto RGB.​

L'altro motivo è che un Editor che lavora con modelli di colore più ampi dell'sRGB come magari l'Adobe RGB (che è circa il 40% più grande dell'sRGB); 8-bit non sarebbero sufficienti a coprire l'intera gamma, il che creerebbe nuovamente il banding quindi è preferibile utilizzare monitor 10-bit se si usano modelli di colore più ampi dell'sRGB.
 
Ultima modifica:

R3d3x

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
66
Ultima modifica:

R3d3x

Moderatore
Staff
Iscritto dal:
23 Dicembre 2017
Messaggi
66
INDICE DELLA GUIDA

Lista capitoli in aggiornamento:


Post #1:
Capitolo 1 - Completo
Capitolo 1.1 - Completo
Capitolo 1.2 - Completo
Capitolo 1.3 - Completo

Capitolo 2 - Completo
Capitolo 2.1 - Completo

Capitolo 2.2 - Work in Progress 50%
Capitolo 2.3 - Completo
Capitolo 2.4 - Completo
Capitolo 2.5 - Completo
Capitolo 2.6 - Completo
Capitolo 2.7 - Completo
Capitolo 2.8 - Completo


Post #2:
Capitolo 3 - Completo
Capitolo 3.1 - Completo

Capitolo 3.2 - Work in Progress 5%
Capitolo 3.3 - Work in Progress 5%
Capitolo 3.4 - Completo

Capitolo 4 - Completo
Capitolo 4.1 - Completo
Capitolo 4.2 - Completo
Capitolo 4.3 - Completo
Capitolo 4.4 - Completo
Capitolo 4.5 - Completo
Capitolo 4.6 - Completo
Capitolo 4.7 - Completo
Capitolo 4.8 - Completo
Capitolo 4.9 - Completo


Post #3:
Capitolo 5 - Completo
Capitolo 5.1 - Completo


Post #4:
Capitolo 6 - Completo
Capitolo 6.1 - Completo
Capitolo 6.2 - Completo

Capitolo 6.3 - Work in Progress - Input Lag
Capitolo 6.4 - Work in Progress - Adaptive Sync/ Free Sync / G-Sync
Capitolo 6.5 - Completo
Capitolo 6.6 - Completo


Post #5:
Capitolo 7 - Completo (Collegamento)
Capitolo 7.1 - Completo (Collegamento)
Capitolo 7.2 - Completo (Collegamento)
 
Ultima modifica:
Top