Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
Abbiamo partecipato all'OVHcloud Summit 2025, conferenza annuale in cui l'azienda francese presenta le sue ultime novità. Abbiamo parlato di cloud pubblico e privato, d'intelligenza artificiale, di computer quantistici e di sovranità. Che forse, però, dovremmo chiamare solo "sicurezza"
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a
Abbiamo potuto mettere le mani in anteprima sul nuovo monitor MSI dedicato ai giocatori: un mostro che adotta un pannello QD-OLED da 26,5 pollici con risoluzione 2560 x 1440 pixel, frequenza di aggiornamento fino a 500 Hz e tempo di risposta di 0,03 ms GtG
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro
DJI aggiorna la sua linea di droni ultraleggeri con Neo 2, un quadricottero da 160 grammi che mantiene la compattezza del predecessore ma introduce una stabilizzazione meccanica a due assi, sensori omnidirezionali e un sistema LiDAR
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 23-10-2004, 16:42   #41
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17239
Quote:
Originariamente inviato da BTinside
Si ma tu devi ben capire che 10fps sono ASSAI!
finchè le schede sono nuove e ti segnao 100fps una e 90l'altra la cosa è irrilevante!
ma quando poi queste due schede saranno al limite e una ti fa 20fps mentre l'altra te ne fa 30, e quì c'è une bella differenza,
perchè 20fps è ingiocabile , 30 è giocabile!!
Già ma tra 90 e 100 sono c'è un 11 percento di differenza. Tra 20 e 30 c'è il 50 percento in più di differenza
Lo stesso rapporto si ottiene con 20 fps e 22.2 fps. Il che direi che non è tanto più giocabile no?
Quindi 10 fps su un totale di 80 sono un'inezia.
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:45   #42
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
Era un problema dello shader non delle schede Nvidia. Anche a 16bit non si generano artefatti perchè sono sufficienti per farci stare i dati dei calcoli. Non confondere la profondità di colore con la precisione dei calcoli. Le FX scalavano (anzi erano i programmatori che lo facevano) a 16bit perchè i 32bit erano troppo pesanti per essere gestiti da tali GPU. NV40 soffre molto meno di questo problema
No no , l'ho proprio letto qui su Hwupgrade, è vero si ke si scala a 16bit per avere le prestazioni, ma scalava anche la qualità.
Le GeForce FX a differenza degli R350 non riuscivano a trovare un settaggio intermedio tra 16 e 32bit, quindi si sono scelti i 16bit di precisione, ciò ha causato la perdita di qualità che penso anche tu hai potuto notare in una rece in questo sito.
Senza dubbio più azzeccata la scelta intermedia di Ati dei 24 bit, giusto compromesso fra prestazioni e qualità visiva.
Quindi non è prorpio vero quel ke dici tu che i 16bit sono più che sufficienti, altrimenti proprio gli ingegneri Ati , che sono famosi per dotare le schede dello stretto indispensabile accettabile, anche loro avrebbero optato per una soluzione 16bit
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:46   #43
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
ià ma tra 90 e 100 sono c'è un 11 percento di differenza. Tra 20 e 30 c'è il 50 percento in più di differenza
Cioè il rapporto scende così tanto all'aumentare della complessità???
In effetti è giusto il calcolo che fai, io associavo il vanatggio di 10fps in tutte le condizioni di gioco senza calcolare l'assotigliamento che si genera nel tempo.
Hai ragione!


ora vado, vi rispondo al + presto, buon sabato a tutto il forum

Ultima modifica di BTinside : 23-10-2004 alle 16:50.
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:49   #44
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17239
Quote:
Originariamente inviato da BTinside
Cioè il rapporto scende così tanto all'aumentare della complessità???
Scusa, forse non mi sono spiegato. Tu hai detto che 10fps tra 90 e 100 non sono tanti, ma sono tanti tra 20 e 30. Ma tra 90 e 100 la differenza dei 10fps è data da un 11% di prestazioni in pi. Tra 20 e 30 la differenza è del 50% e non certo dell'11%. Ovvio che tra 20 e 30 la cosa cambia ben di più che tra 90 e 100, ma è anche vero che le differenze in OGL tra le schede sono sempre di una decina di fps su un ottantina disponibili e non su 30.
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:51   #45
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
Scusa, forse non mi sono spiegato. Tu hai detto che 10fps tra 90 e 100 non sono tanti, ma sono tanti tra 20 e 30. Ma tra 90 e 100 la differenza dei 10fps è data da un 11% di prestazioni in pi. Tra 20 e 30 la differenza è del 50% e non certo
lo so hai ragione, mi sono corretto nel post precedente, leggi leggi
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:51   #46
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17239
Quote:
Originariamente inviato da BTinside
No no , l'ho proprio letto qui su Hwupgrade, è vero si ke si scala a 16bit per avere le prestazioni, ma scalava anche la qualità.
Le GeForce FX a differenza degli R350 non riuscivano a trovare un settaggio intermedio tra 16 e 32bit, quindi si sono scelti i 16bit di precisione, ciò ha causato la perdita di qualità che penso anche tu hai potuto notare in una rece in questo sito.
Ti assicuro che ti sbagli
Cercati la recensione o il thread e vedrai che non c'è scritto quello che dici tu

Quote:
Senza dubbio più azzeccata la scelta intermedia di Ati dei 24 bit, giusto compromesso fra prestazioni e qualità visiva.
Punti di vista

Quote:
Quindi non è prorpio vero quel ke dici tu che i 16bit sono più che sufficienti, altrimenti proprio gli ingegneri Ati , che sono famosi per dotare le schede dello stretto indispensabile accettabile, anche loro avrebbero optato per una soluzione 16bit
Fidati
O se non ti fidi di me, leggiti i post di fek in giro per il forum, è un attimino più preparato di me
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 18:34   #47
superCippo
Senior Member
 
L'Avatar di superCippo
 
Iscritto dal: Sep 2003
Messaggi: 809
Quote:
Originariamente inviato da BTinside
C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0
Ho visto su un sito che la differenza qualitativà c'è, ma come dice qualcun'altro quì potrebbero essere shader 2.0b








In effetti, non hai tutti i torti, ma tu pensi ke io non legga i bench eh???! lo so che sei andato a prendere l'unico bench dove attualmente la X800XT ha un netto vantaggio, cioè il bench dove ha + vantaggio in assoluto , bastardone che sei!!

Mi sa che anche in Half-Life 2 godrai di questi vantaggi

Proviamo invece con Call Of Duty , anche una "misera" 6800GT ti surclassa,
quindi si vede che un po' di efficienza c'è in NV40,
perchè ai tempi delle GeForceFX in Call Of Duty erano ancora le 9800pro e XT ad averela piena supremazia, adesso le cose cambiano


Vabè dai diciamolo, un X800XT ha tutta la pura potenza velocistica che gli serve per superare un 6800ultra anche in Doom3 o Call Of Duty, infatti il trucco sta nei driver Nvidia OpenGl,
Su questo frangente la Ati ha ancora da imparare, ma credo che non si ci dedichi molto perchè l'opengl nei giochi ormai non interessa quasi nessuno.
con l unica differenza ke a COD la 6800gt fara' nn so 150fps e la xt ne fa 90 ma resta pue sempre piu ke giocabile metre a 30 fps no
__________________
Intel Core 2 Duo 6300@2800Mhz (400*7) / Zalman 9500 / Asus P5b Deluxe / 2x1gb Kingston DDR2 333@400 / xfx 8800gts 640mb / X-Fi Xtreme Audio
superCippo è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 21:10   #48
Maury
Senior Member
 
L'Avatar di Maury
 
Iscritto dal: Feb 2000
Messaggi: 11160
Quote:
Originariamente inviato da Maiorana
A mio avviso,sia la x 800 xt P.E. che la 6800 ultra sono due schede video eccellenti nel senso che il punto di forza di una rappresenta il punto debole dell'altra e viceversa,quindi si eguagliano.
Punti deboli ? Queste due schede sono dei mostri, non hanno punti deboli
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 [email protected] Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 |

PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w|

ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI
Maury è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2004, 02:34   #49
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
Ti assicuro che ti sbagli

leggiti il docoumento e vedi che la differenza fra i 16 e 32 bit c'è

sei pregato di guardare quà e vedrai che non faccio confusione con la profndità di colore:
guardate tutti, in fondo alla pagina, la differenza fra i 16bit di NV38 e i 24bit di Ati, se ne accorge anche un bambino di 3 anni.
Capisco che sei un appassionato nvidia ma non dire che non esiste differenza qualitativa fra 16 e 24bit o fra 16 e 32

http://www.hwupgrade.it/articoli/1013/15.html

Ultima modifica di BTinside : 24-10-2004 alle 02:46.
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2004, 04:24   #50
fd-82
Senior Member
 
L'Avatar di fd-82
 
Iscritto dal: Jan 2004
Città: rimini
Messaggi: 699
Quote:
Originariamente inviato da BTinside
leggiti il docoumento e vedi che la differenza fra i 16 e 32 bit c'è

sei pregato di guardare quà e vedrai che non faccio confusione con la profndità di colore:
guardate tutti, in fondo alla pagina, la differenza fra i 16bit di NV38 e i 24bit di Ati, se ne accorge anche un bambino di 3 anni.
Capisco che sei un appassionato nvidia ma non dire che non esiste differenza qualitativa fra 16 e 24bit o fra 16 e 32

http://www.hwupgrade.it/articoli/1013/15.html
Quote:
Nel caso in cui uno shader non dovesse prevedere calcoli troppo complessi la società americana ritiene che la precisione FP16 sia più che sufficiente. In caso contrario è possibile usare 32 bit per canale per un totale di ben 128 bit.
http://www.hwupgrade.it/articoli/1013/15.html
fd-82 è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2004, 16:23   #51
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
Nel caso in cui uno shader non dovesse prevedere calcoli troppo complessi la società americana ritiene che la precisione FP16 sia più che sufficiente. In caso contrario è possibile usare 32 bit per canale per un totale di ben 128 bit.
--------------------------------------------------------------------------------



http://www.hwupgrade.it/articoli/1013/15.html

Ognuno ha esigenze diverse, ci sono molti di noi che ascolatano ciò ke la Nvidia dice e si rassicurano che i 16bit bastino,

poi c'è chi è esigente e pretende , anche se non si appiccica a un muro per guardarla, la precisione a 32 o 24 bit,

e poi c'è ki come me, la prende come una questione di principio,
Ati fa le cose per bene!
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2004, 16:36   #52
Athlon 64 3000+
Bannato
 
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
Fek ha detto che comunque quando non si devono scrivere shader troppo complessi la precisione FP16 è sufficiente.
Athlon 64 3000+ è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2004, 18:11   #53
checo
Senior Member
 
L'Avatar di checo
 
Iscritto dal: Aug 2000
Messaggi: 17963
Quote:
Originariamente inviato da BTinside
altrimenti proprio gli ingegneri Ati , che sono famosi per dotare le schede dello stretto indispensabile accettabile
non è vero basta che guardi le features del primo radeon
__________________
.
checo è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2004, 19:45   #54
Dark Schneider
Senior Member
 
L'Avatar di Dark Schneider
 
Iscritto dal: Jun 2001
Città: Magmoor Caverns
Messaggi: 29135
Quote:
Originariamente inviato da BTinside
leggiti il docoumento e vedi che la differenza fra i 16 e 32 bit c'è

sei pregato di guardare quà e vedrai che non faccio confusione con la profndità di colore:
guardate tutti, in fondo alla pagina, la differenza fra i 16bit di NV38 e i 24bit di Ati, se ne accorge anche un bambino di 3 anni.
Capisco che sei un appassionato nvidia ma non dire che non esiste differenza qualitativa fra 16 e 24bit o fra 16 e 32

http://www.hwupgrade.it/articoli/1013/15.html

BTinside stai facendo un po' di confusione. Quel problemino visivo di FC sulle 6800 i primi tempi erano dati dal fatto che addirittura veniva scalato pare ad FX12 come precisione.
Attualmente ed ancora per un bel po' di tempo in avanti non ci saranno differenze qualitative tra FP16-FP24-FP32.
Tra l'altro la scelta nVidia sull'FP16-FP32 rende tutto più flessibile. E' molto più semplice scalare da FP32 a FP16 senza perdere qualità guadagnando anche prestazioni, che riscrivere di nuovo uno shader(Ati).
Sicuramente Ati per il suo R520 adotterà questo approccio vista la presenza degli Shader 3.0!
__________________
Ho concluso con:Taxon, IamRoland

Ultima modifica di Dark Schneider : 24-10-2004 alle 19:54.
Dark Schneider è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2004, 22:39   #55
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
e allora meglio così , far cry è un caso a parte.
Cioè quindi se le Geffo usano sempre 16 bit per i giochi a favore delle prestazioni e un motivo in più per lodare Ati quando fa frame superiori a Nvidia con tutti i 24bit attivati

Sai se in Doom3 vanno a 16 o 32bit?
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 25-10-2004, 00:06   #56
Free81
Bannato
 
Iscritto dal: Oct 2004
Messaggi: 53
Quote:
Originariamente inviato da Maury
Punti deboli ? Queste due schede sono dei mostri, non hanno punti deboli
Punti deboli non nei giochi ma tra le due schede in questione
Si dail caso che una è più performante dell'altra in certi giochi e l'altra scheda in altri
Free81 è offline   Rispondi citando il messaggio o parte di esso
Old 25-10-2004, 09:39   #57
Maury
Senior Member
 
L'Avatar di Maury
 
Iscritto dal: Feb 2000
Messaggi: 11160
Quote:
Originariamente inviato da Free81
Punti deboli non nei giochi ma tra le due schede in questione
Si dail caso che una è più performante dell'altra in certi giochi e l'altra scheda in altri
Seguono diverse scelte, una va meglio in un campo l'altra nell'opposto, è il termine "punti deboli" che sta stretto a schede con 16 pipeline ...

Chiamiamole se vuoi "caratterizzazioni"
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 [email protected] Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 |

PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w|

ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI
Maury è offline   Rispondi citando il messaggio o parte di esso
Old 25-10-2004, 11:39   #58
Dark Schneider
Senior Member
 
L'Avatar di Dark Schneider
 
Iscritto dal: Jun 2001
Città: Magmoor Caverns
Messaggi: 29135
Quote:
Originariamente inviato da BTinside
e allora meglio così , far cry è un caso a parte.
Cioè quindi se le Geffo usano sempre 16 bit per i giochi a favore delle prestazioni e un motivo in più per lodare Ati quando fa frame superiori a Nvidia con tutti i 24bit attivati

Sai se in Doom3 vanno a 16 o 32bit?

La scelta di nVidia è migliore e più flessibile. Cmq come ti hanno detto sopra a seconda dei casi viene applicata una certa precisione. La scelta nVidia è più azzeccata di certo, perchè è inutile utilizzare precisioni superiori quando è sufficente una inferiore per ottenere lo stesso risultato qualitativo. Utilizzare una precisione superiore in questi casi è solo uno spreco. E' meglio ottenere i migliori risultati con meno risorse no?

Il caso di Far Cry come ho detto non centra con l'FP16, lì pare che il problema era che scalava a FX12. Problemino tra l'altro risolto.

Non è che c'è da lodare Ati perchè in determinati giochi va meglio di nVidia usando l'FP24. Semplicemente ci son determinati giochi che meglio si adattano con l'architettura Ati(come ce ne sono per nVidia) e grazie anche a quei + 120 Mhz di Core la scheda Ati la spunta.
Poi invece ci son altri giochi dove accade il contrario nonostante quei + 120 Mhz di Core di Ati(che significa cmq anche un fillrate superiore).

In ogni caso stiam parlando di due mostri.
__________________
Ho concluso con:Taxon, IamRoland

Ultima modifica di Dark Schneider : 25-10-2004 alle 11:41.
Dark Schneider è offline   Rispondi citando il messaggio o parte di esso
Old 25-10-2004, 11:40   #59
Dark Schneider
Senior Member
 
L'Avatar di Dark Schneider
 
Iscritto dal: Jun 2001
Città: Magmoor Caverns
Messaggi: 29135
Quote:
Originariamente inviato da Maury
Seguono diverse scelte, una va meglio in un campo l'altra nell'opposto, è il termine "punti deboli" che sta stretto a schede con 16 pipeline ...

Chiamiamole se vuoi "caratterizzazioni"
Quoto!
__________________
Ho concluso con:Taxon, IamRoland
Dark Schneider è offline   Rispondi citando il messaggio o parte di esso
Old 25-10-2004, 14:03   #60
Free81
Bannato
 
Iscritto dal: Oct 2004
Messaggi: 53
Quote:
Originariamente inviato da Maury
Seguono diverse scelte, una va meglio in un campo l'altra nell'opposto, è il termine "punti deboli" che sta stretto a schede con 16 pipeline ...

Chiamiamole se vuoi "caratterizzazioni"
Si precisamente!
Certo che non esiste una scheda video migliore in assoluto....
Free81 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum OVHcloud Summit 2025: le novità del cloud...
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI C...
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro DJI Neo 2 in prova: il drone da 160 grammi guada...
L'IA "seria" di Appian è diversa: inserita nei processi e rispetta dati e persone L'IA "seria" di Appian è divers...
Polestar 3 Performance, test drive: comodità e potenza possono convivere Polestar 3 Performance, test drive: comodit&agra...
AWS Transform si evolve: agenti IA per m...
I social network hanno stancato gli ital...
Star Citizen supera i 900 milioni di dol...
Netflix ha eliminato la funzione Cast pe...
L'IA è una bolla e scoppier&agrav...
Un rapporto collega i data center di Ama...
Troppa concorrenza per Cherry (quella de...
Entro il 2035 la Cina vuole costruire de...
Tineco in super sconto: ultimo giorno di...
La Cina creerà una costellazione ...
I veicoli elettrici emettono radiazioni ...
Stai per acquistare una PS5? Attento al ...
iPhone 17 Pro Max finalmente disponibile...
Apple, Sony, Bose, Beats, Sennheiser, CM...
Arriva il Raspberry Pi 5 da 1 GB, ma por...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 02:41.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v