PDA

View Full Version : GeForce RTX 5070 e GeForce RTX 5070 Ti, ecco le specifiche tecniche per filo e per segno


Redazione di Hardware Upg
30-01-2025, 09:12
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-5070-e-geforce-rtx-5070-ti-ecco-le-specifiche-tecniche-per-filo-e-per-segno_135115.html

Febbraio è un altro mese caldo per NVIDIA e gli appassionati di GPU con GeForce RTX 5070 e GeForce RTX 5070 Ti in arrivo nei negozi. In attesa di poterle testare, la società di Jensen Huang ha diffuso le specifiche dettagliate delle due schede video.

Click sul link per visualizzare la notizia.

Saturn
30-01-2025, 09:17
600-700€ se ci andrà di lusso per una 4070 liscia e ancora 12gb di RAM.

Niente, proprio non ci riescono...questi 16gb di RAM, nel 2025, devono rimanere un qualcosa per pochi eletti.

O probabilmente una futura 5060, adeguatamente castrata e rallentata.

:rolleyes:

Cfranco
30-01-2025, 09:26
La 5070 promette di essere una vera ciofeca

Phopho
30-01-2025, 09:30
Oggi è il giorno di debutto della GeForce RTX 5090 e della RTX 5080, ma sicuramente un pubblico più ampio è già proiettato a febbraio, quando NVIDIA introdurrà le soluzioni GeForce RTX 5070 Ti e RTX 5070 in fasce di prezzo più abbordabili.

:asd: anzi https://i.imgur.com/vb9YR3B.gif

Cromwell
30-01-2025, 10:06
...ma sicuramente un pubblico più ampio è già proiettato a febbraio...

Io sono proiettato più verso marzo/aprile... ma del 2030/31 se non 32 :O
Hanno tutto il tempo per riadeguarsi con i prezzi :O

Final50
30-01-2025, 10:08
Mi sa che la 5070 se scende a 600 sarà l'unica scheda davvero consigliabile, il resto è davvero imbarazzante.

dominator84
30-01-2025, 10:25
ma vaaaaaaaaaa

ma che problemi avete con 12gb di vram?

invece di comprare monitor a 4k con refresh altisonanti, prendete un bel 1080p TN 60Hz, usate il Virtual super resolution da 4k a 1080p e la ram vi avanzerà :O

Saturn
30-01-2025, 10:34
ma vaaaaaaaaaa

ma che problemi avete con 12gb di vram?

Sono un maschio semplice.

Ce l'ho con i "numeri imperfetti".

4, 8, 16, 32 vanno bene per la ram come quantità.

12, 18, 22, 24 per la ram delle GPU sono numeri del maligno !!!

Per il volume del televisore invece, 5, 10, 15, 20 ma anche 8, 10, 12, 14, 15 e 16, mai e poi mai numeri come 7, 9, 11, 13 o altre diavolerie simili.

Capito com'è ??? :D

Cfranco
30-01-2025, 10:39
Sono un maschio semplice.

Ce l'ho con i "numeri imperfetti".

4, 8, 16, 32 vanno bene per la ram come quantità.

12, 18, 22, 24 per la ram delle GPU sono numeri del maligno !!!

Per il volume del televisore invece, 5, 10, 15, 20 ma anche 8, 10, 12, 14, 15 e 16, mai e poi mai numeri come 7, 9, 11, 13 o altre diavolerie simili.

Capito com'è ??? :D
Disturbo ossessivo compulsivo :asd:
Io faccio impazzire un mio amico mettendo la temperatura in auto a 19.5 gradi :asd:

Saturn
30-01-2025, 10:41
Disturbo ossessivo compulsivo :asd:
Io faccio impazzire un mio amico mettendo la temperatura in auto a 19.5 gradi :asd:

Sei una cattiva persona, ce lo sai ??? 19.5 ???? :eek: :eek: :eek:

Faresti imbestialire anche il Padre Eterno con un numero così PREGNO di male !!! :Prrr:

floop
30-01-2025, 10:47
La 5070 promette di essere una vera ciofeca

secondo me sarà il best buy, perché ciofeca?

Red Wizard
30-01-2025, 10:47
Sono un maschio semplice.

Ce l'ho con i "numeri imperfetti".

4, 8, 16, 32 vanno bene per la ram come quantità.

12, 18, 22, 24 per la ram delle GPU sono numeri del maligno !!!

Per il volume del televisore invece, 5, 10, 15, 20 ma anche 8, 10, 12, 14, 15 e 16, mai e poi mai numeri come 7, 9, 11, 13 o altre diavolerie simili.

Capito com'è ??? :D

"Questo è buono"


https://www.perisphere.org/wp-content/uploads/2024/03/Image-1-Conan-and-War-Council.jpg

Cfranco
30-01-2025, 11:01
secondo me sarà il best buy, perché ciofeca?
Perché sarà grasso che cola se andrà un 5-10% in più della 4070

Saturn
30-01-2025, 11:02
"Questo è buono"

;)

HW2021
30-01-2025, 13:15
ma vaaaaaaaaaa

ma che problemi avete con 12gb di vram?

invece di comprare monitor a 4k con refresh altisonanti, prendete un bel 1080p TN 60Hz, usate il Virtual super resolution da 4k a 1080p e la ram vi avanzerà :O

Ma perché scrivete queste stupidate! si vede proprio che fate un uso del PC molto limitato visto che siete convinti che molta memoria video serve solo per giocarci e avere molti FPS

Vuoi vedere invece a che serve avere più memoria video anche senza il solo uso videoludico e indipendentemente dal possedere monitor FullHD, 4K, 8K anche se in alcune applicazioni non videoludiche avere un monitor almeno da 32 pollici 4K è il minimo indispensabile (come il mio)?

Eccoti servito e mi solo limitato ad una sola applicazione ma ci sono anche altre applicazioni professionali avide di memoria video ...:

https://drive.google.com/file/d/1Iu6a0gYylihbH686UUqX6pTXKAnXT5H3/view?usp=sharing

https://drive.google.com/file/d/1Eb2T9TJ5yCCxPPaughI8ycZpICDLxK3N/view?usp=sharing

Questo significa che se con la mia GeForce RTX 3080 con 12 GByte di memoria video dovessi aggiungere altri elementi nella scena 3D incomincerei ad avere rallentamenti sia nella fase non rendering di modellazione e sia nella fase di rendering della scena

La scena la realizzai qualche anno fa per testare le prestazioni hardware la mia scheda GeForce RTX 3080 ... ho appositamente impostato un numero elevato di campioni per pixel ossia di calcolo dei rimbalzi di luce effettuati dal motore di rendering ray tracing sfruttando la GPU proprio per mostrare i tempi necessari tutt'altro che brevi per ottenere in certe situazione un rendering fotorealistico (con meno di 2000 avrei ottenuto ugualmente un risultato qualitativamente di tutto rispetto e in meno di un minuto). Ora immagina se fosse un'animazione quanto tempo SAREBBE NECESSARIO per generare ogni singolo frame video ... da qui si capisce come molta memoria video serve e per un uso professionale e di lavoro non basta mai altro che i videogiochi del cazzo!!!

Ribadisco che ci sono anche molte altre applicazioni professionali avide di memoria video.

Oggi più che in passato le schede grafiche nei PC giocano un ruolo fondamentale è dai tempi di Windows Vista che la CPU si occupa sempre meno di grafica e questo è ancora più evidente con le schede grafiche NVidia perché la sua politica di mercato non è confinata solo nel realizzare nuove GPU ma anche di far si che queste GPU vengano sfruttate efficacemente dalle applicazioni.

Per darti un'idea avrei potuto impostare Blender a far eseguire il rendering al processore Core i9 9900K be ci metterebbe qualcosa come quattro ore per portare a termine il rendering della stessa scena e con le stesse impostazioni di rendering mentre dagli screenshot che ho linkato si vede chiaramente che la GPU RTX ci impiega non più di mezz'ora per portare a termine il rendering (ti assicuro che ho eseguito realmente il confronto e ho riscontrato realmente un simile divario dei tempi di elaborazione ...).

Questo è il motivo per cui preferisco GPU NVidia, le schede grafiche di AMD sono molto meno supportate dalle applicazioni professionali e in questo AMD non si da molto da fare
a parte il discorso della capacità di NVidia di creare driver per le sue GPU a dir poco efficienti, stabili e ad altissime prestazioni

HW2021
30-01-2025, 15:03
tempo effettivo che la GPU GeForce RTX 3080 ha impiegato per portare a termine il rendering della scena tramite l'engine cycles con impostati oltre 16000 campioni per pixel

15 minuti 53 secondi e 43 decimi di secondo

https://drive.google.com/file/d/1mXke3RUQvN1nOyrdW-GO4cUWOXwMDVqC/view?usp=sharing

e questo è il risultato a tutto schermo:

https://drive.google.com/file/d/1iGoatQGBwHAJAyWZ12eM3Ty7FSk1Iou8/view?usp=sharing

devo dire che con la nuova versione di Blender hanno fatto un'ottimo lavoro di rendere cycles più efficiente, qualche tempo fa la stessa scena con le stesse impostazioni di rendering richiedeva alla GPU RTX 3080 circa mezz'ora di tempo per portare a termine il rendering stesso ... ora non mi va di verificare se l'ultima versione di cycles è stata ottimizzata per l'elaborazione anche a carico della CPU ma ricordo che occorrevano comunque circa quattro ore per portare a termini il rendering

Se la GeForce RTX 3080 avesse avuto solo 8 GByte ci avrebbe impiegato un tempo sensibilmente maggiore


Comunque sia la memoria video serve e come e più ce ne è e meglio è

Inoltre come già altre volte ho osservato non capisco perché vengono testate le schede grafiche solo con i videogiochi COSA CHE RITENGO RIDUTTIVA VISTO CHE IL MAGGIOR CARICO IMPEGNATIVO SI HA CON LE APPLICAZIONI ED E' SOLO CON QUESTE CHE E' POSSIBILE ANALIZZARE LA FORZA BRUTA ELABORATIVA DI NUOVE GPU

CrapaDiLegno
30-01-2025, 15:16
[cut]

Questo significa che se con la mia GeForce RTX 3080 con 12 GByte di memoria video dovessi aggiungere altri elementi nella scena 3D incomincerei ad avere rallentamenti sia nella fase non rendering di modellazione e sia nella fase di rendering della scena

[cut]

Ribadisco che ci sono anche molte altre applicazioni professionali avide di memoria video.
[cut]


Mamma mia quante parole inutili, per altro indirizzate ad un post chiaramente ironico... se ti serve tutta quella VRAM basta che prendi la versione che ne ha quanta te ne serve. Che va pure più veloce ad eseguire il rendering.

In generale per una scheda che deve al massimo arrivare a far girare giochi a risoluzione QHD 12GB bastano.
Se poi ci sono quelli "con il braccino corto" che prendono una x70 per voler giocare in 4K tutto maxato non è un problema di Nvidia (o nostro che devono sentirsi continuamente questa lamentela sulla quantità di VRAM a disposizione).
Oppure quelli che nel 2025 non hanno ancora capito che i prodotti (tutti) sono fatti a livelli diversi, per cui è da dementi lamentarsi che una Panda non ha un serbatoio da 90 litri per una autonomia di 2000Km e che non ha tutti gli ADAS che ci sono sulle Mercedes e Audi.

P.S: il braccino corto è anche rivolto a quelli "e ma io faccio lavori professionali" però prendono le suddette versioni 0x70 se non 0x60 e vogliono che funzioni come una x80 o peggio x90. Magari usando pure SW piratati, perché loro "sono professionisti".
Se invece non sei "professionista", pijate quella che ti puoi permettere e accontentati dei compromessi che ci sono, come con tutti gli altri prodotti, a meno che al di fuori delle schede grafiche voi non compriate tutto top gamma, inclusi televisori OLED da 88" e o Ferrari come auto per i quali non avete nulla da dire.

Alodesign
30-01-2025, 15:17
tempo effettivo che la GPU GeForce RTX 3080 ha impiegato per portare a termine il rendering della scena tramite l'engine cycles con impostati oltre 16000 campioni per pixel

15 minuti 53 secondi e 43 decimi di secondo

https://drive.google.com/file/d/1mXke3RUQvN1nOyrdW-GO4cUWOXwMDVqC/view?usp=sharing

e questo è il risultato a tutto schermo:

https://drive.google.com/file/d/1iGoatQGBwHAJAyWZ12eM3Ty7FSk1Iou8/view?usp=sharing

devo dire che con la nuova versione di Blender hanno fatto un'ottimo lavoro di rendere cycles più efficiente, qualche tempo fa la stessa scena con le stesse impostazioni di rendering richiedeva alla GPU RTX 3080 circa mezz'ora di tempo per portare a termine il rendering stesso ... ora non mi va di verificare se l'ultima versione di cycles è stata ottimizzata per l'elaborazione anche a carico della CPU ma ricordo che occorrevano comunque circa quattro ore per portare a termini il rendering

Se la GeForce RTX 3080 avesse avuto solo 8 GByte ci avrebbe impiegato un tempo sensibilmente maggiore


Comunque sia la memoria video serve e come e più ce ne è e meglio è

Inoltre come già altre volte ho osservato non capisco perché vengono testate le schede grafiche solo con i videogiochi COSA CHE RITENGO RIDUTTIVA VISTO CHE IL MAGGIOR CARICO IMPEGNATIVO SI HA CON LE APPLICAZIONI ED E' SOLO CON QUESTE CHE E' POSSIBILE ANALIZZARE LA FORZA BRUTA ELABORATIVA DI NUOVE GPU

Di solito i grafici in fondo sono dedicati alle applicazioni professionali.

Ma poi la smettono di usare giochi vecchi come il cucco?

CrapaDiLegno
30-01-2025, 15:41
Di solito i grafici in fondo sono dedicati alle applicazioni professionali.

Ma poi la smettono di usare giochi vecchi come il cucco?

A parte le barre colorate più o meno lunghe dei videogiochi, con le GPU di oggi bisognerebbe cambiare completamente il metodo di test e valutazione.
Se fino a qualche anno fa le GPU erano solo per i giochini e poco più, oggi fanno praticamente la metà del lavoro che prima faceva la CPU.
Oltre alla accelerazione 3D sia nei giochi che nei vari applicativi, le GPU oggi sono usate per fare calcoli di simulazioni, fare calcoli di inferenza (AI), fare decompressione/compressioni immagini e video, e soprattutto possono essere montate più di una senza più dover avere un driver SLI apposito.

Quante recensioni valutano la velocità/qualità degli encoder/decoder interni?
Quante la capacità di eseguire applicativi con capacità AI (e non solo benchmark che non servono a nulla perché altamente ottimizzati per fare un bel nulla)?
Quanti hanno valutato le ultime GPU montandone più di una per vedere come scala il tempo di calcolo (magari non scala, ma se non si fa una prova, come faccio a sapere che davvero non posso far girare un modello da 32B con 2 schede da 12GB ciascuna?)

Ma soprattutto, tornando ai semplici test dei giochi, quanti in questi 6 anni hanno fatto una valutazione puntuale della qualità degli scaler? Scaler A fa 100 frame, scale B ne fa 90.. allora scaler A è migliore? Anche se l'immagine è un tripudio si shimmering, artefatti da oversharpening e parti di immagini con blocchi grandi quanto 4x4 pixel perché i furbi hanno decimato il numero di raggi per gli effetti RT?

A me sembra che ormai la prassi sia generare qualche grafico entro il tempo di pubblicazione così tanto per attirare qualche click e poi sbattersene del vero valore di quanto mostrato.
E a vedere la capacità critica della gente che valuta poi le recensioni, potrebbe darsi che hanno anche ragione a fare così. Per quasi tutti vale solo la barretta più lunga, non importa se e come è stata ottenuta, e mai lo sapranno, visto che guardano solo le figure ma il testo è troppo difficile per essere compreso. E non prendo neanche in considerazione chi va di video-recensioni perché fa pure fatica a capire un grafico e ha bisogno di chi glielo spiega, così poi possono andare come una frotta di lemmings sui forum a dure tutti la stessa cosa, che tanto l'ha detto quello della recensione che qualcosa dovrà pur sapere, no? E quindi io la ripeto anche se non so bene il perché della cosa.

Morto Anandtech, non ci è rimasto più nessuno davvero con la capacità/volontà di andare a fondo alle cose. 4 grafici, tanti colori e la recensione, uguale a decine di altre, è servita.

HW2021
30-01-2025, 15:52
Mamma mia quante parole inutili, per altro indirizzate ad un post chiaramente ironico... se ti serve tutta quella VRAM basta che prendi la versione che ne ha quanta te ne serve. Che va pure più veloce ad eseguire il rendering.

In generale per una scheda che deve al massimo arrivare a far girare giochi a risoluzione QHD 12GB bastano.
Se poi ci sono quelli "con il braccino corto" che prendono una x70 per voler giocare in 4K tutto maxato non è un problema di Nvidia (o nostro che devono sentirsi continuamente questa lamentela sulla quantità di VRAM a disposizione).
Oppure quelli che nel 2025 non hanno ancora capito che i prodotti (tutti) sono fatti a livelli diversi, per cui è da dementi lamentarsi che una Panda non ha un serbatoio da 90 litri per una autonomia di 2000Km e che non ha tutti gli ADAS che ci sono sulle Mercedes e Audi.

P.S: il braccino corto è anche rivolto a quelli "e ma io faccio lavori professionali" però prendono le suddette versioni 0x70 se non 0x60 e vogliono che funzioni come una x80 o peggio x90. Magari usando pure SW piratati, perché loro "sono professionisti".
Se invece non sei "professionista", pijate quella che ti puoi permettere e accontentati dei compromessi che ci sono, come con tutti gli altri prodotti, a meno che al di fuori delle schede grafiche voi non compriate tutto top gamma, inclusi televisori OLED da 88" e o Ferrari come auto per i quali non avete nulla da dire.

sono tante parole inutili le tue

oltre tutto quello che sostieni è ovvio e pienamente comprensibile da chiunque cioè è ovvio che ognuno acquista un prodotto a seconda del suo budge di spesa e quindi si deve accontentare di alcune feature ridotte rispetto a prodotti di fascia più alta

Ciò che ho scritto non riguarda questo aspetto così ovvio, ho scritto semplicemente per ribattere a chi come te sostiene che molta memoria video non serve per giocarci come se le schede video servono solo per giocare

Poi ancora parli di videogames evidentemente usi il PC solo per giocarci
io il mio PC lo utilizzo per moltissime applicazioni ma anche per giocarci

Io odio le console di gioco ma se uno deve acquistare un computer solo per giocarci allora è meglio che si orienti ad una playstation

Ma è anche errata la tua conclusione che una scheda grafica di fascia media come può essere appunto una GeForce RTX 5070 non debba avere più memoria video, a livello progettuale non cambia nulla avere più memoria o meno memoria visto che sono chip modulari inoltre visti i costi negli ultimi anni anche delle schede grafiche di fascia media non credo che quattro giga byte in più rendano la spesa esageratamente onerosa ...

Io ho scritto dal punto di vista tecnico a che serve avere più memoria e non dal punto di vista delle possibilità di spesa che ciascuno ha cosa ripeto ovvia

hai scritto cose ovvie e già che mi rispunti con il discorso dei videogiochi la dice lunga di quanto sei professionale

Accatate una playstation a questo punto e commenta gli articoli sulle playstation

Inoltre se ti da fastidio ciò che scrivo non leggerlo a me non me ne po frecà de meno come si dice a Roma

schwalbe
30-01-2025, 16:04
a parte il discorso della capacità di NVidia di creare driver per le sue GPU a dir poco efficienti, stabili e ad altissime prestazioni
Non bisogna generalizzare, visto che in passato le 'azzate le ha fatte anche lei. Sicuramente ora gode di un bel bagaglio d'esperienza sulle ottimizzazioni rispetto a Intel, ma stupisce in negativo AMD, ex ATI per la grafica.


il braccino corto è anche rivolto a quelli "e ma io faccio lavori professionali" però prendono le suddette versioni 0x70 se non 0x60 e vogliono che funzioni come una x80 o peggio x90. Magari usando pure SW piratati, perché loro "sono professionisti".
Conosciuti questi, di cui uno ha anche ricevuto una mazzata dalle entrate. Il problema etico, dal mio punto di vista, era che si lamentava del costo dei software per giustificare la versione ummaumma, ma le parcelle che distribuiva erano pari pari a quelle dei colleghi col software in regola!


Morto Anandtech, non ci è rimasto più nessuno davvero con la capacità/volontà di andare a fondo alle cose. 4 grafici, tanti colori e la recensione, uguale a decine di altre, è servita.
Non è la voglia o capacità, che è venuta a meno, son i clienti paganti.
Ormai si vive solo di pubblicità, e questa arriva dalle visite, quindi argomenti popolari, titoli forti che non rispettano gli articoli, e arrivare subito.

CrapaDiLegno
30-01-2025, 16:48
sono tante parole inutili le tue

oltre tutto quello che sostieni è ovvio e pienamente comprensibile da chiunque cioè è ovvio che ognuno acquista un prodotto a seconda del suo budge di spesa e quindi si deve accontentare di alcune feature ridotte rispetto a prodotti di fascia più alta

Ciò che ho scritto non riguarda questo aspetto così ovvio, ho scritto semplicemente per ribattere a chi come te sostiene che molta memoria video non serve per giocarci come se le schede video servono solo per giocare

Poi ancora parli di videogames evidentemente usi il PC solo per giocarci
io il mio PC lo utilizzo per moltissime applicazioni ma anche per giocarci

Io odio le console di gioco ma se uno deve acquistare un computer solo per giocarci allora è meglio che si orienti ad una playstation

Ma è anche errata la tua conclusione che una scheda grafica di fascia media come può essere appunto una GeForce RTX 5070 non debba avere più memoria video, a livello progettuale non cambia nulla avere più memoria o meno memoria visto che sono chip modulari inoltre visti i costi negli ultimi anni anche delle schede grafiche di fascia media non credo che quattro giga byte in più rendano la spesa esageratamente onerosa ...

Io ho scritto dal punto di vista tecnico a che serve avere più memoria e non dal punto di vista delle possibilità di spesa che ciascuno ha cosa ripeto ovvia

hai scritto cose ovvie e già che mi rispunti con il discorso dei videogiochi la dice lunga di quanto sei professionale

Accatate una playstation a questo punto e commenta gli articoli sulle playstation

Inoltre se ti da fastidio ciò che scrivo non leggerlo a me non me ne po frecà de meno come si dice a Roma

Boh, non so che problemi tu abbia a comprendere un testo, ma in quello che hai quotato, quindi scevro da ogni mia eventuale modifica successiva, non si parla solo di giochi. Infatti non era quello il tema del discorso visto che io videogiocherò 4 ore al mese se va bene, e il mio PC attuale ha 64GB di RAM quello precedente ne aveva 32 montate quando tu ancora stavi con un monitor TFT da 22 pollici e pensavi di essere figo. E quella RAM non la uso per "fortnite" o COD duemilacentoventisei.
Rimangono due cosine da dire.
1, è chiaro che non sai cosa dici quando affermi:
a livello progettuale non cambia nulla avere più memoria o meno memoria visto che sono chip modulari inoltre visti i costi negli ultimi anni anche delle schede grafiche di fascia media non credo che quattro giga byte in più rendano la spesa esageratamente onerosa ...
La memoria non si può mettere "un tanto al chilo" ma dipende dalla dimensione del bus. Con un bus da 192bit se ne possono mettere 12 o 24.
Se vuoi un taglio diverso serve cambiare il bus. La scheda con più memoria c'è e ha un bus maggiore. Ma anche un costo diverso, come è normale che sia.
2, è chiaro che hai problemi a comprendere come funzionano le cose nel mercato delle schede grafiche. Eppure tu stesso dici che possono essere usate per tante cose. Ma non è che Nvidia può rilasciare una sola scheda video che va bene per tutto, magari pure al prezzo che vuoi tu.
Per le fasce fino alla x080 le scelte sono fatte principalmente per il mercato a cui sono rivolte, quello dei videogiocatori, per cui, architettura, consumi, memoria è realizzata per il compromesso migliore.
A me, che non videogioco, mi farebbe molto piacere una bella 5080 con metà delle ROPs, delle TMU e senza unità RA ma più shader e tensor. Però Nvidia ha deciso che il rapporto tra queste unità di calcolo è quello attuale e quindi non mi metto a protestare che avrebbe potuto fare diversamente, perché meglio del bus della memoria, avrebbe potuto far diversamente usando la stessa quantità di silicio, quindi a pari costo produttivo.
Questo perché la scheda non è indirizzata a chi come me (o te) la usano per altro che non sia videogiocare. Quindi i compromessi sono quelli.
Voglio più CUDA core? Mi devo prendere la scheda di categoria superiore. Non me lo posso permettere perché "non sono professionista"? Allora rimango con quella di categoria inferiore. O vado di usato di una scheda vecchia.
Sono professionista e guadagno decine di euro per ogni minuto in più di lavoro che riesco a spremere dalla GPU? Vado di x90 e tanti saluti a quasi tutti i compromessi. Ne guadagno centinaia per ogni minuto? Prendo la prossima A7000 con 64GB di RAM e tanti saluti a TUTTI i compromessi.

Ma vedo che il tuo ragionamento è: se non capisci che voglio più memoria gratis allora comprati una Playstation, quindi taglio qui

CrapaDiLegno
30-01-2025, 17:00
Conosciuti questi, di cui uno ha anche ricevuto una mazzata dalle entrate. Il problema etico, dal mio punto di vista, era che si lamentava del costo dei software per giustificare la versione ummaumma, ma le parcelle che distribuiva erano pari pari a quelle dei colleghi col software in regola!

Il problema è che infestano i forum con questa idiozia della "tanta memoria" che tanto costa poco.
Per i sedicenti professionisti, se pagassero veramente il SW che usano che la sfrutta saprebbero che il costo della scheda con più memoria sarebbe minimo rispetto al costo delle licenze.
Per i giocatori è solo la volontà di "maxare" tutto a costo inferiore. Per poi andare a 20FPS perché il resto non regge, ma quello fa niente, bisogna avere la possibilità di maxare o si è dei falliti.


Non è la voglia o capacità, che è venuta a meno, son i clienti paganti.
Ormai si vive solo di pubblicità, e questa arriva dalle visite, quindi argomenti popolari, titoli forti che non rispettano gli articoli, e arrivare subito.

E sì, quello sicuramente. Come detto la capacità critica dei più è scemata negli anni e ora ci sono solo orde di fanatici e ignoranti che manifestano parecchio disagio ripetendo continuamente quello che hanno sentito dire da altri. Tipo il discorso dei 12GB di RAM... quale gioco ha problemi con quella quantità a che risoluzione, con che impostazioni e con quali risultati reali non fosse limitata dalla VRAM? Potendo sempre andare nel pannello e togliere quei 4 effetti che usano RAM.. ma sia mai.. se non maxi non sei nessuno e quindi già a lamentarsi si un compromesso che loro non vogliono fare.

Il disagio di questi fanatici è evidente, perché poi a conti fatti, il numero di persone che comprerà le schede con "solo 12GB" di RAM o peggio "8 GB!!! Ma siamo matti? Nel 2025!!" sarà enorme. Probabilmente sono quelli che il disagio non ce l'hanno. Ma a detta dai fanatici che il disagio ce l'hanno eccome, è chi compra che è affetto da fanatismo e accetta qualsiasi cosa gli venga proposto.

HW2021
30-01-2025, 21:25
@CrapaDiLegno

No quoto il tuo ultimo commento altrimenti uscirebbe un papiro egizio aggiungendo un ulteriore mio commento ...


Allora!

Prima di tutto la stai facendo lunga più del dovuto io ho risposto tecnicamente al breve commento di dominator84
che quoto nuovamente qui:


ma vaaaaaaaaaa

ma che problemi avete con 12gb di vram?

invece di comprare monitor a 4k con refresh altisonanti, prendete un bel 1080p TN 60Hz, usate il Virtual super resolution da 4k a 1080p e la ram vi avanzerà


La mia risposta è stata tecnica dimostrandogli concretamente che avere più memoria video serve e non solo per un uso videoludico, anche perché ritengo che chi acquista un computer lo fa perché intende usarlo non solo per giocarci altrimenti si comprerebbe una playstation e amen

1) Se scorri tutta la lista dei commenti all'articolo non trovi nemmeno un mio commento in cui mi lamento che 12 GByte di memoria video sono pochi, ho solo dimostrato che a seconda dell'utilizzo che se ne fa del computer ci sono situazioni in cui 12 GByte non bastano aggiungendo anche che le schede grafiche moderne anche quelle di fascia media hanno potenzialità di calcolo utili anche per applicazioni più serie dei videogiochi. Ribadisco che chi vuole utilizzare il computer solo per giocarci allora è meglio che si orienta su una playstation ...

2) Mi hai accusato di essere uno dei tanti che spende poco per una scheda grafica di fascia bassa o media e pretende di ottenere le prestazioni di una scheda grafica di fascia più alta.

Be sappi che quando acquistai la scheda grafica GeForce RTX 3080 con 12 GByte di memoria video per l'attuale mio PC che assemblai circa cinque anni fa (inizialmente riciclai una vecchia Radeon RX580 che successivamente la rimpiazzai con la RTX 3080). La RTX 3089 era allora il top delle GeForce RTX disponibili nel listino NVidia e allora NVidia non aveva ancora in catalogo la GeForce RTX 3090 che sicuramente avrei acquistato ...

Inoltre anche io nel mio PC ho installati 64 GByte di memoria RAM DDR4 3200 MHz (quattro moduli da 16 GByte ciascuno in configurazione dual channel)

Come vedi non sono un taccagno e quando spendo voglio spendere bene secondo le mie possibilità ben cosciente di cosa voglio e cosa pretendo dall'hardware che assemblo per conto mio

Per non parlare del fatto che hai messo in discussione il fatto che nel mio PC abbia software con regolare licenza … ma come ti permetti di scrivere questo pubblicamente

3) Per tutto il resto ti rispondo brevemente che sono un elettronico/informatico con laurea quinquennale specializzato in sistemi di controllo automatici analogici e digitali … quindi vuoi che non conosca l'architettura di una memoria, come viene cablata e i relativi controller.

Ma fammi il piacere e smettila di scrivere inutili manfrine rivolgendoti direttamente a me e in ciò che scrivo … vatti a fare una bella scopata così ti tranquillizzi e evita di insultare chi commenta perché è questo che hai fatto sostanzialmente

CrapaDiLegno
31-01-2025, 10:00
Prima di tutto la stai facendo lunga più del dovuto io ho risposto tecnicamente al breve commento di dominator84

Risposta chilometrica a un post ironico, scrivendo ovvietà dove potevi anche scrivere che avevi bisogno di bere dell'acqua che avrebbe avuto lo stesso valore.
Se hai bisogno di memoria, vai e ti compri la scheda grafica che ne monta a sufficienza, così come sei andato a comprarti 4 DIMM per la CPU.


Per non parlare del fatto che hai messo in discussione il fatto che nel mio PC abbia software con regolare licenza … ma come ti permetti di scrivere questo pubblicamente

Ripeto, hai problemi a comprendere i testi.


3) Per tutto il resto ti rispondo brevemente che sono un elettronico/informatico con laurea quinquennale specializzato in sistemi di controllo automatici analogici e digitali … quindi vuoi che non conosca l'architettura di una memoria, come viene cablata e i relativi controller.

Evidentemente no, non conosci come funziona l'architettura di una GPU se scrivi:
Ma è anche errata la tua conclusione che una scheda grafica di fascia media come può essere appunto una GeForce RTX 5070 non debba avere più memoria video, a livello progettuale non cambia nulla avere più memoria o meno memoria visto che sono chip modulari inoltre visti i costi negli ultimi anni anche delle schede grafiche di fascia media non credo che quattro giga byte in più rendano la spesa esageratamente onerosa ...
Se sapessi come si dimensiona la VRAM e quali risorse e cambiamenti di design sono necessari cambiare la dimensione del bus, non avresti scritto quelle corbellerie.
Se vuoi 4GB di VRAM in più, prendi la scheda con il bus da 256bit. Quel bus è fatto apposta per montarci 16GB. O 32GB. Costa di più ma se tu vuoi 4GB su una scheda più economica con bus da 192bit dove "ti basta aggiungere 4GB di economici chip modulari" allora non hai capito un mazza e rientri nei "braccini corti".


Ma fammi il piacere e smettila di scrivere inutili manfrine rivolgendoti direttamente a me e in ciò che scrivo … vatti a fare una bella scopata così ti tranquillizzi e evita di insultare chi commenta perché è questo che hai fatto sostanzialmente
Se ti senti insultato non è colpa mia. Non dovresti scrivere post allucinanti in risposta ad altri evidentemente ironici (ci sono delle sindromi appurate per chi non la capisce, come altre cose) con quantità di ovvietà e narcisismi vari (ma io ho fatto, io possiedo, io so fare, io qui io là) da far scoppiare un specchio.:mc:

GinoPino76
04-02-2025, 11:26
Alla faccia dei prezzi "abbordabili"!!!

!fazz
04-02-2025, 13:26
Ma perché scrivete queste stupidate! si vede proprio che fate un uso del PC molto limitato visto che siete convinti che molta memoria video serve solo per giocarci e avere molti FPS

Vuoi vedere invece a che serve avere più memoria video anche senza il solo uso videoludico e indipendentemente dal possedere monitor FullHD, 4K, 8K anche se in alcune applicazioni non videoludiche avere un monitor almeno da 32 pollici 4K è il minimo indispensabile (come il mio)?

Eccoti servito e mi solo limitato ad una sola applicazione ma ci sono anche altre applicazioni professionali avide di memoria video ...:

https://drive.google.com/file/d/1Iu6a0gYylihbH686UUqX6pTXKAnXT5H3/view?usp=sharing

https://drive.google.com/file/d/1Eb2T9TJ5yCCxPPaughI8ycZpICDLxK3N/view?usp=sharing

Questo significa che se con la mia GeForce RTX 3080 con 12 GByte di memoria video dovessi aggiungere altri elementi nella scena 3D incomincerei ad avere rallentamenti sia nella fase non rendering di modellazione e sia nella fase di rendering della scena

La scena la realizzai qualche anno fa per testare le prestazioni hardware la mia scheda GeForce RTX 3080 ... ho appositamente impostato un numero elevato di campioni per pixel ossia di calcolo dei rimbalzi di luce effettuati dal motore di rendering ray tracing sfruttando la GPU proprio per mostrare i tempi necessari tutt'altro che brevi per ottenere in certe situazione un rendering fotorealistico (con meno di 2000 avrei ottenuto ugualmente un risultato qualitativamente di tutto rispetto e in meno di un minuto). Ora immagina se fosse un'animazione quanto tempo SAREBBE NECESSARIO per generare ogni singolo frame video ... da qui si capisce come molta memoria video serve e per un uso professionale e di lavoro non basta mai altro che i videogiochi del cazzo!!!

Ribadisco che ci sono anche molte altre applicazioni professionali avide di memoria video.

Oggi più che in passato le schede grafiche nei PC giocano un ruolo fondamentale è dai tempi di Windows Vista che la CPU si occupa sempre meno di grafica e questo è ancora più evidente con le schede grafiche NVidia perché la sua politica di mercato non è confinata solo nel realizzare nuove GPU ma anche di far si che queste GPU vengano sfruttate efficacemente dalle applicazioni.

Per darti un'idea avrei potuto impostare Blender a far eseguire il rendering al processore Core i9 9900K be ci metterebbe qualcosa come quattro ore per portare a termine il rendering della stessa scena e con le stesse impostazioni di rendering mentre dagli screenshot che ho linkato si vede chiaramente che la GPU RTX ci impiega non più di mezz'ora per portare a termine il rendering (ti assicuro che ho eseguito realmente il confronto e ho riscontrato realmente un simile divario dei tempi di elaborazione ...).

Questo è il motivo per cui preferisco GPU NVidia, le schede grafiche di AMD sono molto meno supportate dalle applicazioni professionali e in questo AMD non si da molto da fare
a parte il discorso della capacità di NVidia di creare driver per le sue GPU a dir poco efficienti, stabili e ad altissime prestazioni

già i possessori di 8600gt se la ricordono bene la stabilità dei driver e dei firmware ed annesso reballing

Jeffo
04-02-2025, 21:50
Coi discorsi sui costi del software fate ridere i polli. Lui ha parlato di Blender, che è gratuito e lo sanno pure i sassi. E' pieno di software più o meno professionale open source e/o gratuito che richiede tanta VRAM, lasciando il settore 3D GC potremmo parlare dei vari LLM che già con 16GB stanno stretti.

Una scheda Nvidia nella fascia 700-900 Euro (che non è poco) con almeno 24GB sarebbe una manna per tanti, che potrebbero finalmente sperimentare questa cavolo di IA che da due anni tutte le multinazionali dell'IT citano ogni tre parole nelle presentazioni dei prodotti, a partire da Nvidia stessa.

Poi sulla questione recensione videogiochi sono d'accordo ma pare ormai le schede video le comprino i ragazzini coi soldi dei genitori spendaccioni. Oppure siamo circondati da adulti che passano le giornate ai videogiochi, altrimenti non si spiega questa scarsità di test seri sul settore non ludico. Forse a usare il PC per altre attività siamo un numero esiguo? Non seguo molto i siti o youtuber italiani, ma in lingua inglese c'è Tech Notice su YT che fa recensioni in ambito video editing professionale, ma poi c'è poco altro a parte cose sporadiche.

Concludo per alleggerire la tensione con un fankiulo ai videogiocatori. :D

belta
04-02-2025, 22:11
Concludo per alleggerire la tensione con un fankiulo ai videogiocatori. :D

Stalker 2 4K VSR Fsr 3.1 HDR Oled going brrrrrrr :O

floop
05-02-2025, 12:32
Il problema è che infestano i forum con questa idiozia della "tanta memoria" che tanto costa poco.
Per i sedicenti professionisti, se pagassero veramente il SW che usano che la sfrutta saprebbero che il costo della scheda con più memoria sarebbe minimo rispetto al costo delle licenze.
Per i giocatori è solo la volontà di "maxare" tutto a costo inferiore. Per poi andare a 20FPS perché il resto non regge, ma quello fa niente, bisogna avere la possibilità di maxare o si è dei falliti.


E sì, quello sicuramente. Come detto la capacità critica dei più è scemata negli anni e ora ci sono solo orde di fanatici e ignoranti che manifestano parecchio disagio ripetendo continuamente quello che hanno sentito dire da altri. Tipo il discorso dei 12GB di RAM... quale gioco ha problemi con quella quantità a che risoluzione, con che impostazioni e con quali risultati reali non fosse limitata dalla VRAM? Potendo sempre andare nel pannello e togliere quei 4 effetti che usano RAM.. ma sia mai.. se non maxi non sei nessuno e quindi già a lamentarsi si un compromesso che loro non vogliono fare.

Il disagio di questi fanatici è evidente, perché poi a conti fatti, il numero di persone che comprerà le schede con "solo 12GB" di RAM o peggio "8 GB!!! Ma siamo matti? Nel 2025!!" sarà enorme. Probabilmente sono quelli che il disagio non ce l'hanno. Ma a detta dai fanatici che il disagio ce l'hanno eccome, è chi compra che è affetto da fanatismo e accetta qualsiasi cosa gli venga proposto.

Condivido sto pensiero, finalmente qualcuno lo dice!

Io detto sul canale di prodigeek e mi hanno pure mutato

!fazz
05-02-2025, 13:54
Condivido sto pensiero, finalmente qualcuno lo dice!

Io detto sul canale di prodigeek e mi hanno pure mutato

forse perchè tale pensiero ha qualche vizio di forma?

se si parla di LLM ad esempio si lavora con software principalmente open source e pure se si parla di addestramento di reti neurali ecc ecc anche se si fà animazioni ecc ecc ci sono una pleteora di software gratuiti anche se fai sistemi ar-vr come professionista unity è free sotto una certa soglia di fatturato.


detto questo se nvidia avesse fatto una 4070 24GB io sarei stato più che felice di comprarne 4 al posto della singola 4090 che sono stato costretto a prendere (e calcola che di 4090 ne ho prese 2)

Saturn
05-02-2025, 14:30
Condivido sto pensiero, finalmente qualcuno lo dice!

Io detto sul canale di prodigeek e mi hanno pure mutato

In che senso mutato ??? :confused: :confused: :confused:

Ripper89
05-02-2025, 14:37
@CrapaDiLegno

La mia risposta è stata tecnica dimostrandogli concretamente che avere più memoria video serve e non solo per un uso videoludico
Radeon e GeForce sono una famiglia di prodotti indirizzati solo ed unicamente a chi gioca. Poi tu puoi farci quel che vuoi ma non puoi lamentarti se non hanno performance significative su altri ambiti.

https://it.wikipedia.org/wiki/GeForce
GeForce è il marchio adottato dalla NVIDIA Corporation per le proprie serie di GPU, largamente usate nella produzione di schede video per PC. Queste serie sono specializzate nei videogiochi e nelle applicazioni multimediali, e quindi specifiche per un uso casalingo. Per applicazioni professionali, l'azienda propone il marchio Quadro.
Queste GPU si pongono in diretta competizione con la serie Radeon della rivale ATI Technologies (dal 2006 sotto controllo di AMD).

floop
05-02-2025, 17:50
forse perchè tale pensiero ha qualche vizio di forma?

se si parla di LLM ad esempio si lavora con software principalmente open source e pure se si parla di addestramento di reti neurali ecc ecc anche se si fà animazioni ecc ecc ci sono una pleteora di software gratuiti anche se fai sistemi ar-vr come professionista unity è free sotto una certa soglia di fatturato.


detto questo se nvidia avesse fatto una 4070 24GB io sarei stato più che felice di comprarne 4 al posto della singola 4090 che sono stato costretto a prendere (e calcola che di 4090 ne ho prese 2)

Vabbè parlo per gaming di persone normali, chi ci lavora certo ha bisogno di vram e ci sono appunto le 4090 e 7900

Nui_Mg
05-02-2025, 19:20
In che senso mutato ??? :confused: :confused: :confused:
"Prendi questo, mutato figlio di puttana" (cit.; vediamo se la becchi :D )

Saturn
05-02-2025, 19:41
"Prendi questo, mutato figlio di puttana" (cit.; vediamo se la becchi :D )

Ritorno al Futuro !

Senza neanche "l'aiuto da casa" ! :D :D :D

floop
05-02-2025, 20:45
In che senso mutato ??? :confused: :confused: :confused:

Puoi stare nel canale ma non puoi scrivere...

Nui_Mg
06-02-2025, 11:01
Ritorno al Futuro !

Senza neanche "l'aiuto da casa" ! :D :D :D
Oh ma le sai tutte :fagiano:

CrapaDiLegno
06-02-2025, 12:18
forse perchè tale pensiero ha qualche vizio di forma?

se si parla di LLM ad esempio si lavora con software principalmente open source e pure se si parla di addestramento di reti neurali ecc ecc anche se si fà animazioni ecc ecc ci sono una pleteora di software gratuiti anche se fai sistemi ar-vr come professionista unity è free sotto una certa soglia di fatturato.


detto questo se nvidia avesse fatto una 4070 24GB io sarei stato più che felice di comprarne 4 al posto della singola 4090 che sono stato costretto a prendere (e calcola che di 4090 ne ho prese 2)

Ma sei anche tu quello che pretende di più pagando di meno.
Se volevi 4 schede con 24GB di memoria ciascuna a 900 dindi potevi prendere 4x7900XTX, no?
E quindi perché non l'hai fatto? Ah sì, la mancanza di accelerazione AI.. quindi tu vorresti schede che costano come la 7900XTX ma con feature indirizzate espressamente all'accelerazione AI gratuite.
Vedo poca logicità in quello che vogliamo rispetto a quello che si può avere. Anche a me piacerebbe avere la 4090 a 300 euro per democratizzare l'RT a chi è poveroh ma purtroppo non si può.
Se vuoi usare accelerare l'AI tramite un prodotto Nvidia, paga. Questo è quello che l'azienda ha deciso di fare. Puoi piangere e sbattere i piedi quanto vuoi, ma sono loro a decidere il valore del proprio prodotto e come venderlo. Se non sei d'accordo compra altro, se altro c'è. Se non c'è, beh, ti sei risposto da solo sul perché Nvidia vuole che tu paghi per fare altro che non sia giocare con le sue schede.

Detto questo, la mancanza di VRAM sulle schede di fascia media dedicate al gioco è un non problema che solo chi ha voglia di generare rumore senza senso continua a sollevare.

fukka75
06-02-2025, 13:51
In che senso mutato ??? :confused: :confused: :confused:mutato non nel senso italiano di "cambiato", ma nel senso inglese di azzittito (to mute): ha inventato un nuovo verbo, visto che "mutare" in italiano non ha il significato di "ammutolire", non c'entra nula con "muto" :asd::asd:

Saturn
06-02-2025, 14:06
Puoi stare nel canale ma non puoi scrivere...

Ahahaha.....ma pensa, non sapevo...cavoli loro, ne avrei a pacchi di account google da bruciare ! :asd:

Oh ma le sai tutte :fagiano:

Dai era facile ! :)

mutato non nel senso italiano di "cambiato", ma nel senso inglese di azzittito (to mute): ha inventato un nuovo verbo, visto che "mutare" in italiano non ha il significato di "ammutolire", non c'entra nula con "muto" :asd::asd:

Si il senso del verbo l'avevo afferrato...:p

floop
06-02-2025, 21:11
Ahahaha.....ma pensa, non sapevo...cavoli loro, ne avrei a pacchi di account google da bruciare ! :asd:



Dai era facile ! :)



Si il senso del verbo l'avevo afferrato...:p

https://www.techspot.com/article/2950-nvidia-rtx-5080-or-not/

volevo mandargli questo su prodigeek... si offendono ?

Jeffo
16-02-2025, 14:46
Radeon e GeForce sono una famiglia di prodotti indirizzati solo ed unicamente a chi gioca. Poi tu puoi farci quel che vuoi ma non puoi lamentarti se non hanno performance significative su altri ambiti.

https://it.wikipedia.org/wiki/GeForce

Imbarazzate dire certe castronerie e prendere come fonte Wikipedia (Italiana per giunta), fra l'altro per una questione nota e arcinota e verificabile andando sul sito ufficiale. Le schede Quadro non esistono più da anni, adesso il segmento più costoso per ambito professionale sono le RTX Ada Lovelace. Le GeForce anni fa erano solo per videogiochi, ma da vari anni sono anche promosse per ambiti professionali anche sulle presentazioni ufficiali delle singole schede.
Ulteriore riprova è nel fatto che i driver Studio, una volta appannaggio esclusivo delle Quadro, con la dismissione di quel nome sono diventati disponibili anche per le GeForce. Tutte cose che sanno anche i sassi.
Capito qui su HU e vedo gente che fa le predicozzi moraleggianti e fuori tema contro la pirateria, parla di software professionale costosissimo per LLM e Blender (LOL, certo sì bravi pagateli vi dò il mio IBAN), st'altro dice che le GeForce non sono per uso professionale. Boh vabbé ragazzi ma è un forum di appassionati di hardware o il circolo di Caccia e Pesca Pensionati CISL?

Ripper89
16-02-2025, 15:49
Imbarazzate dire certe castronerie e prendere come fonte Wikipedia (Italiana per giunta), fra l'altro per una questione nota e arcinota e verificabile andando sul sito ufficiale. Le schede Quadro non esistono più da anni, adesso il segmento più costoso per ambito professionale sono le RTX Ada Lovelace. Le GeForce anni fa erano solo per videogiochi, ma da vari anni sono anche promosse per ambiti professionali anche sulle presentazioni ufficiali delle singole schede.
Ulteriore riprova è nel fatto che i driver Studio, una volta appannaggio esclusivo delle Quadro, con la dismissione di quel nome sono diventati disponibili anche per le GeForce. Tutte cose che sanno anche i sassi.
Capito qui su HU e vedo gente che fa le predicozzi moraleggianti e fuori tema contro la pirateria, parla di software professionale costosissimo per LLM e Blender (LOL, certo sì bravi pagateli vi dò il mio IBAN), st'altro dice che le GeForce non sono per uso professionale. Boh vabbé ragazzi ma è un forum di appassionati di hardware o il circolo di Caccia e Pesca Pensionati CISL?
Grazie per avermi fatto notare che la serie Quadro non c'è più.
Quindi ci sono solamente i modelli 90 ( ossia le eredi della Titan ) per tale utilizzo.

Per quel che riguarda gli altri modelli il basso quantitativo di VRAM avrebbe dovuto farti riflettere sull'uso che Nvidia vuole che si faccia di tali modelli.

Jeffo
16-02-2025, 18:52
Grazie per avermi fatto notare che la serie Quadro non c'è più.
Quindi ci sono solamente i modelli 90 ( ossia le eredi della Titan ) per tale utilizzo.

Per quel che riguarda gli altri modelli il basso quantitativo di VRAM avrebbe dovuto farti riflettere sull'uso che Nvidia vuole che si faccia di tali modelli.
Resta il fatto che le GeForce vengono promosse come schede sia per videogiochi sia per ambito professionale. La bassa VRAM è proprio la contraddizione che molti fanno notare a Nvidia, che le promuove per certi usi nel 2025 sebbene la scarsa VRAM crei un evidente handicap per molte situazioni come grafica 3D, LLM ecc.
La discussione in cui molti hanno attaccato (in modo assurdo) l'utente @HW2021 verteva unicamente sulla limitatezza della VRAM in tali ambiti non ludici, non su altro.