Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

Redmi Note 15 Pro+ 5G: autonomia monstre e display luminoso, ma il prezzo è alto
Redmi Note 15 Pro+ 5G: autonomia monstre e display luminoso, ma il prezzo è alto
Xiaomi ha portato sul mercato internazionale la nuova serie Redmi Note, che rappresenta spesso una delle migliori scelte per chi non vuole spendere molto. Il modello 15 Pro+ punta tutto su una batteria capiente e su un ampio display luminoso, sacrificando qualcosa in termini di potenza bruta e velocità di ricarica
HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
HONOR ha finalmente lanciato il suo nuovo flagship: Magic 8 Pro. Lo abbiamo provato a fondo in queste settimane e ve lo raccontiamo nella nostra recensione completa. HONOR rimane fedele alle linee della versione precedente, aggiungendo però un nuovo tasto dedicato all'AI. Ma è al suo interno che c'è la vera rivoluzione grazie al nuovo Snapdragon 8 Elite Gen 5 e alla nuova MagicOS 10
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Le webcam Insta360 Link 2 Pro e Link 2C Pro sono una proposta di fascia alta per chi cerca qualità 4K e tracciamento automatico del soggetto senza ricorrere a configurazioni complesse. Entrambi i modelli condividono sensore, ottiche e funzionalità audio avanzate, differenziandosi per il sistema di tracciamento: gimbal a due assi sul modello Link 2 Pro, soluzione digitale sul 2C Pro
Tutti gli articoli Tutte le news

Vai al Forum
Discussione Chiusa
 
Strumenti
Old 21-11-2009, 14:36   #7821
Marscorpion
Senior Member
 
L'Avatar di Marscorpion
 
Iscritto dal: Jan 2006
Città: Ivrea (TO)
Messaggi: 6174
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Immagino che questa perla venga per sentito dire, visto che i fatti dimostrano il contrario...

http://www.pcgameshardware.com/aid,6...otout/Reviews/
Io ho letto solo la recensione fatta da Guru3D e Solo in un gioco le 2 5870 battevano le GTX285, in tutti gli altri giochi testati andavano uguali o prevaleva lo sli.
__________________
117 TRATTATIVE POSITIVE:
Marscorpion è offline  
Old 21-11-2009, 14:36   #7822
luX0r.reload
Senior Member
 
L'Avatar di luX0r.reload
 
Iscritto dal: Oct 2006
Città: Potenza
Messaggi: 4260
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Immagino che questa perla venga per sentito dire, visto che i fatti dimostrano il contrario...

http://www.pcgameshardware.com/aid,6...otout/Reviews/
Penso si riferisse al fatto che in generale lo SLI scali meglio del Crossfire... cosa risaputa e dimostrata anche in un articolo di hw di qualche mese fa.
Ma senza scomodare hw, nell'articolo che hai linkato si vede chiaramente che lo SLI funzioni meglio del crossfire.
Una singola 5870 è molto più veloce di una singola 285, ma in configurazioni multigpu nvidia recupera tantissimo e il divario tra 5870 e 285 è piccolissimo e addirittura in alcuni bench, tipo CoD5, le nvidia vanno meglio.

Ultima modifica di luX0r.reload : 21-11-2009 alle 14:41.
luX0r.reload è offline  
Old 21-11-2009, 14:41   #7823
luX0r.reload
Senior Member
 
L'Avatar di luX0r.reload
 
Iscritto dal: Oct 2006
Città: Potenza
Messaggi: 4260
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Si parlava su quello di cui parleranno al prossimo appuntamento. Parleranno di PhysX e 3DVision e di quanto sono fighi ad avercelo. Poi l'utente che decida che vuole queste due cose esce di casa e va al negozio o va su trovaprezzi e si compra un residuato perché GeForce@Fermi non ne esistono.

Mi sa che avevi perso il filo...
Perchè secondo te un utente che segue gli articoli su Fermi o va ad un convegno nVidia poi non è capace a distinguere una scheda con vecchia architettura da una con nuova architettura? Mah!
luX0r.reload è offline  
Old 21-11-2009, 14:44   #7824
The_SaN
Senior Member
 
L'Avatar di The_SaN
 
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
Quote:
Originariamente inviato da luX0r.reload Guarda i messaggi
Penso si riferisse al fatto che in generale lo SLI scali meglio del Crossfire... cosa risaputa e dimostrata anche in un articolo di hw di qualche mese fa.
Ma senza scomodare hw, nell'articolo che hai linkato si vede chiaramente che lo SLI funzioni meglio del crossfire.
Una singola 5870 è molto più veloce di una singola 285, ma in configurazioni multigpu nvidia recupera tantissimo e il divario tra 5870 e 285 è piccolissimo e addirittura in alcuni bench, tipo CoD5, le nvidia vanno meglio.
http://www.computerbase.de/artikel/h...formancerating

Mancano le 2x5870 e 2x285, ma dalle 2x5850 e 2x275 si riesce a capire.

EDIT: posto anche questo http://www.anandtech.com/mb/showdoc.aspx?i=3649&p=1

Le nuove schede in dual sono molto potenti, quindi i risultati possono essere "falsati" da una cpu che non regge il settore video.
Questo scenario probabilmente si verificherá pure con fermi in SLI.
__________________
Se la vita ti da limoni ... Spremili in occhio a qualcuno e corri!

Ultima modifica di The_SaN : 21-11-2009 alle 14:50.
The_SaN è offline  
Old 21-11-2009, 14:48   #7825
molochgrifone
Senior Member
 
L'Avatar di molochgrifone
 
Iscritto dal: Feb 2007
Città: Zena Red & Blue
Messaggi: 5010
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Peccato solo che nVidia conti su quello per vendere residuati, mentre eyefinity è solo una cosa in più su GPU estremamente performanti.

Per la cronaca ho appena iniziato a giocare Dragon Age, gira con ogni singolo setting al massimo e V-Sync attivo AA8x a 1680x con un dual core e una HD4870.

E' un titolo PhysX. Su CPU.
Mi spieghi sta cosa del titolo PhysX su CPU? No visto che lo sto giocando pure io, non vorrei perdermi qualcosa per strada, perché al momento con tutto al max V-Sync attivo su ris 1920x1200 con la 8800 GTX lo reggo, però sta cosa del Physx me l'ero persa
__________________
MY liquidcooled PC
molochgrifone è offline  
Old 21-11-2009, 14:50   #7826
Marscorpion
Senior Member
 
L'Avatar di Marscorpion
 
Iscritto dal: Jan 2006
Città: Ivrea (TO)
Messaggi: 6174
Quote:
Originariamente inviato da The_SaN Guarda i messaggi
http://www.computerbase.de/artikel/h...formancerating

Mancano le 2x5870 e 2x285, ma dalle 2x5850 e 2x275 si riesce a capire.
Qui il divario è a favore del crossfire; mamma mia però da una recensione all'altra cambia moltissimo! L'unica sarebbe provarle di persona per rendersi conto.
Comunque niente da dire, ATI a sto giro a fatto un ottimo lavoro, per ora; magari all'uscita di Fermi tutto sarà ridimensionato.
__________________
117 TRATTATIVE POSITIVE:

Ultima modifica di Marscorpion : 21-11-2009 alle 14:53.
Marscorpion è offline  
Old 21-11-2009, 14:52   #7827
The_SaN
Senior Member
 
L'Avatar di The_SaN
 
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
Quote:
Originariamente inviato da molochgrifone Guarda i messaggi
Mi spieghi sta cosa del titolo PhysX su CPU? No visto che lo sto giocando pure io, non vorrei perdermi qualcosa per strada, perché al momento con tutto al max V-Sync attivo su ris 1920x1200 con la 8800 GTX lo reggo, però sta cosa del Physx me l'ero persa
Semplice: physx é un middleware per la fisica.

Esiste una versione per CPU (ottimizzata quindi per il funzionamento su processore), e una versione GPU (ottimizzata per il funzionamento solo su schede nVidia, o emulata su cpu con risultati osceni).
Sta ai programmatori scegliere quale usare.
__________________
Se la vita ti da limoni ... Spremili in occhio a qualcuno e corri!
The_SaN è offline  
Old 21-11-2009, 14:54   #7828
The_SaN
Senior Member
 
L'Avatar di The_SaN
 
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
Quote:
Originariamente inviato da Marscorpion Guarda i messaggi
Qui il divario è a favore del crossfire; mamma mia però da una recensione all'altra cambia moltissimo! L'unica sarebbe provarle di persona per rendersi conto.
Hanno usato un processore a 4.0GHz.
Laddove usano un processore a default, o con OC medio, il crossfire non mostra il suo vero valore. Accadrá lo scenario della seconda recensione che ho postato
__________________
Se la vita ti da limoni ... Spremili in occhio a qualcuno e corri!
The_SaN è offline  
Old 21-11-2009, 15:01   #7829
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da persa Guarda i messaggi
con gt200 sarebbe stato inutile fare delle schede che sostituivano le g92. non ci sarebbe stato nessun vantaggio dato che il gt200 non è altro che un g92 con + shader e bus. diverso il discorso con fermi.
siccome questo discorso l'ho sentito più di una volta, vorrei chiarire un concetto: quando produco un chip di fascia alta, gli scarti, lo si voglia o no, si creano perchè su un wafer solo una piccola quntità di die sono perfettamente funzionanti con numero di unità e frequenze stabilite. Più un chip è complrsso e più la resa produttiva è bassa, soprattutto se non hai unità ridondanti. significa che più un chip è complesso più scarti si avranno, indipendentemente dalla volontà di chi progetta e produce. Quindi, in realtà, non decidi se commercilizzare i meno prodotti di fascia bassa: lo devi fare e basta, altrimenti quelli sono tutti soldi (e tanti) buttati dalla finestra e non ammortizzerai mai il costo di produzione dei pochi chip in commercio, soprattutto se sei costreto a venderli a prezzi bassi a causa della concorrenza.
Quindi, quella di nVidia, fatta sia per i 55 che per i 65 nm, non è stata una libera scelta motivata dal fatto di avere già gli scarti di G80 da commercializzare ma è stata una scelta imposta dal fatto che si è dovuta affrettare a recuparare il porcesso rpoduttivo di svantaggio e, per farlo, ha dovuto utilizzare uno shrink di G80. Questo ha creato altri scarti della vecchia architettura che si andavano a sovrapporre a quelli di GT200.
Insomma, la scelta era tra restare indietro con i processi produttivi, oppure sacrificare quasi epr intero (tranne la fascia alta) la line up di GT200.

Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Mi segnali una scheda con architettura Fermi da comprare?
secondo me, si dovrebbe riflettere su alcune cose:
finora si è parlato di GT300 soprattutto in ottica GP computing; sono cominciate a circolare le rpime specifiche, anche relative alla frequenza dello shader core della versione per il gpgpu; è stata fatta vedere una demo con un confronto tra GT200 e GT300 in doppia precisione (nota che prendo per buone tutte le cose presentate, ossia parto dal presupposto che non siano fake). Al contrario, non si sa nulla, neppure le frequenze degli shader, della versione gaming ed è stato fatto vedere uno screen shot su un presunto bench DX11 fatto girare da GT300. Ai fini di questo ragionamneto non conta sapere se quella foto è fake o no.
La riflessione che faccio è questa: al momento è stato mostrato poco o nulla ma si parlato molto e si è parlato soprattutto del gpgpu. Se considerassimo fake tutto ciò che è stato mostrato, si arriverebbe alla conclusione che non ci sia un solo sample di Fermi funzionante: il che sarebbe una tragedia (non se ne vedrebbe l'ombra neppure per la fine del Q2 2010).
Un'altra ipotesi potrebbe essere quella delle basse rese produttive, ma mi sentirei di scartarla, in quanto, ammesso che ci siano pochi sample funzionanti, questi sarebbero in mano a nVidia che potrebbe usarli per mostrare le potenzialità del chip invece di parlarne soltanto e far vedere pcb tarocchi e foto ambigue o, nel migliore dei casi, prive di significato.
Tera ipotesi è quella che sia vero quanto riportato da hw.fr a proposito delle capacità di calcolo di GT300 in singola e doppia precisione e nel calcolo di MADD e FMA; per comodità, riporto l'immagine da cui sembrerebbe che GT300, a fp32, abbia, con shader core a 1600 MHz, una capacità di calcolo teorica paragonabile a quella di GT200 per quanto riguarda le MADD

http://www.hardware.fr/articles/772-...computing.html

Ora, sembrerebbe che nVidia abbia problemi a far funzionare GT300 con shader core a 1600 MHz, tanto che si è parlato di frequenze inferiori a quelle presviste anche per fp64 (il che allinea le prestazioni di fermi, in doppia precisione, a quelle di RV870). Se questo fosse confermato, allora, a fp32, GT300 non andrebbe meglio o, se si, non di molto, rispetto a GT200.
La mancanza di date di presentazione e di specifiche, potrebbe essere il sintomo che stiano tentando di tirare al massimo le frequenze per compensare la mancanza di potenza di calcolo (anche il lancio di NV30 fu posticipato, ma in quel caso, diffusero specifiche che poi non vennero confermate, in quanto NV30, inizialmente, doveva funzionare a frequenze inferiori che furono aumentate per cercare di ridurre il gap rispetto a R300).
Ultima ipotesi, è che c'è quelche bug. In tal caso, a seconda del tipo di bug, la soluzione potrebbe richiedere molti mesi o poche ore.
Al momento non mi vengono in mente altre ipotesi
Di sicuro è da scartare la tesi che nVidia stia nascondendo le sue carte, visto che la cosa non ha senso alcuno, poichè ATi le sue le ha già scoperte da un pezzo.

Ultima modifica di yossarian : 21-11-2009 alle 16:20.
yossarian è offline  
Old 21-11-2009, 15:09   #7830
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Di sicuro è da scartare la tesi che nVidia stia nascondendo le sue carte, visto che la cosa non ha senso alcuno, poichè ATi le sue le ha già scoperte da un pazzo.



Ma scusa non puo' essere semplicemente che stiano aspettando rese migliori? A me pare la spiegazione più logica e semplice...avendo il chip più grosso avranno incontrato certamente maggiori difficoltà e a vedere come è ridotta la disponibilità delle schede HD58x0 direi che la cosa acquista ancora di più un senso.

Il discorso di vedo/non vedo è fuorviante: mai nvidia ha rilasciato dati sulle performance finali prima dello scadere dell'NDA (prima di aver lanciato ufficialmente le schede), non lo farà nemmeno questa volta...e il motivo principale di questo comportamento sarebbe quello logico di continuare a vendere le attuali schede.

Ultima modifica di Kharonte85 : 21-11-2009 alle 15:15.
Kharonte85 è offline  
Old 21-11-2009, 15:21   #7831
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi



Ma scusa non puo' essere semplicemente che stiano aspettando rese migliori? A me pare la spiegazione più logica e semplice...avendo il chip più grosso avranno incontrato certamente maggiori difficoltà e a vedere come è ridotta la disponibilità delle schede HD58x0 direi che la cosa acquista ancora di più un senso.

Il discorso di vedo/non vedo è fuorviante: mai nvidia ha rilasciato dati sulle performance finali prima dello scadere dell'NDA (prima di aver lanciato ufficialmente le schede), il motivo principale sarebbe quello di continuare a vendere le attuali schede.
La tesi che nVidia non stia scoprendo le carte è di qualche utente del forum (l'ho solo riportata) non certo mia, visto che so bene che in casa AMD hanno informazioni piuttosto precise su Fermi (come nVidia le aveva su RV870). Comunque, corretto l'errore (lapsus freudiano o colpa del panino che stavo mangiando mentre digitavo?).
In quanto al resto, nVidia, stavolta, ha già svelato la sua architettura, ci sono anche white paper su GT300, on line, alla portata di tutti.
Cos'altro dovrebbe mostrare?
L'unica cosa che manca sono i bench.
Quindi anche la tesi che nVidia non mostra prima dello scadere dell'NDA non regge.
Prima di G80 non avevano fatto trapelare nulla, neppure che fose un chip a shader unificati (anche se i bene informati lo sapevano da un pezzo, ma parliamo di addetti ai lavori o quasi). Stavolta, al contrario, stanno parlando molto ma non stanno facendo vedere i test (soprattutto quelli in game o nei bench sintetici) che sono quelli che più interessano agli utenti di tipo consumer. Se esiste GT300 funzionante, il modo migliore per far vendere meno AMD sarebbe quello di mostrarne le vere potenzialità. Al contrario, si stanno rendendo ridicoli facendo vedere una volta un finto pcb e la volta successiva una foto senza senso. In questo modo danno forza alle tesi di chi sostiene che GT300 non funzioni o che non sia così performante, almeno in game, come vorrebbero far credere e ottengono l'effetto contrario.

Ultima modifica di yossarian : 21-11-2009 alle 15:24.
yossarian è offline  
Old 21-11-2009, 15:27   #7832
persa
Bannato
 
Iscritto dal: Oct 2009
Messaggi: 6442
in effetti il discorso non fa una piega.

servirebbero proprio i bench con i giochi per attirare l'attenzione al massimo e bloccare le vendite ati. e invece ancora niente
persa è offline  
Old 21-11-2009, 15:40   #7833
eXeS
Senior Member
 
L'Avatar di eXeS
 
Iscritto dal: Mar 2004
Città: Parma
Messaggi: 5955
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Peccato solo che nVidia conti su quello per vendere residuati, mentre eyefinity è solo una cosa in più su GPU estremamente performanti.
Eyefinity, una tecnologia che quando funzionerà anche con soluzioni crossfire potrebbe dare un ulteriore senso a configurazioni multi-gpu/scheda, certo che ad oggi siamo molto indietro.

Toms ne ha provati 7 sia su 5870 che su 5970, unica scheda quest'ultima a supportare in via preliminare eyefinity in crossfire , 5 sono incompatibili e/o crashati, uno va meglio con 5870 che con 5970, e l'altro va uguale, su 7 titoli i miglioramenti ottenuti su GPU estremamente performanti sono zero

http://www.tomshw.it/cont/articolo/r...e/22847/6.html
__________________
case: phanteks eclipse 500a - cpu: 9800x3d - aio: arctic liquid freezer iii 360 - mobo: msi b650 gaming plus wifi - ram: g.skill flare x5 6000 cl30 - gpu: rtx 5080 fe - storage: samsung 980pro 1tb, 960 evo 500gb, 850pro 512gb - psu: enermax revolution d.f. x 850w
eXeS è offline  
Old 21-11-2009, 15:43   #7834
Severnaya
Senior Member
 
L'Avatar di Severnaya
 
Iscritto dal: Apr 2005
Messaggi: 2544
io che giocavo a wow un pensierino ce l'avrei fatto


http://www.youtube.com/watch?v=NnL0PFIcnN4
__________________
[CM Cosmos Pure] [GIgabyte Z77 X-UP7] [i7 2600K@4,2 Ghz cooled by COrsari H110] [4x2Gb Crucial Ballistic 8-8-8-24] [Radeon R9 290] [SO Crucial M4 120Gb; Games WD Caviar Black 1Tb; Storage WD Caviar Green 2Tb] [Asus Xonar D2X] [Creative Gigaworks T40 II] [Windows 7 Professional SP1 64bit] [Logitech G15] [Logitech G9x]
Severnaya è offline  
Old 21-11-2009, 15:52   #7835
Bastoner
Bannato
 
Iscritto dal: Apr 2009
Messaggi: 1323
Quote:
Originariamente inviato da yossarian Guarda i messaggi
siccome questo discorso l'ho sentito più di una volta, vorrei chiarire un concetto: quando produco un chip di fascia alta, gli scarti, lo si voglia o no, si creano perchè su un wafer solo una piccola quntità di die sono perfettamente funzionanti con numero di unità e frequenze stabilite. Più un chip è complrsso e più la resa produttiva è bassa, soprattutto se non hai unità ridondanti. significa che più un chip è complesso più scarti si avranno, indipendentemente dalla volontà di chi progetta e produce. Quindi, in realtà, non decidi se commercilizzare i meno prodotti di fascia bassa: lo devi fare e basta, altrimenti quelli sono tutti soldi (e tanti) buttati dalla finestra e non ammortizzerai mai il costo di produzione dei pochi chip in commercio, soprattutto se sei costreto a venderli a prezzi bassi a causa della concorrenza.
Quindi, quella di nVidia, fatta sia per i 55 che per i 65 nm, non è stata una libera scelta motivata dal fatto di avere già gli scarti di G80 da commercializzare ma è stata una scelta imposta dal fatto che si è dovuta affrettare a recuparare il porcesso rpoduttivo di svantaggio e, per farlo, ha dovuto utilizzare uno shrink di G80. Questo ha creato altri scarti della vecchia architettura che si andavano a sovrapporre a quelli di GT200.
Insomma, la scelta era tra restare indietro con i processi produttivi, oppure sacrificare quasi epr intero (tranne la fascia alta) la line up di GT200.
Questo dovrebbe far riflettere gli ingegneri improvvisati che abbiamo qui su hwu.


Quote:
Originariamente inviato da yossarian Guarda i messaggi
secondo me, si dovrebbe riflettere su alcune cose:
finora si è parlato di GT300 soprattutto in ottica GP computing; sono cominciate a circolare le rpime specifiche, anche relative alla frequenza dello shader core della versione per il gpgpu; è stata fatta vedere una demo con un confronto tra GT200 e GT300 in doppia precisione (nota che prendo per buone tutte le cose presentate, ossia parto dal presupposto che non siano fake). Al contrario, non si sa nulla, neppure le frequenze degli shader, della versione gaming ed è stato fatto vedere uno screen shot su un presunto bench DX11 fatto girare da GT300. Ai fini di questo ragionamneto non conta sapere se quella foto è fake o no.
La riflessione che faccio è questa: al momento è stato mostrato poco o nulla ma si parlato molto e si è parlato soprattutto del gpgpu. Se considerassimo fake tutto ciò che è stato mostrato, si arriverebbe alla conclusione che non ci sia un solo sample di Fermi funzionante: il che sarebbe una tragedia (non se ne vedrebbe l'ombra neppure per la fine del Q2 2010).
Un'altra ipotesi potrebbe essere quella delle basse rese produttive, ma mi sentirei di scartarla, in quanto, ammesso che ci siano pochi sample funzionanti, questi sarebbero in mano a nVidia che potrebbe usarli per mostrare le potenzialità del chip invece di parlarne soltanto e far vedere pcb tarocchi e foto ambigue o, nel migliore dei casi, prive di significato.
Tera ipotesi è quella che sia vero quanto riportato da hw.fr a proposito delle capacità di calcolo di GT300 in singola e doppia precisione e nel calcolo di MADD e FMA; per comodità, riporto l'immagine da cui sembrerebbe che GT300, a fp32, abbia, con shader core a 1600 MHz, una capacità di calcolo teorica paragonabile a quella di GT200 per quanto riguarda le MADD


Ora, sembrerebbe che nVidia abbia problemi a far funzionare GT300 con shader core a 1600 MHz, tanto che si è parlato di frequenze inferiori a quelle presviste anche per fp64 (il che allinea le prestazioni di fermi, in doppia precisione, a quelle di RV870). Se questo fosse confermato, allora, a fp32, GT300 non andrebbe meglio o, se si, non di molto, rispetto a GT200.
La mancanza di date di presentazione e di specifiche, potrebbe essere il sintomo che stiano tentando di tirare al massimo le frequenze per compensare la mancanza di potenza di calcolo (anche il lancio di NV30 fu posticipato, ma in quel caso, diffusero specifiche che poi non vennero confermate, in quanto NV30, inizialmente, doveva funzionare a frequenze inferiori che furono aumentate per cercare di ridurre il gap rispetto a R300).
Ultima ipotesi, è che c'è quelche bug. In tal caso, a seconda del tipo di bug, la soluzione potrebbe richiedere molti mesi o poche ore.
Al momento non mi vengono in mente altre ipotesi
Di sicuro è da scartare la tesi che nVidia stia nascondendo le sue carte, visto che la cosa non ha senso alcuno, poiché ATi le sue le ha già scoperte da un pezzo.
Secondo me non esiste alcun sample funzionate. Lo avrebbero già fatto vedere.
Bastoner è offline  
Old 21-11-2009, 16:02   #7836
persa
Bannato
 
Iscritto dal: Oct 2009
Messaggi: 6442
Quote:
Originariamente inviato da Bastoner Guarda i messaggi
Questo dovrebbe far riflettere gli ingegneri improvvisati che abbiamo qui su hwu.

scusami ma a chi tiriferisci con questa frasetta acida?
forse a me?

se si ti sbagli, evita quindi queste uscite solo perchè c'è qualche utente interessato all'argomento che prova a dire la sua.

e se ci rifletti un attimino nonostante non sia un esperto, cmq torna il discorso che ho fatto da una parte: un derivato del gt200 mettiamo da 120shader sarebbe andato come un g92 e + o - sarebbe stato anche della stessa grandezza e sempre dx10. quindi inutile farlo in questo caso, a questo punto meglio continuare ad usare direttamente il g92b per le fasce + basse.
ma con fermi che presenta una nuova architettura questa cosa non credo si ripeterà. e quindi nvidia presto o tardi finirà per avere una gamma completa di schede dx11.

Ultima modifica di persa : 21-11-2009 alle 16:37.
persa è offline  
Old 21-11-2009, 16:05   #7837
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da yossarian Guarda i messaggi
La tesi che nVidia non stia scoprendo le carte è di qualche utente del forum (l'ho solo riportata) non certo mia, visto che so bene che in casa AMD hanno informazioni piuttosto precise su Fermi (come nVidia le aveva su RV870). Comunque, corretto l'errore (lapsus freudiano o colpa del panino che stavo mangiando mentre digitavo?).
In quanto al resto, nVidia, stavolta, ha già svelato la sua architettura, ci sono anche white paper su GT300, on line, alla portata di tutti.
Cos'altro dovrebbe mostrare?
L'unica cosa che manca sono i bench.
Quindi anche la tesi che nVidia non mostra prima dello scadere dell'NDA non regge.
Prima di G80 non avevano fatto trapelare nulla, neppure che fose un chip a shader unificati (anche se i bene informati lo sapevano da un pezzo, ma parliamo di addetti ai lavori o quasi). Stavolta, al contrario, stanno parlando molto ma non stanno facendo vedere i test (soprattutto quelli in game o nei bench sintetici) che sono quelli che più interessano agli utenti di tipo consumer. Se esiste GT300 funzionante, il modo migliore per far vendere meno AMD sarebbe quello di mostrarne le vere potenzialità. Al contrario, si stanno rendendo ridicoli facendo vedere una volta un finto pcb e la volta successiva una foto senza senso. In questo modo danno forza alle tesi di chi sostiene che GT300 non funzioni o che non sia così performante, almeno in game, come vorrebbero far credere e ottengono l'effetto contrario.
Secondo me nvidia questa volta ha svelato parzialmente le sue carte perchè era consapevole di essere in ritardo: quello di mostrare prima la versione tesla è un indice chiaro dell'interesse verso il GPU computing ma contemporaneamente Nvidia ci tiene a far sapere che la versione Comsumer sarà basata sulla stessa architettura e che arriveranno in commercio prima

http://www.hwupgrade.it/forum/showpo...postcount=8157


Con questo sistema (e le foto ambigue, e le dichiarazioni) Nvidia fa parlare di se, dimostra che le schede in versione Tesla possono girare ne dice il potenziale in GPUcomp e fa intendere che questa potenza sarà alla portata di tutti anche nel Gaming proprio nelle versioni Geforce

http://www.tomshw.it/cont/news/gefor...a/22892/1.html

Che sia vero o meno staremo a vedere...ma la strategia di nvidia a giudicare dagli scleri sul forum secondo me sta pagando (coautrice involontaria di cio: la penuria delle nuove schede AMD/ATI).

Nell'ipotesi invece che le Geforce basate su Fermi siano non abbastanza competitive aspettare sarebbe lo stesso dannoso e lo scenario non cambierebbe...quindi direi che più semplicemente stanno aspettando di passare alla revision a3 (aggiustando le frequenze?) e di avere volumi passabili per fare un lancio.
Quote:
Originariamente inviato da persa Guarda i messaggi
in effetti il discorso non fa una piega.

servirebbero proprio i bench con i giochi per attirare l'attenzione al massimo e bloccare le vendite ati. e invece ancora niente
Ma per nvidia sarebbe peggio bloccare le propie vendite piuttosto che quelle di AMD, il modo migliore per farlo sarebbe proprio di mostrare le prestazioni di un prodotto con troppo anticipo e questo mi pare abbastanza logico: nessuno comprerebbe le nvidia di adesso sapendo che è in arrivo una nuova scheda che andrà XXX (comunque di più)

A questo aggiungici che AMD/ATI ha presentato le schede ma la disponibilità è talmente bassa al momento che moltissime persone stanno annullando gli ordini o ripiegando su altre schede (AMD/nvidia vecchia generazione), ed ecco che nvidia puo' aspettare abbastanza tranquilla che migliorino gli yelds nelle fonderie.

Forse ne sapremo di più a dicembre...
Kharonte85 è offline  
Old 21-11-2009, 16:08   #7838
Maury
Senior Member
 
L'Avatar di Maury
 
Iscritto dal: Feb 2000
Messaggi: 11187
Se nVidia aveva un esemplare di Fermi funzionate state certi che un 3dmark con frequenze a bomba l'avrebbe tirato fuori per stoppare RV870...

A distanza di tempo, e nonostante sia stata sotterrata di ilarità per i suoi fake, non ha esibito nulla di più concreto di una scheda tenuta insieme da viti da legno ed un'immagine farlocca di un benchmark...
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 [email protected] Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 |

PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w|

ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI
Maury è offline  
Old 21-11-2009, 16:08   #7839
persa
Bannato
 
Iscritto dal: Oct 2009
Messaggi: 6442
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
cut

Forse ne sapremo di più a dicembre...
mah vedremo cmq sono molto curioso
persa è offline  
Old 21-11-2009, 16:09   #7840
eXeS
Senior Member
 
L'Avatar di eXeS
 
Iscritto dal: Mar 2004
Città: Parma
Messaggi: 5955
Quote:
Originariamente inviato da yossarian Guarda i messaggi
La tesi che nVidia non stia scoprendo le carte è di qualche utente del forum (l'ho solo riportata) non certo mia, visto che so bene che in casa AMD hanno informazioni piuttosto precise su Fermi (come nVidia le aveva su RV870).
Ti riferisci a spionaggio industriale, o più semplicemente all'attività di dipendenti che passando da un'azienda all'altra, autonomamente, si portano appresso documentazione riservata ?
http://www.pchs.it/News/Notizie-dal-...pionaggio.html
__________________
case: phanteks eclipse 500a - cpu: 9800x3d - aio: arctic liquid freezer iii 360 - mobo: msi b650 gaming plus wifi - ram: g.skill flare x5 6000 cl30 - gpu: rtx 5080 fe - storage: samsung 980pro 1tb, 960 evo 500gb, 850pro 512gb - psu: enermax revolution d.f. x 850w
eXeS è offline  
 Discussione Chiusa


Redmi Note 15 Pro+ 5G: autonomia monstre e display luminoso, ma il prezzo è alto Redmi Note 15 Pro+ 5G: autonomia monstre e displ...
HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione HONOR Magic 8 Pro: ecco il primo TOP del 2026! L...
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata Insta360 Link 2 Pro e 2C Pro: le webcam 4K che t...
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza Motorola edge 70: lo smartphone ultrasottile che...
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
La nave elettrica più grande mai ...
Spusu lancia il Wi-Fi Calling: come funz...
Questo robot impara a muovere le labbra ...
iPhone 17 annienta la concorrenza in Cin...
La nuova Xiaomi SU7 batte un record: 4.2...
È possibile copiare i qubit: dei ...
BYD alza ulteriormente l'asticella: batt...
Il nuovo razzo spaziale riutilizzabile c...
L'ex leader di Assassin's Creed porta Ub...
Il razzo spaziale NASA SLS e la capsula ...
Samsung Galaxy S26 Ultra: quattro colora...
AWS investe 1,2 miliardi in Italia. Coin...
La navicella cinese Shenzhou-20 con il f...
I piani Business ed Education di Google ...
Ceres-2 e Lunga Marcia 3B: la Cina falli...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:31.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v