PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

atomo37
22-10-2009, 15:08
Eh beh, ma andrá di piú della 5870...
Cosi come la gts250 ;)

glielo hai già comunicato a nvidia? perchè quelli ancora non sanno manco se la fanno sta scheda :sofico:

appleroof
22-10-2009, 15:12
cos'è, il ritrovo dei trolls questo tread? :asd:

cmq la scheda di Evga sarebbe stata anche carina qualche mese fà, per chi magari non avesse (come me) una mobo adatta allo sli, ma ora come ora è imho inutile

magari però potrebbe essere un buono spunto per il futuro (tipo una "370" + una di fascia media) sempre per gli stessi motivi...anche se ormai le mobo doppio slot per i fruitori di queste soluzioni gaming sono diffuse...

insomma, la bollerei come un esercizio di stile, come la gtx295 su singolo pcb, la 4850x2 ecc ecc...

Matalf
22-10-2009, 15:13
Eh beh, ma andrá di piú della 5870...
Cosi come la gts250 ;)
:sbonk:
glielo hai già comunicato a nvidia? perchè quelli ancora non sanno manco se la fanno sta scheda :sofico:

guarda che era una battuta sul fatto che qualche tempo fà èra uscita la notizia da parte di nvidia che una GTS250 faceva più FPS a batman ;)

kiriranshelo
22-10-2009, 15:16
http://www.fudzilla.com/content/view/16095/1/

sembra che Nvidia si stia preparando ad uscire in volumi, per quanto riguarda le schede a 40nm

atomo37
22-10-2009, 15:24
:sbonk:


guarda che era una battuta sul fatto che qualche tempo fà èra uscita la notizia da parte di nvidia che una GTS250 faceva più FPS a batman ;)

era una battuta anche la mia eh

The_SaN
22-10-2009, 15:25
glielo hai già comunicato a nvidia? perchè quelli ancora non sanno manco se la fanno sta scheda :sofico:Era una battuta, visto che nVidia aveva comunicato che a batman la gts250 faceva piú fps.

Comunque questa scheda non é di nVidia, ma di EVGA. Un po' come la 4850X2 di sapphire.
Resta il fatto che é un po' (tanto) tardi per una scheda del genere, anche se l'idea non era male...
era una battuta anche la mia ehAh ecco :D

ais001
22-10-2009, 15:39
sembra che Nvidia si stia preparando ad uscire in volumi, per quanto riguarda le schede a 40nm
... per la serie: "domattina ci svegliamo tutti e scopriamo che nei negozi ci sono solo nVidia a 40nm"

... praticamente è passato Santa Claus e durante la notte ha riempito i negozi di tutto il mondo sostituendo le vecchie schede con le nuove.... che efficienza!!!! :asd:

Kharonte85
22-10-2009, 15:51
Prove tecniche.

appleroof
22-10-2009, 15:54
Prove tecniche.

dici?

ais001
22-10-2009, 16:01
... secondo me sono "prove tecniche di azienda fallita e tutti in mobilità" :rotfl:

Andrea deluxe
22-10-2009, 16:03
io so chi hanno contattato per realizzare la sk.....

costui: http://www.xtremesystems.org/Forums/showpost.php?p=3961890&postcount=1

wijjyu
22-10-2009, 16:09
Che situazione... qui si fa ironia, ma se un'azienda va male non è un bene per nessuno, se non forse (e dico FORSE) per la concorrenza più diretta. Aspetto con ansia qualche notizia, purtroppo non riesco ad ascoltare il file audio in cui si parla della geforce "prevista". qualcuno mi fa un velocissimo riassunto?

ais001
22-10-2009, 16:10
... non so se è vera quella cosa.... ma sicuramente fa la sua :oink: figura... :asd:

Andrea deluxe
22-10-2009, 17:49
situazione nvidia.......

http://www.youtube.com/watch?v=32WjO7IiHpI

Skullcrusher
22-10-2009, 18:38
situazione nvidia.......

http://www.youtube.com/watch?v=32WjO7IiHpI

Oddio muoio :asd:

sertopica
22-10-2009, 21:59
situazione nvidia.......

http://www.youtube.com/watch?v=32WjO7IiHpI

:sbonk:

Speriamo di no! :D

ais001
22-10-2009, 22:03
... appena arriva "ilratman" a lavorare in nVidia, finisce così x tutti :asd:
-> http://www.youtube.com/watch?v=xhDuOY35owo

ilratman
22-10-2009, 22:28
... appena arriva "ilratman" a lavorare in nVidia, finisce così x tutti :asd:
-> http://www.youtube.com/watch?v=xhDuOY35owo

he he sarebbe l'unico modo per fare schede serie! :asd:

ais001
22-10-2009, 22:59
... vi assomigliate pure come nome tra te ed il sergente :asd:

Kharonte85
23-10-2009, 00:48
dici?
Mi riferivo a questo: http://www.hwupgrade.it/news/skvideo/evga-e-nvidia-insieme-per-una-nuova-scheda-grafica_30509.html

Sì, intanto non penso che possano sperarare di ottenere un buon successo di vendite...è un mero esercizio.

Pero' l'idea ha un senso: dedicare un chip inferiore per la fisica (ammesso che non funzioni anche di supporto per la grafica)...del resto non è necessario avere un chippone per la fisica e pensare in futuro ad un G92/G94@32/28nm (o quel che sarà) affiancato al chip principale, non sarebbe male (sulle schede Top gamma ovviamente)...

Tipo il NVIO che su G80 era esterno

http://www.beyond3d.com/images/reviews/g80-arch/board-naked-big.jpg

atomo37
23-10-2009, 08:54
Beh NVIO è decisamente più piccolo di un G92 e non ha bisogno di accoppiargli anche la sua RAM, quindi diciamo che la situazione è molto più complessa.

Ad ogni modo dopo aver ucciso le PPU Ageia "perché è un lavoro che può fare tranquillamente la GPU" ci dovrebbero spiegare perché ora invece serve una seconda GPU. Forse che la prima non ce la fa a fare il rendering e anche la fisica? :rolleyes:

o forse semplicemente per vendere? :)

zorco
23-10-2009, 09:05
o forse semplicemente per vendere? :)
voglio vedere quando ne venderanno di questi accrocchi visto il prezzo previsto intorno alle 300-350 euro:rolleyes:

alla fine si tratta sempre di una gtx275 e quando non si attivano le funzioni per la fisica rimane sempre e cmq una comune 275 venduta ad un fottio di soldi..

boh per mè non ha senso,che si concentrino sul nuovo chip fermi invece di fare ste porcate

atomo37
23-10-2009, 09:20
voglio vedere quando ne venderanno di questi accrocchi visto il prezzo previsto intorno alle 300-350 euro:rolleyes:

alla fine si tratta sempre di una gtx275 e quando non si attivano le funzioni per la fisica rimane sempre e cmq una comune 275 venduta ad un fottio di soldi..

boh per mè non ha senso,che si concentrino sul nuovo chip fermi invece di fare ste porcate

la penso come te, secondo me stanno tergiversando cercando di riscaldare la stessa minestra.

kiriranshelo
23-10-2009, 09:21
la penso come te, secondo me stanno tergiversando cercando di riscaldare la stessa minestra.

bè qualcosa dovranno fare, di 'nuovo', in vista di natale e per cercare di contenere ATI

michelgaetano
23-10-2009, 09:22
Che poi una GTS 250 per la fisica... Non era meglio una 9600 GT (meno consumi, potenza sufficiente)? :stordita:

bè qualcosa dovranno fare, di 'nuovo', in vista di natale e per cercare di contenere ATI

Le virgolette ci stanno tutte. Comunque visti i prezzi e la diffusione di schede eVGA da noi, dubito anche di vederne da queste parti.

kiriranshelo
23-10-2009, 09:35
Le virgolette ci stanno tutte. Comunque visti i prezzi e la diffusione di schede eVGA da noi, dubito anche di vederne da queste parti.

tra vendere poco e non vendere niente (lasciando il mercato di fatto ad ATI) preferiscono fare così; l'idea non è neanche 'malvagia'; in quanto con i precedenti rebrading sono andati avanti... 2 anni? questa, al momento, è l'unica soluzione per contenere ATI fino all'arrivo di Fermi ma perderà parecchio mercato sopratutto nel segmento medio

DVD2005
23-10-2009, 09:40
Anche perché è una soluzione che non ha senso sotto ogni punto di vista, se proprio sento il bisogno di avere una GPU dedicata alla fisica in un solo gioco mi compro una VGA separata e la metto sul secondo slot, comprando un'assurdità del genere quando cambierò VGA dovrò cambiarne, di fatto due, mentre nell'altro modo posso tenere la scheda X che avevo comprato a suo tempo allo scopo e continuare gli upgrade sulla VGA primaria come niente fosse.

sono totalmente daccordo con te.

Kharonte85
23-10-2009, 10:00
Beh NVIO è decisamente più piccolo di un G92 e non ha bisogno di accoppiargli anche la sua RAM, quindi diciamo che la situazione è molto più complessa.
Di G92 si' ma di un G94@32 o 28 o quel che sarà magari no

http://www.pcper.com/images/reviews/522/dieshot.jpg

Di ram ne bastano 512mb, se pensiamo che con le nuove generazioni prevedono tagli da 1,5gb o 3gb addirittura direi che lo spazio ci dovrebbe essere.


Ad ogni modo dopo aver ucciso le PPU Ageia "perché è un lavoro che può fare tranquillamente la GPU" ci dovrebbero spiegare perché ora invece serve una seconda GPU. Forse che la prima non ce la fa a fare il rendering e anche la fisica? :rolleyes:

Per quello che ho parlato di prove tecniche, al momento è completamente assurda...non lo sarebbe nel momento in cui si riesce a raggiungere un certo livello di integrazione, sappiamo bene che c'è un calo prestazionale se attivi la fisica su singola scheda, avrebbe senso proporre una scheda Top gamma che sia in grado di fare questo senza perdere in prestazioni.

Bastoner
23-10-2009, 10:05
Ad ogni modo dopo aver ucciso le PPU Ageia "perché è un lavoro che può fare tranquillamente la GPU" ci dovrebbero spiegare perché ora invece serve una seconda GPU. Forse che la prima non ce la fa a fare il rendering e anche la fisica? :rolleyes:

Non capisco perché nvidia distrugga tutto quello che acquisisce, da 3dfx ad Ageia. Potrebbe essere un Re Mida, poteva trasformarle in oro...e invece...:(

ciccionamente90
23-10-2009, 10:10
Non capisco perché nvidia distrugga tutto quello che acquisisce, da 3dfx ad Ageia. Potrebbe essere un Re Mida, poteva trasformarle in oro...e invece...:(

mah... in ogni caso le tecnologie non le ha buttate :fagiano:

Kharonte85
23-10-2009, 10:33
Che ne basti poca è un conto, ma rimane che devi mettercela e complicare il PCB, cosa che non accade con NVIO, quindi rimane una situazione molto diversa.
Ovvio era solo un paragone visivo che mi era tornato in mente...comunque pare fattibile (dato che lo fanno :D)


Il problema che dicevo rimane tutto comunque. Se domani voglio cambiare VGA ne devo cambiare due, in questo modo. L'unica soluzione accettabile è avere la scheda per la fisica su uno slot separato per fare l'upgrade solo della primaria. Questo a prescindere dal fatto che PhysX non sia uno standard né in senso stretto né de facto e che comprarsi una VGA dedicata per un gioco non sia particolarmente sensato. Ma comprarsi un accrocchio no, non è sensato secondo alcun punto di vista...

Perchè 2? La Vga è una sola (inteso come numero eh :asd:) solo che ha un "processore dedicato alla fisica"...la soluzione di 2 vga è comunque scomoda secondo me...vediamo che cosa faranno con questa scheda poi magari scartano l'idea.

kiriranshelo
23-10-2009, 10:35
Perchè 2? La Vga è una sola (inteso come numero eh :asd:) solo che ha un "processore dedicato alla fisica"...la soluzione di 2 vga è comunque scomoda secondo me...vediamo che cosa faranno con questa scheda poi magari scartano l'idea.

forse c'è un risparmio di energia / più prestazioni rispetto ad avere due schede separate

atomo37
23-10-2009, 10:37
Ovvio era solo un paragone visivo che mi era tornato in mente...comunque pare fattibile (dato che lo fanno :D)



Perchè 2? La Vga è una sola (inteso come numero eh :asd:) solo che ha un "processore dedicato alla fisica"...la soluzione di 2 vga è comunque scomoda secondo me...vediamo che cosa faranno con questa scheda poi magari scartano l'idea.

credo sia solo questione di scelte e gusti, così come comprare una scheda dual gpu o optare per un sli/crossfire.
io credo che se nvidia facessa una schedina magari singleslot, dedicata solo alla fisica, forse la prenderei (occupando così il terzo pci-e).

Matalf
23-10-2009, 10:39
credo sia solo questione di scelte e gusti, così come comprare una scheda dual gpu o optare per un sli/crossfire.
io credo che se nvidia facessa una schedina magari singleslot, dedicata solo alla fisica, forse la prenderei (occupando così il terzo pci-e).

mai pensato alla 9600GT :asd:

per la fisica è fin troppo potente ;)

atomo37
23-10-2009, 10:42
mai pensato alla 9600GT :asd:

per la fisica è fin troppo potente ;)

quello che mi chiedo davvero però è: ma sti core i7 che ci ritroviamo, che lavorano sempre al 30/40% , possibile che dedicando almeno un core alla fisica non riescono a prendersi in carico per bene quel compito?
secondo me non vogliono ottimizzare ma non vedo tutta questa necessità di gpu onestamente.

Matalf
23-10-2009, 10:53
quello che mi chiedo davvero però è: ma sti core i7 che ci ritroviamo, che lavorano sempre al 30/40% , possibile che dedicando almeno un core alla fisica non riescono a prendersi in carico per bene quel compito?
secondo me non vogliono ottimizzare ma non vedo tutta questa necessità di gpu onestamente.

mai visto Havock ;)


cmq il problema della fisica particellare è che i singoli thread sono legati gli uni agli altri da leggi che li rendono molto bloccanti. Questo implica che anche se una cpu ne può esegure 20 in un singolo colpo di clock tutti gli altri ( e pargliamo di migliaia come nella nebbia di batman) si girano i pollici.

Poi c'è da dire che sicuramente Physix è studiato appositamente per intampare le CPU :asd:

kiriranshelo
23-10-2009, 10:53
quello che mi chiedo davvero però è: ma sti core i7 che ci ritroviamo, che lavorano sempre al 30/40% , possibile che dedicando almeno un core alla fisica non riescono a prendersi in carico per bene quel compito?

Havok (http://it.wikipedia.org/wiki/Havok_(software))?

atomo37
23-10-2009, 10:54
mai visto Havock ;)


cmq il problema della fisica particellare è che i singoli thread sono legati gli uni agli altri da leggi che li rendono molto bloccanti. Questo implica che anche se una cpu ne può esegure 20 in un singolo colpo di clock tutti gli altri ( e pargliamo di migliaia come nella nebbia di batman) si girano i pollici.

Poi c'è da dire che sicuramente Physix è studiato appositamente per intampare le CPU :asd:

claro ;)

Kharonte85
23-10-2009, 11:58
Sono due GPU, le pago, quando vorrò fare l'upgrade dovrò decidere se pagarne nuovamente due o a quel punto rinunciare al costo della seconda. Se sono due GPU su due schede la seconda la posso tenere quanto voglio mentre continuo ad upgradare la prima, e sicuramente spendo meno ;)
Pero' tieni conto delle proporzioni, se usi una GPU di fascia medio-bassa come G94 i costi in più sono minimi ovvio che la cosa ha senso su una scheda da 300$ e più...poi non è che prendi due GPU, ne prendi una che puo' calcolare la fisica senza perdere in prestazioni...in sostanza basterebbe che nvidia standardizzasse il suo stesso "processore fisico" (calibrando una GPU di fascia mediobassa attuale così da contenere i costi) e lo inserisse nella maggior parte delle VGA da lei prodotte dalla fascia medio-alta in su.

A quel punto i produttori di videogame sarebbero più invogliati a produrre giochi con questa tecnologia avendo un bacino utenti più ampio (un esempio parallelo che mi viene in mente: la ps3 ha inserito il lettore Blu-ray pur con costi esorbitanti e pesante ritardo ma questo ha fatto vincere questo standard sull' HD-DVD)

Che nvidia stia puntando molto alla fisica si vede, probabilmente queste sono prove tecniche per cercare di imporre il suo standard a svantaggio della concorrenza e dello standard condiviso...si vede dalle mosse di nvidia che vuole mantenere questa features tutta per se e vuole dargli un valore aggiunto e ATTENZIONE: non bisogna sottovalutare la capacità di nvidia di "imporsi": PartnerForce, The Way It's Meant To Be Played tanto vituperati dalla concorrenza e sbeffeggiati da utenti sono in realtà strumenti molto potenti ed nvidia ha ragione quando dice che AMD/ATI dovrebbe "rimboccarsi le maniche e fare lo stesso".

Foglia Morta
23-10-2009, 12:34
Pero' tieni conto delle proporzioni, se usi una GPU di fascia medio-bassa come G94 i costi in più sono minimi ovvio che la cosa ha senso su una scheda da 300$ e più...poi non è che prendi due GPU, ne prendi una che puo' calcolare la fisica senza perdere in prestazioni...in sostanza basterebbe che nvidia standardizzasse il suo stesso "processore fisico" (calibrando una GPU di fascia mediobassa attuale così da contenere i costi) e lo inserisse nella maggior parte delle VGA da lei prodotte dalla fascia medio-alta in su.

Sarebbero comunque sempre troppo alti i costi... Se hanno preferito fermare la produzione di GT200b piuttosto che venderlo ad un prezzo inferiore a quello al quale lo vendevano vuol dire che già con quel prezzo stavano con l'acqua alla gola. Forse avrebbe vagamente senso farlo con gpu economiche ma se hai un chippone che non si può permettere di rimanere nella fascia di prezzo per la quale è stato progettato non ha proprio senso aggiungere altri costi alla scheda, rischieresti nuovamente di dover interrompere la produzione prematuramente.

A quel punto i produttori di videogame sarebbero più invogliati a produrre giochi con questa tecnologia avendo un bacino utenti più ampio (un esempio parallelo che mi viene in mente: la ps3 ha inserito il lettore Blu-ray pur con costi esorbitanti e pesante ritardo ma questo ha fatto vincere questo standard sull' HD-DVD)

Che nvidia stia puntando molto alla fisica si vede, probabilmente queste sono prove tecniche per cercare di imporre il suo standard a svantaggio della concorrenza e dello standard condiviso...si vede dalle mosse di nvidia che vuole mantenere questa features tutta per se e vuole dargli un valore aggiunto e ATTENZIONE: non bisogna sottovalutare la capacità di nvidia di "imporsi": PartnerForce, The Way It's Meant To Be Played tanto vituperati dalla concorrenza e sbeffeggiati da utenti sono in realtà strumenti molto potenti ed nvidia ha ragione quando dice che AMD/ATI dovrebbe "rimboccarsi le maniche e fare lo stesso".

Ma nVidia non hai mai voluto imporre uno standard... e non avrebbe nemmeno lontanamente la forza per farlo anche a precindere dal fatto che Intel ha imboccato una strada dalla quale non si torna indietro e si può solo andare avanti. Se Fermi è la risposta anticipata a Fusion e Larrabee allora con ogni probabilità si troverà con una gpu dal rapporto costo - prestazioni nel gaming più svantaggioso rispetto a quello di ATi. Ciò che vuole fare nVidia con Physx è differenziarsi dalla concorrenza per cercare di convincere gli utenti che un eventuale sovrapprezzo è giustificato dalle sue features più esclusive... è impensabile lo sviluppo della fisica con accelerazione su gpu nVidia only se poi solo una fetta ( che con il tempo andrà restringersi ) ne può usufruire e quindi nVidia, in un modo o nell'altro, deve pagarli gli sviluppatori e allora gli converrà cercare qualche killer application o gioco da benchmark ogni tanto come hanno fatto con Batman

Kharonte85
23-10-2009, 12:46
Sarebbero comunque sempre troppo alti i costi... Se hanno preferito fermare la produzione di GT200b piuttosto che venderlo ad un prezzo inferiore a quello al quale lo vendevano vuol dire che già con quel prezzo stavano con l'acqua alla gola. Forse avrebbe vagamente senso farlo con gpu economiche ma se hai un chippone che non si può permettere di rimanere nella fascia di prezzo per la quale è stato progettato non ha proprio senso aggiungere altri costi alla scheda, rischieresti nuovamente di dover interrompere la produzione prematuramente.
Non sto parlando di soluzioni attuali ovviamente...anche la scheda che verrà presentata è assolutamente senza senso (salvo sorprese).


Ma nVidia non hai mai voluto imporre uno standard... e non avrebbe nemmeno lontanamente la forza per farlo anche a precindere dal fatto che Intel ha imboccato una strada dalla quale non si torna indietro e si può solo andare avanti. Se Fermi è la risposta anticipata a Fusion e Larrabee allora con ogni probabilità si troverà con una gpu dal rapporto costo - prestazioni nel gaming più svantaggioso rispetto a quello di ATi. Ciò che vuole fare nVidia con Physx è differenziarsi dalla concorrenza per cercare di convincere gli utenti che un eventuale sovrapprezzo è giustificato dalle sue features più esclusive... è impensabile lo sviluppo della fisica con accelerazione su gpu nVidia only se poi solo una fetta ( che con il tempo andrà restringersi ) ne può usufruire e quindi nVidia, in un modo o nell'altro, deve pagarli gli sviluppatori e allora gli converrà cercare qualche killer application o gioco da benchmark ogni tanto come hanno fatto con Batman
Se convince più utenti che quelle features sono necessarie il suo vantaggio in termini di quote di mercato aumenta, non diminuisce :read: è questo quella che nvidia sta cercando di fare...non vorra' imporre lo standard in modo classico, ma vuole che la maggior parte dei giochi utilizzino questa tecnologia che puo' offrire solo lei. Solo a quel punto potrebbe "aprire" alla concorrenza.

Kharonte85
23-10-2009, 13:02
In linea teorica come "processore fisico" ci vedrei bene la neonata GPU GT216 (Alias GT 220)

http://images.anandtech.com/reviews/video/nvidia/gt220/gt216.jpg

http://www.anandtech.com/video/showdoc.aspx?i=3657&p=1

Matalf
23-10-2009, 13:24
In linea teorica come "processore fisico" ci vedrei bene la neonata GPU GT216 (Alias GT 220)

http://images.anandtech.com/reviews/video/nvidia/gt220/gt216.jpg

http://www.anandtech.com/video/showdoc.aspx?i=3657&p=1

non sei il solo :)

http://physxinfo.com/news/568/ati-hd-5870-nv-gt220-physx-benchmarks/

Kharonte85
23-10-2009, 13:29
non sei il solo :)

http://physxinfo.com/news/568/ati-hd-5870-nv-gt220-physx-benchmarks/
Ottimo! :D mi conferma il fatto che potrebbe bastare ;)

Foglia Morta
23-10-2009, 13:35
Non sto parlando di soluzioni attuali ovviamente...anche la scheda che verrà presentata è assolutamente senza senso (salvo sorprese).

Ho preso GT200b solo come esempio e mi riferivo in prospettiva futura proprio a Fermi, ma se hanno già detto che ci sarà una X2 con G300 allora sulle performance per mm^2 ( e quindi anche per i costi ) qualche dubbio ce l'ho. IMO Fermi serve a due cose , la performance crown da raggiungere anche a costi assurdi ( tipo GX2 ) e fare concorrenza a Larrabee e Fusion.


Se convince più utenti che quelle features sono necessarie il suo vantaggio in termini di quote di mercato aumenta, non diminuisce :read: è questo quella che nvidia sta cercando di fare...non vorra' imporre lo standard in modo classico, ma vuole che la maggior parte dei giochi utilizzino questa tecnologia che puo' offrire solo lei. Solo a quel punto potrebbe "aprire" alla concorrenza.

Non mi pare nella situazione di poter guadagnare quote di mercato attualmente :D , e comunque realisticamente parlando AMD e in futuro anche Intel avranno sempre una quota troppo importante per essere ignorata dagli sviluppatori. Molto più probabile che nVidia si accontenti di qualche gioco ( che poi è proprio ciò che vuole a giudicare da quel che hanno fatto ). IMO la cosa migliore per tutti è che la fisica sia open o , nel caso peggiore, una questione tra AMD e Intel in quanto potendo offrire piattaforme complete hanno miglior possibilità di girare i calcoli al processore che di volta in volta è più adatto allo scopo. Poi vabbe Ubisoft la sua scelta l'ha già fatta , Crytek anche. L' UE3 aveva scelto Physx prima che venisse acquistata da nVidia e anche così l'accelerazione su gpu è su pochi titoli , non fa testo. Mi pare che ci sia ben poco a favore di Physx... mi sa che resterà una feature del marketing di nVidia

appleroof
23-10-2009, 13:56
Mi riferivo a questo: http://www.hwupgrade.it/news/skvideo/evga-e-nvidia-insieme-per-una-nuova-scheda-grafica_30509.html

Sì, intanto non penso che possano sperarare di ottenere un buon successo di vendite...è un mero esercizio.

Pero' l'idea ha un senso: dedicare un chip inferiore per la fisica (ammesso che non funzioni anche di supporto per la grafica)...del resto non è necessario avere un chippone per la fisica e pensare in futuro ad un G92/G94@32/28nm (o quel che sarà) affiancato al chip principale, non sarebbe male (sulle schede Top gamma ovviamente)...

Tipo il NVIO che su G80 era esterno

cut

quella immagine mi commuove :cry: :D

cmq era proprio l'idea che dicevo qualche post prima, e se riuscissero ad affiancare un chip dedicato alla fisica accanto al chippone sarebbe davvero succulenta la cosa...ma può essere che stiamo fantasticando

Havok (http://it.wikipedia.org/wiki/Havok_(software))?

Purtroppo havock su cpu ha risultati scadenti rispetto a physx su vga, come resa, e non sò se dipenda dal sw in sè o proprio dal fatto che dovendo girare su cpu è appunto più limitato di physx

d'altra parte se havock fosse stata questa meraviglia l'avrebbero praticamente adottato tutti i giochi (esiste da anni, da prima di physx) perchè tanto la cpu ce l'hanno tutti :D

l'unica evoluzione importante, vado a memoria, fu havock FX che mi pare potesse girare anche su vga (qualsiasi, se non sbaglio) ma poi è caduto nell'oblio...:boh:

Kharonte85
23-10-2009, 14:00
Ho preso GT200b solo come esempio e mi riferivo in prospettiva futura proprio a Fermi, ma se hanno già detto che ci sarà una X2 con G300 allora sulle performance per mm^2 ( e quindi anche per i costi ) qualche dubbio ce l'ho. IMO Fermi serve a due cose , la performance crown da raggiungere anche a costi assurdi ( tipo GX2 ) e fare concorrenza a Larrabee e Fusion.

Non mi pare nella situazione di poter guadagnare quote di mercato attualmente :D , e comunque realisticamente parlando AMD e in futuro anche Intel avranno sempre una quota troppo importante per essere ignorata dagli sviluppatori. Molto più probabile che nVidia si accontenti di qualche gioco ( che poi è proprio ciò che vuole a giudicare da quel che hanno fatto ). IMO la cosa migliore per tutti è che la fisica sia open o , nel caso peggiore, una questione tra AMD e Intel in quanto potendo offrire piattaforme complete hanno miglior possibilità di girare i calcoli al processore che di volta in volta è più adatto allo scopo. Poi vabbe Ubisoft la sua scelta l'ha già fatta , Crytek anche. L' UE3 aveva scelto Physx prima che venisse acquistata da nVidia e anche così l'accelerazione su gpu è su pochi titoli , non fa testo. Mi pare che ci sia ben poco a favore di Physx... mi sa che resterà una feature del marketing di nVidia
Vedremo come si evolveranno le cose, nel frattempo nvidia fa esercizi...

quella immagine mi commuove :cry: :D

cmq era proprio l'idea che dicevo qualche post prima, e se riuscissero ad affiancare un chip dedicato alla fisica accanto al chippone sarebbe davvero succulenta la cosa...ma può essere che stiamo fantasticando

:D



Purtroppo havock su cpu ha risultati scadenti rispetto a physx su vga, come resa, e non sò se dipenda dal sw in sè o proprio dal fatto che dovendo girare su cpu è appunto più limitato di physx

d'altra parte se havock fosse stata questa meraviglia l'avrebbero praticamente adottato tutti i giochi (esiste da anni, da prima di physx) perchè tanto la cpu ce l'hanno tutti :D

l'unica evoluzione importante, vado a memoria, fu havock FX che mi pare potesse girare anche su vga (qualsiasi, se non sbaglio) ma poi è caduto nell'oblio...:boh:
Esatto, purtroppo havock FX è proprio morto...

Matalf
23-10-2009, 14:06
Purtroppo havock su cpu ha risultati scadenti rispetto a physx su vga, come resa, e non sò se dipenda dal sw in sè o proprio dal fatto che dovendo girare su cpu è appunto più limitato di physx

d'altra parte se havock fosse stata questa meraviglia l'avrebbero praticamente adottato tutti i giochi (esiste da anni, da prima di physx) perchè tanto la cpu ce l'hanno tutti :D

l'unica evoluzione importante, vado a memoria, fu havock FX che mi pare potesse girare anche su vga (qualsiasi, se non sbaglio) ma poi è caduto nell'oblio...:boh:

allora le risposte sono molto semplici :)

havock non ha il successo di Physix per il semplice motivo che non è "sostenuto" (:D) come quest ultimo. Invece Havock Fx è morto perchè intel non è cosi scema da darsi le badilate in faccia da sola :)

kiriranshelo
23-10-2009, 14:08
Purtroppo havock su cpu ha risultati scadenti rispetto a physx su vga, come resa, e non sò se dipenda dal sw in sè o proprio dal fatto che dovendo girare su cpu è appunto più limitato di physx

d'altra parte se havock fosse stata questa meraviglia l'avrebbero praticamente adottato tutti i giochi (esiste da anni, da prima di physx) perchè tanto la cpu ce l'hanno tutti :D

l'unica evoluzione importante, vado a memoria, fu havock FX che mi pare potesse girare anche su vga (qualsiasi, se non sbaglio) ma poi è caduto nell'oblio...:boh:

lista di videogame che utilizza havok [2008]

http://www.havok.com/index.php?page=available-games

Esatto, purtroppo havock FX è proprio morto...

estrapolato da un'articolo riferito al fatto che ATI si associa ad Havok "Attualmente oltre 100 sviluppatori e 300 titoli sul mercato si avvalgono del motore fisico di Havok, Havok Physics, per cui la scelta di AMD sembrerebbe ben ponderato"

Penso che Havok sarà sicuramente il futuro, la questione è che physix resiste ancora perchè viene sviluppato molto di più, in quanto sopratutto ora Nvidia, non ha altro su cui spingere per vendere. Ma la gpu non può fare tutto... havok è la soluzione migliore dal lato di ottimizzazione delle risorse

appleroof
23-10-2009, 14:21
lista di videogame che utilizza havok [2008]

http://www.havok.com/index.php?page=available-games



estrapolato da un'articolo riferito al fatto che ATI si associa ad Havok "Attualmente oltre 100 sviluppatori e 300 titoli sul mercato si avvalgono del motore fisico di Havok, Havok Physics, per cui la scelta di AMD sembrerebbe ben ponderato"

Penso che Havok sarà sicuramente il futuro, la questione è che physix resiste ancora perchè viene sviluppato molto di più, in quanto sopratutto ora Nvidia, non ha altro su cui spingere per vendere. Ma la gpu non può fare tutto... havok è la soluzione migliore dal lato di ottimizzazione delle risorse

non ho detto che non sia usato, anzi, ma che non rende quanto physx -per ovvie ragioni direi, finchè è legato alla cpu-, tant'è che pur essendo molti di più i giochi con havock (che ricordo esiste da molto più tempo di physx) il suo utilizzo non è "standard"

si parla molto di opencl, molto probabilmente questo sarà il futuro standard, chissà :boh:

p.s.: imho Amd ha scelto havock primo per non dare manforte ad Nvidia, secondo perchè in casa ha le cpu -paradossalmente però ha dato manforte ad un concorrente ancora più temibile di Nvidia, cioè Intel :asd: -

kiriranshelo
23-10-2009, 14:28
non ho detto che non sia usato, anzi, ma che non rende quanto physx -per ovvie ragioni direi, finchè è legato alla cpu-, tant'è che pur essendo molti di più i giochi con havock (che ricordo esiste da molto più tempo di physx) il suo utilizzo non è "standard"

si parla molto di opencl, molto probabilmente questo sarà il futuro standard, chissà :boh:

tralasci una cosa... havok potrebbe non essere così performante perchè non possono renderlo così performante. La maggior parte dei pc in circolazione è dotato di una CPU mono o al massimo dual-core e inciderebbe troppo far lavorare a dovere havok.
Se non erro havok è, già dalla sua origine, legato all'opencl :stordita:

appleroof
23-10-2009, 14:34
tralasci una cosa... havok potrebbe non essere così performante perchè non possono renderlo così performante. La maggior parte dei pc in circolazione è dotato di una CPU mono o al massimo dual-core e inciderebbe troppo far lavorare a dovere havok.
Se non erro havok è, già dalla sua origine, legato all'opencl :stordita:

non credo proprio: havock è precedente a opencl, che è stato ratificato da meno di un anno...

appleroof
23-10-2009, 14:36
:mbe:

Stai scherzando vero? PhysX su VGA ha un performance hit pazzesco

parlo di resa visiva, non prestazionale :) (se ti scandalizzano le prestazioni di physx su vga, prova a farlo girare su qualunque cpu :asd: )

kiriranshelo
23-10-2009, 14:42
parlo di resa visiva, non prestazionale :) (se ti scandalizzano le prestazioni di physx su vga, prova a farlo girare su qualunque cpu :asd: )

stavo giusto leggendo che su havok la programmazione è più semplice in quanto è già integrato come plugin nei software di sviluppo, a differenza di Physix. Ecco perchè ha una lista di compatibilità più lunga. Giusto per precisare :)

appleroof
23-10-2009, 17:01
Havok ci gira benissimo, probabilmente è proprio PhysX che è una chiavica...

non avevo dubbi che saresti arrivato a questa conclusione :)

un'altra conclusione, libera da pregiudizi, parte da una semplice considerazione: havock, essendo pensato per girare su cpu (e sulle cpu di qualche anno fà, ci credo che ci gira benissimo :stordita: ) è leggero, physx è nato addirittura per una ppu, di conseguenza sulle vga -odierne- fatica (e sulle cpu addirittura se parte è un miracolo)

appleroof
23-10-2009, 17:17
PhysX girava su CPU anche ai tempi della PPU, solo che non era accelerato da questa quando non presente nel sistema ;)

si ma con risultati pessimi. Cos'è che ti sfugge della parola "pessimi"? :stordita:

Ovviamente questo accadeva già prima che la cattivona Nvidia comprasse Ageia

Ad ogni modo se nVidia dice che la GPU è fighissima grazie a CUDA e può far girare PhysX con grande figosità chi siamo noi poveri e derelitti utenti di un forum per dire che non ha ragione nVidia? ;)

non siamo nessuno, possiamo fare delle conclusioni che, quando -ripeto- prive di fanboismi o pregiudizi se preferisci, possono avvicinarsi a dati obiettivi. Come ad esempio che physx è pensato per girare su chip dedicati in modo che nessuna cpu potrà eguagliarne i risultati; havock è pensato per girare sulle cpu pretanto darà sempre risultati, in termini di "leggerezza", migliori

il punto è: a che prezzo questa pesantezza di physx? I detrattori di Nvidia bollano come "2foglietti volanti" gli effetti di physx visti finora (ma già in BAA sono molto più carini e imho il problema è che è troppo pesante per il parco macchine -Nvidia- attuale per implementarlo in modo che possa esprimersi al 100%); rimane il fatto che havock sui giochi visti finora fà altrettanto cagare, e mi rimane il dubbio che già dà il massimo di se

Poi ovviamente se è uno è un supertecnico alla yossarian saprà argomentare con dati scentifici alla mano :)

michelgaetano
23-10-2009, 19:15
Gioca a Dark Messiah. Quella è fisica.

Non ci ho giocato. Si trova qualcosa in video?

appleroof
23-10-2009, 19:21
Gioca a Dark Messiah. Quella è fisica.

ah può essere, in effetti non ci ho mai giocato ;)

Non ci ho giocato. Si trova qualcosa in video?

http://www.youtube.com/results?search_query=dark+messiah+of+might+and+magic+physics&search_type=&aq=f

darek
23-10-2009, 19:55
Un articolo interessante :)

http://upload.centerzone.it/images/mtxs3ft3pwt5mdu6yj8_thumb.jpg (http://upload.centerzone.it/viewer.php?file=mtxs3ft3pwt5mdu6yj8.jpg) http://upload.centerzone.it/images/reid6y5wo3opyb6wh373_thumb.jpg (http://upload.centerzone.it/viewer.php?file=reid6y5wo3opyb6wh373.jpg)

kiriranshelo
23-10-2009, 20:21
...havock, essendo pensato per girare su cpu (e sulle cpu di qualche anno fà, ci credo che ci gira benissimo :stordita: ) è leggero, physx è nato addirittura per una ppu, di conseguenza sulle vga -odierne- fatica (e sulle cpu addirittura se parte è un miracolo)

...Ad ogni modo se nVidia dice che la GPU è fighissima grazie a CUDA e può far girare PhysX con grande figosità chi siamo noi poveri e derelitti utenti di un forum per dire che non ha ragione nVidia? ;)

con l'uso della gpu integrata, nella cpu, le si potrà delegare la fisica physx o havok?

michelgaetano
23-10-2009, 20:28
con l'uso della gpu integrata, nella cpu, le si potrà delegare la fisica physx o havok?

Quelle integrate come potenza (almeno le prossime Intel) dovrebbero essere veri rottami...

DVD2005
23-10-2009, 22:51
ah può essere, in effetti non ci ho mai giocato ;)



http://www.youtube.com/results?search_query=dark+messiah+of+might+and+magic+physics&search_type=&aq=f

è un bel titolo ;)

Foglia Morta
24-10-2009, 08:31
L' articolo di Xbit-Labs (http://www.xbitlabs.com/news/video/display/20091023135737_Nvidia_CEO_We_Are_Software_Company.html) che prende spunto da un' intervista al CEO di nVidia (http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#):

Nvidia CEO: We Are Software Company.

Jen-Hsun Huang Predicts More Software Innovations

Chief executive officer of Nvidia Corp. said in an interview that although Nvidia is known for its graphics processing units (GPUs), Nvidia is a software company. While the claims seems to be a little strange, it outlines the direction that Nvidia plans to invest in: software applications that leverage take advantage of Nvidia’s chips and offer exclusive capabilities.

“Nvidia is a software company, [software] will be what will drive our growth. We just don’t write the application, but we create all the core technology, we create more core technology for visual computing than any other company in the world. […] What you are and how you make money doesn’t have to be the same. […] Apple is a software company but they make money by selling hardware. […] Nvidia is an integrated complete visual computing and parallel computing solution technology company,” said Jen-Hsun Huang, chief executive officer of Nvidia, in an interview with CHW web-site.

At present Nvidia offers GeForce graphics processor that support rather traditional features like those supported by DirectX, OpenGL, OpenCL, etc application programming interfaces. However, in addition Nvidia also offers rather exclusive features, such as Stereo 3D Vision and PhysX for gamers as well as CUDA-exclusive applications for consumers. Although neither of the technologies seem to have become truly important in general, Nvidia does hope that going forward its exclusive features will drive consumers towards GeForce-branded products.

It is rather noteworthy that previously Mr. Huang has always pointed that it cost hundreds of millions of dollars to create a leading-edge graphics processing unit and only Nvidia was capable of investing that large sum of money.

At present Nvidia is mostly known for its GeForce graphics cards for gamers as well as Quadro graphics cards for professionals. However, the company is working hard to promotes its Tesla products among scientists or high-performance computing professionals as well as Tegra devices among users of portable consumer electronics. Apparently, according to Mr. Huang, Nvidia’s strategy is to offer exclusive software features for those markets as well.

“In the future, software is the most important thing; anyone can make chips, it is really expensive, but anyone can do it. The hard part is to inspire people to create amazing things. We have software, systems, architecture, tools, compilers, and languages, whatever it takes…,” said Mr. Huang.

ais001
24-10-2009, 09:01
... secondo me tra 1 settimana arriva ilratman in nVidia e va a finire che smettono di fare svga e fanno solo software di sviluppo :rotfl:

jp77
24-10-2009, 10:53
L' articolo di Xbit-Labs (http://www.xbitlabs.com/news/video/display/20091023135737_Nvidia_CEO_We_Are_Software_Company.html) che prende spunto da un' intervista al CEO di nVidia (http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#):

Nvidia CEO: We Are Software Company.

Jen-Hsun Huang Predicts More Software Innovations

Chief executive officer of Nvidia Corp. said in an interview that although Nvidia is known for its graphics processing units (GPUs), Nvidia is a software company. While the claims seems to be a little strange, it outlines the direction that Nvidia plans to invest in: software applications that leverage take advantage of Nvidia’s chips and offer exclusive capabilities.

“Nvidia is a software company, [software] will be what will drive our growth. We just don’t write the application, but we create all the core technology, we create more core technology for visual computing than any other company in the world. […] What you are and how you make money doesn’t have to be the same. […] Apple is a software company but they make money by selling hardware. […] Nvidia is an integrated complete visual computing and parallel computing solution technology company,” said Jen-Hsun Huang, chief executive officer of Nvidia, in an interview with CHW web-site.

At present Nvidia offers GeForce graphics processor that support rather traditional features like those supported by DirectX, OpenGL, OpenCL, etc application programming interfaces. However, in addition Nvidia also offers rather exclusive features, such as Stereo 3D Vision and PhysX for gamers as well as CUDA-exclusive applications for consumers. Although neither of the technologies seem to have become truly important in general, Nvidia does hope that going forward its exclusive features will drive consumers towards GeForce-branded products.

It is rather noteworthy that previously Mr. Huang has always pointed that it cost hundreds of millions of dollars to create a leading-edge graphics processing unit and only Nvidia was capable of investing that large sum of money.

At present Nvidia is mostly known for its GeForce graphics cards for gamers as well as Quadro graphics cards for professionals. However, the company is working hard to promotes its Tesla products among scientists or high-performance computing professionals as well as Tegra devices among users of portable consumer electronics. Apparently, according to Mr. Huang, Nvidia’s strategy is to offer exclusive software features for those markets as well.

“In the future, software is the most important thing; anyone can make chips, it is really expensive, but anyone can do it. The hard part is to inspire people to create amazing things. We have software, systems, architecture, tools, compilers, and languages, whatever it takes…,” said Mr. Huang.

Mi sembra un ottima strada da percorrere...con le sole GPU non si fanno i soldi...bisogna diversificare gli investimenti e cercare nuovi business

Pike79
24-10-2009, 11:37
Gioca a Dark Messiah. Quella è fisica.

Io Dark Messiah ce l' ho, ma se devo essere sincero non vedo tutta sta fisica. Almeno, non piu' che in HL2 o in Crysis.
Se poi devo proprio dirla tutta, che si parli di Physx o che si parli di Havok per me il risultato non cambia, non ho ancora visto niente di "verosimile" se non per quanto riguarda nebbia, fumi e tessuti. I corpi sembrano ancora legati a leggi fisiche discutibili, troppo leggeri, i fluidi sembrano ancora masse di muco...c' è ancora un pò da fare evidentemente, sia come resa visiva che come impatto prestazionale.

Kharonte85
24-10-2009, 11:47
Io Dark Messiah ce l' ho, ma se devo essere sincero non vedo tutta sta fisica. Almeno, non piu' che in HL2
Infatti la fisica è la stessa di HL2 idem per il motore grafico (Gran bel gioco)

Imho il miglior esempio di fisica vivente in quanto a resa ed implementazione è ancora Crysis (a chi non lo ha mai fatto consiglierei i Mod sulla fisica fatti dagli amatori).

papafoxtrot
24-10-2009, 12:22
Non capisco..
Le notizie che arrivano dal CEO di nvidsia non mi piacciono...
Anche il fatto che ora venga a dire
"noi facciamo software", "puntiamo su 3dvision e physX", in passato aveva detto "non cambia niente avere un 20% di FPS in più, l'importante è offrire un'esperienza di gioco migliore"... physx e 3d vision anche qui...
ora viene a dire
"a fare gpu son buoni tutti, bisogna sapere creare un buon software che migliori l'esperienza degli utenti"....

Insomma mi sembra che da mesi stia cercando di distogliere l'attenzione dalla potenza della scheda video...
Non vorrei che gt300 facesse un profondo buco....

Pike79
24-10-2009, 12:37
Non capisco..
Le notizie che arrivano dal CEO di nvidsia non mi piacciono...
Anche il fatto che ora venga a dire
"noi facciamo software", "puntiamo su 3dvision e physX", in passato aveva detto "non cambia niente avere un 20% di FPS in più, l'importante è offrire un'esperienza di gioco migliore"... physx e 3d vision anche qui...
ora viene a dire
"a fare gpu son buoni tutti, bisogna sapere creare un buon software che migliori l'esperienza degli utenti"....

Insomma mi sembra che da mesi stia cercando di distogliere l'attenzione dalla potenza della scheda video...
Non vorrei che gt300 facesse un profondo buco....
Sono un pò le preoccupazioni di tutti (virgolette morali su preoccupazioni).
In effetti è singolare che non si sappia ancora nulla. Leggo su altri siti (correggetemi se dico inesattezze) che ATI ha problemi a produrre in quantità sufficiente la serie 5xxx perchè "qualcuno" si è accaparrato gran parte dei wafer a 40nm...a sto punto per farci cosa? I dispetti? A prescindere dal fatto che queste presunte notizie mi lasciano solo e semplicemente perplesso ci sarebbe veramente da capire che cosa stia succedendo, perchè posso capire le difficoltà nel terminare un progetto ambizioso, posso capire la gara a chi si accaparra il mercato prima, ma quello che mi risulta ostico da capire è il perchè non si riesca a far si che questi benedetti wafer siano disponibili per tutte e due le case. Che siano così problematici da produrre? Processo lento? Troppo costoso? Macchinari non adeguati? Ci deve essere qualcosa che non funziona...

gervi
24-10-2009, 12:39
Un video non rende l'idea dell'interattività fisica che c'è nel gioco :)



A PhysX no, visto che non sarà una GPU nVidia, e ad Havok nemmeno, visto che attualmente non gira su GPU (a parte alcuni showcase di OpenCL) ma comunque saranno sempre GPU piuttosto scarse, soprattutto quella Intel, quindi non ci farei comunque la bocca ;)



:mbe: :rolleyes:
:mbe:
ci manca che ora non hanno gt300 fermi

ma presentano il loro Sistema Operativo :

Nvidia "Marconi" ! su Nvidia "fermi"

Non lo so , vogliono sostituirsi a Microsoft adesso??
In effetti questa affermazione "sa" di "fetore" , un fermi non all'altezza delle aspettative???

qualunque sia il motivo , secondo me con sto "fermi" , si sono davvero ficcati in un vicolo cieco.

Defragg
24-10-2009, 12:49
Infatti la fisica è la stessa di HL2 idem per il motore grafico (Gran bel gioco)

Imho il miglior esempio di fisica vivente in quanto a resa ed implementazione è ancora Crysis (a chi non lo ha mai fatto consiglierei i Mod sulla fisica fatti dagli amatori).

Potresti illuminarmi? :)

Maury
24-10-2009, 13:01
Io Dark Messiah ce l' ho, ma se devo essere sincero non vedo tutta sta fisica. Almeno, non piu' che in HL2 o in Crysis.
Se poi devo proprio dirla tutta, che si parli di Physx o che si parli di Havok per me il risultato non cambia, non ho ancora visto niente di "verosimile" se non per quanto riguarda nebbia, fumi e tessuti. I corpi sembrano ancora legati a leggi fisiche discutibili, troppo leggeri, i fluidi sembrano ancora masse di muco...c' è ancora un pò da fare evidentemente, sia come resa visiva che come impatto prestazionale.

ma con Seven va ? a me non va con il 64 bit :muro:

Pike79
24-10-2009, 13:11
ma con Seven va ? a me non va con il 64 bit :muro:

Con 7 non l' ho provato in effetti...l' avevo provato con Xp ovviamente e con Vista 64...ora che mi ci hai fatto pensare lo reinstallo e ti faccio sapere! Aspetta, nè?:)

Pike79
24-10-2009, 13:30
Uhm...c' è qualcosa che non va...artefatti e schermi neri...devo cercare qlcs su google...

edit: patchandolo parte, ma non è che vada benissimo, crasha in uscita e ogni tanto freeza...

papafoxtrot
24-10-2009, 13:31
Sono un pò le preoccupazioni di tutti (virgolette morali su preoccupazioni).
In effetti è singolare che non si sappia ancora nulla. Leggo su altri siti (correggetemi se dico inesattezze) che ATI ha problemi a produrre in quantità sufficiente la serie 5xxx perchè "qualcuno" si è accaparrato gran parte dei wafer a 40nm...a sto punto per farci cosa? I dispetti? A prescindere dal fatto che queste presunte notizie mi lasciano solo e semplicemente perplesso ci sarebbe veramente da capire che cosa stia succedendo, perchè posso capire le difficoltà nel terminare un progetto ambizioso, posso capire la gara a chi si accaparra il mercato prima, ma quello che mi risulta ostico da capire è il perchè non si riesca a far si che questi benedetti wafer siano disponibili per tutte e due le case. Che siano così problematici da produrre? Processo lento? Troppo costoso? Macchinari non adeguati? Ci deve essere qualcosa che non funziona...

Quello della produzione è un discorso diverso:
La notizia viene da fudzilla che non si può certo dire ne che sia al di sopra delle parti, ne che sia affidabile: il significato della notizia era sostanzialmente questo:
1) ATI ha ordinato troppi pochi wafer a 40nm, preoccupata che il suo prodotto non fosse concorrenziale con il nuovo fermi
In sostanza, il messaggio che Fudzilla vuol lasciar passare è: "ati ha una gran paura di fermi, che evidentemente deve essere un mostro".
Ovviamente ciò non è possibile, ati sa benissimo che fermi non sarà disponibile in vendita prima di natale nel migliore dei casi per nvidia. Dunque non avrebbe avuto mai alcun motivo per temerne la concorrenza nel periodo settembre - dicembre.
In ati erano certissimi che questo sarebbe stato un trimestre di vacche grasse e di certo non hanno risparmiato nei wafer da ordinare.
2) Il resto dei wafer è corsa ad accaparrarseli NVIDIA per i suoi chip mobile, che ora vendono benissimo, col risultato che ati non può chiedere nuovi chip.
Anche qui passa un messaggio subliminale: nvidia sta vendendo camionate di chip a 40nm. Ovviamente non è che sia proprio così... i chip a 40nm per portatilki riguardano solo una piccola parte delle paroduzione e del mercato di schede video. Sui portatili la stragrande maggioranza del mercato ha integrati, e per la restante parte ati ha superato il 50% delle vendite... la situazione non si inverte così velocemente.
Di conseguenza o nvidia sta vagonate di chip da mettere in magazzino ad ammuffire, o non sta producendo vagonate di chip...
E fra l'altro ati avrebbe dovuto godere, in questi mesi, di un privilegio da parte di tsmc, in base ad accordi di questa porimavera, per compensare il ritardo nella produzione di hd4770.

Insomma la notizia è la solita sparata di fudzilla per tenere buoni clienti e soprattutto investitori di nvidia.

Molto probabilmente i problemi di produzione a 40nm non sono ancora pienamente risolti e poi certamente c'è una gran domanda di ati hd5000... peraltro probabilmente lanciato quando la produzione di massa era iniziata da poco, con poche scorte.
Quel che preoccupa è il fatto che nvidia continui a predicare che le prestazioni non servono a nulla, che loro producono software, che le loro schede son più versatili e complete per via di physX e 3d vision... che a fare chip veloci son buoni tutti, basta investire un po'...
E che non vi sia nessun annuncio del tipo "gt300 è più veloce di rv870 di tot, e in questi scenari", o "il chip più potente del mercato"... roba del genere... dato che sono in ritardo hanno tutto l'interesse a dimostrare la potenza del loro chip... farebbe attendere gli indecisi e tranquillizzerebbe molto di più gli investitori!

Maury
24-10-2009, 14:07
Uhm...c' è qualcosa che non va...artefatti e schermi neri...devo cercare qlcs su google...

edit: patchandolo parte, ma non è che vada benissimo, crasha in uscita e ogni tanto freeza...

A me crasha dopo il menù delle opzioni cmq grazie ;)

Se trovi qlc soluzione per renderlo stabile mi fai sapere per piacere ? cerco anche io :)

Bastoner
24-10-2009, 14:24
L' articolo di Xbit-Labs (http://www.xbitlabs.com/news/video/display/20091023135737_Nvidia_CEO_We_Are_Software_Company.html) che prende spunto da un' intervista al CEO di nVidia (http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#):

Nvidia CEO: We Are Software Company.

Jen-Hsun Huang Predicts More Software Innovations

Chief executive officer of Nvidia Corp. said in an interview that although Nvidia is known for its graphics processing units (GPUs), Nvidia is a software company. While the claims seems to be a little strange, it outlines the direction that Nvidia plans to invest in: software applications that leverage take advantage of Nvidia’s chips and offer exclusive capabilities.

“Nvidia is a software company, [software] will be what will drive our growth. We just don’t write the application, but we create all the core technology, we create more core technology for visual computing than any other company in the world. […] What you are and how you make money doesn’t have to be the same. […] Apple is a software company but they make money by selling hardware. […] Nvidia is an integrated complete visual computing and parallel computing solution technology company,” said Jen-Hsun Huang, chief executive officer of Nvidia, in an interview with CHW web-site.

At present Nvidia offers GeForce graphics processor that support rather traditional features like those supported by DirectX, OpenGL, OpenCL, etc application programming interfaces. However, in addition Nvidia also offers rather exclusive features, such as Stereo 3D Vision and PhysX for gamers as well as CUDA-exclusive applications for consumers. Although neither of the technologies seem to have become truly important in general, Nvidia does hope that going forward its exclusive features will drive consumers towards GeForce-branded products.

It is rather noteworthy that previously Mr. Huang has always pointed that it cost hundreds of millions of dollars to create a leading-edge graphics processing unit and only Nvidia was capable of investing that large sum of money.

At present Nvidia is mostly known for its GeForce graphics cards for gamers as well as Quadro graphics cards for professionals. However, the company is working hard to promotes its Tesla products among scientists or high-performance computing professionals as well as Tegra devices among users of portable consumer electronics. Apparently, according to Mr. Huang, Nvidia’s strategy is to offer exclusive software features for those markets as well.

“In the future, software is the most important thing; anyone can make chips, it is really expensive, but anyone can do it. The hard part is to inspire people to create amazing things. We have software, systems, architecture, tools, compilers, and languages, whatever it takes…,” said Mr. Huang.

:eek:
Una parola: spaventoso.

Maury
24-10-2009, 14:39
Uhm...c' è qualcosa che non va...artefatti e schermi neri...devo cercare qlcs su google...

edit: patchandolo parte, ma non è che vada benissimo, crasha in uscita e ogni tanto freeza...

Funziona! Ho messo la patch 1.2 tolto compatibilità XP che m'era rimasta selezionata, ora tutto bene ;)

Kharonte85
24-10-2009, 14:58
Potresti illuminarmi? :)

OT/ http://www.strategyinformer.com/pc/crysis/map/22429.html

Defragg
24-10-2009, 15:09
OT/ http://www.strategyinformer.com/pc/crysis/map/22429.html

Grazie! :)

Bescio
24-10-2009, 17:32
Uhm a me funziona su 7 x64 RC (v1.02 e Catalyst 9.9)

Confermo anche io che funziona su 7 x64 Retail, patch 1.02 e Catalyst 9.10. Provato HD3200 e HD4850. :)

Andrea deluxe
24-10-2009, 19:20
http://www.hardwarecanucks.com/imagehosting/2404ae326bfdc076.jpg

Pike79
24-10-2009, 19:35
Una volta scrissi una cosa, non ricordo se su questo forum o su un altro, e la scrissi pensandola da profano, avendo nessuna nozione specifica in campo di schede video, se non una tremenda passione. Il mio pensiero era questo: ma non è che Nvidia, con il fatto di puntare moltissimo su un approccio meno...passatemi il termine..."giocoso" del solito alle nuove caratteristiche delle DX11, stia per trovare l' uovo di colombo per quanto riguarda il CPU limited che impone un certo tipo di programmazione?
Sarebbe così strano, secondo voi, che la prossima GPU Nvidia fosse in grado di farsi carico, fisica a parte, di quelle cose che normalmente affaticano un processore? Spero di essere riuscito a spiegarmi....:fagiano:

Andrea deluxe
24-10-2009, 19:39
Una volta scrissi una cosa, non ricordo se su questo forum o su un altro, e la scrissi pensandola da profano, avendo nessuna nozione specifica in campo di schede video, se non una tremenda passione. Il mio pensiero era questo: ma non è che Nvidia, con il fatto di puntare moltissimo su un approccio meno...passatemi il termine..."giocoso" del solito alle nuove caratteristiche delle DX11, stia per trovare l' uovo di colombo per quanto riguarda il CPU limited che impone un certo tipo di programmazione?
Sarebbe così strano, secondo voi, che la prossima GPU Nvidia fosse in grado di farsi carico, fisica a parte, di quelle cose che normalmente affaticano un processore? Spero di essere riuscito a spiegarmi....:fagiano:

si, ti sei spiegato!

ma ricorda le parole di Henry Ford.....

Pike79
24-10-2009, 19:41
Uhm...ricordo la storia del cappello, ricordo la storia della macchina di qualsiasi colore purchè nera...ma non ricordo altro! :D
Cosa mi sfugge?

Aenil
24-10-2009, 19:41
Una volta scrissi una cosa, non ricordo se su questo forum o su un altro, e la scrissi pensandola da profano, avendo nessuna nozione specifica in campo di schede video, se non una tremenda passione. Il mio pensiero era questo: ma non è che Nvidia, con il fatto di puntare moltissimo su un approccio meno...passatemi il termine..."giocoso" del solito alle nuove caratteristiche delle DX11, stia per trovare l' uovo di colombo per quanto riguarda il CPU limited che impone un certo tipo di programmazione?
Sarebbe così strano, secondo voi, che la prossima GPU Nvidia fosse in grado di farsi carico, fisica a parte, di quelle cose che normalmente affaticano un processore? Spero di essere riuscito a spiegarmi....:fagiano:

Processore e cpu sono profondamente diversi ed imporsi come sostituto della cpu è davvero impossibile come cosa, bisognerebbe adattare tutto, a partire dal SO.

discorso diverso invece il fatto di sfruttare in determinati ambiti(parallel computing ad es.) l'enorme potenza di una gpu.

Andrea deluxe
24-10-2009, 19:43
Uhm...ricordo la storia del cappello, ricordo la storia della macchina di qualsiasi colore purchè nera...ma non ricordo altro! :D
Cosa mi sfugge?

che se lo fa da sola, non serve a niente perche' non puo' essere adottata da tutti.

beneficio per tutti= evoluzione!

Andrea deluxe
24-10-2009, 19:44
Mi pareva strano...

sarebbe stata la fine (nel gaming)

Pike79
24-10-2009, 19:49
che se lo fa da sola, non serve a niente perche' non puo' essere adottata da tutti.

beneficio per tutti= evoluzione!

Per carità, non stavo parlando di un qualcosa di proprietario (un Physx 2 per intenderci), ma proprio di un qualche stratagemma per scaricare la cpu con modalità da Nvidia individuate ma utilizzabili anche da ATI.
Se tutte queste (poche) parole su Fermi dovessero avere una base di verità, e la mia ipotesi dovesse anch' essa avere un riscontro anche minimo nella realtà , allora sì che il fatto di avere molte unità shader ecc. ecc. potrebbe fare la differenza prestazionale, questo almeno fino alla prossima generazione concorrente...

Bastoner
24-10-2009, 19:52
http://www.hardwarecanucks.com/imagehosting/2404ae326bfdc076.jpg

Allora il Tassellator c'è...meno male!

Bastoner
24-10-2009, 19:55
Per carità, non stavo parlando di un qualcosa di proprietario (un Physx 2 per intenderci), ma proprio di un qualche stratagemma per scaricare la cpu con modalità da Nvidia individuate ma utilizzabili anche da ATI.
Se tutte queste (poche) parole su Fermi dovessero avere una base di verità, e la mia ipotesi dovesse anch' essa avere un riscontro anche minimo nella realtà , allora sì che il fatto di avere molte unità shader ecc. ecc. potrebbe fare la differenza prestazionale, questo almeno fino alla prossima generazione concorrente...

Non credo proprio che la direzione sia questa. Nvidia non è in grado di integrare gpu e cpu in un unico chip. Forse non lo sono nemmeno AMD e Intel (o sono ancora molto lontane), figuriamoci Nvidia.

Andrea deluxe
24-10-2009, 19:55
Per carità, non stavo parlando di un qualcosa di proprietario (un Physx 2 per intenderci), ma proprio di un qualche stratagemma per scaricare la cpu con modalità da Nvidia individuate ma utilizzabili anche da ATI.
Se tutte queste (poche) parole su Fermi dovessero avere una base di verità, e la mia ipotesi dovesse anch' essa avere un riscontro anche minimo nella realtà , allora sì che il fatto di avere molte unità shader ecc. ecc. potrebbe fare la differenza prestazionale, questo almeno fino alla prossima generazione concorrente...

invece a me le parole di nvidia sai a cosa fanno pensare?

che di questi tempi:

dove i soldi son pochi
dove se sbagli un prodotto sei finito
dove il processo produttivo arranca
dove la potenza c'e' ma non e' sfruttata
dove i consumi energetici sono al limite del decente
dove escono 3 giochi buoni ogni anno


NVIDIA ha detto che forse e' meglio se si ottimizza sul versante software perche' siamo alla frutta dell' hardware....

vale anche per ati, amd e intel!

tempo fa' un dipendente intel diceva che il processo a 32nm era un disastro.... e si chiedeva per quale cavolo di motivo si stava correndo cosi tanto.....

Matalf
24-10-2009, 19:58
la legge di moore durata quasi 30anni ormai è agli sgoccioli. si deve pesare a qualcosa di totalmente nuovo per poter continuare un evoluzione così rapida.

Andrea deluxe
24-10-2009, 20:02
la legge di moore durata quasi 30anni ormai è agli sgoccioli. si deve pesare a qualcosa di totalmente nuovo per poter continuare un evoluzione così rapida.

in effetti bisogna mettersi li con le balle ad ottimizzare...

guarda cosa puo' fare una 7800gtx con bus a 128bit (ps3)

http://www.pctunerup.com/up/results/_200910/20091018135425_loeb.jpg

immagina anche un banalissimo g92 dentro la ps3....

Pike79
24-10-2009, 20:03
Perfettamente d' accordo. D' altronde non credo che la giusta via per ridurre i consumi risieda nel continuare a ridurre il processo produttivo, nè quella per incrementare le prestazioni stia nell' aumento dei componenti o delle frequenze.
Schede che calcolano miliardate di dati ogni secondo non possono essere sprecate per fare una cosa sola (giocare), e per farla così come la fanno ci deve essere sicuramente un altro inghippo che non sia il solito capro espiatorio della banda passante piuttosto che non so io quale altra amenità.
E' vero che i soldi da investire sono relativamente pochi, per tutti, è vero che la parola d' ordine dovrebbe essere ottimizzare il software....ma se tutto fosse così non esisterebbe piu' guerra (in senso commerciale) fra produttori, con relativo stagnamento sia tecnologico che monetario....
Spero non si arrivi allo stallo, non sarebbe salutare per nessuno...

Ren
24-10-2009, 20:03
Il "totalmente nuovo" probabilmente sarà un silicio ibrido che disperderà meno corrente alle medio/alte frequenze...

Cambiare radicalmente i processi produttivi non è pensabile per nessun settore consolidato. L'esempio del petrolio è il più significato dal punto di vista storico...

tempo fa' un dipendente intel diceva che il processo a 32nm era un disastro.... e si chiedeva per quale cavolo di motivo si stava correndo cosi tanto.....

Perchè è l'unico modo per aumentare le performance delle architetture x86 rispetto agli altri ISA, compreso lo stesso EPIC di intel.

Pihippo
24-10-2009, 20:12
Una volta scrissi una cosa, non ricordo se su questo forum o su un altro, e la scrissi pensandola da profano, avendo nessuna nozione specifica in campo di schede video, se non una tremenda passione. Il mio pensiero era questo: ma non è che Nvidia, con il fatto di puntare moltissimo su un approccio meno...passatemi il termine..."giocoso" del solito alle nuove caratteristiche delle DX11, stia per trovare l' uovo di colombo per quanto riguarda il CPU limited che impone un certo tipo di programmazione?
Sarebbe così strano, secondo voi, che la prossima GPU Nvidia fosse in grado di farsi carico, fisica a parte, di quelle cose che normalmente affaticano un processore? Spero di essere riuscito a spiegarmi....:fagiano:

Ciao
Tranquillo! Tra un paio di anni si avranno GPU capaci di andare alla ram centrale per prendersi i vertex data ed i dati sulle geometrie e le cpu(se non saranno integrate alle gpu) si gireranno vistosamente i pollici:D

Matalf
24-10-2009, 20:14
Il "totalmente nuovo" probabilmente sarà un silicio ibrido che disperderà meno corrente alle medio/alte frequenze...

io spero sinceramente di abbandonare i semiconduttori e pasare direttamente hai quanti :asd:

o per non casere troppo nel fantascentifico in un processore basato su elementi biologici, in grado quindi di slegarsi dal binario.

ad oggi mi sembra siano riusciti "solo" a fare qualche operazione con il DNA, tipo creare una catena che identivichi un determinato dato, avevo letto che in questo modo si potrebbero contenere tutti i dati del pianeta in un sacchetto per surgelati :sofico:

Ren
24-10-2009, 20:18
io spero sinceramente di abbandonare i semiconduttori e pasare direttamente hai quanti

o per non casere troppo nel fantascentifico in un processore basato su elementi biologici, in grado quindi di slegarsi dal binario.

ad oggi mi sembra siano riusciti "solo" a fare qualche operazione con il DNA, tipo creare una catena che identivichi un determinato dato, avevo letto che in questo modo si potrebbero contenere tutti i dati del pianeta in un sacchetto per surgelati

Vedo che lavori molto di fantasia:sofico:, non perchè siano irrealizzabile, ma perchè dubito che approveranno mai un tale investimento nei prossimi 100 anni.

Parlando sempre di "fantascienza", vedo più tangibile il silicio 3D o le interconnessioni fotoniche.

Bastoner
24-10-2009, 20:19
invece a me le parole di nvidia sai a cosa fanno pensare?

che di questi tempi:

dove i soldi son pochi
dove se sbagli un prodotto sei finito
dove il processo produttivo arranca
dove la potenza c'e' ma non e' sfruttata
dove i consumi energetici sono al limite del decente
dove escono 3 giochi buoni ogni anno


NVIDIA ha detto che forse e' meglio se si ottimizza sul versante software perche' siamo alla frutta dell' hardware....

vale anche per ati, amd e intel!

tempo fa' un dipendente intel diceva che il processo a 32nm era un disastro.... e si chiedeva per quale cavolo di motivo si stava correndo cosi tanto.....

Uhm, onestamento questa interpretazione è un po' troppo fantasiosa, o quantomeno ottimistica rispetto alla situazione di Nvidia. E' molto più probabile che le dichiarazioni del CEO siano solo da attribuire a una oggettiva difficoltà nel progettare la nuova GPU. Non avendo altro su cui puntare in questo momento, il CEO tenta di creare aspettative e tenere buoni i fan. Non mi sarei mai aspettato una serie di affermazioni incredibili come quelle che abbiamo letto. Primo perchè i meggiori introiti di Nvidia derivano dalla progettazione e dalla vendita di chip, e non dallo sviluppo di software, e in questo senso il paragone con Apple non c'entra una mazza.
Secondo perchè Nvidia storicamente ha sempre puntato allo scettro prestazionale come strategia di marketing. Mentre le X2 by ATI fanno parte della strategia sweet spot, tutte le GX2 sono state create esclusivamente per surclassare le prestazioni dell'avversaria. Nvidia ha sempre rincorso ossessivamente la prestazione pura. Pensate alla storia della gtx260: qualche settimana dopo la sua uscita, Nvidia ha rilasciato la versione con più stream processors solo per avere quei 5 frames in più che gli avrebbero permesso di dire "ecco, va meglio della 4870", scontentando così tutti i quelli che avevano speso 400 euro per la 260 con 192sp.
Ora, dopo una lunga stagione di penosissimi rebrand, dopo affermazioni quantomeno ridicole del tipo "la nostra gts250 va meglio della 5870 perchè abbiamo Physx", dopo figuracce fatte davanti al mondo con la presentazione di schede fake, il CEO se ne esce dicendo "noi facciamo software"? :mbe:
Ok, voglio vedere cosa tirano fuori dal capello, perchè fino ad ora ci sono solo 3dVision e Physix, entrambe carine ma molto poco promettenti.

Andrea, la tua intepretazione (pensare che il CEO abbia detto: "Sai cosa? Basta vendere gpu, abbiamo fatto troppi soldi con g80, facciamo sotware") mi sembra quantomeno ingenua. :)

Ps: perfavore, ridimensiona l'immagine. ;)

Ren
24-10-2009, 20:23
Andrea, la tua intepretazione (pensare che il CEO abbia detto: "Sai cosa? Basta vendere gpu, abbiamo fatto troppi soldi con g80, facciamo sotware") mi sembra quantomeno ingenua.

Dubito che abbia voluto intendere quello che hai scritto tu...

Andrea deluxe
24-10-2009, 20:23
Uhm, onestamento questa interpretazione è un po' troppo fantasiosa, o quantomeno ottimistica rispetto alla situazione di Nvidia. E' molto più probabile che le dichiarazioni del CEO siano solo da attribuire a una oggettiva difficoltà nel progettare la nuova GPU. Non avendo altro su cui puntare in questo momento, il CEO tenta di creare aspettative e tenere buoni i fan. Non mi sarei mai aspettato una serie di affermazioni incredibili come quelle che abbiamo letto. Primo perchè i meggiori introiti di Nvidia derivano dalla progettazione e dalla vendita di chip, e non dallo sviluppo di software, e in questo senso il paragone con Apple non c'entra una mazza.
Secondo perchè Nvidia storicamente ha sempre puntato allo scettro prestazionale come strategia di marketing. Mentre le X2 by ATI fanno parte della strategia sweet spot, tutte le GX2 sono state create esclusivamente per surclassare le prestazioni dell'avversaria. Nvidia ha sempre rincorso ossessivamente la prestazione pura. Pensate alla storia della gtx260: qualche settimana dopo la sua uscita, Nvidia ha rilasciato la versione con più stream processors solo per avere quei 5 frames in più che gli avrebbero permesso di dire "ecco, va meglio della 4870", scontentando così tutti i quelli che avevano speso 400 euro per la 260 con 192sp.
Ora, dopo una lunga stagione di penosissimi rebrand, dopo affermazioni quantomeno ridicole del tipo "la nostra gts250 va meglio della 5870 perchè abbiamo Physx", dopo figuracce fatte davanti al mondo con la presentazione di schede fake, il CEO se ne esce dicendo "noi facciamo software"? :mbe:
Ok, voglio vedere cosa tirano fuori dal capello, perchè fino ad ora ci sono solo 3dVision e Physix, entrambe carine ma molto poco promettenti.

Andrea, la tua intepretazione (pensare che il CEO abbia detto: "Sai cosa? Basta vendere gpu, abbiamo fatto troppi soldi con g80, facciamo sotware") mi sembra quantomeno ingenua. :)

Ps: perfavore, ridimensiona l'immagine. ;)

:confused:

e poi sai quanto e' costato g80?

G80 è costato a NVIDIA circa 400 milioni di dollari in ricerca e sviluppo.

Andrea deluxe
24-10-2009, 20:23
Dubito che abbia voluto intendere quello che hai scritto tu...

infatti.

Bastoner
24-10-2009, 20:26
:confused:

e poi sai quanto e' costato g80?

G80 è costato a NVIDIA circa 400 milioni di dollari in ricerca e sviluppo.

Scusa e questo che cosa c'entra?

Andrea deluxe
24-10-2009, 20:28
Scusa e questo che cosa c'entra?

che ci vogliono troppi soldi per sviluppare ogni 2-3 anni una nuova architettura!

fino a poco tempo era sostenibile, adesso non piu'.

che e' la spiegazione delle dichiarazioni nvidia.

Bastoner
24-10-2009, 20:33
che ci vogliono troppi soldi per sviluppare ogni 2-3 anni una nuova architettura!

fino a poco tempo era sostenibile, adesso non piu'.

che e' la spiegazione delle dichiarazioni nvidia.

La spiegazione è che Nvidia in questo momento non è in grado di ultimare la nuova architettura e getta fumo negli occhi dicendo "non ci interessa avere il 20% in pià di frames, noi facciamo software". Non credo che sia una questione di soldi.
E cmq ribadisco, non c'entra una mazza con Apple. Apple compra l'hardware esattamente come facciamo noi, assembla i PC, ci mette sopra il suo SO, e poi vende le macchine con il suo logo a prezzi esorbitanti. Nvidia progetta le gpu, vende i chip ai partner (ed è qui che fa i soldi), e poi magari sviluppa del software per dare un valore aggunto ai suoi prodotti.

Matalf
24-10-2009, 20:35
:confused:

e poi sai quanto e' costato g80?

G80 è costato a NVIDIA circa 400 milioni di dollari in ricerca e sviluppo.

bhe non penso proprio che siano stati soldi buttati :D

considerato che praticamente G80 viene ancora venduto :asd:

Andrea deluxe
24-10-2009, 20:37
La spiegazione è che Nvidia in questo momento non è in grado di ultimare la nuova architettura e getta fumo negli occhi dicendo "non ci interessa avere il 20% in pià di frames, noi facciamo software". Non credo che sia una questione di soldi.
E cmq ribadisco, non c'entra una mazza con Apple. Apple compra l'hardware esattamente come facciamo noi, assembla i PC, ci mette sopra il suo SO, e poi vende le macchine con il suo logo a prezzi esorbitanti. Nvidia progetta le gpu, vende i chip ai partner (ed è qui che fa i soldi), e poi magari sviluppa del software per dare un valore aggunto ai suoi prodotti.

ma chi ha parlato di apple?


sei impazzito?

Andrea deluxe
24-10-2009, 20:38
bhe non penso proprio che siano stati soldi buttati :D

considerato che praticamente G80 viene ancora venduto :asd:

no assolutamente....

ma ti ricordi in che tempi e' stata progettata?

altri.

Bastoner
24-10-2009, 20:44
ma chi ha parlato di apple?


sei impazzito?

Modera i toni. Non credo che darmi del pazzo sia una cosa molto gentile. Leggi meglio l'intervista al CEO di Nvidia, in cui si parla di Apple. Se manco l'hai letta allora non capisco come tu faccia ad avanzare un'interpretazione. :rolleyes:

Andrea deluxe
24-10-2009, 20:50
Modera i toni. Non credo che darmi del pazzo sia una cosa molto gentile. Leggi meglio l'intervista al CEO di Nvidia, in cui si parla di Apple. Se manco l'hai letta allora non capisco come tu faccia ad avanzare un'interpretazione. :rolleyes:

si ma ti rivolgevi a me come se avessi parlato di apple, dandomi del visionario!

STOP OT!

:cincin:

Matalf
24-10-2009, 20:52
no assolutamente....

ma ti ricordi in che tempi e' stata progettata?

altri.

erano anche altri tempi per il gaming Pc


P.s: cacchio la 8800 è del 2006 diamine in 3 anni il maledetto mondo è cambiato radicalmente.

Andrea deluxe
24-10-2009, 20:53
erano anche altri tempi per il gaming Pc


P.s: cacchio la 8800 è del 2006 diamine in 3 anni il maledetto mondo è cambiato radicalmente.

:cry:

Bastoner
24-10-2009, 20:59
si ma ti rivolgevi a me come se avessi parlato di apple, dandomi del visionario!

STOP OT!

:cincin:

Guarda che non è un OT. Siamo perfettamente IT, visto che si parla di un'intervista al CEO di Nvidia sul futuro dell'azienda. Stavo solo dicendo che non ero d'accordo con la tua interpretazione, ed ho motivato le mie affermazioni. Ma a quanto pare non è una discussione proficua. :)

Andrea deluxe
24-10-2009, 21:03
Ma a quanto pare non è una discussione proficua. :)

infatti.

Ren
24-10-2009, 21:23
Boni, state boni... :p

http://upload.wikimedia.org/wikipedia/commons/9/9c/Costanzo.jpg

FreeMan
24-10-2009, 22:31
http://www.freesaveweb.net/hwupgrade/smile/plugin/boni.gif

>bYeZ<

ais001
25-10-2009, 01:30
guarda cosa puo' fare una 7800gtx con bus a 128bit (ps3)...
... direi che tra le 2, quella a dx è quella finta.... guarda che testoni che hanno pilota e copilota.... si vede che è quella finta e che stanno usando il cheat del "big-head" :asd:

P.S.= ma lo specchietto dx della foto di sx dov'è??? non ditemi che si sono dimenticati di disegnarlo... :asd:

The_SaN
25-10-2009, 02:40
in effetti bisogna mettersi li con le balle ad ottimizzare...

guarda cosa puo' fare una 7800gtx con bus a 128bit (ps3)

http://www.pctunerup.com/up/results/_200910/20091018135425_loeb.jpg

immagina anche un banalissimo g92 dentro la ps3....Nooo...non comparatemi pc e consoles :cry:

Il giorno in cui la ps3 fará girare un gioco con quella grafica (occhio al photoshop) a 1920x1080 AA4x e AF16x e 60fps potete rinchiudermi.
Il 99% dei giochi per console é a 720p senza AA e AF (molte volte a 30fps e non 60) proprio a causa delle loro vga...il tutto condito con textures di dubbia qualitá e risoluzione.

Gli effetti di luce della ps3 sono convincenti, certo, cosí come la fisica...ma é tutto dovuto ai 7 cores cell (che ricordo, sono anche in grado di muovere decentemente physx).
É hardware totalmente diverso (eccelle in un campo, il processore...fa schifo in un altro, la vga e la ram). Anche la resa é totalmente diversa...

Che poi ultimamente i giochi per pc siano programmati da criceti e scimpanzé, non c'é dubbio...

x.vegeth.x
25-10-2009, 11:13
Nooo...non comparatemi pc e consoles :cry:

Il giorno in cui la ps3 fará girare un gioco con quella grafica (occhio al photoshop) a 1920x1080 AA4x e AF16x e 60fps potete rinchiudermi.
Il 99% dei giochi per console é a 720p senza AA e AF (molte volte a 30fps e non 60) proprio a causa delle loro vga...il tutto condito con textures di dubbia qualitá e risoluzione.

Gli effetti di luce della ps3 sono convincenti, certo, cosí come la fisica...ma é tutto dovuto ai 7 cores cell (che ricordo, sono anche in grado di muovere decentemente physx).
É hardware totalmente diverso (eccelle in un campo, il processore...fa schifo in un altro, la vga e la ram). Anche la resa é totalmente diversa...

Che poi ultimamente i giochi per pc siano programmati da criceti e scimpanzé, non c'é dubbio...

eh già, perchè se non si gioca a 1080p, aa 4x af 16x e 60 fps e con tutte le textures in altissima definizione non ci si può divertire...

comunque si sta andando ot...

Andrea deluxe
25-10-2009, 11:18
Nooo...non comparatemi pc e consoles :cry:

Il giorno in cui la ps3 fará girare un gioco con quella grafica (occhio al photoshop) a 1920x1080 AA4x e AF16x e 60fps potete rinchiudermi.
Il 99% dei giochi per console é a 720p senza AA e AF (molte volte a 30fps e non 60) proprio a causa delle loro vga...il tutto condito con textures di dubbia qualitá e risoluzione.

Gli effetti di luce della ps3 sono convincenti, certo, cosí come la fisica...ma é tutto dovuto ai 7 cores cell (che ricordo, sono anche in grado di muovere decentemente physx).
É hardware totalmente diverso (eccelle in un campo, il processore...fa schifo in un altro, la vga e la ram). Anche la resa é totalmente diversa...

Che poi ultimamente i giochi per pc siano programmati da criceti e scimpanzé, non c'é dubbio...

il mio era un mero e semplice esempio di ottimizzazione.....


io penso che dovremmo essere tutti d'accordo che ci serva un po di ottimizzazzione...

Andrea deluxe
25-10-2009, 11:33
Senz'altro è vero, ma ava anche detto che fra 720p noAA noAF e 1920x1080 4xAA 16xAF sono un pochino diversi quanto a pesantezza per l'hardware ;)

certo!

Kharonte85
25-10-2009, 12:03
http://www.hardwarecanucks.com/imagehosting/2404ae326bfdc076.jpg

Meno male...

ais001
25-10-2009, 12:13
Che poi ultimamente i giochi per pc siano programmati da criceti e scimpanzé, non c'é dubbio...
... :rotfl:



http://1.bp.blogspot.com/_d-Hdu6ve53g/SQKUFRrfRKI/AAAAAAAAAEU/bCCayjlAQhU/s400/wallpaper_9.jpg http://4.bp.blogspot.com/_d-Hdu6ve53g/SQKTouVl9jI/AAAAAAAAADk/5UOUXllJPFw/s400/wallpaper_8.jpg

The_SaN
25-10-2009, 14:22
eh già, perchè se non si gioca a 1080p, aa 4x af 16x e 60 fps e con tutte le textures in altissima definizione non ci si può divertire...

comunque si sta andando ot...Si stava parlando di hardware e grafica, non di divertimento. Se no compriamoci tutti un Wii :D

Te lo dice uno che gioca praticamente solo a giochi col source e la robaccia nuova la lascia sullo scaffale :)

appleroof
25-10-2009, 14:56
Meno male...

quoto ;)

x.vegeth.x
25-10-2009, 16:42
Si stava parlando di hardware e grafica, non di divertimento. Se no compriamoci tutti un Wii :D

Te lo dice uno che gioca praticamente solo a giochi col source e la robaccia nuova la lascia sullo scaffale :)

da un estremo a quello opposto :rolleyes:

a livello di hw e grafica io sono già sorpreso di vedere uncharted 2 girare su un g70 a frame rate sempre stabile, senza bisogno di scomodare il fullhd e l'aa 4x

Andrea deluxe
25-10-2009, 16:55
da un estremo a quello opposto :rolleyes:

a livello di hw e grafica io sono già sorpreso di vedere uncharted 2 girare su un g70 a frame rate sempre stabile, senza bisogno di scomodare il fullhd e l'aa 4x

quoto!

Defragg
25-10-2009, 20:42
Senz'altro è vero, ma ava anche detto che fra 720p noAA noAF e 1920x1080 4xAA 16xAF sono un pochino diversi quanto a pesantezza per l'hardware ;)

Il punto è che le VGA attuali sono potenti almeno cinque volte (e sono stato MOLTO generoso) rispetto a RSX. :stordita:

The_SaN
25-10-2009, 23:00
da un estremo a quello opposto :rolleyes:

a livello di hw e grafica io sono già sorpreso di vedere uncharted 2 girare su un g70 a frame rate sempre stabile, senza bisogno di scomodare il fullhd e l'aa 4xMa il punto é che non é questo il punto della discussione :D

Si stava parlando di hardware e di cosa é in grado di fare, e non di come ci si possa divertire (giustamente) senza usare tutta questa potenza...

x.vegeth.x
26-10-2009, 13:57
Si stava parlando di hardware e di cosa é in grado di fare, e non di come ci si possa divertire (giustamente) senza usare tutta questa potenza...

mi ripeto: sono già sorpreso di vedere l'hardware della ps3 (gpu g70) far girare qualcosa come uncharted 2 a frame rate sempre stabile, senza bisogno di chiamare in causa features improbabili come il full hd e l'aa 4x

sto parlando di hardware anche io eh

ais001
26-10-2009, 14:24
... dite quello che volete, ma secondo me QUESTO (http://i583.photobucket.com/albums/ss278/morro826/megan-fox-1.jpg) è un signor "hardware" ... e non quello di cui state discutendo voi 2 che è vecchio e superato ;)

Alex656
26-10-2009, 16:44
Una volta in questa discussione si parlava di GT300 alias Fermi...........va beh che non c'è molto da dire, però.............:cry:

sickofitall
26-10-2009, 16:58
Una volta in questa discussione si parlava di GT300 alias Fermi...........va beh che non c'è molto da dire, però.............:cry:

http://img179.imageshack.us/img179/8701/troll3oh.jpg

The_SaN
26-10-2009, 17:01
mi ripeto: sono già sorpreso di vedere l'hardware della ps3 (gpu g70) far girare qualcosa come uncharted 2 a frame rate sempre stabile, senza bisogno di chiamare in causa features improbabili come il full hd e l'aa 4x

sto parlando di hardware anche io ehMa il punto é:
Se devo giocare a 720p senza AA e AF (ricordo che le nuove consoles erano pubblicizzate per il fullHD e 60fps), lo posso fare benissimo con una vga da 100 euro...che anzi, per come si stanno evolvendo le cose nel campo vga, sono pure troppo.

E la grafica di uncharted 2, per quanto anche io la reputi bella (personaggi molto ben realizzati e ottima palette di colori, oltre ad un buon gusto per le ambientazioni), mostra dei limiti che su pc non esistono:

- Risoluzione bassa : usando un monitor full HD si ha un non indifferente degrado dell' immagine
- Alcune textures fanno paura...ovviamente la ram non é sufficiente
- Le textures dell'ambiente sono "appiccicate" a modelli troppo squadrati
- Il blur di fondo é troppo accentuato, per migliorare la profonditá di campo che caso contrario sarebbe ridicola

Tutto questo, ovviamente, senza tener conto del gameplay e del divertimento (il gioco mi sembra ottimo in questo).

Insomma ok che la resa finale é buona (ma secondo il mio parere non ottima), ma i limiti della PS3 e della x360 sono evidenti...é roba che girerebbe benissimo su un pc di 2-3 anni fa a quella risoluzione e impostazioni...
Infatti i porting fatti bene (vedi devil may cry 4) girano a palla in full HD su una 9600gt 4xAA e 16xAF... con una grafica ovviamente migliore che la controparte per console.
Bandwidth exceeded. Non voglio commentare ulteriormente :asd::D

Legolas84
26-10-2009, 17:02
http://img179.imageshack.us/img179/8701/troll3oh.jpg

quoto... e si che è un solo utente non ci vorrebbe molto.... :)

sickofitall
26-10-2009, 17:04
quoto... e si che è un solo utente non ci vorrebbe molto.... :)

è uno solo ma si porta dietro i compagni di merende che gli rispondono per le rime :rolleyes: (e le pagine del topic crescono)

DVD2005
26-10-2009, 17:06
quoto... e si che è un solo utente non ci vorrebbe molto.... :)

è uno solo ma si porta dietro i compagni di merende che gli rispondono per le rime :rolleyes: (e le pagine del topic crescono)


sinceramente penso sia inutile innescare potenziali discussioni e flame, se qualcosa non "vi torna" usate lo strumento della segnalazione, poi saranno i mod, se è il caso, ad intervenire. Imho

The_SaN
26-10-2009, 17:08
Una volta in questa discussione si parlava di GT300 alias Fermi...........va beh che non c'è molto da dire, però.............:cry:Eh lo so, si sta un po' divagando...ma ultimamente manca un po' di pane per i nostri denti :D
A parte la buona notizia sul tessellatore non c'é niente di nuovo...

É che si parla tanto di ottimizzare qui, lí, e altrove tirando in ballo le console e la loro "mirabolante" grafica, che ogni tanto provo a rispondere :D
Di ottimizzazione non c'é poi cosi tanto, visto che vengono castrate molte cose nell' engine...

Anche su pc ci sono giochi ben fatti, purtroppo quelli che vengono maggiormente ricordati sono quelli programmati da "scimpanzé e criceti" ...
sinceramente penso sia inutile innescare potenziali discussioni e flame, se qualcosa non "vi torna" usate lo strumento della segnalazione, poi saranno i mod, se è il caso, ad intervenire. Imho;)
Alla fine sono piú i post con immagini e faccine (recriminando i "troll") che i miei e di vegeth su una discussione, almeno a parer mio, piú interessante.

FreeMan
26-10-2009, 20:34
quoto... e si che è un solo utente non ci vorrebbe molto.... :)

appunto.. ci vuole poco ad ignorare e non dare spago.. volendo c'è anche l'ignore list che sta li apposta per essere usata

ripeto il solito richiamo: stop OT und flames

>bYeZ<

supersalam
27-10-2009, 08:48
Ragazzi manco da 1 mese in questo thread, ci sono novità?
Ero rimasto al fatto che Nvidia producesse il 7 o 10% dei chip per wafer, un dato abbastanza sconcertante.

Insomma per Natale le avremo o no ste schedozze?

Bastoner
27-10-2009, 08:54
Ragazzi manco da 1 mese in questo thread, ci sono novità?
Ero rimasto al fatto che Nvidia producesse il 7 o 10% dei chip per wafer, un dato abbastanza sconcertante.

Insomma per Natale le avremo o no ste schedozze?


La novità è che Nvidia ha presentato la nuova scheda Tesla davanti a una platea di giornalisti, ed era un fake.

Sicuramente per Natale non vedremo schede Nvidia dx11.

kiriranshelo
27-10-2009, 09:49
Probabilmente direi che usciranno le G200@40nm. Qualche modello giusto per non lasciare il mercato in mano ad ATI, in attesa di Fermi

supersalam
27-10-2009, 10:08
La novità è che Nvidia ha presentato la nuova scheda Tesla davanti a una platea di giornalisti, ed era un fake.

Ma è vero? Sono impazziti? :eek:

Bhe che dire, bel periodo di m***a. E io che avevo intenzione di cambiare la mia schedozza per novembre.

ais001
27-10-2009, 10:15
... aspetta a gennaio/febbraio... per allora sicuramente si sarà smosso qualcosa ;)

Legolas84
27-10-2009, 10:32
Ma è vero? Sono impazziti? :eek:

Bhe che dire, bel periodo di m***a. E io che avevo intenzione di cambiare la mia schedozza per novembre.

Ti consiglio di tirare avanti ancora fino a gennaio febbraio con la 8800 e vedere come sarà la GeForce basata su FERMI ;)

atomo37
27-10-2009, 10:41
Ma è vero? Sono impazziti? :eek:

Bhe che dire, bel periodo di m***a. E io che avevo intenzione di cambiare la mia schedozza per novembre.

non direi proprio anzi, con 250 euro prendi un 5850, con 320 una 5870, entrambe mostri directx11, direi proprio che è un gran bel priodo per prendere una buona vga.

YelloWoodstock
27-10-2009, 10:58
Salve a tutti ragazzuoli... spero di non essere off topic con questo post...
Ho ordinato una gtx 285, che per essere alimentata ha bisogno d essere collegata all'alimentatore non con uno, bensì con due connettori a sei pin.
Il mio alimentatore ha già in dotazione un cavo con su attaccati 2 connettori per alimentazione di schede pci express, solo che uno è attaccato al cavo, l'altro al connettore stesso con una sorta di ponticello di fili.
Nel principale c'è scritto PCI express e nel secondo c'è scritto NVIDIA SLI.
La domanda è la seguente:
posso usare comunque questa tipologia di connettore per collegare UNA SOLA scheda video?
Grazie in anticipo!:)

gianni1879
27-10-2009, 11:13
Salve a tutti ragazzuoli... spero di non essere off topic con questo post...
Ho ordinato una gtx 285, che per essere alimentata ha bisogno d essere collegata all'alimentatore non con uno, bensì con due connettori a sei pin.
Il mio alimentatore ha già in dotazione un cavo con su attaccati 2 connettori per alimentazione di schede pci express, solo che uno è attaccato al cavo, l'altro al connettore stesso con una sorta di ponticello di fili.
Nel principale c'è scritto PCI express e nel secondo c'è scritto NVIDIA SLI.
La domanda è la seguente:
posso usare comunque questa tipologia di connettore per collegare UNA SOLA scheda video?
Grazie in anticipo!:)

cosa centra in questo thread???

YelloWoodstock
27-10-2009, 11:14
Ora l'hai ordinata? :mbe:
l'ho ordinata qlc giorno fa, perchè? ho ordinato una gtx 285 ocfu della bfg.

Legolas84
27-10-2009, 11:20
l'ho ordinata qlc giorno fa, perchè? ho ordinato una gtx 285 ocfu della bfg.

Era meglio se aspettavi qualche mese per confrontare le proposte DX11 di AMD e nVIDIA... comunque la scheda è ottima niente da dire ;)

ertruffa
27-10-2009, 11:23
l'ho ordinata qlc giorno fa, perchè? ho ordinato una gtx 285 ocfu della bfg.

quanto l'hai comprata??

ais001
27-10-2009, 11:32
La domanda è la seguente
... hai SBAGLIATO topic...... devi chiedere in quello della GTX285:
-> http://www.hwupgrade.it/forum/showthread.php?t=1937293

YelloWoodstock
27-10-2009, 11:40
Ok! :D Grazie e scusate! Posto subito sul thread adatto. ;)

supersalam
27-10-2009, 12:33
non direi proprio anzi, con 250 euro prendi un 5850, con 320 una 5870, entrambe mostri directx11, direi proprio che è un gran bel priodo per prendere una buona vga.

Lo so benissimo ma io intendevo prendere una Nvidia. :)

Legolas84
27-10-2009, 12:44
Lo so benissimo ma io intendevo prendere una Nvidia. :)

Comprensibile.... ;) Aspetta fino a gennaio.... e poi valuta :)

The_SaN
27-10-2009, 12:50
Comprensibile.... ;) Aspetta fino a gennaio.... e poi valuta :)Gli stai proponendo la ragione.
Dal suo commento lui é piú per la passione. ;)

Legolas84
27-10-2009, 12:53
Gli stai proponendo la ragione.
Dal suo commento lui é piú per la passione. ;)

Be, se anche Fermi dovesse essere inferiore alle ultime AMD cadrebbe anche la passione :D

Anche se dubito vista la poca distanza tra 295 e 5870... ;)

Il problema vero di AMD è che continua il lancio sulla carta....

atomo37
27-10-2009, 12:56
Be, se anche Fermi dovesse essere inferiore alle ultime AMD cadrebbe anche la passione :D

Anche se dubito vista la poca distanza tra 295 e 5870... ;)

Il problema vero di AMD è che continua il lancio sulla carta....

sarà pure lancio sulla carta ma nel mio case non mi pare ci siano due tesla tarocco:

http://img26.imageshack.us/img26/907/5870x2.th.jpg (http://img26.imageshack.us/i/5870x2.jpg/)

:D

The_SaN
27-10-2009, 12:56
Be, se anche Fermi dovesse essere inferiore alle ultime AMD cadrebbe anche la passione :D

Anche se dubito vista la poca distanza tra 295 e 5870... ;)

Il problema vero di AMD è che continua il lancio sulla carta....Sulle prestazioni preferisco non sbilanciarmi troppo...io aspetto e poi valuto :D
Purtroppo quanto al lancio sulla carta, non so se sará diverso per nvidia.
I problemi a 40nm ci sono per tutti, a maggior ragione con un chip grosso come Fermi.

Legolas84
27-10-2009, 12:59
Sulle prestazioni preferisco non sbilanciarmi troppo...io aspetto e poi valuto :D
Purtroppo quanto al lancio sulla carta, non so se sará diverso per nvidia.
I problemi a 40nm ci sono per tutti, a maggior ragione con un chip grosso come Fermi.

Si anche io credo proprio nVIDIA seguirà la strada di AMD sotto questo aspetto....

wijjyu
27-10-2009, 13:37
Oddio calma, già nvidia è in ritardo, immagino che il lancio lo faccia serio, se fa anche un paper launch davvero perde credibilità, anche con i produttori

Legolas84
27-10-2009, 13:48
Io resto fiducioso.... ma un lancio sulla carta non mi sorprenerebbe più di tanto...

Zambo27
27-10-2009, 13:57
http://img188.imageshack.us/img188/3111/drivergt300.jpg

ho provato a vedere se c'erano dei nuovi driver nvidia sul sito ufficiale e ho visto che c'è anche una sezione per le nuove GT300 per notebook

non è niente di chè ma spero possa interessarvi

spapparo82
27-10-2009, 18:26
per quello che ne so pare che la 300 dovrebbe uscire per marzo aprile prox... (se va bene....)
se il messaggio è lesivo della privacy delle aziende i moderatori cancellino il messaggio!

Bastoner
27-10-2009, 18:28
per quello che ne so pare che la 300 dovrebbe uscire per marzo aprile prox... (se va bene....)
se il messaggio è lesivo della privacy delle aziende i moderatori cancellino il messaggio!

:mbe: Lesivo della privacy? :mbe:

Hai qualche fonte attendibile?

Crysis90
27-10-2009, 19:49
per quello che ne so pare che la 300 dovrebbe uscire per marzo aprile prox... (se va bene....)

Non credo proprio, Jen-Sun Huang ha detto che le presenteranno con un evento ufficiale a Novembre, cioè entro il prossimo mese...

spapparo82
27-10-2009, 21:12
per crisis
la mia fonte è un rivenditore....
non credo sia troppo contento di dare notizie del genere sapendo che gli ho detto di preferire nvidia ad ati e preferivo aspettare cmqm na alla sua risposta son rimasto un po deluso.

mi spiegate la differenza tra fermi e tesla

Bastoner
27-10-2009, 21:21
per crisis
la mia fonte è un rivenditore....
non credo sia troppo contento di dare notizie del genere sapendo che gli ho detto di preferire nvidia ad ati e preferivo aspettare cmqm na alla sua risposta son rimasto un po deluso.

mi spiegate la differenza tra fermi e tesla

I rivenditori ne sanno quanto noi, anzi spesso molto meno.

spapparo82
27-10-2009, 21:29
Anche io spero che sia come dici tu, ma nel dubbio .... :mad: :mad:
ho letto anche io la notizia del lancio della nuova nvidia per quando
dovrebbe uscire perche non ricordo!

kiriranshelo
28-10-2009, 07:49
per quello che ne so pare che la 300 dovrebbe uscire per marzo aprile prox... (se va bene....)

Bè rientrerebbe nel Q1 2010 all'incirca. Sinceramente non credo che si vada così avanti, sarebbe un disastro perderebbero troppi clienti e marketshare. Per gennaio/febbraio penso sarà disponibile in volumi almeno la GT380

spapparo82
28-10-2009, 08:57
Bè rientrerebbe nel Q1 2010 all'incirca. Sinceramente non credo che si vada così avanti, sarebbe un disastro perderebbero troppi clienti e marketshare. Per gennaio/febbraio penso sarà disponibile in volumi almeno la GT380

speriamo che non facciano come ati, che a un mese dall'uscita i 5870izzati sono pochi!

kiriranshelo
28-10-2009, 09:22
speriamo che non facciano come ati, che a un mese dall'uscita i 5870izzati sono pochi!

vedrai che arriveranno in volumi per natale e anche prima.

Crysis90
28-10-2009, 10:49
JHH ha parlato di Fermi, che è l'architettura, non del brand GeForce. E' possibile che vengano presentate prima le Tesla basate su Fermi che non le GeForce.

Questo consentirebbe di vendere comunque parti ad altissimo margine anche con gli yelds disastrosi di cui si parla da tempo.

Veramente JJH ha detto chiaramente che la conferenza che terranno a Novembre sarà espressamente dedicata al brand GeForce e al mondo dei videogiochi...lo confermò anke l'utente Halduemilauno.

kiriranshelo
28-10-2009, 11:08
Veramente JJH ha detto chiaramente che la conferenza che terranno a Novembre sarà espressamente dedicata al brand GeForce e al mondo dei videogiochi...lo confermò anke l'utente Halduemilauno.

è probabile che si riferiscano alll'eventuale uscita del G200@40nm più che a Fermi. spero di sbagliarmi

sickofitall
28-10-2009, 11:11
è probabile che si riferiscano alll'eventuale uscita del G200@40nm più che a Fermi. spero di sbagliarmi

come sempre sono tutte supposizioni, di vero non si sa nulla, l'unica è aspettare ;)

è inutile star qui a fare mille discorsi quando magari la verità è tutt'altra cosa :rolleyes:

Legolas84
28-10-2009, 11:30
Veramente JJH ha detto chiaramente che la conferenza che terranno a Novembre sarà espressamente dedicata al brand GeForce e al mondo dei videogiochi...lo confermò anke l'utente Halduemilauno.

Quello che mi auguro inoltre è che a novembre arrivinio veramente sul mercato anche le nuove AMD....

Crysis90
28-10-2009, 11:42
Questa me la son persa, riesci a ritrovarmi il link?

Basta che scorri indietro le pagine di questo thread, vedrai che lo ritrovi.:read:

yossarian
28-10-2009, 12:28
Quello che mi auguro inoltre è che a novembre arrivinio veramente sul mercato anche le nuove AMD....

http://www.nexths.it/v3/flypage.php?mv_arg=21161-00-50R

http://www.azmediashop.it/prodotto-142888/-.aspx

http://www.micainformatica.com/home.aspx?FID=13&PID=149148

http://www.microphos.net/trovaprezzi.html?Codice=EAH5870/1GB

in alcuni shop italiani ci sono, basta cercare. Sul mercato estero idem.

Milotto
28-10-2009, 12:32
Questa me la son persa, riesci a ritrovarmi il link?

Stai continuando a scrivere l'antologia....? :D

novemilaotto
28-10-2009, 13:51
ragazzi ma qualche rumor su ste gt300?

yossarian
28-10-2009, 13:56
No, è solo la campagna contro le leggende da forum che nascono da elucubrazioni o ipotesi magari di un utente e poi diventano cosa nota senza che in effetti ci sia nulla di vero.

Come il Tessellator di Fermi che sembrava fosse certo per tutti su questo thread che non ci fosse e non ero per niente convinto proprio per questo tipico meccanismo da forum. E infatti avevo ragione :)

è molto più probabile che ci sia un tessellator hardware in GT300 piuttosto che vga basate su di esso siano lanciate prima del Q1 2010 inoltrato

yossarian
28-10-2009, 14:09
Questo è sicuro, visto che la presenza del Tessellator è ormai confermato mentre riguardo all'arrivo sul mercato tutto ancora tace...

senza tessellator con relativi hull e domain shader, non sarebbe dx11 :D

Legolas84
28-10-2009, 14:13
http://www.nexths.it/v3/flypage.php?mv_arg=21161-00-50R

http://www.azmediashop.it/prodotto-142888/-.aspx

http://www.micainformatica.com/home.aspx?FID=13&PID=149148

http://www.microphos.net/trovaprezzi.html?Codice=EAH5870/1GB

in alcuni shop italiani ci sono, basta cercare. Sul mercato estero idem.

Qualche 5870 c'è ma di 5850 sono proprio pochissime.... mha....

Foglia Morta
28-10-2009, 14:23
Quella slide che confermerebbe la presenza del tassellatore come fixed function comunque viene dalla gpu technology conference alla quale era presente anche uno dello staff di B3d. Dopo questa premessa :

The big highlights (some is guesswork, NV won't talk about graphics transistors or clocks today, so beware I might be wrong in places there)

Aveva scritto:

I think the tesselator is a software pipe with very little hardware support, too.

http://forum.beyond3d.com/showpost.php?p=1342348&postcount=1

IMO è difficile che gli sia sfuggita quella slide. Bisogna vedere 1) quali sono le possibili implementazioni e 2) cosa aveva in mente quando aveva scritto quelle cose. Comunque c'è scritto very little hardware support , non assenza di supporto in hardware.

yossarian
28-10-2009, 14:26
Qualche 5870 c'è ma di 5850 sono proprio pochissime.... mha....

i casi sono due: o vengono prodotte col contagocce (ma non certo per via dell'acquisto dei wafer da 40 nm da parte di nVidia che non saprebbe cosa farsene al momento), oppure ne stanno vendendo tante.
C'è da aspettare i primi dati certi sulle vendite per trarre conclusioni.
Di sicuro, prima di effettuare completamente la transizione a 40 nm c'è ancora da smaltire qualche scorta di chip a 55

Legolas84
28-10-2009, 14:28
i casi sono due: o vengono prodotte col contagocce (ma non certo per via dell'acquisto dei wafer da 40 nm da parte di nVidia che non saprebbe cosa farsene al momento), oppure ne stanno vendendo tante.
C'è da aspettare i primi dati certi sulle vendite per trarre conclusioni.
Di sicuro, prima di effettuare completamente la transizione a 40 nm c'è ancora da smaltire qualche scorta di chip a 55

Da quanto si legge in giro ci sono molti in attesa... tecno per fare un esempio è un mese che non sa dire nemmeno quando arriveranno...

imho la prima è purtroppo quella giusta....

yossarian
28-10-2009, 14:36
Quella slide che confermerebbe la presenza del tassellatore come fixed function comunque viene dalla gpu technology conference alla quale era presente anche uno dello staff di B3d. Dopo questa premessa :

The big highlights (some is guesswork, NV won't talk about graphics transistors or clocks today, so beware I might be wrong in places there)

Aveva scritto:

I think the tesselator is a software pipe with very little hardware support, too.

http://forum.beyond3d.com/showpost.php?p=1342348&postcount=1

IMO è difficile che gli sia sfuggita quella slide. Bisogna vedere 1) quali sono le possibili implementazioni e 2) cosa aveva in mente quando aveva scritto quelle cose. Comunque c'è scritto very little hardware support , non assenza di supporto in hardware.

i modi di ijmplementare le operazioni di tessellation (come tutte le altre, del resto) sono molteplici. Si può andare dalla totale emulazione all'utilizzo di di unità dedicate ad ogni singolo stadio delle operazioni di tessellation (quello che prevedono le dx11, ad esempio). L'implementazione delle 4xx0 è una via di mezzo che fa uso di fixed function per le operazioni di tessellation vere e proprie e di vertex e geometry shader per la parte programmabile. Il problema è sempre il solito: l'emulazione quanto mi costa in termini di cicli di clock persi? Sappiamo che le fixed function sono le più veloci perchè sono unità dedicate espressamente a quel solo tipo di compito. Però sono anche per nulla flessibili. Questo significa che un chip che implementi tante pipeline di tipo FF avrebbe bisogno di dedicar loro tanto spazio e silicio.
Tu sai bene che nello stesso larrabee, a detta dei tecnici di intel, le operazioni di texture fetching, sampling e addressing sono eseguite tramite fixed function (le pipeline programmabili richiedevano circa 16 cicli dove le FF svolgono lo stesso lavoro in un unico ciclo).

Foglia Morta
28-10-2009, 14:57
i modi di ijmplementare le operazioni di tessellation (come tutte le altre, del resto) sono molteplici. Si può andare dalla totale emulazione all'utilizzo di di unità dedicate ad ogni singolo stadio delle operazioni di tessellation (quello che prevedono le dx11, ad esempio). L'implementazione delle 4xx0 è una via di mezzo che fa uso di fixed function per le operazioni di tessellation vere e proprie e di vertex e geometry shader per la parte programmabile. Il problema è sempre il solito: l'emulazione quanto mi costa in termini di cicli di clock persi? Sappiamo che le fixed function sono le più veloci perchè sono unità dedicate espressamente a quel solo tipo di compito. Però sono anche per nulla flessibili. Questo significa che un chip che implementi tante pipeline di tipo FF avrebbe bisogno di dedicar loro tanto spazio e silicio.
Tu sai bene che nello stesso larrabee, a detta dei tecnici di intel, le operazioni di texture fetching, sampling e addressing sono eseguite tramite fixed function (le pipeline programmabili richiedevano circa 16 cicli dove le FF svolgono lo stesso lavoro in un unico ciclo).

Per Larrabee si legge di metà 2010 ( più che dal silicio dipende dai driver, pare ), mi era proprio tornato in mente quando parlavi del fatto che la banda passante è un problema con RV870.

Senza andare OT ( magari rispondimi nel thread di Aspettando Larrabee ),sai qualcosa riguardo QUESTO (http://www.hwupgrade.it/forum/showpost.php?p=25161165&postcount=179) ? Bus esterni molto ampi richiedono molti pin mentre sfruttare la "ridotta" banda passante a disposizione in modo più efficiente sarebbe la scelta più saggia nel caso di ATi ( che preferisce contenere il die size ). A 28nm dovrebbero raddoppiare la densità dei transistors ( e IMO anche la potenza di calcolo ) mentre le GDDR5 non progrediscono di pari passo a quanto pare... mi incuriosiva quindi la soluzione Made in ATi :D

The_SaN
28-10-2009, 15:48
Da quanto si legge in giro ci sono molti in attesa... tecno per fare un esempio è un mese che non sa dire nemmeno quando arriveranno...

imho la prima è purtroppo quella giusta....Per me un po' tutte e 2 :)

appleroof
28-10-2009, 17:48
i modi di ijmplementare le operazioni di tessellation (come tutte le altre, del resto) sono molteplici. Si può andare dalla totale emulazione all'utilizzo di di unità dedicate ad ogni singolo stadio delle operazioni di tessellation (quello che prevedono le dx11, ad esempio). L'implementazione delle 4xx0 è una via di mezzo che fa uso di fixed function per le operazioni di tessellation vere e proprie e di vertex e geometry shader per la parte programmabile. Il problema è sempre il solito: l'emulazione quanto mi costa in termini di cicli di clock persi? Sappiamo che le fixed function sono le più veloci perchè sono unità dedicate espressamente a quel solo tipo di compito. Però sono anche per nulla flessibili. Questo significa che un chip che implementi tante pipeline di tipo FF avrebbe bisogno di dedicar loro tanto spazio e silicio.
Tu sai bene che nello stesso larrabee, a detta dei tecnici di intel, le operazioni di texture fetching, sampling e addressing sono eseguite tramite fixed function (le pipeline programmabili richiedevano circa 16 cicli dove le FF svolgono lo stesso lavoro in un unico ciclo).


a proposito di tassellatore...ho provato il demo froblins di Amd e con la 5850 con la tassellazione il frame rate crolla....e meno male che è un tech demo Amd :(

forse perchè era ottimizzato per le 48x0? mah....scusate l'ot

Das~Ich
28-10-2009, 18:07
a proposito di tassellatore...ho provato il demo froblins di Amd e con la 5850 con la tassellazione il frame rate crolla....e meno male che è un tech demo Amd :(

forse perchè era ottimizzato per le 48x0? mah....scusate l'ot

Ovvio ;)

devAngnew
28-10-2009, 18:52
a proposito di tassellatore...ho provato il demo froblins di Amd e con la 5850 con la tassellazione il frame rate crolla....e meno male che è un tech demo Amd :(

forse perchè era ottimizzato per le 48x0? mah....scusate l'ot

Non penso proprio che quel demo sia ottimizzato per 48x0 essendo Dx 11 il problema è che le schede 58x0 essendo di 1ma generazione dx 11 ed usando la tesselation unit a quel livello soffrono.
Mi sà che bisogna attendere la generazione successiva.....:(

;)

Bastoner
28-10-2009, 18:56
Non penso proprio che quel demo sia ottimizzato per 48x0 essendo Dx 11 il problema è che le schede 58x0 essendo di 1ma generazione dx 11 ed usando la tesselation unit a quel livello soffrono.
Mi sà che bisogna attendere la generazione successiva.....:(

;)

:mbe:

devAngnew
28-10-2009, 19:06
:mbe:

COsa non ti è chiaro del mio ragionamento ? :asd: :asd: :asd:

Foglia Morta
28-10-2009, 19:51
Non penso proprio che quel demo sia ottimizzato per 48x0 essendo Dx 11 il problema è che le schede 58x0 essendo di 1ma generazione dx 11 ed usando la tesselation unit a quel livello soffrono.
Mi sà che bisogna attendere la generazione successiva.....:(

;)

E' una tech demo DX10.1 scritta per le HD48XX : http://developer.amd.com/samples/demos/pages/froblins.aspx

Bastoner
28-10-2009, 19:58
COsa non ti è chiaro del mio ragionamento ? :asd: :asd: :asd:

Che mi sembra uno sragionamento....


E' una tech demo DX10.1 scritta per le HD48XX : http://developer.amd.com/samples/demos/pages/froblins.aspx

Appunto :asd: :asd: :asd: :asd:

devAngnew
28-10-2009, 20:52
E' una tech demo DX10.1 scritta per le HD48XX : http://developer.amd.com/samples/demos/pages/froblins.aspx


Sorry mi ero confuso con Heaven Demo Bech :asd: :asd: :asd:
cmq vista la fonte è per le 48x0.

yossarian
29-10-2009, 00:01
a proposito di tassellatore...ho provato il demo froblins di Amd e con la 5850 con la tassellazione il frame rate crolla....e meno male che è un tech demo Amd :(

forse perchè era ottimizzato per le 48x0? mah....scusate l'ot

molto probabile; questo è uno dei rischi a cui si va incontro quando si impementa la stessa funzione in maniera differente (motivo per cui mi auguro che nVidia non abia scelto una terza strada differente dalla 4xx8 e dalla 5xx0).

mircocatta
29-10-2009, 08:13
Allora o non lo trovo io o è la stessa storia del presunto Tessellator mancante in Fermi che poi invece c'era...

questa mi è nuova, ci sarà o no il tassellatore?

sickofitall
29-10-2009, 08:18
questa mi è nuova, ci sarà o no il tassellatore?

se una scheda è dx11 il tessellatore c'è per forza :rolleyes:

Foglia Morta
29-10-2009, 08:28
Ma che ca__o ne sanno di ciò che tireranno fuori nel 2017 :asd:

http://en.hardspell.com/doc/enshowcont.asp?id=7250

http://img62.imageshack.us/img62/613/5314170f19bf4f6d936eaf9.th.jpg (http://img62.imageshack.us/i/5314170f19bf4f6d936eaf9.jpg/)

NVIDIA is scheduled to release ExaScale machine architecture in 2017,Bill Dally,chief scientist of NVIDIA at the Global Road Show organized by Institute of Process Engineering on Oct,27th.The way of introudction of architecture of eight-year later seems a bit of suspicion.However, Nvidias ambition to enter the general-purpose computing market is clear.

According to Bill Dally, NVIDIA will put 2400 throuput cores and 16 CPUs on a single chip with 300W TDP.It is well known that NVIDIA will make CPU sooner or later.This is obvious evidence in definite roadmap at first. However, Huang stresses that NVIDIA will not make CPU, while the Bill Dally also takes Tegra as a shield in answering relevant questions.

This CPU + GPU chip from NVIDIA has also confirmed that they will achieve Fusion in the opposite direction of Intel and AMD.

Each throuput core include three single-precision floating-point unit and a double-precision floating-point unit, the chip is expected to provide a total of 40T single-precision floating-point processing power and 13 double-precision floating-point processing capabilities. Node using this chip also has 128GB of memory, and 512GB of phase-change memory, or flash memory as a high-speed local memory. This node architecture is very similar with current super-computer.Although the figure is amazing,this product can be realized as long Moores Law takes effect.

The wole system is made up of 128 cabinets,which can provide up to 2Efplop computing capabilities with a TDP of 10W.

NVIDIAs future product appears to be powerful.However,Green giant wont give detailed time frame just like the preparation of Exaflop, phase-change memory, heterogeneous processors.

luX0r.reload
29-10-2009, 08:45
Ma che ca__o ne sanno di ciò che tireranno fuori nel 2017 :asd:

http://en.hardspell.com/doc/enshowcont.asp?id=7250

http://img62.imageshack.us/img62/613/5314170f19bf4f6d936eaf9.th.jpg (http://img62.imageshack.us/i/5314170f19bf4f6d936eaf9.jpg/)

NVIDIA is scheduled to release ExaScale machine architecture in 2017,Bill Dally,chief scientist of NVIDIA at the Global Road Show organized by Institute of Process Engineering on Oct,27th.The way of introudction of architecture of eight-year later seems a bit of suspicion.However, Nvidias ambition to enter the general-purpose computing market is clear.

According to Bill Dally, NVIDIA will put 2400 throuput cores and 16 CPUs on a single chip with 300W TDP.It is well known that NVIDIA will make CPU sooner or later.This is obvious evidence in definite roadmap at first. However, Huang stresses that NVIDIA will not make CPU, while the Bill Dally also takes Tegra as a shield in answering relevant questions.

This CPU + GPU chip from NVIDIA has also confirmed that they will achieve Fusion in the opposite direction of Intel and AMD.

Each throuput core include three single-precision floating-point unit and a double-precision floating-point unit, the chip is expected to provide a total of 40T single-precision floating-point processing power and 13 double-precision floating-point processing capabilities. Node using this chip also has 128GB of memory, and 512GB of phase-change memory, or flash memory as a high-speed local memory. This node architecture is very similar with current super-computer.Although the figure is amazing,this product can be realized as long Moores Law takes effect.

The wole system is made up of 128 cabinets,which can provide up to 2Efplop computing capabilities with a TDP of 10W.

NVIDIAs future product appears to be powerful.However,Green giant wont give detailed time frame just like the preparation of Exaflop, phase-change memory, heterogeneous processors.
Speriamo le nuove nVidia escano prima del 2012, così facciamo in tempo anche a provarle un pochino :sofico:

Severnaya
29-10-2009, 08:45
si se era per intel adesso avremmo tutti dei mono core da 12ghz... si vede come le loro previsioni erano azzeccate...



ah nn vi dimenticate che nel 2020 ci sarà il fantomatico processo produttivo con gate a 2nm :sofico:

devAngnew
29-10-2009, 09:37
Cioè fatemi capire Nvidia starebbe progettando per il futura un chip CPU+GPU
similmente ad Intel e AMD .......

okorop
29-10-2009, 09:48
Ma che ca__o ne sanno di ciò che tireranno fuori nel 2017 :asd:

http://en.hardspell.com/doc/enshowcont.asp?id=7250

http://img62.imageshack.us/img62/613/5314170f19bf4f6d936eaf9.th.jpg (http://img62.imageshack.us/i/5314170f19bf4f6d936eaf9.jpg/)

NVIDIA is scheduled to release ExaScale machine architecture in 2017,Bill Dally,chief scientist of NVIDIA at the Global Road Show organized by Institute of Process Engineering on Oct,27th.The way of introudction of architecture of eight-year later seems a bit of suspicion.However, Nvidias ambition to enter the general-purpose computing market is clear.

According to Bill Dally, NVIDIA will put 2400 throuput cores and 16 CPUs on a single chip with 300W TDP.It is well known that NVIDIA will make CPU sooner or later.This is obvious evidence in definite roadmap at first. However, Huang stresses that NVIDIA will not make CPU, while the Bill Dally also takes Tegra as a shield in answering relevant questions.

This CPU + GPU chip from NVIDIA has also confirmed that they will achieve Fusion in the opposite direction of Intel and AMD.

Each throuput core include three single-precision floating-point unit and a double-precision floating-point unit, the chip is expected to provide a total of 40T single-precision floating-point processing power and 13 double-precision floating-point processing capabilities. Node using this chip also has 128GB of memory, and 512GB of phase-change memory, or flash memory as a high-speed local memory. This node architecture is very similar with current super-computer.Although the figure is amazing,this product can be realized as long Moores Law takes effect.

The wole system is made up of 128 cabinets,which can provide up to 2Efplop computing capabilities with a TDP of 10W.

NVIDIAs future product appears to be powerful.However,Green giant wont give detailed time frame just like the preparation of Exaflop, phase-change memory, heterogeneous processors.
Fermi da alla testa :asd:
Intanto l'ennesimo rebrand ecco a voi le gpu 300m (spero che non si sfascino come quelle passate :asd:)

Nvidia ha in cantiere la serie di schede video per portatili GeForce 300M. Una schermata catturata sulla pagina dei driver beta immortala chiaramente i nomi di prodotti a noi non noti: GeForce GTS 360M , GT 335M, GT 330M, 310M e 305M.

Dai nomi possiamo ipotizzare una gamma completa di nuovi prodotti, la cui vera natura è ancora tutta da verificare. Potrebbe trattarsi dei derivati per portatili della nuova architettura Fermi, oppure di un nuovo rebrand, anche se l'azienda ha recentemente presentato delle soluzioni a 40 nanometri.

In ogni caso, è lecito pensare quantomeno al supporto DirectX 11. Non è da escludere che siano basate su architettura GT200, mai giunta su notebook (le attuali GeForce 200M sono basate su architettura G92).

Non ci resta che attendere maggiori dettagli in merito per scoprire cosa realmente bolle in pentola in casa Nvidia.

http://www.tomshw.it/news.php?newsid=19875

Kharonte85
29-10-2009, 09:56
Punto su GT200 @ 40nm dx10.1

Andrea deluxe
29-10-2009, 11:37
If not in very late November

Fermi, Nvidia's GF100 40nm DirectX 11 chip is selling great even though Nvidia still has to officially launch it. Sources confirmed that Nvidia is taking pre-orders like there is no tomorrow, but at this time Nvidia offers no guarantees when the chip will hit the market. Everyone expects shortages due to heavy demand from day one.

The original schedule of late November might skip in the first week(s) of December, but from what we learned over the last few days, it was always late November to first days of December.

Nvidia ordered much more 40nm wafers for its notebook and desktop entry level chip as well as for Fermi, as Fermi should sell good in the server market for parallel computing, workstation use and, of course, as a computer games graphics card. The server market will be prioritized as Nvidia can make more money on the same chip.

Performance wise, once again we can confirm that multiple sources strongly believe that a single core Fermi will end up significantly faster than ATI’s single core Radeon 5870.

fonte:FUAD

Crysis90
29-10-2009, 11:38
http://www.fudzilla.com/content/view/16185/1/

Ancora un mese e ci siamo. Riporto l'ultima frase dell'articolo, la più interessante:

"Performance wise, once again we can confirm that multiple sources strongly believe that a single core Fermi will end up significantly faster than ATI’s single core Radeon 5870."

Alex656
29-10-2009, 11:59
http://www.fudzilla.com/content/view/16185/1/

Ancora un mese e ci siamo. Riporto l'ultima frase dell'articolo, la più interessante:

"Performance wise, once again we can confirm that multiple sources strongly believe that a single core Fermi will end up significantly faster than ATI’s single core Radeon 5870."

La fonte non è delle più attendibili però speriamo bene :D

Kharonte85
29-10-2009, 12:01
Sarebbe buono se fosse vero...

zorco
29-10-2009, 12:17
Sarebbe buono se fosse vero...
magari Atari :sofico:

vediamo resto in attesa..

mister-x
29-10-2009, 12:40
La fonte non è delle più attendibili però speriamo bene :D

Quando il problema è alla fonte....è un grosso problema! ;)

Alex656
29-10-2009, 14:14
In questo momento sento 2 vocine: una (che si fa sempre più grossa) che mi dice: prendi la 5850, Nvidia non dà notizie; L'altra dice: non cambiare, aspetta ancora un pò e quando ci sarà modo di confrontare le architetture sceglierai. Devo resistere!!!!

mirmeleon
29-10-2009, 14:15
In questo momento sento 2 vocine: una (che si fa sempre più grossa) che mi dice: prendi la 5850, Nvidia non dà notizie; L'altra dice: non cambiare, aspetta ancora un pò e quando ci sarà modo di confrontare le architetture sceglierai. Devo resistere!!!!

Resistere, Resistere, Resistere!!!!!!
;) ;) ;)

Pike79
29-10-2009, 14:26
Mmmmm, già mi sfrego mani e piedi come le mosche...

Adone_1985
29-10-2009, 15:02
Ciao a tutti...

Una domanda...
Sto aspettendo con ansia la nuova GT300 dual Gpu...
Con il mio alimentatore...700w modulare, potrei montare questa nuova scheda dual GPU e la mia vecchia GTX285, solamente per la fisica, oppure rischi di bruciare tutto?

Grazie a tuuti

PS:lo so che la GTX 285 è sprecata solo per la fisica...ma la voglio tenere..:)

kiriranshelo
29-10-2009, 15:04
Sto aspettendo con ansia la nuova GT300 dual Gpu...

Deve essere ancora presentata la monoGPU, figuriamoci la dual! :sbonk:

devAngnew
29-10-2009, 15:07
molto probabile; questo è uno dei rischi a cui si va incontro quando si impementa la stessa funzione in maniera differente (motivo per cui mi auguro che nVidia non abia scelto una terza strada differente dalla 48xx e dalle DX 11).

**fixed**


Fixed del fixed :asd: :asd: :asd:

Adone_1985
29-10-2009, 15:11
Deve essere ancora presentata la monoGPU, figuriamoci la dual! :sbonk:

Non c'è bisogno di fare commenti... a me non interessa la mono... o SLI o Dual GPU...io volevo solo sapere se il mio ali reggerà...
visto i consumi della 295, che oltretutto è a 55nm...

Le nuove saranno a 40mn quindi...si potrbbe stimare il consumo...

GRazie ancora

ippo.g
29-10-2009, 15:14
Non c'è bisogno di fare commenti... a me non interessa la mono... o SLI o Dual GPU...io volevo solo sapere se il mio ali reggerà...
visto i consumi della 295, che oltretutto è a 55nm...

Le nuove saranno a 40mn quindi...si potrbbe stimare il consumo...

GRazie ancora

non credo che un 700W possa reggere sei già quasi al limite adesso

kiriranshelo
29-10-2009, 15:15
Non c'è bisogno di fare commenti... a me non interessa la mono... o SLI o Dual GPU...io volevo solo sapere se il mio ali reggerà...
visto i consumi della 295, che oltretutto è a 55nm...

Le nuove saranno a 40mn quindi...si potrbbe stimare il consumo...

GRazie ancora

non era per sfotterti, era solo per dire che non si sa nè le prestazioni nè il consumo della GT380, inoltre potrebbero fare ancora la dual con i chipset della GT360. Quindi anche avendo dei rumors sui consumi della GT380 non si saprebbero quelle della GT360. Si brancola completamente nel buio, per saperlo dovrai attendere almeno verso metà/fine Novembre che si dice ci possa essere la presentazione ufficiale della GT380 però ciò è fortemente in dubbio. :)

Adone_1985
29-10-2009, 15:19
non credo che un 700W possa reggere sei già quasi al limite adesso

Quindi con questo ali non potrei mettere neanche una GTX295..? che in teoria consumerebbe di più di una Gt300 dual GPU

zorco
29-10-2009, 15:24
Non c'è bisogno di fare commenti... a me non interessa la mono... o SLI o Dual GPU...io volevo solo sapere se il mio ali reggerà...
visto i consumi della 295, che oltretutto è a 55nm...

Le nuove saranno a 40mn quindi...si potrbbe stimare il consumo...

GRazie ancora

a mio avviso un 700w di ottima fattura reggerà tranquillamente una singola dual gpu futura..

atomo37
29-10-2009, 15:25
Ciao a tutti...

Una domanda...
Sto aspettendo con ansia la nuova GT300 dual Gpu...
Con il mio alimentatore...700w modulare, potrei montare questa nuova scheda dual GPU e la mia vecchia GTX285, solamente per la fisica, oppure rischi di bruciare tutto?

Grazie a tuuti

PS:lo so che la GTX 285 è sprecata solo per la fisica...ma la voglio tenere..:)

beh io provo a sbilanciarmi, secondo me ci potresti anche stare dentro ma sicuramente al pelo, di fatto avresti tre gpu di fascia alta in azione, e io non starei tranquillo con un ali inferiore agli 850/900 watt (il che non vuol dire che hai quei consumi).

Kharonte85
29-10-2009, 15:25
a mio avviso un 700w di ottima fattura reggerà tranquillamente una singola dual gpu futura..
Concordo ;)

Se l'alimentatore è questo

http://www.pchs.it/images/stories/coolermaster_silentprom/coolermaster_silentpro_m_1.jpg

600w sui +12v = 50A basterebbe per qualsiasi Dual GPU

Adone_1985
29-10-2009, 15:32
a mio avviso un 700w di ottima fattura reggerà tranquillamente una singola dual gpu futura..

Quindi una Dual GPU futura posso stare tranquillo...grazie..;)

Però la GTX285 da quello che ho capito non è indicato metterla...a meno che non cambio Ali giusto?

atomo37
29-10-2009, 15:32
Concordo ;)

Se l'alimentatore è questo

http://www.pchs.it/images/stories/coolermaster_silentprom/coolermaster_silentpro_m_1.jpg

600w sui +12v = 50A basterebbe per qualsiasi Dual GPU

veramente ci vuole lasciare su anche una 285 oltre alla dual gpu.

Adone_1985
29-10-2009, 15:33
Concordo ;)

Se l'alimentatore è questo

http://www.pchs.it/images/stories/coolermaster_silentprom/coolermaster_silentpro_m_1.jpg

600w sui +12v = 50A basterebbe per qualsiasi Dual GPU

Ok posso stare tranquillo allora per la dual GPU;) Grazie

ma per quanto riguarda la GTX285?

zorco
29-10-2009, 15:37
Quindi una Dual GPU futura posso stare tranquillo...grazie..;)

Però la GTX285 da quello che ho capito non è indicato metterla...a meno che non cambio Ali giusto?

si se utilizzerai oltre alla dual gpu anche la gtx285 dovrai sostituire l'ali con uno di wattaggio superiore per stare tranquillo..

atomo37
29-10-2009, 15:38
si se utilizzerai oltre alla dual gpu anche la gtx285 dovrai sostituire l'ali con uno di wattaggio superiore per stare tranquillo..

concordo ;)

Adone_1985
29-10-2009, 15:39
si se utilizzerai oltre alla dual gpu anche la gtx285 dovrai sostituire l'ali con uno di wattaggio superiore per stare tranquillo..

Grazie...allora prossimamente la venderò :cry: :cry:

Kharonte85
29-10-2009, 15:40
veramente ci vuole lasciare su anche una 285 oltre alla dual gpu.

Ok posso stare tranquillo allora;) Grazie
Ah no allora avevo capito male...comunque probabilmente ce la farebbe lo stesso, il TDP della gtx 285 è 183w (ma mai consumerà così tanto specie in modalità Physics) quindi gli rimarrebbero W a sufficienza per il resto del sistema e anche per una Dual GPU con tdp inferiore ai 400W...il consiglio comunque sarebbe di usare una scheda diversa per la fisica oppure cambiare alimentatore per stare sicuri ;)

zorco
29-10-2009, 15:43
Ah no allora avevo capito male...comunque probabilmente ce la farebbe lo stesso, il TDP della gtx 285 è 183w (ma mai consumerà così tanto specie in modalità Physics) quindi gli rimarrebbero W a sufficienza per il resto del sistema e anche per una Dual GPU con tdp inferiore ai 400W...il consiglio comunque sarebbe di usare una scheda diversa per la fisica oppure cambiare alimentatore per stare sicuri ;)
concordo,io per la fisica ci metterei su al max una 9500gt,vado al risparmio io:fagiano:

kiriranshelo
29-10-2009, 15:45
si ma non calcolate che se la dualGPU Fermi consuma 3000 W i vostri discorsi non servono a nulla! :rolleyes:

atomo37
29-10-2009, 16:09
si ma non calcolate che se la dualGPU Fermi consuma 3000 W i vostri discorsi non servono a nulla! :rolleyes:

se per te è anche lontanamente possibile.

kiriranshelo
29-10-2009, 16:11
se per te è anche lontanamente possibile.

era per fare un'esagerazione però ancora non si sanno i valori a full load la vedo un pò dura dire che va bene con l'alimentatore che ha. è probabile che gli vada bene ma finchè non si sa di più su Fermi sarà dura fare delle valutazioni oggettive

atomo37
29-10-2009, 16:13
era per fare un'esagerazione però ancora non si sanno i valori a full load la vedo un pò dura dire che va bene con l'alimentatore che ha. è probabile che gli vada bene ma finchè non si sa di più su Fermi sarà dura fare delle valutazioni oggettive

aspettarsi un tdp superiore a 200 watt è pura follia, credo che semplicemente avendo seguito un po' le linee guida evolutive delle schede video negli ultimi anni, e valutando anche che comincia ad esservi una certa attenzione ai consumi, una mezza idea non è impossibile farsela ;)

zorco
29-10-2009, 16:31
aspettarsi un tdp superiore a 200 watt è pura follia, credo che semplicemente avendo seguito un po' le linee guida evolutive delle schede video negli ultimi anni, e valutando anche che comincia ad esservi una certa attenzione ai consumi, una mezza idea non è impossibile farsela ;)
concordo,inoltre vorrei dire che se con nvidia fermi si superassero di parecchio i consumi delle attuali schede non credo che ci sarà una dual per ovvi motivi..

è successo anche con la gtx280 ad esempio,si è atteso il passaggio a 55nm per riuscire ad realizzare una dual....

atomo37
29-10-2009, 16:37
concordo,inoltre vorrei dire che se con nvidia fermi si superassero di parecchio i consumi delle attuali schede non credo che ci sarà una dual per ovvi motivi..

è successo anche con la gtx280 ad esempio,si è atteso il passaggio a 55nm per riuscire ad realizzare una dual....

abbassando le frequenze operative peraltro ;)

Adone_1985
29-10-2009, 20:17
era per fare un'esagerazione però ancora non si sanno i valori a full load la vedo un pò dura dire che va bene con l'alimentatore che ha. è probabile che gli vada bene ma finchè non si sa di più su Fermi sarà dura fare delle valutazioni oggettive

Ma chi ti fa parlare a te?

La 5870 consuma meno di una gtx285....in full load

Life bringer
29-10-2009, 20:27
Probabilmente anche in idle, ma proprio probabilmente EH! :asd:

Adone_1985
29-10-2009, 20:34
Probabilmente anche in idle, ma proprio probabilmente EH! :asd:
Una 5870 consuma 354w una GTX285 378...in full load

eXeS
29-10-2009, 20:48
Una 5870 consuma 354w una GTX285 378...in full load
Quello è il consumo dell'intero sistema, non della sola scheda video ;)

Life bringer
29-10-2009, 21:35
Una 5870 consuma 354w una GTX285 378...in full load

:rotfl:
Mica ho detto il contrario, ho fatto notare che consuma meno sia in idle che in full, come hai detto tu :)

gianni1879
29-10-2009, 21:41
Ma chi ti fa parlare a te?

La 5870 consuma meno di una gtx285....in full load

1) cerchiamo di rispondere con meno impeto
2) sistema la firma come da regolamento

The_SaN
29-10-2009, 21:45
Una 5870 consuma 354w una GTX285 378...in full loadÉ il consumo di 2 sistemi completi...
il TDP di una 5870 é 180W, che si traduce in un consumo inferiore a questi Watt dichiarati (differenza non quantificabile in calcoli, ma solo su misurazione diretta).
Infatti in full consuma meno di una 4870, che se non sbaglio ha un TDP di 160W.

atomo37
29-10-2009, 21:58
Una 5870 consuma 354w una GTX285 378...in full load

credo che stai parlando di tutto il sistema e non della sola scheda video.

Adone_1985
29-10-2009, 22:08
credo che stai parlando di tutto il sistema e non della sola scheda video.

Precisamente CPU+GPU :doh: sorry

Adone_1985
29-10-2009, 22:10
:rotfl:
Mica ho detto il contrario, ho fatto notare che consuma meno sia in idle che in full, come hai detto tu :)

:D :D :D