View Full Version : ATI: dual-GPU e Pixel Shader 3.0
Redazione di Hardware Upg
02-11-2004, 15:54
Link alla notizia: http://news.hwupgrade.it/13455.html
La compagnia Canadese fa sapere che ha intenzione di implementare Pixel Shader 3.0 e ipotizza anche un'eventuale adozione di una tecnologia simile a SLI
Click sul link per visualizzare la notizia.
non si tratta di essere copioni,ma solo di tenere il passo della concorrenza;)
Ero solo ironico;)
Anzi più ne sfornano e più sono contento,più corrono più la grafica si evolve.
Mi spiace solo che poi sul mercato si trovano mille modelli di sk video e non si capisce più una mazza.
Ma tanto noi di HWUP sappiamo cosa comprare senza prendere sole.
Si ma non spariamo castronerie sul "copiato da..." perché se ATi è copiona di nVidia, allora nVidia è copiona di 3Dfx (non a caso l'ha acquisita e non a caso questo sistema si chiama proprio SLi), e chi l'ha conosciuta anche solo per fama, sa di cosa parlo... :rolleyes: Per tutti gli altri, beh il primo acceleratore grafico (per PC) era firmato da 3Dfx.
Max Power
02-11-2004, 16:10
Ke bello!
A quando?
Io aspetto la presentazione ufficiale, così la vedrò sugli scaffali dopo 1 anno!!!!!
PS
Chi ha visto la puntata dei SIMPSON di oggi?????
Originariamente inviato da WarDuck
nVidia è copiona di 3Dfx (non a caso l'ha acquisita e non a caso questo sistema si chiama proprio SLi)
Che il know-how acquisito da nVIDIA grazie al fallimento di 3DFX sia ingente lo si sa, ma questo SLI ha poco a che vedere con quello della casa californiana. Ci sono diversi thread in questione se vuoi approfondire la faccenda (motore di ricerca permettendo).
vista la scarsa diffusione dei dual gpu, ati secondo me ha fatto la mossa giusta.
Invece di risolvere in hw la cosa ha lasciato che alienware sviluppasse una propria soluzione.
In questo modo anche ati può dire di essere aggiornata al multi cpu e in realtà averci investito poco o nulla, con un ritorno pubblicitario quindi pari a chi ci ha investito risorse proprie.
Alla fine mi sembrano molto accorti in Ati a fare le proprie mosse... fossero così bravi anche a fare dei buoni drivers opengl a livello degli nvidia! :muro:
anghinus
02-11-2004, 16:19
Originariamente inviato da WarDuck
Si ma non spariamo castronerie sul "copiato da..." perché se ATi è copiona di nVidia, allora nVidia è copiona di 3Dfx (non a caso l'ha acquisita e non a caso questo sistema si chiama proprio SLi), e chi l'ha conosciuta anche solo per fama, sa di cosa parlo... :rolleyes: Per tutti gli altri, beh il primo acceleratore grafico (per PC) era firmato da 3Dfx.
Certo, ma se nVidia ha acquisito 3Dfx, ha acquisito anche i brevetti delle tecnologie proprietarie di 3Dfx, quindi nVidia nn ha copiato proprio un bel nulla! :D
anghinus
02-11-2004, 16:22
Originariamente inviato da Hal2001
Che il know-how acquisito da nVIDIA grazie al fallimento di 3DFX sia ingente lo si sa, ma questo SLI ha poco a che vedere con quello della casa californiana. Ci sono diversi thread in questione se vuoi approfondire la faccenda (motore di ricerca permettendo).
Ma nessuno ha detto che hanno copiato tecnicamente l'SLi di 3Dfx, hanno preso esempio dalla logica che c'è sotto.
Originariamente inviato da anghinus
Ma nessuno ha detto
WarDuck ha asserito proprio il contrario invece.
Originariamente inviato da anghinus
hanno copiato tecnicamente l'SLi di 3Dfx, hanno preso esempio dalla logica che c'è sotto.
Ora mi spiegheresti la differenza fra il copiare tecnicamente ed il copiare la logica? forse i brevetti non sai come funzionano.
Praetorian
02-11-2004, 16:33
cmq nn sussiste il problema "ha copiato"
penso che con la tecnologia nn si possa parlare di copia...
x esempio la bmw presenta un motore sportivo 3 litri 300 cavalli, e chi vieta all'alfa romeo di produrre anch'essa un 3litri 300 cv?
anghinus
02-11-2004, 16:43
Originariamente inviato da Hal2001
WarDuck ha asserito proprio il contrario invece.
Ora mi spiegheresti la differenza fra il copiare tecnicamente ed il copiare la logica? forse i brevetti non sai come funzionano.
1° WarDuck ha detto: 'Copiato la logica di...' :O
2° Te la spiego subito: dimmi se x te è la stessa cosa dire 'Attaccare due schede video insieme e farle lavorare entrambe sullo stesso flusso video' e dire 'Fare lavorare due schede video deinterlacciandole o facendone lavorare una sui frame pari e l'altra sui frame dispari nello stesso istante'.
P.S.: Credo di sapere qualche caccola di flussi visto che ho sviluppato x ATI technologies un prototipo di interpretatore di flussi video in tempo reale con eliminazione dinamica del rumore usato nell'automazione delle automobili... :rolleyes:
Oh ragazzi,si parla solo di sk video eh?:D
Se il mercato richiede tale features si fa a gara a chi la implementa prima...ma quello che arriva dopo non è che copia.
La strada per fare grafica fotorealistica è già segnata sm 2.0 sm 3.0 e poi sm 4.0 e così via.
Ci può essere un metodo di approcio diverso tra le case ma è già tutto scritto.
kingvisc
02-11-2004, 16:54
Originariamente inviato da Hal2001
WarDuck ha asserito proprio il contrario invece.
Ora mi spiegheresti la differenza fra il copiare tecnicamente ed il copiare la logica? forse i brevetti non sai come funzionano.
nessuno ha copiato la tecnologia 3dfx, nvidia usa il nome "sli" che è lo stesso che usava 3dfx (ne ha aquistato i diritti e quindi può farlo), ma la tecnologia alla base sfrutta un procedimento totalmente diverso da quello usato sulle 3dfx
una mossoa prevedibile, ATI non poteva restare indietro :)
Originariamente inviato da anghinus
L'ho riletto diverse volte e non vedo scritto quello che tu dici. Verba volant, scripta manent.
Riguardo le tue conoscenze non voglio esprimerti visto che non ti conosco, ma non puoi cercare di prendermi per il naso, indicando da una parte dei termini generici e popolari, e dall'altra qualcuno più tecnico.
"Attaccare due schede video insieme e farle lavorare entrambe sullo stesso flusso video" non vuol dire assolutamente nulla in se, solo nello stato a stelle_e_striscie sarebbe brevettabile qualcosa del genere :D
Originariamente inviato da kingvisc
nessuno ha copiato la tecnologia 3dfx, nvidia usa il nome "sli" che è lo stesso che usava 3dfx (ne ha aquistato i diritti e quindi può farlo), ma la tecnologia alla base sfrutta un procedimento totalmente diverso da quello usato sulle 3dfx
Perchè io cos'ho detto? :rolleyes:
Buoni buoni, io ho detto "non ha caso si chiama SLi", perché è lo stesso acronimo che a suo tempo ha usato 3Dfx...
Poi bisogna vedere come si intende per "copiato", visto che gran parte delle tecnologie di 3Dfx sono in mano di nVidia è lecito pensare che alcune "idee" siano state "copiate", usate, acquisite, chiamatele come vi pare, ma sicuramente alla base c'è 3Dfx (come in ogni acceleratore grafico moderno per PC consumer).
Che poi queste idee siano state implementate come meglio credevano gli ingegneri nVidia è un altro paio di maniche ^^.
Dark Schneider
02-11-2004, 17:34
WarDuck guarda che la tecnologia 3Dfx non è infinita. Ormai tutta quella tecnologia lì acquisita è vecchia.
Quello che nVidia progetta e crea è merito di nVidia. Non c'è proprio nulla di "base" di 3Dfx. Di base ci son i progetti nVidia..ed al massimo quelli di 3dfx ripresi in qualche parte ed integrate.
Lo SLI poi non ha nulla a che vedere con quello di 3Dfx, ma solo il nome. Se ti sei informato funziona in maniera del tutto diversa. La sigletta SLI sta lì soltanto per attirare anche i più nostalgici.
Se un domani nVidia immette un prodotto o una tecnologia con il marchio "Voodoo" non significa di certo che si tratta di una tecnlogia o un prodotto 3dfx ripreso. Però è di richiamo e questo fa guadaganre soldi e publicità.
anghinus
02-11-2004, 17:42
Originariamente inviato da WarDuck
Buoni buoni, io ho detto "non ha caso si chiama SLi", perché è lo stesso acronimo che a suo tempo ha usato 3Dfx...
Poi bisogna vedere come si intende per "copiato", visto che gran parte delle tecnologie di 3Dfx sono in mano di nVidia è lecito pensare che alcune "idee" siano state "copiate", usate, acquisite, chiamatele come vi pare, ma sicuramente alla base c'è 3Dfx (come in ogni acceleratore grafico moderno per PC consumer).
Che poi queste idee siano state implementate come meglio credevano gli ingegneri nVidia è un altro paio di maniche ^^.
Comprendi così Hal2001?????
...o ti faccio il disegnino??? :asd:
anghinus
02-11-2004, 17:48
Originariamente inviato da Dark Schneider
WarDuck guarda che la tecnologia 3Dfx non è infinita. Ormai tutta quella tecnologia lì acquisita è vecchia.
Quello che nVidia progetta e crea è merito di nVidia. Non c'è proprio nulla di "base" di 3Dfx. Di base ci son i progetti nVidia..ed al massimo quelli di 3dfx ripresi in qualche parte ed integrate.
Lo SLI poi non ha nulla a che vedere con quello di 3Dfx, ma solo il nome. Se ti sei informato funziona in maniera del tutto diversa. La sigletta SLI sta lì soltanto per attirare anche i più nostalgici.
Se un domani nVidia immette un prodotto o una tecnologia con il marchio "Voodoo" non significa di certo che si tratta di una tecnlogia o un prodotto 3dfx ripreso. Però è di richiamo e questo fa guadaganre soldi e publicità.
Tu e Hal2001 date un'occhiata a questo prima di parlare facile perdindirindina...
http://www.dinoxpc.com/Tests/VIDEO/NVIDIA_SLI_Preview/pag1.asp
Credo che ATI faccia bene a presentare la propria versione multi-gpu, ed è anche inevitabie che lo faccia visto che deve continuare ad essere competitiva con Nvidia. Sicuramente questa tecnologia porterà giovamento nei giochi 3D(anche se costosa purtroppo), quindi ben venga.
Originariamente inviato da anghinus
Comprendi così Hal2001?????
...o ti faccio il disegnino??? :asd:
Originariamente inviato da anghinus
Tu e Hal2001 date un'occhiata a questo prima di parlare facile perdindirindina...
http://www.dinoxpc.com/Tests/VIDEO/NVIDIA_SLI_Preview/pag1.asp
Certo che è una brutta cosa non sapere leggere :rolleyes:
anghinus
02-11-2004, 18:02
Originariamente inviato da Hal2001
Certo che è una brutta cosa non sapere leggere :rolleyes:
Nooo, sei analfabeta... :O
...ok ti faccio il disegnino.
:rotfl:
GiovanniGTS
02-11-2004, 18:02
Ma si parla di due GPU sulla stessa scheda?
dual-GPU e' diversissimo da SLI (due schede) quindi piu' che una copia mi sembra una lecitissima contromossa!
Bisogna vedere se queste dual-GPU sono soluzioni alla portata di tutti o resteranno solo un esperimento tecnologico come di fatti e' ora lo SLI!
tempo fa si parlava su HW di dual-GPU - dual Core GPU, si sa qualcosa?
Le CPU stanno evolvendo verso il dual core, valgono gli stessi vantaggi per le GPU rispetto ad avere due CPU?
penso innanzitutto che un dual-GPU costi molto di piu' di un dual core GPU, scaldi di piu', occupi piu' spazio.................poi?
superpippo32
02-11-2004, 18:04
Ragazzi non dimenticate che ATI ha già prodotto in passato una scheda video dual vpu e andava anche benino su sistemi win9x, mentre non furono mai sviluppati driver per Windows New Tecnology. Staremo a vedere. E' tutta questione di scelte commerciali :rolleyes:
GiovanniGTS
02-11-2004, 18:09
Originariamente inviato da superpippo32
Ragazzi non dimenticate che ATI ha già prodotto in passato una scheda video dual vpu e andava anche benino su sistemi win9x, mentre non furono mai sviluppati driver per Windows New Tecnology. Staremo a vedere. E' tutta questione di scelte commerciali :rolleyes:
piu' che di scelte commerciali direi che e' una questione di prezzo....prestazioni.......consumi......disponibilita' del prodotto.....ecc......
Originariamente inviato da GiovanniGTS
Ma si parla di due GPU sulla stessa scheda?
dual-GPU e' diversissimo da SLI (due schede) quindi piu' che una copia mi sembra una lecitissima contromossa!
Intendi dire due gpu sullo stesso pcb? Forse il problema potrebbe essere la dissipazione del calore
Originariamente inviato da anghinus
Nooo, sei analfabeta... :O
...ok ti faccio il disegnino.
:rotfl:
E' possibile discutere civilmente senza ricorrere ad una malevola ironia, che certamente non aiuta a migliorare il clima?! :rolleyes:
GiovanniGTS
02-11-2004, 18:19
Originariamente inviato da maxfl
Intendi dire due gpu sullo stesso pcb? Forse il problema potrebbe essere la dissipazione del calore
Certo, il calore, la grandezza del pcb e il peso della scheda, insieme ad altri, sono da considerare....
ma allora perche' non un dual core GPU?
anghinus
02-11-2004, 18:20
Originariamente inviato da maxfl
Intendi dire due gpu sullo stesso pcb? Forse il problema potrebbe essere la dissipazione del calore
Una cosa del genere se nn ricordo male l'aveva sviluppata 3dfx con Voodoo5 o Voodoo6(quest'ultima mai entrata in commercio):
http://www.pconline.com.cn/pchardware/foreline/graphics/10312/248691.html
anghinus
02-11-2004, 18:22
Originariamente inviato da Raven
E' possibile discutere civilmente senza ricorrere ad una malevola ironia, che certamente non aiuta a migliorare il clima?! :rolleyes:
Scccusa :ave:
Nn lo farò più... prometto. ;)
GiovanniGTS
02-11-2004, 18:26
http://www.pconline.com.cn/pchardware/foreline/graphics/10312/pic/248691_2.jpg
A parte che e' bruttissima, ma con l'enormita' dei dissipatori delle GPU moderne una soluzione del genere mi sembra molto difficile...............mah
Originariamente inviato da GiovanniGTS
http://www.pconline.com.cn/pchardware/foreline/graphics/10312/pic/248691_2.jpg
A parte che e' bruttissima, ma con l'enormita' dei dissipatori delle GPU moderne una soluzione del genere mi sembra molto difficile...............mah
Penso anch'io che ATI farà due schede separate come Nvidia
Capirossi
02-11-2004, 18:35
prezzo ? :D
Capirossi
02-11-2004, 18:36
Originariamente inviato da GiovanniGTS
http://www.pconline.com.cn/pchardware/foreline/graphics/10312/pic/248691_2.jpg
A parte che e' bruttissima, ma con l'enormita' dei dissipatori delle GPU moderne una soluzione del genere mi sembra molto difficile...............mah
:ave:
Originariamente inviato da Capirossi
prezzo ? :D
Per lo SLI di Nvidia 1000/1100€ sicuri; per ATI..........lo stesso :D :sofico:
Capirossi
02-11-2004, 18:50
Originariamente inviato da maxfl
Per lo SLI di Nvidia 1000/1100€ sicuri; per ATI..........lo stesso :D :sofico:
chissà le prestazioni :sofico:
ma non vi bastano i 25 frame al secondo ? :confused:
Originariamente inviato da Capirossi
chissà le prestazioni :sofico:
ma non vi bastano i 25 frame al secondo ? :confused:
No, voglio unreal 3 a 1600x1200 a 120 fps con AA4x e AF16x:sofico: :sofico: :D
DevilsAdvocate
02-11-2004, 18:53
Ma nvidia si e' COMPRATA 3DFX e quindi anche i suoi brevetti, sarebbe stato solo stupido se non ne avesse
sfruttato neanche uno.
ATI non ha comprato un bel niente, quindi ATI copia da Nvidia, Nvidia invece sfrutta il suo.
piottanacifra
02-11-2004, 19:07
NVIDIA non può produrre chipset per Intel.
Meglio,deve continuare il lavoro iniziato per AMD.
Salutt & Bazz
Originariamente inviato da piottanacifra
NVIDIA non può produrre chipset per Intel.
Meglio,deve continuare il lavoro iniziato per AMD.
Salutt & Bazz
Non centra niente con il thread e non mi dispiace la cosa.
Ma devvero?E per quale stupido motivo o gabola?
Originariamente inviato da DevilsAdvocate
Ma nvidia si e' COMPRATA 3DFX e quindi anche i suoi brevetti, sarebbe stato solo stupido se non ne avesse
sfruttato neanche uno.
ATI non ha comprato un bel niente, quindi ATI copia da Nvidia, Nvidia invece sfrutta il suo.
:rolleyes:
:eek:
:cry:
forse ti sfugge che la prima vga dx9 l'ha fatta ATi...quindi se c'e' chi ha copiato come dice te e Nvidia e anche male (vedi 5800) :D
GiovanniGTS
02-11-2004, 19:38
Originariamente inviato da R@nda
Non centra niente con il thread e non mi dispiace la cosa.
Ma devvero?E per quale stupido motivo o gabola?
X supportare configurazioni dual-GPU ci vuole 1 chipset
A quanto pare forse ATi ha intenzione di sviluppare una soluzione dual-GPU lato chipset
Se ATI possiede le licenze per produrre chipset sia per piattaforme AMD e Intel, allora le sue soluzioni dual-GPU abbinate al chipset proprietario avranno maggiore diffusione..........
Originariamente inviato da GiovanniGTS
X supportare configurazioni dual-GPU ci vuole 1 chipset
A quanto pare forse ATi ha intenzione di sviluppare una soluzione dual-GPU lato chipset
Se ATI possiede le licenze per produrre chipset sia per piattaforme AMD e Intel, allora le sue soluzioni dual-GPU abbinate al chipset proprietario avranno maggiore diffusione..........
non serve nessun chipset per il dual gpu...la vga fa tutto....il chipset della mobo "riceve" solo i "dati":rolleyes:
GiovanniGTS
02-11-2004, 19:44
Originariamente inviato da TripleX
non serve nessun chipset per il dual gpu...la vga fa tutto....il chipset della mobo "riceve" solo i "dati":rolleyes:
Hai ragione, ma avevo dato per scontato che fossimo arrivati alla conclusione che la strada intrapresa da ATI andava verso le due schede come lo SLI di Nvidia,
mi sono espresso male
GiovanniGTS
02-11-2004, 19:48
E poi nella news:
Abbiamo intenzione di sviluppare una soluzione dual-GPU lato chipset, ma è ancora prematuro parlarne ora" ha dichiarato John Carvill
questo porta a pesare a due schede piuttosto che due gpu su 1 pcb? mi sbaglio?
anghinus
02-11-2004, 19:55
Originariamente inviato da GiovanniGTS
E poi nella news:
Abbiamo intenzione di sviluppare una soluzione dual-GPU lato chipset, ma è ancora prematuro parlarne ora" ha dichiarato John Carvill
questo porta a pesare a due schede piuttosto che due gpu su 1 pcb? mi sbaglio?
Per me voleva dire 2 GPU integrate nello stesso chip... boh...
Lucky'83
02-11-2004, 20:39
Originariamente inviato da Max Power
Chi ha visto la puntata dei SIMPSON di oggi?????
io...:D
Originariamente inviato da Lucky'83
io...:D
http://www.infopa.net/forum/images/smilies/pinocchio.gif
nonikname
02-11-2004, 21:45
Originariamente inviato da Max Power
Chi ha visto la puntata dei SIMPSON di oggi?????
LOL :D (scommetto che hai scelto il tuo nick per lo stesso motivo di Homer ;) )
nonikname
02-11-2004, 21:50
http://hardware.multiplayer.it/immagini/news/7/17187/img1.jpg
;););)
wow...questa rulla sicuro
DioBrando
02-11-2004, 23:43
Originariamente inviato da nonikname
http://hardware.multiplayer.it/immagini/news/7/17187/img1.jpg
;););)
SLI by ATI?
Mi chiedo la ventolina della VGA in alto da dove peschi l'aria fredda...considerati poi i 3cm di spazio...
"un estintore, un estintore!!!"
:asd:
cmq la news non è che sia molto chiara...si parla di multi GPU che potrebbe significare anche + GPU su una sola scheda video.
Vedremo...sicuramente il multicore avrà un suo peso in un prox futuro.
cdimauro
03-11-2004, 07:57
Originariamente inviato da R@nda
La strada per fare grafica fotorealistica è già segnata sm 2.0 sm 3.0 e poi sm 4.0 e così via.
Riparliamone fra una dozzina d'anni, che è meglio... ;)
barabba73
03-11-2004, 08:17
Originariamente inviato da cdimauro
Riparliamone fra una dozzina d'anni, che è meglio... ;)
Quoto in pieno, ahimè !
nonikname
03-11-2004, 08:42
cmq la news non è che sia molto chiara...si parla di multi GPU che potrebbe significare anche + GPU su una sola scheda video.
Vedremo...sicuramente il multicore avrà un suo peso in un prox futuro
"Le nostre (ATI) schede video sono in grado di supportare configurazioni dual-GPU in piattaforme come quelle proposte da Alienware. Abbiamo intenzione di sviluppare una soluzione dual-GPU lato chipset, ma è ancora prematuro parlarne ora" ha dichiarato John Carvill"
http://www.theinquirer.net/?article=19403
[FLAME ON]
E' quantomeno curioso che sullo SLI di Nvidia si siano visti una marea di commenti negativi... e le stesse persone dichiaratesi oggettive non hanno nemmeno preso in considerazione il fatto di criticare la scelta ATI......(non è per una marca o l'altra : è l'ipocrisia che non digerisco...)
Sia ben chiaro , non sto parlando a te , Dio Brando ... so che sei un utente al di sopra delle parti... ;)
[FLAME OFF]
Easy....
Originariamente inviato da cdimauro
Riparliamone fra una dozzina d'anni, che è meglio... ;)
Ma che vuol dire?
Anche implementare l'AA è un percorso verso il fotorealismo.
Non ho mica detto che domani giochiamo con i film in temporeale,tutte le nuove implementazioni grafiche servono a fare passi avanti verso il fotorealismo,a prescindere da quanto ci vorrà a raggiungerlo...e se mai lo raggiungeremo!
Evvai!!! Così lo Sli diventerà il minimo indispensabile per far funzionare i giochi al massimo e chi non potrà/vorrà permetterselo dovrà attaccarsi.
Preferivo quando si parlava di gpu dual core piuttosto che di dual gpu o Sli in generale...
dagon1978
03-11-2004, 10:11
Originariamente inviato da DjLode
Evvai!!! Così lo Sli diventerà il minimo indispensabile per far funzionare i giochi al massimo e chi non potrà/vorrà permetterselo dovrà attaccarsi.
Preferivo quando si parlava di gpu dual core piuttosto che di dual gpu o Sli in generale...
non facciamo sempre i disfattisti
è come se all'introduzione di soluzioni dual cpu si fosse detto
"evvai così le dual cpu diventeranno il minimo indispensabile per fare grafica, o renderig ecc ecc...":rolleyes:
sono invece d'accordo sul fatto che il dual core gpu sia una soluzione più interessante dello SLI (sempre sulla carta ovviamente;))
razorjack
03-11-2004, 10:49
X me oramai siamo alla frutta, è impensabile dover spendere così tanto per degnarsi di giocare all'ultimo gioco uscito.. beh come si usa dire, si stava meglio quando si stava peggio, doom3? lo aspettavo lo attendevo come nn mai e poi?.. lho nemmeno cestinato in attesa di avere almeno 400 euro x poterci giocare come si deve.. è assurdo e intanto mi diverto benissimo con doomlegacy e in lan coi miei amici che va anche con una schifosa tnt2 :)
io posso capire il progresso posso capire la teconologia, ma quando si arriva ad avere dei costi cosi esorbitanti è veramente inumano, una volta il pezzo più costoso del computer era il processore, ed era anche comprensibile, oggi invece la scheda video sembra sia + importante ancora..
solo constatazioni, deludenti constatazioni che mi fanno riflettere su come si evolve sto mondo dell'informatica e come l'utente medio che prende 1200 euro al mese debba rimanere tagliato fuori da cio ke è tecnologia.
beh nn prenderò mai una scheda video a RATE, eppure sembra sia l'unico modo oggi per potersela permettere.
dagon1978
03-11-2004, 11:08
Originariamente inviato da razorjack
X me oramai siamo alla frutta, è impensabile dover spendere così tanto per degnarsi di giocare all'ultimo gioco uscito.. beh come si usa dire, si stava meglio quando si stava peggio, doom3? lo aspettavo lo attendevo come nn mai e poi?.. lho nemmeno cestinato in attesa di avere almeno 400 euro x poterci giocare come si deve.. è assurdo e intanto mi diverto benissimo con doomlegacy e in lan coi miei amici che va anche con una schifosa tnt2 :)
io posso capire il progresso posso capire la teconologia, ma quando si arriva ad avere dei costi cosi esorbitanti è veramente inumano, una volta il pezzo più costoso del computer era il processore, ed era anche comprensibile, oggi invece la scheda video sembra sia + importante ancora..
solo constatazioni, deludenti constatazioni che mi fanno riflettere su come si evolve sto mondo dell'informatica e come l'utente medio che prende 1200 euro al mese debba rimanere tagliato fuori da cio ke è tecnologia.
beh nn prenderò mai una scheda video a RATE, eppure sembra sia l'unico modo oggi per potersela permettere.
non so, forse sono io controcorrente
anch'io ho la sensazione che il costo delle schede video stia lievitando enormemente negli ultimi tempi, ma, onestamente, non mi sento di essere "tagliato fuori" dalla tecnologia
basta saper scegliere, trovare i compromessi
se vuoi giovare a Doom 3 1600x1200 AA8x e via dicendo spendi tanto (o aspetti che si abbassino i prezzi per giocarci), ma ho dei dubbi che una risoluzione del genere sia alla portata di tutti (quindi se parti con la convinzione di giocare con quella risoluzione, hai già messo da parte parecchi soldi anche per il monitor non solo per la scheda video)
al contrario se ti accontenti (come me) giochi persino a Doom3 con una 9100 senza troppe pretese e a costi bassi
secondo me non è la tecnologia che diventa pian piano fuori dalla nostra portata, siamo noi che, continuando a inseguirne le prestazioni esasperate la facciamo diventale tale :rolleyes:
Originariamente inviato da dagon1978
non facciamo sempre i disfattisti
è come se all'introduzione di soluzioni dual cpu si fosse detto
"evvai così le dual cpu diventeranno il minimo indispensabile per fare grafica, o renderig ecc ecc...":rolleyes:
sono invece d'accordo sul fatto che il dual core gpu sia una soluzione più interessante dello SLI (sempre sulla carta ovviamente;))
Vedi il problema sta nel fatto che una gpu dual core è una gpu dual core. Una gpu che va in Sli è una singola gpu (generalizziamo in scheda) e va accoppiata (leggi va comprata assieme) con un'altra scheda.
La grande differenza sta lì.
Per fare grafica e rendering poi credo che la potenza non sia mai abbastanza, parlo di utenti consumer o prosumer (leggi giochi e affini), non di professionisti della grafica.
Riguardo ai giochi eccetera, non c'è proprio bisogno di una scheda da 400€ per giocarci. Doom3 me lo sono giocato su una 9700 Pro, e ora come ora una scheda del genere costa ben meno di 400€. Logico che se per giocare intendi risoluzioni esagerate e filtri al massimo... bhè quello non è giocare. Vuol dire giocare al massimo delle possibilità della scheda video. E allora devi essere pronto a spendere.
dagon1978
03-11-2004, 11:33
Originariamente inviato da DjLode
Vedi il problema sta nel fatto che una gpu dual core è una gpu dual core. Una gpu che va in Sli è una singola gpu (generalizziamo in scheda) e va accoppiata (leggi va comprata assieme) con un'altra scheda.
La grande differenza sta lì.
Per fare grafica e rendering poi credo che la potenza non sia mai abbastanza, parlo di utenti consumer o prosumer (leggi giochi e affini), non di professionisti della grafica.
ovvio che non è una soluzione per la fascia media di mercato, se non come upgrade futuro (io continuo ad avere speranze che possa esserlo)
anche per i giochi la potenza non è mai abbastanza, tutto sta nel trovare la giusta misura per le proprie tasche ;)
p.s.
non credo che una dual gpu verrà a costare, all'utente, molto meno che due schede distinte, almeno all'inizio (sempre nell'ipotesi che escano queste soluzioni)
cdimauro
03-11-2004, 12:42
Originariamente inviato da R@nda
Ma che vuol dire?
Anche implementare l'AA è un percorso verso il fotorealismo.
Non ho mica detto che domani giochiamo con i film in temporeale,tutte le nuove implementazioni grafiche servono a fare passi avanti verso il fotorealismo,a prescindere da quanto ci vorrà a raggiungerlo...e se mai lo raggiungeremo!
Vuol dire che il fotorealismo richiede BEN ALTRO che il FSAA, l'AF o gli shader 1, 2, 3 o 4.0, che sono delle pallide imitazioni del "comportamento" dei materiali e della luce. Quando si comincerà a parlare di motori radiosity, ne riparleremo... fra una dozzina almeno, penso.
Poi non so se da qui a domani arriverà un'innovazione tecnologica che ci permetterà di avere una potenza di calcolo di qualche ordine di grandezza per poter gestire l'enorme sforzo computazionale richiesto dal suddetto modello...
Originariamente inviato da cdimauro
Vuol dire che il fotorealismo richiede BEN ALTRO che il FSAA, l'AF o gli shader 1, 2, 3 o 4.0, che sono delle pallide imitazioni del "comportamento" dei materiali e della luce. Quando si comincerà a parlare di motori radiosity, ne riparleremo... fra una dozzina almeno, penso.
Poi non so se da qui a domani arriverà un'innovazione tecnologica che ci permetterà di avere una potenza di calcolo di qualche ordine di grandezza per poter gestire l'enorme sforzo computazionale richiesto dal suddetto modello...
Continui a non capire il succo del discorso....
Tutto quello che viene implementato come feature segue la strada per raggiungere il fotorealismo o un ambiente realistico.
Ti è chiaro?Si procede per piccoli passi ad ogni chip video nuovo...e la strada si accorcia,questo cammino sulla carta dei produttori video è in parte già scritto.
Devo spiegarmi meglio?
Originariamente inviato da dagon1978
non credo che una dual gpu verrà a costare, all'utente, molto meno che due schede distinte, almeno all'inizio (sempre nell'ipotesi che escano queste soluzioni)
Ho detto una gpu dual core, è ben diversa da una scheda dual gpu :)
Infatti se ci badi ho detto che Sli e Dual Gpu le metto sullo stesso piano e preferisco una Dual Core :)
Avere due schede distinte e avere una scheda con due gpu e il doppio della ram ti viene a costare più o meno uguale (il prezzo delle schede è molto elevato per via della ram, una gpu ad un costruttore non costa tantissimo in rapporto a ciò che paghi tu una scheda completa), perchè appunto duplichi le due cosa che costano di più su un pcb (ram e gpu). Devi anche raddoppiare più o meno la circuiteria, e studiare un bus in mezzo che non sia un collo di bottiglia. Quindi più o meno siamo lì come costi.
nonikname
03-11-2004, 15:09
Infatti se ci badi ho detto che Sli e Dual Gpu le metto sullo stesso piano e preferisco una Dual Core
Tutte le GPU attuali sono dual-quad core...quando si disabilita un quad pipe (su 16 pipe totali) si disabilita uno pseudo core su quattro...
Aumentare ancora di più i transistor di una GPU è più pericoloso che costruire due core distinti :
La resa di GPU funzionanti perfettamente , con (x es.) 200 milioni di transistor è la metà di (x es.) una , costruita con 100 milioni di transistor.... (Senza tenere conto del problema temp.)
Infatti questo è uno dei motivi x cui XGI ha costruito una scheda Dual gpu (da 8 pipe l'una) piuttosto che una GPU con 16 pipe...viste le condizioni finanziarie che ha un Brand appena nato...
Dire quindi che la strada verso l'aumento di prestazioni è indirizzato verso il multi GPU sullo stesso core è corretto , ma il cammino intrapreso verso questo senso è quasi già arrivato al capolinea...
Se pensate che le rese sono già molto basse con una quad-gpu (NV40) fatta da 220ml di tr. a 130nm , pensate ad una eventuale 24-32 pipe a 90nm con pressapoco 350-400 milioni di transistor!!! più aumenta il n° di Tr. più la gpu può contenere transistor difettosi ...con la conseguente diminuzione delle pipe abilitabili...
Quindi , chi può dire oggi con certezza che sia meglio aumentare il n° di trans. o costruire + core separati sulla stessa scheda ???
Ogni soluzione ha pregi e difetti : da una parte Vram condivisa per le pipe di una singola GPU , ma una resa produttiva molto bassa , dall'altra una resa produttiva maggiore ma ram dedicata ad ogni singolo core....
Speriamo solo che il processo a 90 nanometri sia profiquo , altrimenti vai di sli o Rage Max!!!
dagon1978
03-11-2004, 15:13
Originariamente inviato da DjLode
Ho detto una gpu dual core, è ben diversa da una scheda dual gpu :)
Infatti se ci badi ho detto che Sli e Dual Gpu le metto sullo stesso piano e preferisco una Dual Core :)
Avere due schede distinte e avere una scheda con due gpu e il doppio della ram ti viene a costare più o meno uguale (il prezzo delle schede è molto elevato per via della ram, una gpu ad un costruttore non costa tantissimo in rapporto a ciò che paghi tu una scheda completa), perchè appunto duplichi le due cosa che costano di più su un pcb (ram e gpu). Devi anche raddoppiare più o meno la circuiteria, e studiare un bus in mezzo che non sia un collo di bottiglia. Quindi più o meno siamo lì come costi.
perfettamente d'accordo
ma credo che dovremo aspettare ancora parecchio prima di vedere implementata una gpu dual core, mi sbaglierò... ;)
dagon1978
03-11-2004, 15:18
Originariamente inviato da R@nda
Continui a non capire il succo del discorso....
Tutto quello che viene implementato come feature segue la strada per raggiungere il fotorealismo o un ambiente realistico.
Ti è chiaro?Si procede per piccoli passi ad ogni chip video nuovo...e la strada si accorcia,questo cammino sulla carta dei produttori video è in parte già scritto.
Devo spiegarmi meglio?
non mi pare che stia dicendo una cosa diversa dalla tua
ha solo detto che prima di arrivare a un "vero" fotorealismo (radiosity) ne passerà di acqua sotto i ponti...
jappilas
03-11-2004, 16:19
Originariamente inviato da razorjack
...
.
solo constatazioni, deludenti constatazioni che mi fanno riflettere su come si evolve sto mondo dell'informatica e come l'utente medio che prende 1200 euro al mese debba rimanere tagliato fuori da cio ke è tecnologia.
...
adesso farò un commento off topic... ma vorrei aggiungere la mia idea sull "essere tagliato fuori dalla tecnologia": quando uno è tagliato fuori dalla tecnologia?
quando non può dire di possedere lo "status symbol tecnologico" del momento e sfoggiarlo davanti agli amici, oppure usare il gadget all' ultima moda, oppure godersi quelle 20 ore di divertimento con l' ultimo giochino uscito nei negozi, finito il quale si rimpiangono gli €€ spesi e non si ha certo voglia di rigiocarlo dall' inizio (salvo qualche raro caso di RPGo strategico)?
oppure quando, nei confronti degli oggetti della tecnologia, (il pc, ultimo dei quali) si ha un atteggiamento passivo trattandoli come gadget "chiusi" senza riuscire o non aver voglia di imparare la struttura, di queste macchine, i principi che ne regolano il funzionamento e ne condizionano il design...
forse nella vita è meglio l' "essere" che l' "avere", e per "saperne" di tecnologia magari non è indispensabile possederla per poi farne un uso vacuo, frivolo o peggio ancora, non saper che farne (e mi balena l' immagine di un p4 da 3 ghz usato per ricevere la posta...)
sì lo so questo post c' entra come i cavoli a merenda, però... :O:O
jappilas
03-11-2004, 16:25
Originariamente inviato da GiovanniGTS
Certo, il calore, la grandezza del pcb e il peso della scheda, insieme ad altri, sono da considerare....
ma allora perche' non un dual core GPU? Originariamente inviato da anghinus
2 GPU integrate nello stesso chip... boh...
ecco ... se ati o nvidia dovessero "sbattersi" per far stare il doppio dei transistor di una gpu in un unico die di silicio...
... mi spiegate in cosa sarebbe diverso dal realzzare una gpu nuova con il doppio dei transistor, il doppio delle unità PS/VS, delle pipeline , ecc ? :O :confused:
non è che magari integrando "il doppio" della logica di calcolo in un unico "core" , si otterrebbe che questo nuovo core sarebbe più ottimizzato e con un costo sia in silicio sia in dissipazione, equivalente?
Originariamente inviato da dagon1978
non mi pare che stia dicendo una cosa diversa dalla tua
ha solo detto che prima di arrivare a un "vero" fotorealismo (radiosity) ne passerà di acqua sotto i ponti...
Ed è quello che ho detto anche io,daccordo.
Ma non puoi dirmi che l'AA non porta niente,idem gli shader ecc....sono piccoli passi necessari,piano piano si arriverà sempre oltre.
DioBrando
03-11-2004, 17:07
Originariamente inviato da nonikname
"Le nostre (ATI) schede video sono in grado di supportare configurazioni dual-GPU in piattaforme come quelle proposte da Alienware. Abbiamo intenzione di sviluppare una soluzione dual-GPU lato chipset, ma è ancora prematuro parlarne ora" ha dichiarato John Carvill"
http://www.theinquirer.net/?article=19403
pardon non ho visto bene la parole chipset...cmq le indiscrezioni di TheInquirer non è che siano sempre il max dell'affidabilità :asd:
e continuo a pensare che parallelamente allalina di sviluppo multicore per le cpu anche per le gpu si stia pensando a qlc di simile o anche a + GPU su un solo PCB...
Ovvio che poi come ho detto dall'altra parte ATI si è dovuta adeguare ad Nvidia per non perdere il treno della "pubblicità"
[FLAME ON]
E' quantomeno curioso che sullo SLI di Nvidia si siano visti una marea di commenti negativi... e le stesse persone dichiaratesi oggettive non hanno nemmeno preso in considerazione il fatto di criticare la scelta ATI......(non è per una marca o l'altra : è l'ipocrisia che non digerisco...)
Sia ben chiaro , non sto parlando a te , Dio Brando ... so che sei un utente al di sopra delle parti... ;)
ci mancherebbe, ho speso MIIILLLE righe nel ribadire che per me lo SLI è insulso ( ai +) qualunque fosse stato il marchietto sopra :D
nonikname
03-11-2004, 17:23
pardon non ho visto bene la parole chipset...cmq le indiscrezioni di TheInquirer non è che siano sempre il max dell'affidabilità
ATI Multirendering :D
http://www.theinquirer.net/?article=19449
In difesa di "THE INQ." devo dire che ormai ci ha abituato a Scoop con almeno un fondamento di verità , magari il nome non sarà Multirendering , ma stai tranquillo che saranno 2 schede in "SLI"...(ti ricordo che a una GPU di ATI è stato dato il nome di Fudo : un redattore di "The Inquirer" :D )
Comunque se anche Anand e Xbit ne hanno parlato qualcosina in più di noi la sapranno .... ;) o no??
DioBrando
03-11-2004, 18:11
Originariamente inviato da nonikname
ATI Multirendering :D
http://www.theinquirer.net/?article=19449
In difesa di "THE INQ." devo dire che ormai ci ha abituato a Scoop con almeno un fondamento di verità , magari il nome non sarà Multirendering , ma stai tranquillo che saranno 2 schede in "SLI"...(ti ricordo che a una GPU di ATI è stato dato il nome di Fudo : un redattore di "The Inquirer" :D )
Comunque se anche Anand e Xbit ne hanno parlato qualcosina in più di noi la sapranno .... ;) o no??
senza dubbio, io ho solo voluto fare dell'ironia spicciola :)
Riguardo allo SLI, quello che mi sembrava importante dire è stato il resto del post prima, multicore&co. ;)
cdimauro
04-11-2004, 13:14
Originariamente inviato da R@nda
Ma non puoi dirmi che l'AA non porta niente,idem gli shader ecc....sono piccoli passi necessari,piano piano si arriverà sempre oltre.
Il problema è che il fotorealismo in sé comporterà, come ho già detto, ben altro che l'uso di AA e shader. E richiederà un'enorme potenza di calcolo, da cui l'origine del primo messaggio che ho scritto.
GiovanniGTS
05-11-2004, 12:59
Originariamente inviato da jappilas
ecco ... se ati o nvidia dovessero "sbattersi" per far stare il doppio dei transistor di una gpu in un unico die di silicio...
... mi spiegate in cosa sarebbe diverso dal realzzare una gpu nuova con il doppio dei transistor, il doppio delle unità PS/VS, delle pipeline , ecc ? :O :confused:
non è che magari integrando "il doppio" della logica di calcolo in un unico "core" , si otterrebbe che questo nuovo core sarebbe più ottimizzato e con un costo sia in silicio sia in dissipazione, equivalente?
Forse un core potrebbe renderizzare la parte superiore della scena e l'altro quella inferiore andando poi a bilanciarsi a seconda della compessita' e diffusine della scena! praticamente quello che avvine con lo SLI! Bisogna vedere se poi un core con lo stesso numero di transistor di due core riesce a rendere di piu' in termini di prestazioni, costi, temperatura, qualita', ecc.....o viceversa
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.