ATI: dual-GPU e Pixel Shader 3.0

La compagnia Canadese fa sapere che ha intenzione di implementare Pixel Shader 3.0 e ipotizza anche un'eventuale adozione di una tecnologia simile a SLI
di Andrea Bai pubblicata il 02 Novembre 2004, alle 16:55 nel canale Schede VideoATI
79 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoio posso capire il progresso posso capire la teconologia, ma quando si arriva ad avere dei costi cosi esorbitanti è veramente inumano, una volta il pezzo più costoso del computer era il processore, ed era anche comprensibile, oggi invece la scheda video sembra sia + importante ancora..
solo constatazioni, deludenti constatazioni che mi fanno riflettere su come si evolve sto mondo dell'informatica e come l'utente medio che prende 1200 euro al mese debba rimanere tagliato fuori da cio ke è tecnologia.
beh nn prenderò mai una scheda video a RATE, eppure sembra sia l'unico modo oggi per potersela permettere.
X me oramai siamo alla frutta, è impensabile dover spendere così tanto per degnarsi di giocare all'ultimo gioco uscito.. beh come si usa dire, si stava meglio quando si stava peggio, doom3? lo aspettavo lo attendevo come nn mai e poi?.. lho nemmeno cestinato in attesa di avere almeno 400 euro x poterci giocare come si deve.. è assurdo e intanto mi diverto benissimo con doomlegacy e in lan coi miei amici che va anche con una schifosa tnt2
io posso capire il progresso posso capire la teconologia, ma quando si arriva ad avere dei costi cosi esorbitanti è veramente inumano, una volta il pezzo più costoso del computer era il processore, ed era anche comprensibile, oggi invece la scheda video sembra sia + importante ancora..
solo constatazioni, deludenti constatazioni che mi fanno riflettere su come si evolve sto mondo dell'informatica e come l'utente medio che prende 1200 euro al mese debba rimanere tagliato fuori da cio ke è tecnologia.
beh nn prenderò mai una scheda video a RATE, eppure sembra sia l'unico modo oggi per potersela permettere.
non so, forse sono io controcorrente
anch'io ho la sensazione che il costo delle schede video stia lievitando enormemente negli ultimi tempi, ma, onestamente, non mi sento di essere "tagliato fuori" dalla tecnologia
basta saper scegliere, trovare i compromessi
se vuoi giovare a Doom 3 1600x1200 AA8x e via dicendo spendi tanto (o aspetti che si abbassino i prezzi per giocarci), ma ho dei dubbi che una risoluzione del genere sia alla portata di tutti (quindi se parti con la convinzione di giocare con quella risoluzione, hai già messo da parte parecchi soldi anche per il monitor non solo per la scheda video)
al contrario se ti accontenti (come me) giochi persino a Doom3 con una 9100 senza troppe pretese e a costi bassi
secondo me non è la tecnologia che diventa pian piano fuori dalla nostra portata, siamo noi che, continuando a inseguirne le prestazioni esasperate la facciamo diventale tale
non facciamo sempre i disfattisti
è come se all'introduzione di soluzioni dual cpu si fosse detto
"evvai così le dual cpu diventeranno il minimo indispensabile per fare grafica, o renderig ecc ecc..."
sono invece d'accordo sul fatto che il dual core gpu sia una soluzione più interessante dello SLI (sempre sulla carta ovviamente
Vedi il problema sta nel fatto che una gpu dual core è una gpu dual core. Una gpu che va in Sli è una singola gpu (generalizziamo in scheda) e va accoppiata (leggi va comprata assieme) con un'altra scheda.
La grande differenza sta lì.
Per fare grafica e rendering poi credo che la potenza non sia mai abbastanza, parlo di utenti consumer o prosumer (leggi giochi e affini), non di professionisti della grafica.
Vedi il problema sta nel fatto che una gpu dual core è una gpu dual core. Una gpu che va in Sli è una singola gpu (generalizziamo in scheda) e va accoppiata (leggi va comprata assieme) con un'altra scheda.
La grande differenza sta lì.
Per fare grafica e rendering poi credo che la potenza non sia mai abbastanza, parlo di utenti consumer o prosumer (leggi giochi e affini), non di professionisti della grafica.
ovvio che non è una soluzione per la fascia media di mercato, se non come upgrade futuro (io continuo ad avere speranze che possa esserlo)
anche per i giochi la potenza non è mai abbastanza, tutto sta nel trovare la giusta misura per le proprie tasche
p.s.
non credo che una dual gpu verrà a costare, all'utente, molto meno che due schede distinte, almeno all'inizio (sempre nell'ipotesi che escano queste soluzioni)
Ma che vuol dire?
Anche implementare l'AA è un percorso verso il fotorealismo.
Non ho mica detto che domani giochiamo con i film in temporeale,tutte le nuove implementazioni grafiche servono a fare passi avanti verso il fotorealismo,a prescindere da quanto ci vorrà a raggiungerlo...e se mai lo raggiungeremo!
Vuol dire che il fotorealismo richiede BEN ALTRO che il FSAA, l'AF o gli shader 1, 2, 3 o 4.0, che sono delle pallide imitazioni del "comportamento" dei materiali e della luce. Quando si comincerà a parlare di motori radiosity, ne riparleremo... fra una dozzina almeno, penso.
Poi non so se da qui a domani arriverà un'innovazione tecnologica che ci permetterà di avere una potenza di calcolo di qualche ordine di grandezza per poter gestire l'enorme sforzo computazionale richiesto dal suddetto modello...
Vuol dire che il fotorealismo richiede BEN ALTRO che il FSAA, l'AF o gli shader 1, 2, 3 o 4.0, che sono delle pallide imitazioni del "comportamento" dei materiali e della luce. Quando si comincerà a parlare di motori radiosity, ne riparleremo... fra una dozzina almeno, penso.
Poi non so se da qui a domani arriverà un'innovazione tecnologica che ci permetterà di avere una potenza di calcolo di qualche ordine di grandezza per poter gestire l'enorme sforzo computazionale richiesto dal suddetto modello...
Continui a non capire il succo del discorso....
Tutto quello che viene implementato come feature segue la strada per raggiungere il fotorealismo o un ambiente realistico.
Ti è chiaro?Si procede per piccoli passi ad ogni chip video nuovo...e la strada si accorcia,questo cammino sulla carta dei produttori video è in parte già scritto.
Devo spiegarmi meglio?
non credo che una dual gpu verrà a costare, all'utente, molto meno che due schede distinte, almeno all'inizio (sempre nell'ipotesi che escano queste soluzioni)
Ho detto una gpu dual core, è ben diversa da una scheda dual gpu
Infatti se ci badi ho detto che Sli e Dual Gpu le metto sullo stesso piano e preferisco una Dual Core
Avere due schede distinte e avere una scheda con due gpu e il doppio della ram ti viene a costare più o meno uguale (il prezzo delle schede è molto elevato per via della ram, una gpu ad un costruttore non costa tantissimo in rapporto a ciò che paghi tu una scheda completa), perchè appunto duplichi le due cosa che costano di più su un pcb (ram e gpu). Devi anche raddoppiare più o meno la circuiteria, e studiare un bus in mezzo che non sia un collo di bottiglia. Quindi più o meno siamo lì come costi.
Tutte le GPU attuali sono dual-quad core...quando si disabilita un quad pipe (su 16 pipe totali) si disabilita uno pseudo core su quattro...
Aumentare ancora di più i transistor di una GPU è più pericoloso che costruire due core distinti :
La resa di GPU funzionanti perfettamente , con (x es.) 200 milioni di transistor è la metà di (x es.) una , costruita con 100 milioni di transistor.... (Senza tenere conto del problema temp.)
Infatti questo è uno dei motivi x cui XGI ha costruito una scheda Dual gpu (da 8 pipe l'una) piuttosto che una GPU con 16 pipe...viste le condizioni finanziarie che ha un Brand appena nato...
Dire quindi che la strada verso l'aumento di prestazioni è indirizzato verso il multi GPU sullo stesso core è corretto , ma il cammino intrapreso verso questo senso è quasi già arrivato al capolinea...
Se pensate che le rese sono già molto basse con una quad-gpu (NV40) fatta da 220ml di tr. a 130nm , pensate ad una eventuale 24-32 pipe a 90nm con pressapoco 350-400 milioni di transistor!!! più aumenta il n° di Tr. più la gpu può contenere transistor difettosi ...con la conseguente diminuzione delle pipe abilitabili...
Quindi , chi può dire oggi con certezza che sia meglio aumentare il n° di trans. o costruire + core separati sulla stessa scheda ???
Ogni soluzione ha pregi e difetti : da una parte Vram condivisa per le pipe di una singola GPU , ma una resa produttiva molto bassa , dall'altra una resa produttiva maggiore ma ram dedicata ad ogni singolo core....
Speriamo solo che il processo a 90 nanometri sia profiquo , altrimenti vai di sli o Rage Max!!!
Ho detto una gpu dual core, è ben diversa da una scheda dual gpu
Infatti se ci badi ho detto che Sli e Dual Gpu le metto sullo stesso piano e preferisco una Dual Core
Avere due schede distinte e avere una scheda con due gpu e il doppio della ram ti viene a costare più o meno uguale (il prezzo delle schede è molto elevato per via della ram, una gpu ad un costruttore non costa tantissimo in rapporto a ciò che paghi tu una scheda completa), perchè appunto duplichi le due cosa che costano di più su un pcb (ram e gpu). Devi anche raddoppiare più o meno la circuiteria, e studiare un bus in mezzo che non sia un collo di bottiglia. Quindi più o meno siamo lì come costi.
perfettamente d'accordo
ma credo che dovremo aspettare ancora parecchio prima di vedere implementata una gpu dual core, mi sbaglierò...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".