View Full Version : NVIDIA pronta ad abbandonare il segmento delle soluzioni chipset?
Redazione di Hardware Upg
08-10-2008, 08:53
Link alla notizia: http://www.hwupgrade.it/news/skmadri/nvidia-pronta-ad-abbandonare-il-segmento-delle-soluzioni-chipset_26758.html
Da alcuni giorni è emersa questa indiscrezione sul futuro di NVIDIA, prontamente smentita dal produttore americano
Click sul link per visualizzare la notizia.
ati tira fuori le unghie e Nvidia si mette a 90 come le temperature delle sue gpu...:muro:
Willy_Pinguino
08-10-2008, 08:56
mai stato un fan di Nvidia, ne come chipset ne come GPU, ma vederla uscire da un mercato come quello chipset sarebbe alquanto triste... meno scelta e + monopolio sarebbero altamente controproducenti per tutti
Sarà felice di sapere questa notizia (se confermata) Apple :asd:
secondo me è un gran dispendio di energie per nvidia competere in quel settore contro amd e intel che producono sia chipset e cpu, meglio che si concentri sulle soluzioni grafiche visto che il settore è sempre più complesso, specialmente ora, considerando gli sforzi di rendere le gpu anche uno strumento per gestire la fisica.
per fortuna che giorni fa si diceva che nvidia avrebbe fatto i chipset per apple, per carità non che sta roba potesse dare tutto sto grande pregio (in pratica voleva dire fare 3 chipset in croce), ma tutti ad acclamare... Oggi si parla che potrebbe pure lasciare!
Infatti quasi la metà dei licenziamenti appena fatti in casa Nvidia, erano tutti del settore R&D dei chipset!
DanieleG
08-10-2008, 09:23
Ma magari...
JohnPetrucci
08-10-2008, 09:24
ati tira fuori le unghie e Nvidia si mette a 90 come le temperature delle sue gpu...:muro:
Al solito disinformazione.....:doh:
Fai un confronto tra le temperature di una 4870 vs gtx260 e gtx 280 con le impostazioni di fabbrica e poi vediamo chi si mette a 90......
Dimenticavo informati anche su chi si mette a 90 dopo aver variato le velocità della ventola e chi si mette a 90 sulla qualità dei dissipatori delle proprie vga.
Visto la fine che ha fatto fare ad Uli che produceva ottimi chipset nVidia se lo merita..
Ha sempre attuato la politica del "Se non posso battere l'avversario sul fronte qualità lo compero e lo faccio chiudere".
Ora nVidia non può acquisire ne Intel ne tantomeno AMD..
Mercuri0
08-10-2008, 09:39
mai stato un fan di Nvidia, ne come chipset ne come GPU, ma vederla uscire da un mercato come quello chipset sarebbe alquanto triste... meno scelta e + monopolio sarebbero altamente controproducenti per tutti
Il fatto è che AMD & lntel hanno sostanzialmente deciso di estromettere nVidia dai chipset per le loro piattaforme, e nVidia può farci ben poco.
In ogni caso, il trend sarebbe stato comunque quello di integrare tutto nella CPU. Entro i prossimi due anni il northbridge sparirà completamente dai desktop di massa e dai portatili.
Infatti il controller di memoria, il controller PciExpress, e l'eventuale GPU integrata finiranno tutti nella scatola della CPU, sia da parte AMD che lntel.
Rimarranno fuori giusto le periferiche (scheda audio integrata, controller dischi, controller USB, controller periferiche legacy).
Visto i rumors che la vedono fornitrice per Apple dubito possa non fare più chipset.
kliffoth
08-10-2008, 09:54
AMD storicamente ebbe sempre problemi con i chipset (principalmente ritardi), fino a quando finalmente inizio' a farseli, e tra l'altro sono eccellenti (peccato per i chip attuali che ci vanno messi)
bonzuccio
08-10-2008, 10:09
Nvidia invece di sparire potrebbbe insaldare una partnership forte per produrre anche lei cpu magari con via
per me, neo azionista nvda è una brutta notizia...:cry:
Ho avuto diversi chipset nvidia e anche diversi problemi.
Quando ho capito che ero troppo vecchio per aggiornare i driver e i bios ogni 24 ore li ho abbandonati.
In un angolo mi guarda cupa una Asus a8n-sli deluxe...è l'ultima che ho avuto.
Intel, che attualmente domina, si è mangiata tutto.
Lo sli poi è stata una epopea farglielo svincolare, hanno accettato perchè con l'acqua alla gola e si sono inventati questo altro chip da mettere sulle schede madri intel che ne aumenta ulteriormente il prezzo (mentre il crossfire è utilizzabile da una vita senza chip aggiuntivi ma solo via driver).
Non credo non faranno più chipset, però abbasseranno la cresta di molto.
E non parlo dei prezzi che mi viene da piangere...una scheda madre con chipset nvidia costa mediamente 100 euro in più per stare alla pari del top intel (che anche loro sono buoni a fare chipset che aumentano capacità dell'1% ogni 3 mesi).
Vedremo cosa si inventeranno, nel frattempo la loro politica non ha pagato.
gianni1879
08-10-2008, 10:25
Nvidia invece di sparire potrebbbe insaldare una partnership forte per produrre anche lei cpu magari con via
la vedo difficile come cosa, cmq mi dispiace io ho avuto diversi chipset Nvidia dai tempi dell'Nforce, e l'utimo è stato il 4 su DFI ultra-d..... che bei tempi....
ora però preferisco di gran lunga i chipset Intel per piattaforma intel
Prima di tutto facciamo qualche considerazione.
La qualità di Nvidia da un pezzo a questa parte è andata calando in tutto VGA comprese che per quanto possa essere daccordo che i dissipatori di ATI non siano performanti... un dissipatore puoi sismpre sostituirlo mentre una scheda non all'altezza rimane quello che è!
I chipset di Nvidia han avuto più problemi che santi in paradiso.... che ci vuol coraggio a dire alla gente che ogni 3 mesi c'è da aggiornare il bios per risolvere un bug o chissà cosa.
Inoltre Nvidia voleva palesemente vista la posizione che aveva sul mercato spostare la massa gamer a chipset Nvidia non permettendo lo SLI altrove e ha ottenuto esattamente l'effetto contrario.
Insomma in definitiva mi sembra uno società totalmente allo sbando e con prodotti oggi come oggi totalmente fuori mercato. Senza contare che trovo veramente VERGOGNOSO il tentativo di rivendere roba vecchia rinominando continuamente o apportando modifiche infinetesimali e vendendo per schede nuove.
johnp83 sei molto disinformato. Su nvidia pende una class action per i difetti ai chip grafici su notebook e schede.
E i chipset nvidia dell'ultime generazioni sono un completo fallimento rispetto a quelli intel.
Sto aspettando il botto !
Mercuri0
08-10-2008, 11:03
Non posso che :sbonk: :sbonk: :sbonk: quando parli di società allo sbando e completamente fuori mercato.
Siete tutti analisti di marketing o cosa?! :mbe: :rolleyes:
Predirre scenari apocalittici per questa o quell'azienda è uno sport abbastanza diffuso su internet. :D
Del resto lo sanno tutti che quest'anno, con l'ospizio che si ritrova come rosa, il Milan di sicuro finisce in serie B!
JohnPetrucci
08-10-2008, 11:07
Prima di tutto facciamo qualche considerazione.
La qualità di Nvidia da un pezzo a questa parte è andata calando in tutto VGA comprese che per quanto possa essere daccordo che i dissipatori di ATI non siano performanti... un dissipatore puoi sismpre sostituirlo mentre una scheda non all'altezza rimane quello che è!
I chipset di Nvidia han avuto più problemi che santi in paradiso.... che ci vuol coraggio a dire alla gente che ogni 3 mesi c'è da aggiornare il bios per risolvere un bug o chissà cosa.
Inoltre Nvidia voleva palesemente vista la posizione che aveva sul mercato spostare la massa gamer a chipset Nvidia non permettendo lo SLI altrove e ha ottenuto esattamente l'effetto contrario.
Insomma in definitiva mi sembra uno società totalmente allo sbando e con prodotti oggi come oggi totalmente fuori mercato. Senza contare che trovo veramente VERGOGNOSO il tentativo di rivendere roba vecchia rinominando continuamente o apportando modifiche infinetesimali e vendendo per schede nuove.
Siamo alla follia pura!:doh:
La qualità Nvidia calata in tutto è farina del tuo sacco non certo realtà.
Le schede non all'altezza........altra farina del tuo sacco magari reale quanto un film su matrix.....
Sui chipset nvidia, sullo SLI e sulla roba vecchia rinonimata sei un pò più informato ma spari sentenze denigratorie in tono con il tuo metro disinformativo.
Società totalmente allo sbando con prodotti fuori mercato?
Ma che programmi tv vedi di solito, quelli in stile Maria De Filippi?
Altrimenti non risco a spiegarmi quale tipo di stupefacente mediatico tu sia abituato a sorbirti per arrivare a scrivere e sostenere simili scempi visionari.:rolleyes:
Non posso che :sbonk: :sbonk: :sbonk: quando parli di società allo sbando e completamente fuori mercato.
Parlare in toni assolutistici non ha senso, basta che una società qualsiasi ormai licenzi una persona e si parla di fallimento in vista.
Però negare che Nvidia abbia un buco grosso come una casa non è difficile sostenerlo ed è tempo che lo dico (da quando AMD ha comprato ATI). Lasciando perdere la qualità dei prodotti, test e non test che ci si infila in un tunnel da cui è impossibile uscire, il mercato ad oggi è questo:
- Nvidia dal canto suo è specializzata in chipset e gpu e fa buoni e ottimi prodotti in entrambi i campi
- Intel fa cpu, chipset e gpu, prodotti molto buoni anche come rapporto prezzo prestazioni (cpu)
- Amd fa cpu, chipset e gpu, le prime attualmente un pò mediocri ma sul resto direi che non c'è nulla da dire.
Ora se la differenza tra le tre non balza subito all'occhio, Nvidia ha un buco che si chiama CPU. Se il mercato, come sembra, va verso l'integrazione di cpu e gpu nello stesso core fisico, di fatto Nvidia è tagliata fuori.
Cosa ci riserva il futuro francamente non lo posso sapere ma viste le premesse una piccola previsione non si fa fatica a farla ;)
Ti tornano i conti? Ah, non sono un analista di mercato.
JohnPetrucci
08-10-2008, 11:12
johnp83 sei molto disinformato. Su nvidia pende una class action per i difetti ai chip grafici su notebook e schede.
E i chipset nvidia dell'ultime generazioni sono un completo fallimento rispetto a quelli intel.
Magari siamo meglio informati di quanto pensi ma non per questo consideriamo Nvidia allo sbando o sull'orlo della catastrofe!
Ne tantomeno con prodotti fuori mercato!
Ce ne passa di differenza non credi?
O vogliamo fare un paragone con la situazione attuale in campo cpu di Amd, che se dovessimo paragonarla alla situazione attuale di Nvidia, sarebbe già morta e sepolta visti i giudizi obbiettivi letti qui.......
A proposito prima di questa serie 4800, Ati come stava messa?
Ti sembra abbia chiuso bottega o sia allo sbando visto il suo recente passato?:rolleyes:
Almeno Nvidia è tutt'ora competitiva, cosa che Ati non è riuscita a fare per 2 anni di seguito, eppure incredibile, non è fallita!:doh:
JohnPetrucci
08-10-2008, 11:16
lascia perdere john (che bello abbiamo quasi lo stesso nick :D ),
è gente che non potrà mai risponderti... fanno la loro sparata e poi spariscono.
poveri. :)
Nick d'autore per chi come noi non spara sentenze da tifo ed apprezza anche i grandi musicisti!:D
JohnPetrucci
08-10-2008, 11:20
Parlare in toni assolutistici non ha senso, basta che una società qualsiasi ormai licenzi una persona e si parla di fallimento in vista.
Però negare che Nvidia abbia un buco grosso come una casa non è difficile sostenerlo ed è tempo che lo dico (da quando AMD ha comprato ATI). Lasciando perdere la qualità dei prodotti, test e non test che ci si infila in un tunnel da cui è impossibile uscire, il mercato ad oggi è questo:
- Nvidia dal canto suo è specializzata in chipset e gpu e fa buoni e ottimi prodotti in entrambi i campi
- Intel fa cpu, chipset e gpu, prodotti molto buoni anche come rapporto prezzo prestazioni (cpu)
- Amd fa cpu, chipset e gpu, le prime attualmente un pò mediocri ma sul resto direi che non c'è nulla da dire.
Ora se la differenza tra le tre non balza subito all'occhio, Nvidia ha un buco che si chiama CPU. Se il mercato, come sembra, va verso l'integrazione di cpu e gpu nello stesso core fisico, di fatto Nvidia è tagliata fuori.
Cosa ci riserva il futuro francamente non lo posso sapere ma viste le premesse una piccola previsione non si fa fatica a farla ;)
Ti tornano i conti? Ah, non sono un analista di mercato.
Questo già è un ragionamento serio ed obbiettivo sul quale concordo in pieno, per il futuro Nvidia rischia, ma la situazione attuale va commentata con criterio, come abbiamo cercato di fare capire a qualche fanboy.
ce ne sarebbe da dire sui chipset AMD e sulle gpu Intel (quali sarebbero?!)... ma lasciamo perdere, non è il caso.
No no, non lasciamo perdere :)
Se invece vuoi glissare sull'argomento ben venga ma che Intel detenga la maggior quota di mercato con le sue gpu non è fatto che si possa lasciar perdere. Ripeto non sto parlando di prestazioni (ma vedo che è una cosa un pò difficile per certa gente da capire che scheda più veloce non significa automaticamente migliore o più venduta :)).
Che il mercato vada verso una fusione cpu\gpu può essere un'interpretazione... di sicuro nVidia non ha mai fatto intendere di essere favorevole all'argomento (vuoi perchè appunto non ha un settore di R&D cpu, vuoi perchè magari ha mire diverse)...
Se rido ti offendi? ;)
Se 2 aziende su 3 vanno in quella direzione direi che più che un'interpretazione è un dato di fatto. Il memory controller nella cpu c'è già finito (e la prima a proporlo chi è stata?) quindi se vuoi dire che è un'intepretazione fai pure...
Se Nvidia non ha mai fatto intendere di essere favorevole è solo perchè non produce cpu (le mire diverse, perdonami, se i due produttori maggiori di cpu integreranno le gpu all'interno dei loro processori, che mercato vedi per le gpu discrete? Quello di fascia alta e altissima... ma perdonami AMD ha una sezione in salute che lo fa e quindi Nvidia non è l'unica sul mercato. Interpretazione anche questa? ;)) altrimenti lo avrebbe fatto visto che il mercato va di là.
fattostà che visto che parliamo sempre di argomenti NON tangibili e quindi di ipotesi più o meno verosimili... può essere anche avvalorata la tesi secondo cui in futuro basteranno cpu di fascia bassa per far girare tutto... mentre si andrà verso un utilizzo maggiore della gpu.
Argomenti non tangibili perchè vuoi non guardarti intorno ;)
Magari come dici tu basteranno cpu di fascia bassa per far girare i giochi, tutto perchè si utilizzerà di più la gpu. Ma questo cosa ha a che fare con il fatto che il mercato vada verso l'integrazione? Come ci puoi mettere una gpu Nvidia lo puoi fare mettendoci una gpu Ati oppure ti eri dimenticato di questa società di 3 semplici letterine? ;)
sono solo pdv... tutti rispettabili per altro. Ma da qui a fare previsioni con anche un solo barlume di certezza... ce ne passa.
Direi il contrario, non sono punti di vista ma punti certi, poi che a te le previsioni da me fatte facciano temere per le sorti di Nvidia, non è affar mio :)
bonzuccio
08-10-2008, 11:32
Ma kkepppalle
chi si è fatto una Nvidia gtx 280 power amp al quadrato oc stia tranquillo ha fatto un ottimo acquisto,
inutile nascondere le difficoltà Nvidia sia nel breve (gpu che duravano poco ricamuffate con altre sigle e che hanno determinato perdite azionarie ben prima degli ultimi crack) sia nel lungo periodo (problema competitivo con gli altri colossi che fanno piattaforme e non solo gpu) e specie di questi tempi
poi metterci AMD-ATI in mezzo non ha senso
visto che ci sono altre news che parlano di riassetti per me promettenti (tanto da far scandalizzare Intel)
e visto che AMD coi processori (e sopratutto piattaforme) sta messa un tantino meglio proprio perchè nvidia non li produce e l'uscita del Deneb promette non bene ma benissimo anche in ambito desktop.
Chi resta indietro e perde le occasioni per rialzarsi è fuori
Phantom II
08-10-2008, 12:16
Ho avuto a che fare in diverse occasioni con i chipset nVidia (piattaforma AMD) e ho sempre avuto ottime esperienze. Spero che riesca a ri-collocarsi senza sparire, sarebbe un peccato.
johnp83 sei molto disinformato. Su nvidia pende una class action per i difetti ai chip grafici su notebook e schede.
E i chipset nvidia dell'ultime generazioni sono un completo fallimento rispetto a quelli intel.
Il disinformato sei tu!
La class action a cui fai riferimento riguarda gli azionisti non i consumatori, nello specifico chiede un risarcimento per il presunto ritardo con cui gli stessi sarebbero stati informati dell'esistenza di problemi di alcune GPU abbinate al design di alcuni notebook
goldorak
08-10-2008, 12:36
Ho avuto a che fare in diverse occasioni con i chipset nVidia (piattaforma AMD) e ho sempre avuto ottime esperienze. Spero che riesca a ri-collocarsi senza sparire, sarebbe un peccato.
Ricollocare ? E dove di grazia ? :stordita:
L'unico buco dove la Nvidia ha ancora qualche possibilita' di introfulare i suoi chipset e' sulla piattaforma Via.
Ma ATI/AMD e Intel nel giro di 2 anni max chiuderanno definitivamente la porta a Nvidia. Questi sono fatti, non interpretazioni, illazioni o quant'altro.
E in tutto questo discorso ancora non e' entrato Larrabee sia in versione discreta che integrata. A quel punto le sorti di Nvidia saranno gia' state fatte. O si crea una sua piattaforma x86 (tramite Via) al pari di AMD/Intel oppure e' destinata all'obblio.
CoolBits
08-10-2008, 12:43
Parlare in toni assolutistici non ha senso, basta che una società qualsiasi ormai licenzi una persona e si parla di fallimento in vista.
Però negare che Nvidia abbia un buco grosso come una casa non è difficile sostenerlo ed è tempo che lo dico (da quando AMD ha comprato ATI). Lasciando perdere la qualità dei prodotti, test e non test che ci si infila in un tunnel da cui è impossibile uscire, il mercato ad oggi è questo:
- Nvidia dal canto suo è specializzata in chipset e gpu e fa buoni e ottimi prodotti in entrambi i campi
- Intel fa cpu, chipset e gpu, prodotti molto buoni anche come rapporto prezzo prestazioni (cpu)
- Amd fa cpu, chipset e gpu, le prime attualmente un pò mediocri ma sul resto direi che non c'è nulla da dire.
Ora se la differenza tra le tre non balza subito all'occhio, Nvidia ha un buco che si chiama CPU. Se il mercato, come sembra, va verso l'integrazione di cpu e gpu nello stesso core fisico, di fatto Nvidia è tagliata fuori.
Cosa ci riserva il futuro francamente non lo posso sapere ma viste le premesse una piccola previsione non si fa fatica a farla ;)
Ti tornano i conti? Ah, non sono un analista di mercato.
Concordo (magari sui chipset AMD\ATI ci sarebbe da dire :D )...Nvidia è schiacciata fra Intel e AMD, il futuro non è roseo o si ricolloca sul mercato o trova il modo per creare una piattaforma completa
salvatore88
08-10-2008, 12:47
vero, quoto willy, se esce nvidia ci sarà + monopolio e quini addio concorrenza, ergo: prezzi + alti x noi, speriamo proprio di no
Visto la fine che ha fatto fare ad Uli che produceva ottimi chipset nVidia se lo merita..
Ha sempre attuato la politica del "Se non posso battere l'avversario sul fronte qualità lo compero e lo faccio chiudere".
Ora nVidia non può acquisire ne Intel ne tantomeno AMD..
Forse ti confondi con microsoft:D :D :D ...
Uli è stata incorporata nel core assets NVIDIA
Ricollocare ? E dove di grazia ? :stordita:
L'unico buco dove la Nvidia ha ancora qualche possibilita' di introfulare i suoi chipset e' sulla piattaforma Via.
Ma ATI/AMD e Intel nel giro di 2 anni max chiuderanno definitivamente la porta a Nvidia. Questi sono fatti, non interpretazioni, illazioni o quant'altro.
E in tutto questo discorso ancora non e' entrato Larrabee sia in versione discreta che integrata. A quel punto le sorti di Nvidia saranno gia' state fatte. O si crea una sua piattaforma x86 (tramite Via) al pari di AMD/Intel oppure e' destinata all'obblio.
Anch'io la vedo molto dura. Alla fine magari si specializzerà ancora più nel settore vga discrete, lasciando sempre più spazio alle antagoniste. Alla lunga però si sparisce dal mercato.
Fra l'altro se continua così, con il trend degli ultimi mesi, chiuderà bottega. Stasera vi spiego meglio il mio punto di vista.
Prima di tutto facciamo qualche considerazione.
La qualità di Nvidia da un pezzo a questa parte è andata calando in tutto VGA comprese che per quanto possa essere daccordo che i dissipatori di ATI non siano performanti... un dissipatore puoi sismpre sostituirlo mentre una scheda non all'altezza rimane quello che è!
I chipset di Nvidia han avuto più problemi che santi in paradiso.... che ci vuol coraggio a dire alla gente che ogni 3 mesi c'è da aggiornare il bios per risolvere un bug o chissà cosa.
Inoltre Nvidia voleva palesemente vista la posizione che aveva sul mercato spostare la massa gamer a chipset Nvidia non permettendo lo SLI altrove e ha ottenuto esattamente l'effetto contrario.
Insomma in definitiva mi sembra uno società totalmente allo sbando e con prodotti oggi come oggi totalmente fuori mercato. Senza contare che trovo veramente VERGOGNOSO il tentativo di rivendere roba vecchia rinominando continuamente o apportando modifiche infinetesimali e vendendo per schede nuove.
No no, aspetta, parliamoci chiaro, se ti riferisci alla qualità costruttiva delle VGA ti consiglio di metterti gli occhiali, tra la qualità costruttiva (layout, componenti, dissipatore, materiali) di NVIDIA e quella di AMD corre la stessa differenza tra un orologio rolex e quello che compri dal venditore ambulante incontrato per strada.
Ma poi che razza di discorsi sono "un dissipatore puoi sismpre sostituirlo", compreresti un auto nuova con un radiatore grande come un cellulare o magari con le ruote ovali pensando "posso sempre cambiarlo/le"?
MarK_kKk
08-10-2008, 13:13
Eheheh, scusate, nn me ne vogliano i possessori di skede video ATI, ma devo lanciare una freccitina ai fanboy: se nVidia esce dal mercato ci dovremmo rassegnare a poter giocare decentemente ogni 2 anni e a prezzi inarrivabili.
Preferirei vedere ancora un po' di sana concorrenza tra ATI e nVidia x il mercato di fascia media e alta.
Poi per il mercato di fascia entry level nn me ne frega nulla: per un pc uso ufficio basta e avanza la super-skifo-vga integrata. Questo intel l'ha capito bene.
yossarian
08-10-2008, 13:28
ce ne sarebbe da dire sui chipset AMD e sulle gpu Intel (quali sarebbero?!)... ma lasciamo perdere, non è il caso.
Che il mercato vada verso una fusione cpu\gpu può essere un'interpretazione... di sicuro nVidia non ha mai fatto intendere di essere favorevole all'argomento (vuoi perchè appunto non ha un settore di R&D cpu, vuoi perchè magari ha mire diverse)...
fattostà che visto che parliamo sempre di argomenti NON tangibili e quindi di ipotesi più o meno verosimili... può essere anche avvalorata la tesi secondo cui in futuro basteranno cpu di fascia bassa per far girare tutto... mentre si andrà verso un utilizzo maggiore della gpu.
sono solo pdv... tutti rispettabili per altro. Ma da qui a fare previsioni con anche un solo barlume di certezza... ce ne passa.
che nVIDIA sia o meno favorevole all'argomento è un aspetto del tutto secondario, soprattutto se dall'altra parte hai Intel, AMD e microsoft.
Parliamo di argomenti tangibili:
1) Intel sta investendo svariati miliardi nel progetto larrabee che è, di fatto, un ibrido tra una cpu ed una gpu. Si tratta, formalmente, di una gpu multicore programmabile con codice x86, votata al gpgpu.
2) fusion è solo il primo passo verso la creazione di sistemi integrati e sia Intel che AMD sono perfettamente autosufficienti, mantre nVIDIA non lo è
3) la dx11 spingeranno ancora di più verso il gpgpu computing; il che significa che ci si avvia alla convergenza anche dal lato gpu e nVIDIA pare adeguarsi a questo trend, come sembrerebbe dimostrare CUDA che altro non è che un tentativo di forzare la mano verso il gpgpu computing seguendo una direzione più congeniale a nVIDIA stessa attraverso l'adozione di uno standard di tipo proprietario (che poi pproprio proprietario non è).
4) le dx11 spingeranno ancora di più all'adozione di tecniche e algoritmi che sgravano la cpu da buona parte del carico di lavoro (HW tessellation, per dirne una, unita, ad esempio, a texture array e cubemap array, rispettivamente dx10 e dx10.1). Carichi di lavoro che si dovrà addossare la gpu che, a quel punto, difficilmente potrà occuparsi di elaborazioni relative alla fisica. Questo significa che, in un'ottica di integrazione tra cpu e gpu, la prima potrebbe limitarsi a gestire l'IA e la fisica (compito non particolarmente pesante per cpu multicore) e la seconda tutto il resto. L'alternativa sarebbe una cpu per l'IA, una gpu per la grafica ed un'altra per la fisica (sicuramente meglio per il frame rate, un po' meno per il portafoglio). Questo potrebbe frustrare il tentativo di nVIDIA di imporre physx come standard per le elaborazioni fisiche.
In quest'ottica, l'impossibilità di nVIDIA di avere una porpria cpu rappresenta un handicap non da poco. E se dovesse abbandonare anche il settore chipset, questo starebbe a significare che sarebbe definitivamente tagliata fuori da qualunque altro mercato che non sia quello delle vga discrete (motivo per cui non credo che abbandonerà tanto facilmente la produzione dei chipset a meno che non ci sia costretta).
Veniamo al settore vga. L'attuale GT2x0 è un ottimo prodotto ma ha un enorme difetto: costa troppo. Inoltre nVIDIA è indietro di un processo produttivo e rischia di portarsi dietro questo ritardo anche nella transizione a 40 nm. L'attuale architettura ha uno shader core molto efficiente ma porta a produrre chip sempre più grandi, costosi e con basse rese produttive (è sufficiente vedere il trend dei die size delle gpu nVIDIA da NV40 in poi).
Questo è un altro aspetto che sta pesando non poco sull'attuale situazione economica della società.
goldorak
08-10-2008, 13:47
Eheheh, scusate, nn me ne vogliano i possessori di skede video ATI, ma devo lanciare una freccitina ai fanboy: se nVidia esce dal mercato ci dovremmo rassegnare a poter giocare decentemente ogni 2 anni e a prezzi inarrivabili.
Preferirei vedere ancora un po' di sana concorrenza tra ATI e nVidia x il mercato di fascia media e alta.
Poi per il mercato di fascia entry level nn me ne frega nulla: per un pc uso ufficio basta e avanza la super-skifo-vga integrata. Questo intel l'ha capito bene.
Guarda che qui i fanboy non centrano proprio.
Devi lamentarti con Nvidia che a cause delle sue strategie miopi si trova alle strette. Questa storia della piattaforma integrata data da anni. Non e' roba nuova. AMD si e' mossa in quella direzione (pagando un prezzo salatissimo nel breve-medio periodo), Intel viene presa in giro continuamente a causa del progetto Larrabee mentre Nvidia naviga tranquillamente vendendo chipset e schede grafiche. Il mercato non punta dove va Nvidia, e se non si riprende facendo scelte strategiche lungimiranti non sopravvivera', perlomeno nel mercato di massa. La sua idea di fare una piattaforma di computing basata esclusivamente su gpu non sta ne' in cielo ne' in terra. Non nel mercato di massa almeno. Quindi potrebbe sopravvivere ma si ridurrebbe ad un mercato di nicchia.
Ripeto, qui la colpa e' di Nvidia eh, ATI o Intel non centrano proprio.
yossarian
08-10-2008, 13:55
Guarda che qui i fanboy non centrano proprio.
Devi lamentarti con Nvidia che a cause delle sue strategie miopi si trova alle strette. Questa storia della piattaforma integrata data da anni. Non e' roba nuova. AMD si e' mossa in quella direzione (pagando un prezzo salatissimo nel breve-medio periodo), Intel viene presa in giro continuamente a causa del progetto Larrabee mentre Nvidia naviga tranquillamente vendendo chipset e schede grafiche. Il mercato non punta dove va Nvidia, e se non si riprende facendo scelte strategiche lungimiranti non sopravvivera', perlomeno nel mercato di massa. La sua idea di fare una piattaforma di computing basata esclusivamente su gpu non sta ne' in cielo ne' in terra. Non nel mercato di massa almeno. Quindi potrebbe sopravvivere ma si ridurrebbe ad un mercato di nicchia.
Ripeto, qui la colpa e' di Nvidia eh, ATI o Intel non centrano proprio.
in realtà il gpgpu computing non è neppure un'esclusiva di nVIDIA: ATi lo ha iniziato a fare dalla serie 5x0 e Intel sta per iniziare a farlo con larrabee. Quindi anche in quel settore avrebbe una concorrenza molto agguerrita e non è affatto scontato che riesca ad imporre i suoi standard (anzi è alquanto improbabile). Inoltre, al momento, le gpu sono ancora troppo poco gp e neppure interamente programmabili per pensare ad una piattaforma basata solo sull'uso di gpu
No no, aspetta, parliamoci chiaro, se ti riferisci alla qualità costruttiva delle VGA ti consiglio di metterti gli occhiali, tra la qualità costruttiva (layout, componenti, dissipatore, materiali) di NVIDIA e quella di AMD corre la stessa differenza tra un orologio rolex e quello che compri dal venditore ambulante incontrato per strada.
Ma poi che razza di discorsi sono "un dissipatore puoi sismpre sostituirlo", compreresti un auto nuova con un radiatore grande come un cellulare o magari con le ruote ovali pensando "posso sempre cambiarlo/le"?
hahaha, che ridere eccolo li un altro fan boy:D
heeeee...ora subirai una verità sconcerante...i chip nvidia e ati vengono dalla stessa fonderia!!! OPS, non dovevo dirlo!
Il pcb e la circuiteria sono la stessa componentistica cinese uguae per tutti...che ingenuo...che credi che se avesse potuto adottare componenti meno costose per essere presa meno a calci nelle balle sul rapporto prezzo prestazioni non l'avrebbe fatto?
Visto che sta vendendo così tante 260 e 280 dopotutto non ce ne bisoogno...no...
PS, lascia perdere i dissi che i smontano anche li...la (grandssima) 8800gt faceva 90 gradi a NOVEMBRE!!!!!!!!!!!!!!!!!!!!!!NOVEMBRE! non a luglio come le 4870...
Phantom II
08-10-2008, 14:07
Ricollocare ? E dove di grazia ? :stordita:
L'unico buco dove la Nvidia ha ancora qualche possibilita' di introfulare i suoi chipset e' sulla piattaforma Via.
Ma ATI/AMD e Intel nel giro di 2 anni max chiuderanno definitivamente la porta a Nvidia. Questi sono fatti, non interpretazioni, illazioni o quant'altro.
E in tutto questo discorso ancora non e' entrato Larrabee sia in versione discreta che integrata. A quel punto le sorti di Nvidia saranno gia' state fatte. O si crea una sua piattaforma x86 (tramite Via) al pari di AMD/Intel oppure e' destinata all'obblio.
Nella news si menziona il debutto di prodotti che dovrebbero competere con gli Intel dotati di grafica integrata. E' a questa fascia di mercato che facevo riferimento e nella quale nVidia potrebbe avere ancora qualcosa da dire.
dopo aver venduto lo sli a intel nvidia se ne frega dei chipset, venderà ancora più vga
goldorak
08-10-2008, 14:16
Nella news si menziona il debutto di prodotti che dovrebbero competere con gli Intel dotati di grafica integrata. E' a questa fascia di mercato che facevo riferimento e nella quale nVidia potrebbe avere ancora qualcosa da dire.
Il problema pero' si manifesta lo stesso.
Nel momento in cui sia Intel che AMD cominceranno a proporre cpu con gpu integrata nello stesso package, fai addio con la manina ai chipset Nvidia.
Gli OEM non pagano 2 volta per la stessa funzionalita' (grafica integrata nel package della cpu) e grafica integrata nel chipset.
goldorak
08-10-2008, 14:19
dopo aver venduto lo sli a intel nvidia se ne frega dei chipset, venderà ancora più vga
E strano come la sopravvivenza delle aziende che vendono schede grafiche (discrete o integrate) si basa quasi esclusivamente sui prodott di fascia bassa/ medio bassa. Questo vale per intel, amd e nvidia.
Se Nvidia dovesse convertirsi come produttore esclusivo di gpu high end = morte di Nvidia.
JohnPetrucci
08-10-2008, 14:21
PS, lascia perdere i dissi che i smontano anche li...la (grandssima) 8800gt faceva 90 gradi a NOVEMBRE!!!!!!!!!!!!!!!!!!!!!!NOVEMBRE! non a luglio come le 4870...
Una piccola ma importante osservazione, la 4870 ha un dissipatore a doppio slot, la 8800gt single slot, forse sarebbe meglio paragonare quest'ultima alla 4850, ovviamente intendo dissipatori reference, e allora il discorso cambia, non credi?
hahaha, che ridere eccolo li un altro fan boy:D
heeeee...ora subirai una verità sconcerante...i chip nvidia e ati vengono dalla stessa fonderia!!! OPS, non dovevo dirlo!
Il pcb e la circuiteria sono la stessa componentistica cinese uguae per tutti...che ingenuo...che credi che se avesse potuto adottare componenti meno costose per essere presa meno a calci nelle balle sul rapporto prezzo prestazioni non l'avrebbe fatto?
Visto che sta vendendo così tante 260 e 280 dopotutto non ce ne bisoogno...no...
PS, lascia perdere i dissi che i smontano anche li...la (grandssima) 8800gt faceva 90 gradi a NOVEMBRE!!!!!!!!!!!!!!!!!!!!!!NOVEMBRE! non a luglio come le 4870...
Prima di tutto datti una calmata.........fatto?
So benissimo in quali fonderie vengono prodotti i chip di Ati e NVIDIA (TSMC e UMC) quindi non fare lo spaccone dato che io non ho nemmeno menzionato i chip delle due compagnie.
La componentistica usata non è la stessa, non è tutta cinese (ad esempio condensatori giapponesi su gtx 200) e anche il PCB non ha la stessa complessità, prendi due schede e confrontale poi mi dirai.
Bada bene, non intendevo dire che le schede AMD sono qualitativamente scadenti ma solo che adottano componenti e costruzione più economici (non scadenti).
diabolik1981
08-10-2008, 14:23
Sarà felice di sapere questa notizia (se confermata) Apple :asd:
è quello che ho pensato anche io.
Questa storia non la vedo chiara... si tira il sasso e poi si nasconde la mano, non credete?
Nvidia non ha tutta questa simpatia per intel ultimamente... La cosa che mi viene da pensare e che mi fa ridere infinitamente è:
Provate a immaginare se nasce qualcosa tra AMD/ATI e Nvidia!?!
...quello che ho appena detto è assolutamente fantasia... ma immaginate una cosa del genere...
Come andrebbero le cose a casa Intel?
Un ultima cosa che ho notato oggi leggendo...
Windows 7 (w7)...
...i7 (Intel 7???)....
...ma è coincidenza????? o.O!
Immagino pura casualità...
Poi ho visto che AMD sta lavorando non tanto alle CPU nel migliorare le prestazioni, ma su quell'appoggio che gli può essere fornito dalle GPU (Tipo CUDA)... AMD spera in un futuro di sistemi con potenza finale dato da + processori.... CPU+GPU... MULTI GPU...
PS.Sono semplicemente delle mie osservazioni, cose che mi passano x la testa tutto qua :)
diabolik1981
08-10-2008, 14:27
Q.E.D.
Lo dico da un paio d'anni che questo sarebbe stato l'effetto finale, e son stato preso per visionario...
lo dicevo anche io, ed era anche una logica conseguenza della fusione ATI-AMD.
Phantom II
08-10-2008, 14:28
Il problema pero' si manifesta lo stesso.
Nel momento in cui sia Intel che AMD cominceranno a proporre cpu con gpu integrata nello stesso package, fai addio con la manina ai chipset Nvidia.
Gli OEM non pagano 2 volta per la stessa funzionalita' (grafica integrata nel package della cpu) e grafica integrata nel chipset.
Io, infatti, non nego l'esistenza del problema, mi limito a fare delle ipotesi nel breve – medio termine, senza considerare che le potenzialità delle soluzioni integrate in un unico chip sono ancora da verificare.
In ogni caso, auspico la sopravvivenza di nVidia, fermo restano che tra un paio d'anni, la situazione economica generale potrebbe aver mandato all'aria da se buona parte del mercato dell'informatica.
diabolik1981
08-10-2008, 14:29
johnp83 sei molto disinformato. Su nvidia pende una class action per i difetti ai chip grafici su notebook e schede.
E i chipset nvidia dell'ultime generazioni sono un completo fallimento rispetto a quelli intel.
era pessimo anche nforce3, che aveva enormi bug e problemi con i relativi infiniti driver.
in realtà il gpgpu computing non è neppure un'esclusiva di nVIDIA: ATi lo ha iniziato a fare dalla serie 5x0 e Intel sta per iniziare a farlo con larrabee. Quindi anche in quel settore avrebbe una concorrenza molto agguerrita e non è affatto scontato che riesca ad imporre i suoi standard (anzi è alquanto improbabile). Inoltre, al momento, le gpu sono ancora troppo poco gp e neppure interamente programmabili per pensare ad una piattaforma basata solo sull'uso di gpu
Già, computing solo su GPU sarebbe controproducente, NVIDIA stessa lo ha ribadito più volte, la CPU resta fondamentale ma il suo ruolo viene ridimensionato.
Ricordo che la prima scheda con cui ho potuto saggiare il gpgpu computing e stata una 6800 Ultra, rimasi particolarmente allibito :eek:
Mercuri0
08-10-2008, 14:36
Fra l'altro se continua così, con il trend degli ultimi mesi, chiuderà bottega. Stasera vi spiego meglio il mio punto di vista.
Raga... a mi sembra che ci siamo fatti prendere un pò la mano. Qua si parla di "possibile uscita dal mercato dei chipset" da qui a "domani nVidia muore" un pò ce ne passa, eh
- Le GPU discrete rimangono importanti nel futuro dei sistemi desktop, [+TDP, + dimensioni = + potenza] e nVidia correttamente sta spingendo per allargarne gli usi al calcolo generico. Chissà cosa saranno le GPU del futuro...
E non è che nVidia pensa di fare "Sistemi di calcolo GPU che vanno anche senza CPU" come dice goldrack, ma semplicemente di vendere add-in, come fa già ora.
- Nel contempo, nVidia sta sfruttando le sue IP sulla grafica per entrare in altri mercati (come con il chip Tegra)
Certo nVidia dovrà lottare con dei competitor che operano da una posizione di forza (in particolare lntel), e ci sarà anche Larrabee a rompere le balls. Può darsi che nVidia sarà costretta a cambiare mercato, a ristrutturarsi, può darsi anche che qualcuno troverà conveniente comprarla (magari lntel, se Larrabee finisce male :D ) ma certo nVidia, e le competenze e capacità che essa racchiude non scompariranno dall'oggi al domani, eh.
Si modificano le esigenze del mercato, e si modificano le aziende di conseguenza, come sempre è accaduto e sempre accadrà.
E poi non scordate che l'anno scorso nVidia era la compagnia più redditizia del settore.
No no, aspetta, parliamoci chiaro, se ti riferisci alla qualità costruttiva delle VGA ti consiglio di metterti gli occhiali, tra la qualità costruttiva (layout, componenti, dissipatore, materiali) di NVIDIA e quella di AMD
Nessuno nei due produce schede video, lo fanno altre aziende che usano i loro chip, solitamente usando un layout "reference" proposto da AMD e nVidia. Ma nessuno obbliga i produttori di schede video ad usare un certo layout, un certo dissipatore, certi componenti e certi materiali...
diabolik1981
08-10-2008, 14:38
Eheheh, scusate, nn me ne vogliano i possessori di skede video ATI, ma devo lanciare una freccitina ai fanboy: se nVidia esce dal mercato ci dovremmo rassegnare a poter giocare decentemente ogni 2 anni e a prezzi inarrivabili.
O forse chi sviluppa game si deciderà ad ottimizzare meglio il software.
yossarian
08-10-2008, 14:39
Già, computing solo su GPU sarebbe controproducente, NVIDIA stessa lo ha ribadito più volte, la CPU resta fondamentale ma il suo ruolo viene ridimensionato.
Ricordo che la prima scheda con cui ho potuto saggiare il gpgpu computing e stata una 6800 Ultra, rimasi particolarmente allibito :eek:
più che controproducente, si può dire che i tempi non siano ancora maturi, poichè le gpu sono ancora troppo "specializzate". In futuro saranno integrate sempre più unità di calcolo e registri che le renderanno più simili alle cpu ma il grosso scoglio che si deve superare è quello relativo al fatto che interi blocchi delle gpu (ad esempio le rop's) fanno ancora uso di fixed function o presentano un bassissimo livello di programmabilità.
nonikname
08-10-2008, 14:42
http://www.pcgameshardware.com/aid,662720/News/Nvidia_denies_rumors_about_dropping_out_of_the_chipset_market/
Nessuno nei due produce schede video, lo fanno altre aziende che usano i loro chip, solitamente usando un layout "reference" proposto da AMD e nVidia. Ma nessuno obbliga i produttori di schede video ad usare un certo layout, un certo dissipatore, certi componenti e certi materiali...
Infatti mi riferivo proprio al reference design delle schede, forse non lo sai ma a volte molte volte le schede di partner diversi (asus, sparcle, msi) che adottano il design reference sono prodotte nello stesse linee dello stesso stabilimento (economia di scala) risultando quindi virtualmente identiche.
Da qui la mia osservazione sulla qualità, logico che non si deve generalizzare troppo, produttori come Gainward ad esempio spendono molto del loro tempo e risorse per la progettazione delle schede, sia AMD che NVIDIA
più che controproducente, si può dire che i tempi non siano ancora maturi, poichè le gpu sono ancora troppo "specializzate". In futuro saranno integrate sempre più unità di calcolo e registri che le renderanno più simili alle cpu ma il grosso scoglio che si deve superare è quello relativo al fatto che interi blocchi delle gpu (ad esempio le rop's) fanno ancora uso di fixed function o presentano un bassissimo livello di programmabilità.
Beh naturalmente, nell'ambiente IT bisogna sempre dire "per ora...."
appleroof
08-10-2008, 15:07
Raga... a mi sembra che ci siamo fatti prendere un pò la mano. Qua si parla di "possibile uscita dal mercato dei chipset" da qui a "domani nVidia muore" un pò ce ne passa, eh
su un forum come questo è normale...basta ricordare le sentenze di morte su Amd, poi è ovvio che gli avvoltoi cominciano a tifare non appena la possibile preda comincia a mostrare segni di debolezza (almeno loro ci mangiano :asd: )
- Le GPU discrete rimangono importanti nel futuro dei sistemi desktop, [+TDP, + dimensioni = + potenza] e nVidia correttamente sta spingendo per allargarne gli usi al calcolo generico. Chissà cosa saranno le GPU del futuro...
E non è che nVidia pensa di fare "Sistemi di calcolo GPU che vanno anche senza CPU" come dice goldrack, ma semplicemente di vendere add-in, come fa già ora.
- Nel contempo, nVidia sta sfruttando le sue IP sulla grafica per entrare in altri mercati (come con il chip Tegra)
Certo nVidia dovrà lottare con dei competitor che operano da una posizione di forza (in particolare lntel), e ci sarà anche Larrabee a rompere le balls. Può darsi che nVidia sarà costretta a cambiare mercato, a ristrutturarsi, può darsi anche che qualcuno troverà conveniente comprarla (magari lntel, se Larrabee finisce male :D ) ma certo nVidia, e le competenze e capacità che essa racchiude non scompariranno dall'oggi al domani, eh.
Si modificano le esigenze del mercato, e si modificano le aziende di conseguenza, come sempre è accaduto e sempre accadrà.
E poi non scordate che l'anno scorso nVidia era la compagnia più redditizia del settore.
Nessuno nei due produce schede video, lo fanno altre aziende che usano i loro chip, solitamente usando un layout "reference" proposto da AMD e nVidia. Ma nessuno obbliga i produttori di schede video ad usare un certo layout, un certo dissipatore, certi componenti e certi materiali...
quoto tutto, proprio l'esempio di Amd (e riorganizzazione profonda) la dice lunga http://www.ilsole24ore.com/art/SoleOnLine4/Finanza%20e%20Mercati/2008/10/amd-scorporo-dubai.shtml?uuid=d8d573a8-9485-11dd-8554-b299b4e00502&DocRulesView=Libero su quanto affermi
yossarian
08-10-2008, 15:24
Beh naturalmente, nell'ambiente IT bisogna sempre dire "per ora...."
beh, larrabee, ad esempio, promette grandi novità proprio nel settore gpgpu.
Forse ti confondi con microsoft:D :D :D ...
Uli è stata incorporata nel core assets NVIDIA
Che è esattamente uguale ad averla fatta chiudere visto che a tutti gli effetti ULi è sparita e con essa i suoi ottimi prodotti.
Che è esattamente uguale ad averla fatta chiudere visto che a tutti gli effetti ULi è sparita e con essa i suoi ottimi prodotti.
Direi proprio di no! dato che sono rimasti know-how, personale, tecnologie e a sparire è stato solo il marchio.
Dissero lo stesso di 3dfx ma le geforce 4 e il primo video processing engine integrato nelle GPU NVIDIA derivavano da tecnologia e tecnici ex3dfx
johnp83 sei molto disinformato. Su nvidia pende una class action per i difetti ai chip grafici su notebook e schede.
E i chipset nvidia dell'ultime generazioni sono un completo fallimento rispetto a quelli intel.
Ah, allora deve essere per questo che Apple ha abbandonato i chipset Intel per quelli Nvidia sui suoi Notebook di fascia media:asd:
Una piccola ma importante osservazione, la 4870 ha un dissipatore a doppio slot, la 8800gt single slot, forse sarebbe meglio paragonare quest'ultima alla 4850, ovviamente intendo dissipatori reference, e allora il discorso cambia, non credi?
appunto...io volevo dire 4850 non 70 ma il succo non cambia, entrambe arriavano a 90° che è tanto, ma la 8800 lo faceva sempre comunque a nevembre dicembre:D :mc:
Prima di tutto datti una calmata.........fatto?
So benissimo in quali fonderie vengono prodotti i chip di Ati e NVIDIA (TSMC e UMC) quindi non fare lo spaccone dato che io non ho nemmeno menzionato i chip delle due compagnie.
La componentistica usata non è la stessa, non è tutta cinese (ad esempio condensatori giapponesi su gtx 200) e anche il PCB non ha la stessa complessità, prendi due schede e confrontale poi mi dirai.
Bada bene, non intendevo dire che le schede AMD sono qualitativamente scadenti ma solo che adottano componenti e costruzione più economici (non scadenti).
Le fonderie non hanno qualità superione o inferione, hanno i loro processi di produzione, che sono unici e stop, ovviamente facevo un esempio.
Visto che però sembra che tu ne sappia abbastanza(dico davvero non ti prendo in giro) spiegami come si possa fare ad occhio nudo a vedere quale pcb è meglio dell'altro anche perchè ho una x1800xt qui in casa, oltre alla 8800gt nel case.(x1800 che tra l'altro dopo 3 anni e più continua a funzionare alla grande)
Visto che, per esempio le schede che ultimamente si rompono sono quelle nvidia...e non quelle ati, che pur adottando componenti di presunta minore qualità e costo (ti do il beneficio del dubbio) ma che a quanto pare vanno benissimo...(vedi cause del tracollo finanziario dell'azienda) come mai la verde brigata per rendere un po più appetibili le sue schede e un po meno fuori mercato non ha adottao questo tipo di componenti? e chi ti dice che non lo stia già facendo?
:D
Aspetto risposta!
Sgt.Pepper89
08-10-2008, 17:07
Al solito disinformazione.....:doh:
Fai un confronto tra le temperature di una 4870 vs gtx260 e gtx 280 con le impostazioni di fabbrica e poi vediamo chi si mette a 90......
Dimenticavo informati anche su chi si mette a 90 dopo aver variato le velocità della ventola e chi si mette a 90 sulla qualità dei dissipatori delle proprie vga.
Disinformazione? Informati tu sui problemi delle schede video per Notebook :rolleyes: ...sembra che tu senta i commenti contro Nvidia come offese personali...
wow... hanno liberato le gabbie dei fanboy?! :asd:
E ne sei uscito tu?
johnp83 sei molto disinformato. Su nvidia pende una class action per i difetti ai chip grafici su notebook e schede.
E i chipset nvidia dell'ultime generazioni sono un completo fallimento rispetto a quelli intel.
;)
ce ne sarebbe da dire sui chipset AMD e sulle gpu Intel (quali sarebbero?!)... ma lasciamo perdere, non è il caso.
Che il mercato vada verso una fusione cpu\gpu può essere un'interpretazione...
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Oddio...Intel è SOLO la maggior produttrice di GPU al mondo, guardacaso...e se non ha il know how che può avere Ati nelle gpu discrete, non gli ci vorrà assolutamente nulla per colmare il divario...basta vedere i bilanci annuali di Intel...ma lasciamo perdere, non è il caso ;)
Sarà, ma non c'è molto da interpretare, i futuri progetti di AMD e Intel puntano a quello, e non sono supposizioni o rumors ma si tratta di piani ben stabiliti e resi noti ufficialmente.
appleroof
08-10-2008, 17:14
Direi proprio di no! dato che sono rimasti know-how, personale, tecnologie e a sparire è stato solo il marchio.
Dissero lo stesso di 3dfx ma le geforce 4 e il primo video processing engine integrato nelle GPU NVIDIA derivavano da tecnologia e tecnici ex3dfx
anche lo sli ;)
Sgt.Pepper non so da dove sia uscito tu... ma le tue risposte non hanno senso, sopratutto perchè quoti una persona (bs82) che è già stata risposta da me ed altri.
meglio leggere tutto il thread prima di postare, no? Si evitana di appesantire la discussione di reply inutili.
Tra l'altro ho mai negato che Intel non sia leader nel mercato delle vga integrate?
Basta leggere qui:
Ma, onestamente, non vedo il legame tra i bilanci annuali di Intel e il gap (che tu consideri azzerabile all'istante... ma che per me non lo è) nel know-how delle conoscenza in ambito gpu-discrete.
Tra l'altro, se ne avesse avuta la possibilità perchè non "acquisire" queste capacità già in passato? Io penso che la cosa non sia così rapida e indolore come tu voglia far credere.
Quoto;)
Sgt.Pepper89
08-10-2008, 17:31
Sgt.Pepper non so da dove sia uscito tu... ma le tue risposte non hanno senso, sopratutto perchè quoti una persona (bs82) che è già stata risposta da me ed altri.
Si ho notato che è già stata risposta, hai ragione, ma resta il fatto che l'azienda che ha dovuto far fronte a grossi problemi per gpu che raggiungevano alte temperature alte è Nvidia; quindi il commento riguardo i 90 gradi per quanto colorito non è altro che una constatazione di una realtà.
Tra l'altro ho mai negato che Intel non sia leader nel mercato delle vga integrate?
Ma, onestamente, non vedo il legame tra i bilanci annuali di Intel e il gap (che tu consideri azzerabile all'istante... ma che per me non lo è) nel know-how delle conoscenza in ambito gpu-discrete.
Tra l'altro, se ne avesse avuta la possibilità perchè non "acquisire" queste capacità già in passato? Io penso che la cosa non sia così rapida e indolore come tu voglia far credere.
Hai detto una bestialità talmente grande che merita benissimo una seconda considerazione.
Io non voglio far credere nulla, sto dicendo che intel ha la possibilità di TORNARE (si, tornare, perchè Intel in passato ha prodotto gpu discrete), e anche competitiva, con il progetto larrabee; questo, con tempi relativamente brevi grazie ai capitali immensi che può investire (sta investendo) che Ati e Nvidia non hanno.
bollicina31
08-10-2008, 18:31
Peccato mi spiace sta cosa, ma ci sono in rete molte voci contradittorie a tal proposito, vedremo tra un 6 mesi se Nvidia sfornerà si o nò una mobo tutta sua...
Le fonderie non hanno qualità superione o inferione, hanno i loro processi di produzione, che sono unici e stop, ovviamente facevo un esempio.
Visto che però sembra che tu ne sappia abbastanza(dico davvero non ti prendo in giro) spiegami come si possa fare ad occhio nudo a vedere quale pcb è meglio dell'altro anche perchè ho una x1800xt qui in casa, oltre alla 8800gt nel case.(x1800 che tra l'altro dopo 3 anni e più continua a funzionare alla grande)
Visto che, per esempio le schede che ultimamente si rompono sono quelle nvidia...e non quelle ati, che pur adottando componenti di presunta minore qualità e costo (ti do il beneficio del dubbio) ma che a quanto pare vanno benissimo...(vedi cause del tracollo finanziario dell'azienda) come mai la verde brigata per rendere un po più appetibili le sue schede e un po meno fuori mercato non ha adottao questo tipo di componenti? e chi ti dice che non lo stia già facendo?
:D
Aspetto risposta!
Ad occhio alcune cose non si possono valutare, come il numero di strati di cui è composto il PCB ad esempio.
Il PCB della serie GTX 200 oltre ad essere più complesso rispetto alla 4870 per via del bus a 512 bit e delle maggiori richieste di alimentazione, adotta un sub strato in rame (che oltre ad essere molto più costoso conduce molto meglio il calore) da entrambi i lati mentre AMD ne adotta uno in alluminio, questo strato che si trova tra la piastra e la vernice protettiva serve a dissipare il calore dal PCB.
Componenti più raffinati non significa necessariamente maggior durata della scheda, che magari è osservabile sul lungo periodo, ma anche, come per i condensatori, maggior stabilità e linearità nell'erogazione sopratutto all'aumentare delle richieste.
Il problema della morte prematura di alcune GPU NVIDIA per notebook non è dovuto alla qualità dei componenti ma all'interazione tra alcuni materiali usati nella costruzione del package.
Perché NVIDIA non adotta componenti più economici per ridurre il prezzo delle sue schede?
La domanda corretta sarebbe: perché i suoi partner non l'hanno già fatto?
Probabilmente perché costerebbe di più modificare le linee di produzione, studiare un nuovo layout, testare i nuovi componenti ecc.
Data l'imminente introduzione di nuovi prodotti cambiare adesso non avrebbe senso e risulterebbe controproducente.
Tra l'altro le schede desktop AMD di alcuni produttori sembrano presentare un tasso di mortalità "anomalo", vedi le recenti dichiarazioni di alienware.
Altro discorso invece è da fare a riguardo del profilo inserito nei driver da AMD che rallenta le schede 4800 quando viene lanciato Furmark, sembra che alcuni consumatori (evidentemente abbastanza da far insospettire i tecnici) abbiano bruciato la GPU (che evidentemente non riesce a ridurre la frequenza) causa inadeguatezza del dissipatore e della gestione della ventola lanciando questo programma, il profilo quindi sembrerebbe stato inserito per scongiurare il danneggiamento di altre GPU.
La cosa non è ancora chiara ma alcune fonti autorevoli (Expreview e altri) mentre recensivano le ultime nate di casa AMD avevano già riscontrato problemi di surriscaldamento che portavano al blocco del sistema ed evidentemente anche a conseguenze ben peggiori.
P.S.
Credo comunque che tu possa stare tranquillo per la tua x1800
yossarian
08-10-2008, 19:34
B) Sappiamo tutti che intel in passato produceva vga discrete... ma una cosa è produrre vga discrete competitive (o quantomeno proporre prodotti per fasce di mercato diverse quali "entry level", "mainstream", "performance" ed "enthusiast") una cosa è produrre vga tipo le vecchie Intel Extreme 740 AGP che tutto erano tranne che vga discrete collocabili oltre la fascia entry-level.
E bada che quella vga nasceva per competere con colossi tipo 3dfx, Ati e Nvidia che già all'epoca (si parla del 1999) erano il top del mercato 3d (quindi, lo ripeto, stiamo parlando di una vga che DOVEVA essere di fascia enthusiast; naturalmente non lo fu... per vari motivi. E da quel momento intel passo a produrre vga integrate nelle mainboard.
Perchè non investire all'epoca, visto il discorso fatto da te? :p
Io dico, anzi ripeto, che la cosa non sarà così semplice come continui ad affermare... vedremo Larrabee, se sarà un successo... tanto di cappello... ma tieni conto che inizialmente Larrabee non sarà un progetto applicabile agli attuali videogiochi 3d.
probabilmente perchè all'epoca le vga si occupavano solo del rendering mentre la cpu faceva tutti i calcoli; magari anche perchè Intel, all'epoca, stava dall'altra parte, ovvero dalla parte di chi cercava di ostacolare il progresso dei chip grafici da semplici adattatori a veri e propri processori.
Ormai, da diverso tempo, i chip grafici sono in fase di evoluzione ed hanno sempre meno bisogno delle cpu. Anzi, da qualche anno, hanno iniziato a coltivare ambizioni di sostituire le cpu alcuni tipi di calcolo che prima erano terreno esclusivo di queste ultime.
Infine, l'acquisizione di ATi da parte di AMD ha finito col confondere le acque, mettendo insieme due società che prima erano su versanti opposti della barricata. Acquisizione che ha messo a disposizione di AMD opportunità che prima non aveva (possibilità di farsi integralmente un suo sistema, accelazione del processo di convergenza/integrazione tra cpu e gpu, tanto epr dirne un paio). Questo rischia di mettere, nel lungo periodo, AMD in vantaggio rispetto ad Intel che però ha le armi (soldi, tecnologie e brevetti) per correre ai ripari.
Ad occhio alcune cose non si possono valutare, come il numero di strati di cui è composto il PCB ad esempio.
Il PCB della serie GTX 200 oltre ad essere più complesso rispetto alla 4870 per via del bus a 512 bit e delle maggiori richieste di alimentazione, adotta un sub strato in rame (che oltre ad essere molto più costoso conduce molto meglio il calore)io qui ci vedo solo l'incompetenza (che ha dimotrato sto giro) di nvidia nel Dover adottare un così complesso bus per così poche prestazioni in più.
E sta ta una sua scelta, sbagliata. Io direi che amd ha fatto meglio perchè per dirare furi qualcosa di buono non ha avuto bisogno di questo complesso bus e i costi che comporta. da entrambi i lati mentre AMD ne adotta uno in alluminio, questo strato che si trova tra la piastra e la vernice protettiva serve a dissipare il calore dal PCB.
Il problema della morte prematura di alcune GPU NVIDIA per notebook non è dovuto alla qualità dei componenti ma all'interazione tra alcuni materiali usati nella costruzione del package.haaa, ma nvidia non faceva i dissi migliori?
Perché NVIDIA non adotta componenti più economici per ridurre il prezzo delle sue schede?
La domanda corretta sarebbe: perché i suoi partner non l'hanno già fatto?
Probabilmente perché costerebbe di più modificare le linee di produzione, studiare un nuovo layout, testare i nuovi componenti ecc.
Dato l'imminente introduzione di nuovi prodotti cambiare adesso non avrebbe senso e risulterebbe controproducente.haaa, ecco di nuovo l'impossibilita di agire dovuta a scelte errate...il tutto si ricapitola con---uso(sperco) di molte risorse(che si traducono per noi in un costo) per una resa in prestazioni/costo molto bassa
Tra l'altro le schede desktop AMD di alcuni produttori sembrano presentare un tasso di mortalità "anomalo", vedi le recenti dichiarazioni di alienware.
Altro discorso invece è da fare a riguardo del profilo inserito nei driver da AMD che rallenta le schede 4800 quando viene lanciato Furmark, sembra che alcuni consumatori (evidentemente abbastanza da far insospettire i tecnici) abbiano bruciato la GPU (che evidentemente non riesce a ridurre la frequenza) causa inadeguatezza del dissipatore e della gestione della ventola lanciando questo programma, il profilo quindi sembrerebbe stato inserito per scongiurare il danneggiamento di altre GPU.
La cosa non è ancora chiara ma alcune fonti autorevoli (Expreview e altri) mentre recensivano le ultime nate di casa AMD avevano già riscontrato problemi di surriscaldamento che portavano al blocco del sistema ed evidentemente anche a conseguenze ben peggiori.
questa mi è nuova, ma come dici sono solo voci...di schede fuse non ne ho ancora sentite esclusa qualche 4850 che ci puo anche sare, ma sicuramente meno della moria di 8800gt:D
questa mi è nuova, ma come dici sono solo voci...di schede fuse non ne ho ancora sentite esclusa qualche 4850 che ci puo anche sare, ma sicuramente meno della moria di 8800gt:D
Non ho ben capito il tuo commento sui dissipatori, cosa c'entra con i materiali di cui è composto il package?:mbe:
Componenti di maggior qualità anche se non indispensabili rendono le schede più affidabili, ma come diceva il mio professore "dell'affidabilità non ti accorgi finché non si rompe qualcosa..."
Riguardo il surriscaldamento delle 4800 ci sono dei dati di fatto.
1)Il profilo inserito nei driver che rallenta la scheda quando viene lanciato furmark, infatti rinominando l'eseguibile le prestazioni tornano allo stesso livello di quelle ottenute prima che il suddetto profilo venisse inserito.
2)I problemmi di surriscaldamento che portano al blocco, confermate da voci autorevoli e che ho verificato io stesso da un amico.
Ora, perché inserire un profilo simile se non per scongiurare un problema di questo tipo?
Immagino che qui da noi se ne senta poco parlare per via della scarsissima diffusione di questo benchmark.
Naturalmente spero che non ci sia nessun problema, ma questo strano comportamento dei driver quando rilevano il furmark purtroppo lascia poco spazio alla speranza
appleroof
08-10-2008, 20:29
probabilmente perchè all'epoca le vga si occupavano solo del rendering mentre la cpu faceva tutti i calcoli; magari anche perchè Intel, all'epoca, stava dall'altra parte, ovvero dalla parte di chi cercava di ostacolare il progresso dei chip grafici da semplici adattatori a veri e propri processori.
cut
...perchè oggi, invece? :D
yossarian
08-10-2008, 20:40
...perchè oggi, invece? :D
oggi cerca di ostacolare lo sviluppo dei chip grafici degli altri.
La situazione è ben diversa :D
goldorak
08-10-2008, 20:47
...perchè oggi, invece? :D
Intel non ostacola un bel niente, spinge nella sua direzione, ovverosia integrare le funzionalita' di una gpu completamente programmabile all'interno della cpu. Per Intel la visione e' la cpu fagocita la gpu.
Per Nvidia la visione e' il contario, la gpu fagocita la cpu.
Ma sia da una parte che dall'altra il risultato finale e' avere un qualcosa che non e' piu' un chip grafico come lo intendiamo oggi.
Io appoggio in pieno il progetto Larrabee, se anche le prestazioni saranno al rendez-vous salutero' senza rimpianti ATI e Nvidia. :p
appleroof
08-10-2008, 20:53
cut
Infine, l'acquisizione di ATi da parte di AMD ha finito col confondere le acque, mettendo insieme due società che prima erano su versanti opposti della barricata. Acquisizione che ha messo a disposizione di AMD opportunità che prima non aveva (possibilità di farsi integralmente un suo sistema, accelazione del processo di convergenza/integrazione tra cpu e gpu, tanto epr dirne un paio). Questo rischia di mettere, nel lungo periodo, AMD in vantaggio rispetto ad Intel che però ha le armi (soldi, tecnologie e brevetti) per correre ai ripari.
riquoto questo tuo post per ricordarti che cmq il progetto Larrabee parte molto prima che la incorporazione di Ati da parte di Amd, come credo saprai nel 2002 circa
oggi cerca di ostacolare lo sviluppo dei chip grafici degli altri.
La situazione è ben diversa :D
di fatto, cambiando l'ordine degli addendi, il risultato non cambia :D
Intel non ostacola un bel niente, spinge nella sua direzione, ovverosia integrare le funzionalita' di una gpu completamente programmabile all'interno della cpu. Per Intel la visione e' la cpu fagocita la gpu.
Per Nvidia la visione e' il contario, la gpu fagocita la cpu.
Ma sia da una parte che dall'altra il risultato finale e' avere un qualcosa che non e' piu' un chip grafico come lo intendiamo oggi.
Io appoggio in pieno il progetto Larrabee, se anche le prestazioni saranno al rendez-vous salutero' senza rimpianti ATI e Nvidia. :p
:blah: sulla rete si dicono (pochissime) grandi cose e (molto) scetticismo du Larrabee, almeno come "vga"....io aspetto di vederlo all'opera, per ora di certo è che rappresenta una gran bella scommessa per Intel, che è una mega azienda, non solo sotto l'aspetto economico, ma non è infallibile...
goldorak
08-10-2008, 20:57
@appleroof : Intel non e' infallibile, ma una azienda che ha una capitalizzazione stimata in 95 miliardi di dollari, qualche errore strada facendo se lo puo' anche permettere.
Io non dubito che il risultato finale di Larrabee sara' all'altezza della situazione. :)
anche lo sli ;)
Di fatto lo sli attuale mantiene solo il nome commerciale. E' totalmente diverso da quello usato ai tempi di 3dfx (e vorrei pure vedere).
Di fatto che io sappia nessuna tecnologia 3dfx è stata usata in quanto tutto alquanto vecchio una volta comprata da Nvidia. Qualche brevetto Gigapixel forse sì ma non ho voglia di cercare :)
Di fatto l'unica cosa guadagnata da Nvidia sono stati degli ingegneri e un pò di nomi e brevetti praticamente gratis :)
bonzuccio
08-10-2008, 21:23
Ha ottenuto anche la fagocitazione di un competitor
e le antipatie ataviche di molti per questo
yossarian
08-10-2008, 21:23
riquoto questo tuo post per ricordarti che cmq il progetto Larrabee parte molto prima che la incorporazione di Ati da parte di Amd, come credo saprai nel 2002 circa
inizialmente larrabee era solo un progetto per il calcolo parallelo basato su architettura x86; solo in un secondo tempo è diventato anche il progetto di un chip grafico.
di fatto, cambiando l'ordine degli addendi, il risultato non cambia :D
:D
:blah: sulla rete si dicono (pochissime) grandi cose e (molto) scetticismo du Larrabee, almeno come "vga"....io aspetto di vederlo all'opera, per ora di certo è che rappresenta una gran bella scommessa per Intel, che è una mega azienda, non solo sotto l'aspetto economico, ma non è infallibile...
al momento larrabee sembra un ottimo candidato all'esecuzione di calcolo parallelo ma più in ottica gpgpu. Come gpu è un'incognita assoluta. Si parla di architettura x86 in order e dell'importanza che assumeranno i compilatori (potrebbe essere più complesso da ottimizzare di un'architettura vliw) e dell'implementazione delle api via sw, il che garantirebbe una longevità che le attuali gpu non hanno ma presenterebbe molte incognite a livello prestazionale (un'architettura "specializzata" è meno flessibile di una generica ma più veloce nell'eseguire i task per cui è stata progettata).
appleroof
08-10-2008, 21:24
@appleroof : Intel non e' infallibile, ma una azienda che ha una capitalizzazione stimata in 95 miliardi di dollari, qualche errore strada facendo se lo puo' anche permettere.
esatto...
Io non dubito che il risultato finale di Larrabee sara' all'altezza della situazione. :)
ok...
Di fatto lo sli attuale mantiene solo il nome commerciale. E' totalmente diverso da quello usato ai tempi di 3dfx (e vorrei pure vedere).
Di fatto che io sappia nessuna tecnologia 3dfx è stata usata in quanto tutto alquanto vecchio una volta comprata da Nvidia. Qualche brevetto Gigapixel forse sì ma non ho voglia di cercare :)
Di fatto l'unica cosa guadagnata da Nvidia sono stati degli ingegneri e un pò di nomi e brevetti praticamente gratis :)
hai detto niente :)
appleroof
08-10-2008, 21:27
inizialmente larrabee era solo un progetto per il calcolo parallelo basato su architettura x86; solo in un secondo tempo è diventato anche il progetto di un chip grafico.
:D
in quest'ottica (fusione [:read: ] gpu/cpu) l'acquisizione di amd con ati non ha cambiato nulla per Intel (forse ha messo più pressione), al limite è proprio l'esatto opposto (l'acquisizione è stata fatta a causa dei progetti Intel)
al momento larrabee sembra un ottimo candidato all'esecuzione di calcolo parallelo ma più in ottica gpgpu. Come gpu è un'incognita assoluta. Si parla di architettura x86 in order e dell'importanza che assumeranno i compilatori (potrebbe essere più complesso da ottimizzare di un'architettura vliw) e dell'implementazione delle api via sw, il che garantirebbe una longevità che le attuali gpu non hanno ma presenterebbe molte incognite a livello prestazionale (un'architettura "specializzata" è meno flessibile di una generica ma più veloce nell'eseguire i task per cui è stata progettata).
è esattamente lo scetticismo (chiamiamolo così) che leggo sulla rete al riguardo
azzardo, anche per tornare IT: imho se Nvidia entra definitivamente in cattive acque, Intel se la pappa e tanti saluti a Larrabee, almeno come è adesso
goldorak
08-10-2008, 21:39
Per il problema delle prestazioni di Larrabee, personalmente credo che il problema maggiore derivi dal dover nel medio periodo forzare le api dx e opengl su questa architettura.
Il che ovviamente introduce una penalita' rispetto a soluzioni gpu in cui le sudette api vengono mappate piu' o meno sul hardware sottostante.
Ma la vera forza di Larrabee sta nel non dover essere piu' costretti a utilizzare api specifiche.
Come diceva il boss di Epic il futuro (lo spero veramente) sara' dei motori grafici completamente software. E qui Larrabee puo' dire la sua.
hai detto niente :)
No, ma non è neanche così semplice dire "questo è stato fatto grazie a 3dfx" "questo no" e via dicendo. Cosa che invece qualcuno sembra poter dire :)
appleroof
08-10-2008, 21:44
se volete continuare a parlare di larrabee, c'è questo
http://www.hwupgrade.it/forum/showthread.php?t=1388472&page=9&highlight=VCG
qui un personaggio non proprio secondario parla proprio di salutare le api grafiche, in futuro
http://arstechnica.com/articles/paedia/gpu-sweeney-interview.ars
No, ma non è neanche così semplice dire "questo è stato fatto grazie a 3dfx" "questo no" e via dicendo. Cosa che invece qualcuno sembra poter dire :)
stai a guardare il capello su...:asd:
stai a guardare il capello su...:asd:
So preciso io :O
su un forum come questo è normale...basta ricordare le sentenze di morte su Amd, poi è ovvio che gli avvoltoi cominciano a tifare non appena la possibile preda comincia a mostrare segni di debolezza (almeno loro ci mangiano :asd: )
http://www.hwupgrade.it/forum/showpost.php?p=17120801&postcount=30
"Tutti i fiumi di parole di questi mesi (da parte degli scettici, ovviamente) si sono puntualmente verificati, direi che questa per le casse Amd può essere davvero una bella botta, ok che c'è rimasto tempo per recuperare, ma qui si rischia davvero tanto"
http://www.hwupgrade.it/forum/showpost.php?p=20099546&postcount=111
"il problema è che se va avanti così (e solo se va avanti così, moltissimo dipende da r700/phenom b3) non è detto che amd abbia la forza di lanciare alcunchè, ai livelli cui implicitamente ti riferisci, tra 3-4-5 anni."
Cioè spiegami, abbiamo detto la stessa cosa, però di aziende diverse in momenti di crisi, io sarei un avvoltoio e tu un santone?
Il punto è che nemmeno avevo completato il mio discorso, difatti avevo dato appuntamento a stasera (andavo di corsa), ma leggere questi commenti così superficiali mi fa passare la voglia di continuare.
Il problema di nvidia, non è la grossa crisi economica che sta passando [potrebbe anche sparire per questo sia chiaro, la finanza ha poco a che vedere con l'abilità nel produrre ottimi prodotti], ma per il fatto di non avere in questo momento un futuro. Non ha il know how di aziende come Intel e Amd con ATi al suo interno.
Sei convinto che le gpu discrete saranno ancora il futuro? Io no, beato te che hai questa sicurezza, a vedere come si muovono i colossi sembra invece che la direzione sia ben altra.
Sgt.Pepper89
08-10-2008, 22:28
A) vogliamo parlare di 4850? E di tante precedenti ATI che scaldavano assai? Non mi sembra che quelli che hanno bruciato la propria vga (4850 in particolare... parlando di vga attuali) siano pochi. Fatti un giretto nel thread di 4850... se non sbaglio sei un frequentatore di quel thread... o devo dedurre che leggi solo quello che ti fa comodo? :)
Per favore, riportami un caso recente dove Ati abbia avuto problemi con gli azionisti per prodotti difettosi. Non nego che dei problemi marginali la 4850 li abbia avuti, ma come ti è stato detto è successo anche con la 8800, o leggi solo quello che ti fa comodo?
Senza contare che dedurre problemi ad una scheda basandosi sui post nel suo thread è piuttosto futile.
In base a questo metro di giudizio allora la 9800gtx+ è la scheda perfetta, nessuno lamenta problemi; invece semplicemente, nessuno la vuole :rolleyes:
) Sappiamo tutti che intel in passato produceva vga discrete... ma una cosa è produrre vga discrete competitive (o quantomeno proporre prodotti per fasce di mercato diverse quali "entry level", "mainstream", "performance" ed "enthusiast") una cosa è produrre vga tipo le vecchie Intel Extreme 740 AGP che tutto erano tranne che vga discrete collocabili oltre la fascia entry-level.
E bada che quella vga nasceva per competere con colossi tipo 3dfx, Ati e Nvidia che già all'epoca (si parla del 1999) erano il top del mercato 3d (quindi, lo ripeto, stiamo parlando di una vga che DOVEVA essere di fascia enthusiast; naturalmente non lo fu... per vari motivi. E da quel momento intel passo a produrre vga integrate nelle mainboard.
Perchè non investire all'epoca, visto il discorso fatto da te? :p
Io dico, anzi ripeto, che la cosa non sarà così semplice come continui ad affermare... vedremo Larrabee, se sarà un successo... tanto di cappello... ma tieni conto che inizialmente Larrabee non sarà un progetto applicabile agli attuali videogiochi 3d.
Guarda, sono perfettamente d'accordo su quello che dici qui, ma mi sembra molto più azzardato prevedere che Intel NON riesca ad essere in breve tempo competitiva. Intel, all'epoca, aveva evidentemente minor interesse a entrare in competizione nel mercato delle schede video, perchè uscire dal mercato di competenza probabilmente avrebbe dato a lei problemi nel rivaleggare con i processori AMD che allora iniziavano a farsi competitivi (mia idea).
Ora invece, che AMD ha acquisito Ati per muoversi verso l'interazione più stretta di gpu e cpu (nello stesso die), intel rischia molto più grosso.
Cosi, forte del suo grande vantaggio in campo processori, tenterà di colmare il gap nel campo GPU.
Mercuri0
08-10-2008, 22:53
riquoto questo tuo post per ricordarti che cmq il progetto Larrabee parte molto prima che la incorporazione di Ati da parte di Amd, come credo saprai nel 2002 circa
Tanto, tanto tempo fa, circolava una leggenda su un tal progetto "K9" di AMD, poi cancellato.
Immaginate cosa si dice che fosse? Una CPU multiparallela. E' ignoto perché ci abbiano rinunciato...
In seguito, la storia è nota: si son comprati ATI.
(e come CPU hanno tirato fuori un "k8.5")
No, ma non è neanche così semplice dire "questo è stato fatto grazie a 3dfx" "questo no" e via dicendo. Cosa che invece qualcuno sembra poter dire :)
Se ti riferisci a me sappi che non parlo a vanvera ma mi baso sulle parole di David Kirk, Chief Scientist di NVIDIA dal gennaio del 1997
Mercuri0
08-10-2008, 23:01
Ma la vera forza di Larrabee sta nel non dover essere piu' costretti a utilizzare api specifiche.
Senza mettermi a fare previsioni su Larrabee (a parte una: solo Larrabee 2 sarà commercializzato come scheda grafica) vorrei far notare una cosina:
Più l'hardware è flessibile per tanti scopi, meno è efficiente per un singolo scopo.
Finché la legge di Moore va, possiamo lasciare ai processi produttivi l'efficienza, e molto giovarci della flessibilità. Dovesse intopparsi la legge di Moore..
In effetti, è successo una volta che lntel fosse troppo fiduciosa delle prospettive dei suoi processi produttivi. Fu quando tirò fuori Netburst.
[segue stacchetto musicale da "Lo Squalo"]
yossarian
09-10-2008, 00:01
in quest'ottica (fusione [:read: ] gpu/cpu) l'acquisizione di amd con ati non ha cambiato nulla per Intel (forse ha messo più pressione), al limite è proprio l'esatto opposto (l'acquisizione è stata fatta a causa dei progetti Intel)
è il contrario: larrabee è nato come gpu per il calcolo parallelo; poi è diventata scheda add on per il calcolo della fisica; solo dopo l'acquisizione di ATi si è iniziato a parlare di larrabee anche come gpu (quell'anche è importante, perchè, contrariamente a quello che si legge da qualche parte, larrabee, nei piani di intel, continua ad essere principalmente una cpu)
è esattamente lo scetticismo (chiamiamolo così) che leggo sulla rete al riguardo
azzardo, anche per tornare IT: imho se Nvidia entra definitivamente in cattive acque, Intel se la pappa e tanti saluti a Larrabee, almeno come è adesso
scatticismo motivato dai continui cambi di rotta o, per meglio dire, dal continuo ampliamento dei possibili campi di applicazione di larrabee (il rischio che un dispositivo troppo GP possa finire col non fare bene alcuna cosa non è da escludere), ma non è detto che abbia fondamento. E' improbabile che larrabee possa diventare da subito una gpu di fascia alta ma il vantaggio di Intel è che può permettersi di "aspettare" e di lavorare con calma. Al contrario, AMD deve cercare di stringere i tempi per avere un vantaggio iniziale contro un avversario più forte. Per tornare IT, chi al momento sembra tagliata fuori da tutti i giochi è, invece, proprio nVIDIA che, IMHO, finchè può, deve tenersi stretta la divisione chipset e cedere meno terreno che sia possibile in questa fase.
Io dico, anzi ripeto, che la cosa non sarà così semplice come continui ad affermare... vedremo Larrabee, se sarà un successo... tanto di cappello... ma tieni conto che inizialmente Larrabee non sarà un progetto applicabile agli attuali videogiochi 3d.
Non scherziamo, Intel ha dichiarato piu' di una volta che Larrabee e' inteso come un prodotto che eccelle prima di tutto a far girare videogames passati, presenti e futuri. D'altro canto non sara' sul mercato prima di altri 12-18 mesi, quindi e' ovvio che i primi driver saranno ottimizzati per far girare al meglio i giochi del momento.
Se ti riferisci a me sappi che non parlo a vanvera ma mi baso sulle parole di David Kirk, Chief Scientist di NVIDIA dal gennaio del 1997
Per questo motivo, mi risulta molto difficile dire quale sia il contributo specifico di ex tecnici 3dfx nel progetto NV25, mentre in quello NV20 il loro ingresso in azienda è avvenuto in un periodo nel quale il progetto era ormai completamente concluso (Inverno 2000).
ndubbiamente alcune delle implementazioni del Full Screen Anti Aliasing che vediamo attualmente nelle schede GeForce 4 e GeForce 4 MX sono "figlie" degli ex tecnici 3dfx; oltre a questo, anche il video processing engine del chip GeForce 4 MX è stato sviluppato a partire da tecnologia 3dfx.
E' un pò diverso dal dire:
Dissero lo stesso di 3dfx ma le geforce 4 e il primo video processing engine integrato nelle GPU NVIDIA derivavano da tecnologia e tecnici ex3dfx
Non sa nemmeno lui dire cosa è dovuto a 3dfx e cosa no. Alcune implementazioni dell'AA su GF4 (non GF4 MX) e la VPU è stata sviluppata partendo da tecnologia 3dfx (brevetti).
Cerchiamo di non stravolgere la realtà.
E da dove vengono le frasi che hai riportato?
E da dove vengono le frasi che hai riportato?
Dall'intervista di David Kirk, Chief Scientist di NVIDIA dal gennaio del 1997.
yossarian
09-10-2008, 11:52
Dimmi tu come farà senza unità di rasterizzazione a competere con le attuali gpu nvidia\ati. :)
Lo scenario potrebbe cambiare quando si diffonderà l'utilizzo del raytracing.
le operazioni di rasterizzazione possono essere fatte anche da alu di tipo programmabile (tipo le unità di shading). Può essere più complesso organizzare il lavoro poichè ogni unità può trovarsi ad eseguire un maggior numero di istruzioni e in fasi diverse del rendering, ma è, comunque, una cosa fattibile.
appleroof
09-10-2008, 13:29
Tanto, tanto tempo fa, circolava una leggenda su un tal progetto "K9" di AMD, poi cancellato.
Immaginate cosa si dice che fosse? Una CPU multiparallela. E' ignoto perché ci abbiano rinunciato...
In seguito, la storia è nota: si son comprati ATI.
(e come CPU hanno tirato fuori un "k8.5")
:confused: k9 era la cpu quadcore e dualcore che avrebbe dovuto sostituire k8....cos'è una cpu multiparallela? la mia in firma lo è? e poi che c'entra questo discorso con larrabbe (capirei se mi parlassi di fusion....)?
è il contrario: larrabee è nato come gpu per il calcolo parallelo; poi è diventata scheda add on per il calcolo della fisica; solo dopo l'acquisizione di ATi si è iniziato a parlare di larrabee anche come gpu (quell'anche è importante, perchè, contrariamente a quello che si legge da qualche parte, larrabee, nei piani di intel, continua ad essere principalmente una cpu)
larrabee è nata come gpu per il calcolo parallelo....come la giri il fatto è quello: l'idea di un chip che svolga insieme funzioni di cpu e gpu (perdonami il tecnicismo esasperato :asd:) era in larrabee, che allora (prima dell'acquisizione amd-ati) come ora può poi prestarsi a molti usi...
yossarian
09-10-2008, 13:36
:confused: k9 era la cpu quadcore e dualcore che avrebbe dovuto sostituire k8....cos'è una cpu multiparallela? la mia in firma lo è? e poi che c'entra questo discorso con larrabbe (capirei se mi parlassi di fusion....)?
larrabee è nata come gpu per il calcolo parallelo....come la giri il fatto è quello: l'idea di un chip che svolga insieme funzioni di cpu e gpu (perdonami il tecnicismo esasperato :asd:) era in larrabee, che allora (prima dell'acquisizione amd-ati) come ora può poi prestarsi a molti usi...
17 aprile 2007
http://www.hwupgrade.it/news/cpu/da-intel-arriva-larrabee-architettura-parallela-programmabile_20839.html
testualmente
Ma ormai quando si parla di archietture parallele, tuttavia, non si può non pensare anche ad un impiego tipicamente GPU di dette architetture. Il parallelismo architetturale è infatti la caratteristica principale e il comune denominatore di soluzioni quali G80 di NVIDIA e il prossimo R600 di AMD. Nonostante ciò il colosso di Santa Clara non ha menzionato (per ora) alcun tipo di impiego nel settore grafico.
Un'architettura IA rientrante nel progetto terascale (quello si iniziato prima dell'acquisizione di ATi) per il calcolo parallelo può essre usata (aggiungendo tmu) anche come gpu; ma non è necessariamente vero che un'architettura con elevato parallelismo e molte unità di tipo fp sia una gpu (il cell non è una gpu come non lo è una cpu quad core e non lo sarà una a 8 o 16 core).
appleroof
09-10-2008, 13:40
edit doppio post
appleroof
09-10-2008, 13:43
17 aprile 2007
http://www.hwupgrade.it/news/cpu/da-intel-arriva-larrabee-architettura-parallela-programmabile_20839.html
testualmente
Ma ormai quando si parla di archietture parallele, tuttavia, non si può non pensare anche ad un impiego tipicamente GPU di dette architetture. Il parallelismo architetturale è infatti la caratteristica principale e il comune denominatore di soluzioni quali G80 di NVIDIA e il prossimo R600 di AMD. Nonostante ciò il colosso di Santa Clara non ha menzionato (per ora) alcun tipo di impiego nel settore grafico.
Un'architettura IA rientrante nel progetto terascale per il calcolo parallelo può essre usata (aggiungendo tmu) anche come gpu; ma non è necessariamente vero che un'architettura con elevato parallelismo e molte unità di tipo fp sia una gpu (il cell non è una gpu come non lo è una cpu quad core e non lo sarà una a 8 o 16 core).
forse non mi spiego: non nego che inizialmente Larrabee non fosse destinato al gaming, ed infatti è risaputo senza essere dipendenti Intel, e che questa destinazione sia stata decisa in seguito, molto probabilmente anche a seguito della fusione Amd/Ati
quello che sostengo, è che la natura stessa di Larrabee si è prestata facilmente ad un cambio di destinazione proprio perchè tale eventualità è insita nel progetto stesso, nato prima dell'acquisizione famigerata
p.s.: scusate per il doppio post, forum momentaneamente in palla
yossarian
09-10-2008, 13:49
forse non mi spiego: non nego che inizialmente Larrabee non fosse destinato al gaming, ed infatti è risaputo senza essere dipendenti Intel, e che questa destinazione sia stata decisa in seguito, molto probabilmente anche a seguito della fusione Amd/Ati
quello che sostengo, è che la natura stessa di Larrabee si è prestata facilmente ad un cambio di destinazione proprio perchè tale eventualità è insita nel progetto stesso, nato prima dell'acquisizione famigerata
p.s.: scusate per il doppio post, forum momentaneamente in palla
qualunque processore, se dotato di elevato parallelismo e di unità in grado di assolvere a certi task specifici può essre usato come gpu. Mi sembrava che si stesse discutendo non tanto sulle possibilità di impiego di larrabee come gpu (che non mi pare siano in discussione) quando sulle tempistiche.
Larrabee rientra nel progetto terascale (quello si antecedente all'acquisizione di ATi) per il calcolo parallelo, principalmente di tipo scientifico
:)
appleroof
09-10-2008, 13:55
qualunque processore, se dotato di elevato parallelismo e di unità in grado di assolvere a certi task specifici può essre usato come gpu. Mi sembrava che si stesse discutendo non tanto sulle possibilità di impiego di larrabee come gpu (che non mi pare siano in discussione) quando sulle tempistiche.
Larrabee rientra nel progetto terascale (quello si antecedente all'acquisizione di ATi) per il calcolo parallelo, principalmente di tipo scientifico
:)
ok, allora siamo perfettamente d'accordo :boh: :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.