View Full Version : AMD Evergreen, GPU 40nm DirectX11 entro l'anno
Redazione di Hardware Upg
03-06-2009, 11:23
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2220/amd-evergreen-gpu-40nm-directx11-entro-l-anno_index.html
In occasione del Computex AMD e TSMC Mostrano un wafer con i die sviluppati a 40 nanometri di Evergreen, la GPU AMD in grado di supportare DirectX 11. L'arrivo delle prime soluzioni è atteso entro la fine dell'anno
Click sul link per visualizzare l'articolo.
Alucard83
03-06-2009, 11:29
Prima di cambiare la mia 3870 X2 voglio vedere i modelli di Ati, Nvidia, ed anche Larrabee sullo stesso piatto in un confronto alla pari, poi deciderò.
g.luca86x
03-06-2009, 11:50
è per via della creazione del cristallo di silicio! in un crogiolo si trova il silicio puro ma fuso. Si mette a contatto della superficie del silicio fuso una gemma di cristallo di silicio e molto lentamente si procede a sollevare la gemma con una leggera rotazione continua. Ciò fa si che il silicio fuso solidifichi a partire da questa gemma seguendo però l'ordinamento cristallino dei suoi atomi (in sostanza nel pietrame che si ottiene per distillazione del quarzo il silicio è si puro ma non è un unico cristallo, proprietà fondamentale affinchè il silicio si comporti da semiconduttore). Questo processo porta così alla creazione di una carota monocristallina (cioè è un unico cristallo continuo senza interruzioni)di 2 metri circa di altezza e 300mm di diametro rotonda che poi viene tagliato a fette di 800um di spessore tramite fili diamantati e si procede poi alla lavorazione delle fette di monocristallo. La forma rotonda è dovuta proprio al processo di accrescimento del cristallo stesso! non si può proprio fare quadrata o ellittica...
i wafer sono rotondi perchè per generarli si parte da un seme centrale che viene "rivestito" atomo per atomo di silicio
La barra di silicio ottenuta viene poi sezionata
http://it.wikipedia.org/wiki/Processo_Czochralski
g.luca86x
03-06-2009, 11:52
tornando in topic: "i primi modelli di schede video che garantirebbero i vantaggi derivanti dalle nuove librerie potrebbero arrivare anche prima del mese di Novembre, in corrispondenza di Windows 7, ma al momento si tratta di semplici supposizioni. Proprio il nuovo sistema operativo di Microsoft dovrebbe rappresentare il vero punto di svolta e dare il via al lancio delle soluzioni DX11." Quando è che ho già sentito queste parole... ah già dx10 e windows vista, già già! eh, dejà vu... Già quelli che usano le dx10 si contano sulla punta delle dita, figuriamoci chi è che per natale sarà dx11 ready!
hermanss
03-06-2009, 11:54
piccola curiosità OT mi sono sempre chiesto perchè i wafer sono rotondi e non quadrati? potrebbero ricavarci molti + core!!! (però suppongo se non è così un motivo ci sarà non penso siano così deficenti )
Può darsi che la forma rotonda sia meno soggetta a spaccature, ma è solo una supposizione.
DX11 coming soon!!!:D
è per via della creazione del cristallo di silicio! in un crogiolo si trova il silicio puro ma fuso. Si mette a contatto della superficie del silicio fuso una gemma di cristallo di silicio e molto lentamente si procede a sollevare la gemma con una leggera rotazione continua. Ciò fa si che il silicio fuso solidifichi a partire da questa gemma seguendo però l'ordinamento cristallino dei suoi atomi (in sostanza nel pietrame che si ottiene per distillazione del quarzo il silicio è si puro ma non è un unico cristallo, proprietà fondamentale affinchè il silicio si comporti da semiconduttore). Questo processo porta così alla creazione di una carota monocristallina (cioè è un unico cristallo continuo senza interruzioni)di 2 metri circa di altezza e 300mm di diametro rotonda che poi viene tagliato a fette di 800um di spessore tramite fili diamantati e si procede poi alla lavorazione delle fette di monocristallo. La forma rotonda è dovuta proprio al processo di accrescimento del cristallo stesso! non si può proprio fare quadrata o ellittica...
complimenti per l'intervento, ormai raramente si leggono intreventi tecnici validi (tra crysis apple vista e primo :D)
la dimensione di 300mm è vincolante? so che è in uso da un pò d'anni prima era 230 o 200 se non erro perchè non passano a 400??
non sono fruttate le dx 10.0 figuriamoci le 11.0.
complimenti per l'intervento, ormai raramente si leggono intreventi tecnici validi (tra crysis apple vista e primo :D)
la dimensione di 300mm è vincolante? so che è in uso da un pò d'anni prima era 230 o 200 se non erro perchè non passano a 400??
Perchè aumentando il diametro si aumenta anche il peso dell'intera "carota" di silicio e sarebbe piu soggetta a rotture visto che viene creata da un unico cristallo e quindi si trova "appesa" ad esso. Per mantenere quindi il peso costante e volendo aumentare il diametro bisognebbe diminuire la lunghezza per cui a conti fatti ne risulterebbero meno wafer.
Per il 2012 si parla di wafer da 450 mm.
Tornando in topic, secondo me faranno di tutto per debuttare a settembre, sfruttare l'uscita di Windows 7 per il 22/10 e poi spremere al massimo per il periodo natalizio.
Se tutto va' per il verso giusto, in quei 3-4 mesi, possono fare numeri importanti sulle vendite.
Se il die fosse davvero 180mmq, sarebbe plausibile l'indiscrezione dei 1200 SU emersa qualche tempo fa'.
All'incirca, potrebbe presentarsi con RV870, lo stesso salto prestazionale avutosi da RV670 a RV770, con in più il discorso Direcxt11.
Micene.1
03-06-2009, 12:12
ala faccia che accelerazione....amd sta cercando di spingere sul mercato video visto penso le difficolta su quello cpu...fa bene :O
Stevejedi
03-06-2009, 12:13
E meno male... stavo per acquistare una GTX260... aspetto 'sti 4 mesi e prendo direttamente una DX11
d'accordo che l'evoluzione tecnologica procede spedita e x fortuna meglio così, ma mi chiedo se nemmeno si sono sfruttate le directx 10 nei giochi (ce ne sono pochissimi che le sfruttano) a che serviranno le 11? comunque ben vengano ovvio mi chiedo solo xkè le sofware house di giochi tardino sempre nello sfruttare tali potenzialità, forse xkè il parco macchine ci mette un eternità ad aggiornarsi (o meglio nn tutti hanno la possibilità di aggiornare il pc o anche solo la gpu ogni due anni)
ala faccia che accelerazione....amd sta cercando di spingere sul mercato video visto penso le difficolta su quello cpu...fa bene
io non vedo AMD in difficoltà nel campo processori,anzi con i phenom 2 ha fatto il botto.
:O
Davidepiu
03-06-2009, 12:24
vabbe ... se prendi la GTX puoi sempre rivenderla :)
g.luca86x
03-06-2009, 12:25
complimenti per l'intervento, ormai raramente si leggono intreventi tecnici validi (tra crysis apple vista e primo :D)
la dimensione di 300mm è vincolante? so che è in uso da un pò d'anni prima era 230 o 200 se non erro perchè non passano a 400??
beh, grazie ma è il mio mestiere (ing elettronico:D ). Riguardo le dimensioni oltre al peso della carota c'è un'altro fattore importante che pesa cioè la lavorazione! Maneggiare wafer via via sempre più grandi pone problemi dovuti a impurità nel cristallo (il silicio non è mai puro al 100%, drogaggi a parte, ma capitano atomi di elementi non voluti che rovinano le proprietà elettriche del cristallo stesso. Durante l'accrescimento della carota la stessa è sottoposta ad una serie di "rastrellamenti termomagnetici": praticamente dei bobinoni in cui scorre un bel pò di corrente vengono fatti ruotare attorno alla carota in senso opposto al suo verso di rotazione in modo da separare gli atomi molto più pesanti del silicio dal cristallo. Bisogna specificare che durante la fase di accrescimento il silicio è leggermente drogato per essere naturalmente di tipo p, usando boro, più leggero del silicio), momenti che agiscono sul wafer stesso durante le diferse fasi di lavorazione (a parità di spessore la superficie aumenta di più e ci vogliono macchinari più sensibili nella lavorazione), e costo anche degli impianti che devono lavorarli! Un impianto studiato per movimentare con precisione al nanometro wafer da 300mm non può semplicemente essere riciclato con wafer più grandi e i costi di ammortamento degli impianti sono un'altra voce importante che le fonderie tengono in conto! All'inizio, negli anni 50 i wafer avevano le dimensioni di 2,5 cm di diametro! poi con l'evolversi della tecnologia di lavorazione si è potuto via via incrementare il diametro del wafer! il processo però è stato molto graduale proprio perchè ad ogni incremento di dimensione ci sono una serie di problemi da risolvere...
giljevic
03-06-2009, 12:28
finche Larrabee arrivera cambierai scheda.....
Micene.1
03-06-2009, 12:32
d'accordo che l'evoluzione tecnologica procede spedita e x fortuna meglio così, ma mi chiedo se nemmeno si sono sfruttate le directx 10 nei giochi (ce ne sono pochissimi che le sfruttano) a che serviranno le 11? comunque ben vengano ovvio mi chiedo solo xkè le sofware house di giochi tardino sempre nello sfruttare tali potenzialità, forse xkè il parco macchine ci mette un eternità ad aggiornarsi (o meglio nn tutti hanno la possibilità di aggiornare il pc o anche solo la gpu ogni due anni)
nn serviranno come al solito a nulla...i giochi si dovranno adattare e ci metteranno (come è normale) parecchi mesi...pero chiaro prima si introducono e prima verranno sfruttate
Micene.1
03-06-2009, 12:34
io non vedo AMD in difficoltà nel campo processori,anzi con i phenom 2 ha fatto il botto.
:O
beh i dati parlano chiaro le quote di intel aumentano e le difficolta economiche per amd sono ancora notevoli...poi che phenom 2 sia un progetto valido (cmq arrivato con mostruoso ritardo, e scusa se è poco) è un altro discorso
g.luca86x
03-06-2009, 12:42
beh i dati parlano chiaro le quote di intel aumentano e le difficolta economiche per amd sono ancora notevoli...poi che phenom 2 sia un progetto valido (cmq arrivato con mostruoso ritardo, e scusa se è poco) è un altro discorso
già, purtroppo è arrivato quando ormai il mercato era stato soddisfatto in larga misura dalle proposte dual e quad core di intel! difficile che chi avesse o ha un buon quad (anche solo il q6600 per non prendere roba recentissima) cambiasse tutta la piattaforma solo per provare amd! Al momento attuale dovrebbe comprare amd solo chi ha una vetusta macchina, tipo il sottoscritto! Sinceramente è molto più performante un phII 720 che un e8400 e il phenom costa pure 20€ in meno! abbinandolo ad una mobo am2+ che costano relativamente poco anche le più dotate si ha un'ottima configurazione! Riguardo le schede directx 11 spero vivamente che per natale riescano a risolvere completamente i problemi legati al processo produttivo! Secondo me per capire quanto manca davvero alla larga commercializzazione bisogna semplicemente osservare le 4770! Ancora scarseggiano, ergo il processo non garantisce rese accettabili e per i die più grandi come appunto questo è un problema non da poco! Se verso agosto vedremo le 4770 anche nei negozietti sotto casa allora si che saranno a buon punto!
Masamune
03-06-2009, 12:44
benvenute dx11! ma a che fps??? riuscireno a far girare giochi a 1680x1050 con un framerate decente e filtri abilitati???
chissà chissà...
Micene.1
03-06-2009, 13:14
già, purtroppo è arrivato quando ormai il mercato era stato soddisfatto in larga misura dalle proposte dual e quad core di intel! difficile che chi avesse o ha un buon quad (anche solo il q6600 per non prendere roba recentissima) cambiasse tutta la piattaforma solo per provare amd! Al momento attuale dovrebbe comprare amd solo chi ha una vetusta macchina, tipo il sottoscritto! Sinceramente è molto più performante un phII 720 che un e8400 e il phenom costa pure 20€ in meno! abbinandolo ad una mobo am2+ che costano relativamente poco anche le più dotate si ha un'ottima configurazione! Riguardo le schede directx 11 spero vivamente che per natale riescano a risolvere completamente i problemi legati al processo produttivo! Secondo me per capire quanto manca davvero alla larga commercializzazione bisogna semplicemente osservare le 4770! Ancora scarseggiano, ergo il processo non garantisce rese accettabili e per i die più grandi come appunto questo è un problema non da poco! Se verso agosto vedremo le 4770 anche nei negozietti sotto casa allora si che saranno a buon punto!
esatto e ancora: tuttora amd nn ha una cpu dualcore mainstream/entry level all'altezza dei vari e5/7xxx ...adesso sta uscendo qualcosa di interessante ma è chiaro che il treno è perso
e intanto intel ancora nn ha spinto sulle nuove piattaforme
beh i dati parlano chiaro le quote di intel aumentano e le difficolta economiche per amd sono ancora notevoli...poi che phenom 2 sia un progetto valido (cmq arrivato con mostruoso ritardo, e scusa se è poco) è un altro discorso
parlando di desktop le quote intel calano, e la situazione di amd sta leggermente migliorando
jacopoide
03-06-2009, 14:27
qualcosa mi dice che g.luca86x è fresco di esame in elettronica per sistemi digitali e tecnologie Mosfet hihihi :D
g.luca86x
03-06-2009, 14:52
qualcosa mi dice che g.luca86x è fresco di esame in elettronica per sistemi digitali e tecnologie Mosfet hihihi :D
non faccio quella materia da più di tre anni! La mia specializzazione è sistemi wireless e microonde e quello che ho più fresco sono antenne, misure a radiofrequenza, fpga, elettronica parallela per tlc e avionica! E' solo che al poli di torino è difficile dimenticare le cose quando ti capitano dei bravi professori che ti fanno buttare il sangue... :D
g.luca86x
03-06-2009, 15:04
Peccato che nelle università italiane quelli veramente bravi che ti trasformano in una spugna siano veramente pochi :/
anche qui capitano le teste di legno, non credere! devo dire che però sono molto poche e spesso sono quelli freschi di dottorato i più inutili... Ma stiamo trasbordando con la discussione...
3DMark79
03-06-2009, 15:30
benvenute dx11! ma a che fps??? riuscireno a far girare giochi a 1680x1050 con un framerate decente e filtri abilitati???
chissà chissà...
Già, se sono come le prime schede che uscirono in DX10 mi sa che sarà meglio aspettare le DX11.1 per essere decenti!:asd:
Quel disco li vale molto più di un disco di platino! O_O
3DMark79
03-06-2009, 15:41
Quel disco li vale molto più di un disco di platino! O_O
Certo considerando quanto costa immagino...:D
piccola curiosità OT mi sono sempre chiesto perchè i wafer sono rotondi e non quadrati? potrebbero ricavarci molti + core!!! (però suppongo se non è così un motivo ci sarà non penso siano così deficenti :D )
Perchè costa meno farli così, cioè tirando fuori il monocristallo di silicio dal crogiolo, siccome cresce uguale in ogni direzione si ottiene una sezione circolare...
Perchè aumentando il diametro si aumenta anche il peso dell'intera "carota" di silicio e sarebbe piu soggetta a rotture visto che viene creata da un unico cristallo e quindi si trova "appesa" ad esso. Per mantenere quindi il peso costante e volendo aumentare il diametro bisognebbe diminuire la lunghezza per cui a conti fatti ne risulterebbero meno wafer.
Il diametro dipende dalla velocità di estrazione del silicio e questa dipende dal controllo della temperatura del silicio, quindi più si tiene con precisione una temperatura ottimale costante, più puoi fare un monocristallo di diametro maggiore, altrimenti rischi di aumentare i difetti o di creare policristalli e ciò vanificherebbe il diametro maggiore.
Certo considerando quanto costa immagino...:D
Occhio e croce direi una Ferrari :D
3DMark79
03-06-2009, 15:49
Occhio e croce direi una Ferrari :D
Certo..mio cugino che d'estate lavorava alla ST Microeletronics mi diceva che costava un botto un wafer...e pensa quanti soldi buttati...quando si sbaglia processo!:cry:
ma che ferrari!!!
sono 450 gpu circa. saranno 20€ l'una, max vengon fuori 10.000€ a farla grande.
3DMark79
03-06-2009, 15:53
ma che ferrari!!!
sono 450 gpu circa. saranno 20€ l'una, max vengon fuori 10.000€ a farla grande.
Va beh Ferrari penso era un modo di dire comunque penso più di 10.000 euro.:rolleyes:
netcrusher
03-06-2009, 16:23
La storia si ripete ancora una volta, dx11 e nuovo hardware da cambiare ma non vi siete stancati di stare appresso a queste tecnologie con innovazioni nulle ed atte solo a prosciugare portafogli???
Quando ero più piccolo vedevo il progresso tecnologico con occhio di meraviglia, oggi devo dire proprio che sta tecnologia vomitevole mi fà proprio schifo........scusate il mega OT però qui i fessi siamo sempre noi che paghiamo l'inutilità a caro prezzo..........forse questa crisi economica non è poi tanto male perchè mette più ragione nelle teste delle persone..........mah....
Un wafer a 55nm di TSMC costa all'incirca 5000$.
Un 40nm verrà qualcosa di più.
Così si dice in giro :)
in base a cosa "pensi" non è che una gpu senza package valga chissà quanto.
il chip della ps3 per esempio viene 50$ con package e e royalties varie.
già, purtroppo è arrivato quando ormai il mercato era stato soddisfatto in larga misura dalle proposte dual e quad core di intel! difficile che chi avesse o ha un buon quad (anche solo il q6600 per non prendere roba recentissima) cambiasse tutta la piattaforma solo per provare amd! Al momento attuale dovrebbe comprare amd solo chi ha una vetusta macchina, tipo il sottoscritto! Sinceramente è molto più performante un phII 720 che un e8400 e il phenom costa pure 20€ in meno! abbinandolo ad una mobo am2+ che costano relativamente poco anche le più dotate si ha un'ottima configurazione! Riguardo le schede directx 11 spero vivamente che per natale riescano a risolvere completamente i problemi legati al processo produttivo! Secondo me per capire quanto manca davvero alla larga commercializzazione bisogna semplicemente osservare le 4770! Ancora scarseggiano, ergo il processo non garantisce rese accettabili e per i die più grandi come appunto questo è un problema non da poco! Se verso agosto vedremo le 4770 anche nei negozietti sotto casa allora si che saranno a buon punto!
Per quanto riguarda il discorso Amd...credo che con quest'entrata delle DirectX 11 i phenom II, nelle sessioni di videogame, hanno solo da guadagnare...voglio dire già con le DirectX 10 il carico della CPU si era alleggerito in scenari videoludici (che poi l'FPS medio era diminuito a parità di risoluzione ed effetti rispetto al suo predecessore, su questo non c'è dubbio, ma su questo non ne so molto e mi piacerebbe molto avere una spiegazione dai + esperti), con queste nuove API, mi pare logico che ciò dovrebb'essere ancora più accentuato IMHO (...ma a che prezzo?)...quindi, neccesità di tutta sta potenza sui proci, non m sembra poi così indispensabile, almeno nel vicinissimo futuro; io la penso un po' così...se poi ho sparato solo boiate, felice d'imparare da chi più ne sa :D
imperatore_bismark
04-06-2009, 11:33
W AMD speriamo ke al più presto recuperi il terreno e faccia CPU fantastiche, sopratutto per prestazioni così da fare vera concorrenza ad Intel
A sto punto mi sa proprio che salterò la generazione DX10 :sofico:
... All'inizio, negli anni 50 i wafer avevano le dimensioni di 2,5 cm di diametro! poi con l'evolversi della tecnologia di lavorazione si è potuto via via incrementare il diametro del wafer! il processo però è stato molto graduale proprio perchè ad ogni incremento di dimensione ci sono una serie di problemi da risolvere...
Bisogna anche dire che gli integrati (o die, come dicono gli Angli) del 1950 non avevano la complessità né le dimensioni di quelli di oggi... quindi - può darsi - con 2,5 cm di diametro ci ricavassero lo stesso numero di GPU che si ricavano oggi da una fetta da 30 cm.
Magari poi ne funzionavano molti di meno, il processo era molto più costoso e meno preciso... Di certo le funzioni di ogni elemento erano più limitate rispetto a quelle di una GPU o di una CPU, ma già per quei tempi fu strepitoso poter ridurre un circuito a quelle dimensioni e produrli "in serie".
Dove arriveremo?
Micene.1
04-06-2009, 15:51
parlando di desktop le quote intel calano, e la situazione di amd sta leggermente migliorando
beh si l'ho letta anche io la notizia...ma è chiaro che mi riferivo ad un periodo piu ampio che gliultimi 3-4 mesi...stavo analizzando la situazione dell'ultimo anno e mezzo dove amd ha perso l'impossibile nel desktop
hermanss
04-06-2009, 17:26
Bisogna anche dire che gli integrati (o die, come dicono gli Angli) del 1950 non avevano la complessità né le dimensioni di quelli di oggi... quindi - può darsi - con 2,5 cm di diametro ci ricavassero lo stesso numero di GPU che si ricavano oggi da una fetta da 30 cm.
Magari poi ne funzionavano molti di meno, il processo era molto più costoso e meno preciso... Di certo le funzioni di ogni elemento erano più limitate rispetto a quelle di una GPU o di una CPU, ma già per quei tempi fu strepitoso poter ridurre un circuito a quelle dimensioni e produrli "in serie".
Dove arriveremo?
Come ho sentito stanno sviluppando delle cpu con die tridimensionale cioè la circuiteria si sviluppa non solo in larghezza e profondità ma anche in altezza. Chissà che ne uscirà fuori!:eek:
Italia 1
04-06-2009, 21:21
Io invece sono proprio contento che escano ste DX 11 le ho sul Win 7, anche se alla stragrande maggioranza degli appassionati nemmeno serviranno mai, è pur sempre uno step evolutivo. E' facile scrivere "che ci fai, manco le DX 10 si sfruttano", se ragionavano cosi quelli che fanno le cpu/gpu, ancora eravamo alle SSE, MMX, DX 7.0. Tanto per giocare bastavano lo stesso, no ?
Immagino che magari, come sempre successo, la prima serie di schede grafiche delle nuove DX vada malino, prestazioni basse (chi ricorda la prime 6800 ultra dx 9.0c ? Se impostavi Shader v 3.0 sui bench, vedevi un bel calo...) ma la concorrenza farà qualcopsa di meglio, poi di nuovo Ati sfornerà prodotti piu interessanti.
Si chiama EVOLUZIONE, è impossibile fermarla. se non fosse servita, bastava soltanto alzare le frequenze delle cpu/gpu
data la potenza delle 4870 odierne chissa che bestie!
poi con un gpgpu piu serio e compatibile si potrebbe iniziare veramente a parlare di gpu computing!
METATHRON
05-06-2009, 19:54
interessante la spiegazione del wafer circolare.
ma mi chiedo allora perchè non facciano processori esagonali, sarebbe la forma + efficiente per lo sfruttamento della superficie.
nudo_conlemani_inTasca
05-06-2009, 21:10
:P
il divino
07-06-2009, 21:45
Intanto Crysis, Gears of war, Call of Duty 4, Follaut 3, Assassin Creed, Mirror's Edge, Rice Driver Grid e tutti gli altri titoli che ci hanno fatto cadere la mascella negli ultimi tempi sono assolutamente in DX9, anche perché le DX 10 NON ESISTONO!!!
Solo che non potevano costringere la gente a cambiare CPU e SO per le DX 9.0d omagari 9.1...
Poi capisco la corsa a nuove tecnologie e a nuovi sistemi operativi, ma non credo di essere l'unico ad avere sentito parlare del principio di massima inefficenza...
mail9000it
08-06-2009, 10:35
Concordo al 100% con g.luca86x
ma esiste anche un altro motivo legato alla produzione dei chip (e non del silicio) che favorisce l'utilizzo di wafer rotondi.
Se io ho un chip 100x100 la forma di wafer migliore sarebbe quadrata 1000x1000.
Se dopo un anno devo produrre un chip 120x120 la forma migliore sarebbe quadrata 1200x1200.
Ma cambiare dimensione del wafer significa cambiare la fabbrica stessa e questo non è proponibile.
Per questo motivo hanno fatto degli studi sulla dimensione e la forma migliore dei wafer al variare della dimensione del chip.
Produrre chip 120x120 su un wafer 1000x1000 posizionandoli al meglio significa avere su due bordi dei chip tagliati inutilizzabili.
Anche con una forma del wafer rotonda ci sono degli scarti ma a parità di superficie è stato dimostrato matematicamente che il numero di scarti su un wafer rotondo è inferiore al numero di scarti su un wafer quadrato.
Occorre anche aggiungere che i chip vengono creati sul wafer a partire dal centro e questo non favorisce la distribuzione migliore su un wafer quadrato, con il rischio di avere scarti sui quattro lati e non solo due.
Avevo letto un articolo sull'argomento qualche anno fa.
CIAO
Dommyreg
12-06-2009, 12:19
per ora sfruttiamo le nostre skede dx 10 ;)
nudo_conlemani_inTasca
19-06-2009, 21:57
@ Mail9000it
Ha letto correttamente l'articolo, forse avevano pubblicato proprio qui su hw upgrade un Focus sulle tecnologie realizzative al silicio.
Il fatto che i wafer di silicio siano di forma circolare e da 300mm pittosto che da 200mm è esattamente come l'hai spegato tu (anche se in maniera un po' contorta).
Potevi spiegarlo in modo più semplice inserendo degli esempi a corredo, il discorso sarebbe stato meglio esposto.. è solo un consiglio x te, nulla di più. :)
Ad ogni modo AMD sta tornando alla grande, sto aspettando con trepidazione il debutto delle nuove architetture VPU e CPU (Bulldozer/Bobcat e Chipset serie 800).
Quello sarà il grande ritorno sulla scena internazionale di AMD, con in più tutto il "know how" accumulato e a disposizione degli ingegneri ATI.
Finalmente arrivano i frutti dopo l'acquisizione e lo spin-off sofferte a partire dal 2005.
Bene! AMD è il momento di tornare leader come con l'Athlon64!
XP è obsoleto.
Sarà...ma dalle statistiche risulta che quasi il 70% dei pc, per ora, girano su XP:
http://www.w3schools.com/browsers/browsers_os.asp
vabbè che anche Vista ha una percentuale relativamente alta, ma secondo me se Windows 7 prende l'avvio (...e avrebbe anche le carte in regola per farlo), Vista lo vedo un po' spacciato...a meno che Microsoft non cali i prezzi pesantemente sulla linea Vista. E' un peccato comunque, dato che XP è durato ufficialmente 5 anni, però, in pratica ce l'hanno ancora tutti (o quasi) e invece Vista in teoria solo 3...e non è che lo vedo tanto bene, saprattutto con l'arrivo di Seven a punto. Io avrei in mente di saltare Vista, sperando che Windows 7 non sia un flop come il suo predecessore.
Se no...non lo so...ubuntu? :p
nudo_conlemani_inTasca
21-06-2009, 17:35
Caro Ice_v, devi ricordarti che Vista è il sistema operativo che ti fa fare:" Wooow!"
Non denigrarlo.. potresti avere la disgrazia di doverlo usare x forza.. :D
Mentre Windows Se7en.. ti farà fare.. prrrrr.... (speriamo di no)
Micene.1
21-06-2009, 17:42
Caro Ice_v, devi ricordarti che Vista è il sistema operativo che ti fa fare:" Wooow!"
Non denigrarlo.. potresti avere la disgrazia di doverlo usare x forza.. :D
Mentre Windows Se7en.. ti farà fare.. prrrrr.... (speriamo di no)
eh come no :O
Caro Ice_v, devi ricordarti che Vista è il sistema operativo che ti fa fare:" Wooow!"
Non denigrarlo.. potresti avere la disgrazia di doverlo usare x forza.. :D
Mentre Windows Se7en.. ti farà fare.. prrrrr.... (speriamo di no)
Interessante...il tuo commento è leggermente contrario alle informazioni della tua firma... :) Comunque deducco che forse il mio messaggio non è passato: Vista è stato un flop. Il fatto che Microsoft ha rilasciato dopo circa tre anni (però Vista è dal 2007 per il mercato pubblico...dato che nel 2006 era disponibile solo per aziende) un altro OS nuovo (o quasi) di zecca e il fatto che durante quest'arco di tempo XP non ha minimamente perso la sua presenza sui PC, ne è la prova. Ovviamente io mi sto riferendo sempre a copie originali di windows...e anche se volessi includere quelle pirata, scometto che la percentuale su XP arriverebbe addiritura a 80% (altro che 67,2%)...Vista? non saprei...se quelle originali s'aggirano sul 20%, sicuramente non andrebbe oltre il 40% con quelle pirata.
L'uscita di seven è imminente...e sto punto mi chiedo, che senso ha puntare su vista? Certo...ci sarebbe sta strategia dell'upgrade da vista a seven che sembra vantaggiosa in termini di prezzo finale...ma per i possesori di xp conviene adesso passare a vista per beneficiare dell'upgrade, o comprare seven direttamente? boh...se qualcuno m'illumina su quest'ultima parte gliene sarei grato.
Interessante...il tuo commento è leggermente contrario alle informazioni della tua firma... :) Comunque deducco che forse il mio messaggio non è passato: Vista è stato un flop. Il fatto che Microsoft ha rilasciato dopo circa tre anni (però Vista è dal 2007 per il mercato pubblico...dato che nel 2006 era disponibile solo per aziende) un altro OS nuovo (o quasi) di zecca e il fatto che durante quest'arco di tempo XP non ha minimamente perso la sua presenza sui PC, ne è la prova. Ovviamente io mi sto riferendo sempre a copie originali di windows...e anche se volessi includere quelle pirata, scometto che la percentuale su XP arriverebbe addiritura a 80% (altro che 67,2%)...Vista? non saprei...se quelle originali s'aggirano sul 20%, sicuramente non andrebbe oltre il 40% con quelle pirata.
L'uscita di seven è imminente...e sto punto mi chiedo, che senso ha puntare su vista? Certo...ci sarebbe sta strategia dell'upgrade da vista a seven che sembra vantaggiosa in termini di prezzo finale...ma per i possesori di xp conviene adesso passare a vista per beneficiare dell'upgrade, o comprare seven direttamente? boh...se qualcuno m'illumina su quest'ultima parte gliene sarei grato.
e si con le pirata si arriva al 120% 80 xp e 40 vista, già già che ragionamenti!
La storia si ripete ancora una volta, dx11 e nuovo hardware da cambiare ma non vi siete stancati di stare appresso a queste tecnologie con innovazioni nulle ed atte solo a prosciugare portafogli???
Quando ero più piccolo vedevo il progresso tecnologico con occhio di meraviglia, oggi devo dire proprio che sta tecnologia vomitevole mi fà proprio schifo........scusate il mega OT però qui i fessi siamo sempre noi che paghiamo l'inutilità a caro prezzo..........forse questa crisi economica non è poi tanto male perchè mette più ragione nelle teste delle persone..........mah....
Se questa è la ragione che ti ha messo, allora speriamo che ne usciamo subito, dalla crisi. Centinaia di anni di ricerca dell'umanità, le scoperte in campo chimico, fisico, matematico, elettronico e informatico, riuniti in prodotti finali che hanno visto la collaborazione di scenziati e ingegneri per generazioni, le cui scoperte hanno rivoluzionato il modo di vivere per sempre. Scoperte che sono alla base di tutto e di cui questi prodotti sono portavoce, al di la che il loro campo applicativo sia quello di "giocare", per quanto banale possa sembrare. Il tutto definito come "tecnologia vomitevole". Quale offesa all'intelletto umano. Definirla affermazione patetica è fargli un complimento. Prendilo in mano qualche libro, ogni tanto. Studia, non postare sui forum.
Sarà...ma dalle statistiche risulta che quasi il 70% dei pc, per ora, girano su XP:
http://www.w3schools.com/browsers/browsers_os.asp
Appunto, dalle statistiche risulta che il 70% dei PC è obsoleto.
full metal
12-08-2009, 13:19
le dx11 saranno sfruttate perchè saranno presenti nella nuova xbox
le dx11 saranno sfruttate perchè saranno presenti nella nuova xbox
Non si sa ancora nulla sulle nuove schede ati dx11?
killercode
12-08-2009, 19:49
Appunto, dalle statistiche risulta che il 70% dei PC è obsoleto.
Si dice adatto all'uso dell'utenza....
Buah... le dx 10 non sono state sfruttate praticamente per niente nel mondo videoludico sembra quasi sia stata una manovra commerciale per far abboccare i lucci a passare a Vistaschifo..
Comunque sinceramente parlando io vorrei cambiare la mia 8800 GT ma a questo punto sembrerebbe il caso di aspettare anche se e' rischioso prendere le prime versioni che supportano le DX 11
Per quanto riguarda Window Seven appena esce abbandonero' XP : ) pero' sono incerto se passare dal 32 bit al 64.. ma forse penso proprio di buttarmi sul 64 bit.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.