AMD e ATI: è ufficiale
L'accordo è stato ufficialmente confermato da AMD: 5,4 miliardi di dollari e un futuro basato sull'innovazione tecnologica
di Paolo Corsini pubblicata il 24 Luglio 2006, alle 12:01 nel canale ProcessoriATIAMD










Forza Horizon 6 Recensione: si vola in Giappone!
HONOR CHOICE AI Note, il registratore IA che si ricarica dallo smartphone
Insta360 GO 3S Pack Retrò: l'azione incontra lo stile delle macchine a pellicola
Volkswagen ID. Polo GTI: debutta la prima GTI elettrica da 226 CV, 0-100 in 6,8 secondi
Leapmotor è pronta a lanciare un secondo marchio di gamma medio alta
Honda lavora a un cambio virtuale per le moto elettriche, con tanto di vibrazioni 'da cambiata'
70mai A410 a 90,99€: la dashcam doppia a 2.5K con GPS che registra anche quando l'auto è parcheggiata
Garmin Instinct 3 Tactical in promo a 384,49€: lo smartwatch rugged con GPS in versione 50mm, senza rivali nel prezzo
ASUS ROG Edition 20: i primi moduli DDR5 a marchio ROG arrivano in kit da 48 GB con profili XMP ed EXPO
Polio, HPV e malaria: Anthropic e Gates Foundation vogliono distribuire l'IA dove non arriva
Stellantis sceglie la via di Wuhan: Peugeot e Jeep elettriche "Made in China" per l’export globale
ASUS ROG Crosshair 2006: tutto quello che devi sapere sulla motherboard che celebra i 20 anni della linea ROG
SpaceX ha intenzione di costruire più siti di lancio per il razzo spaziale Starship, negli USA e all'estero
OpenAI porta il suo agente di coding su smartphone con ChatGPT: come funziona e cosa non fa
Osmo Pocket 4P e la nuova frontiera dell’imaging tascabile professionale
HPE Compute Scale-up Server 3250: sino a 64 TB di RAM per gestire i database in-memory









153 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoFin qui si sono fatte solo ipotesi e congetture, non ci resta che attendere...
Probabilmente rimarranno die separati, al limite potrebbero essere inseriti nello stesso package. Immagino che l'idea di fondo sia quella di proporre delle CPU multicore bastate K8(L) con coprocessori ATI che si occuperebbero sia dei calcoli in virgola mobile che di quelli grafici, più il chipset, il tutto linkato da Hypertransport (come presentato nella tecnologia Torrenza).
Ho detto anch'io prima che i giochi non sfruttano più di tanto di dual core.
Non ho capito nemmeno la cosa della cpu, se hai un 4600 perchè dovresti passare mai al 3800???
Cmq non credo proprio che un 3800 sarà reperto da museo, forse per questo forum che siamo tutti maniaci del superpi,ma pensandoci bene neanche per il forum sarà reperto da museo, allora i celly dove li mettiamo e i sempron?
Questo processori si vendono eccome....io ne assemblo di macchine e ti assicuro che se ne vendono molti più di quanto tu possa immaginare...
Ritornando al 3800+ posso contare sulle dita di una mano quanti ne ho installati...
Sicuramente saprai che AMD ha intenzione di produrre una cpu dual core 3600+...quindi di logica conseguenza perchè dovrebbe sparire il 3800?
Il 3800+ X2 in realtà ha frequenze poco dissimili dal 3000+ single
La differenza prestazionale fra single e dual core c'è ma non è molto marcata
In ultima analisi, trovo che non sia saggio passare a una CPU superiore perchè il guadagno prestazionale è infinitesimo
Ma non tanto in relazione alla famiglia di processori AMD, quanto in relazione all'offerta globale in cui rientrano anche i Core 2 Duo
Ergo: questi 150€ se permetti preferisco mettermeli in sacoccia ed attuare un upgrade più proficuo in termini di longevità, rivendibilità, prestazioni, che non dare l'ossigeno a un malato comatoso...
Se invece parliamo di server single-task dove un raddoppio di core raggiunge un raddoppio di prestazioni allora l'upgrade diventa interessante perchè permette di risfruttare la piattaforma per altri mesi/anni
verissimo, tranne per il fatto che quello non era lo SLI...
una scheda per il 2d, l'altra per il 3d.
per come la vedo io, solo ora AMD ha una base su cui sviluppare autonomamente e proprie tecnologie senza dover x forza far affidamento a terzi per i chipset, bene!
Poi, uno dei motivi percui le attuali GPU siano così "calde" è il processo produttivo poco raffinato, cosa che con il know-how AMD/IBM si può facilmente risolvere
Al max potrebbero integrare una vpu come x1300...
Tanto per la stragrande maggioranza degli utenti andrebbe più che bene.
Non avrebbe senso mettere qualcosa di più potente,anche perchè si alzerebbero i costi e cmq chi vuol giocare cerca soluzioni discrete e non integrate....
Cmq siamo un pò OT
una scheda per il 2d, l'altra per il 3d.
per come la vedo io, solo ora AMD ha una base su cui sviluppare autonomamente e proprie tecnologie senza dover x forza far affidamento a terzi per i chipset, bene!
Bene per AMD, bene per ATI.. ma c'è anche chi da questa acquisizione si trova un po' nella cacchina, vedi per esempio VIA e SiS che si trovano sole in mezzo ai lupi e TSMC e UMC che si ritrovano con il 50% di produzione in meno... Questa acquisizione ha fatto saltare mooolti equilibri mondiali, e non riusciamo ancora ad avere il quadro di insieme
io a natale penso che mi comprerò un X2 3800+, scheda mamma e ATI X1650.
volevo passare al conroe ma poi leggendo "quello che AMD e Intel non dicono" preferisco temporeggiare
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".