|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link all'Articolo: http://www.hwupgrade.it/articoli/skv...ist_index.html
Intervista a Bill Dally, attuale Chief Scientist di NVIDIA. Un'opportunità importante, non tanto per riuscire a confrontarsi, quanto per riuscire a capire, intuire e forse anche cogliere qualche sfumatura circa le prospettive di sviluppo future nell'ambito delle GPU Click sul link per visualizzare l'articolo. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Apr 2005
Messaggi: 2544
|
"Uno degli aspetti che stiamo curando e che ad oggi rappresenta il più grande limite delle schede video è la banda di memoria e il sistema di interconnessione ad essa. "
è abb preoccupante Y__Y "La sensazione di lentezza dello sviluppo software ci sarà sempre, ma solo perchè gli sviluppatori non cominciano mai a progettare software su hardware che non esiste e non si è ancora affermato." è ot ma le cpu multicore da quanti anni sono in commercio in ambito home e in ambito professionale? "La sensazione di lentezza dello sviluppo software ci sarà sempre, ma solo perchè gli sviluppatori non cominciano mai a progettare software su hardware che non esiste e non si è ancora affermato." è un'affermazione abbastanza pesante, chissà se verrà mantenuta! ![]() |
![]() |
![]() |
![]() |
#3 |
Member
Iscritto dal: Feb 2008
Messaggi: 157
|
Perche' questa intervista e' nel canale Antivirus e Sicurezza?
Perche' questa intervista e' nel canale Antivirus e Sicurezza?
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: May 2000
Messaggi: 1459
|
non mi risulta che le ultime CPU (p4 vs core, core vs Nehalem) abbiano fatto registrare incrementi prestazionali da una generazione all'altra del 10%.
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 20689
|
Ho come l'impressione che i 512bit e GDDR5, e le unità di calcolo a doppia precisione su GT300, che qualcuno ha ipotizzato tempo fa', non siano così campati in aria
![]() Per il resto, condivido in pieno la visione di una gpu impegnata non solo per giocare, ma anche per tutte quelle applicazioni che oggi richiedono cpu di fascia alta. Video encoding, fotoritocco e magari anche compressione/decompressione dati affidati alla gpu e d'un colpo, rendi quasi inutili tutti i quad core in commercio. Ci manca solo che nella gpu ci mettono il supporto per la virtualizzazione... E direi anche che ha "smontato" Larrabee in malo modo: spero per lui e per Nvidia che abbiano ragione, altrimenti possono anche chiudere bottega. |
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Feb 2000
Messaggi: 11113
|
E' molto sicuro di se, ben per lui.
Non sarà facile per nVidia, AMD/ATI da una parte e Intel dall'altra, alla fine è l'unica a non poter contare su un duplice mercato, questo potrebbe penalizzarla a lungo andare. Vedremo al prossimo giro come si delinierà il mercato video.
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 13600kf@5.7 Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 | PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w| ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
|
Nvidia è accerchiata da due concorrenti che la pressano sia sul campo dei videogiochi che su quello del General Computing.
Stanno accompagnando la trasizione di un prodotto polivalente, sacrificando un pochino troppo il settore del gaming per anticipare Intel sul altro versante. Da quanto si evince dai rumors, il GT300 pare abbia una resa in fonderia attorno al 20-30%, che definire scarsa è un eufenismo. Intel non è messa meglio con il suo bisonte da 600mm2, ma ho il sentore che Larrabee sarà migliore nel GP. Ati è indietro nel GPGPU, ma sta sfoggiando chip minuscoli dalle prestazioni comparabili con un target price che massacra nvidia. Secondo me la questione determinante è Larrabee, se intel mette a segno un duro colpo, grazie anche alla sua influenza sui developer, sarannò guai acidi per nvidia. Ultima modifica di Ren : 24-06-2009 alle 15:23. |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Sep 2002
Messaggi: 2555
|
Bah, è lì da 6 mesi e già lo odiano tutti.
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Dec 2008
Città: Torino
Messaggi: 1854
|
intervista interessante! Conferma quello che si dice in giro: che larrabee sia solo il solito spaventapasseri che da anni intel mette sul campo seminato a grano delle gpu... Sono rimasto colpito sull'affermazione dei problemi relativi alla banda di memoria: se una banda di oltre 120 Gb/sec è modesta significa che le loro aspettative sui prossimi chip sono qualcosa di estremo, oserei dire forse irreali! Sono noti a tutti i problemi delle rese infime coi nuovi processi già per produrre chip di piccole dimensioni come rv740. Ho come l'impressione che alla fine il g300 sarà un bel mammut ma con le zampe di cristallo! Non per niente il processore grafico di intel sarà a 45 nm, invece che 32 come il chip della cpu. Oltretutto fare gli adattamenti per garantire interconnessioni decenti tra le linee di bus per il gddr5 non deve essere stato qualcosa di tanto normale. Non oso pensare che razza di diagramma ad occhio sarà venuto fuori con un crosstalk di 512 linee digitali a 1GHz di clock (significa garantire almeno il passaggio dei 5GHz)! Sarà stato l'occhio di un cinese!
|
![]() |
![]() |
![]() |
#10 |
Member
Iscritto dal: Jun 2003
Città: Catania
Messaggi: 143
|
scusate se non centra nulla o quasi... ma appena ho visto il titolo e quindi il nome del tizio non ho potuto fare a meno di leggere sbadatamente Billy Ballo! Ahaahah immagino questo con Mariottide che cantano.. ^^
|
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: Apr 2005
Messaggi: 2544
|
wghaghwawghawghaghwaghwaghwaghwaghwaghwawghawghawghawghawghawgha
ma è impossibile! Billy Ballo è in carcere per pedofilia no?! |
![]() |
![]() |
![]() |
#12 |
Member
Iscritto dal: Nov 2007
Messaggi: 66
|
In pratica per il signor Bill tra qualche tempo sia Intel sia AMD/ATI saranno "sconfitte" dalle innumerevoli applicazioni che nVidia ha progettato e stà migliorando...
Sicuramente avrà molte frecce al suo arco e quelli di nVidia avranno fatto bene i compiti,speriamo solo che non siano andati fuori tema... |
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: May 2008
Messaggi: 383
|
Quote:
![]() Gli sketch del buon Maccio Capatonda non saranno più gli stessi... Tornando IT queste di Dally potrebbero essere anche soltanto dichiarazioni di circostanza, d'altronde no può mica dire "ci stiamo cag***o sotto per Larrabee, non abbiamo cpu per completare una nostra piattaforma completa al pari di "Dragon" e AMD fa ottime schede che costano la metà delle nostre", ammesso e non concesso che tutto questo sia vero, ovviamente... Comunque Nvidia ha poco da scherzare, è presa tra due fuochi...ecco perché sta spingendo i propri prodotti verso direzioni alternative oltre alla "semplice" grafica...per il resto quoto e straquoto il sig. Ren e poi si sa, il tempo è galantuomo e vedremo a chi darà ragione! |
|
![]() |
![]() |
![]() |
#14 |
Senior Member
Iscritto dal: May 2006
Città: Vergiate (VA)
Messaggi: 4315
|
apro un sondaggio...che vga ha billy dentro il suo case??
|
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Aug 2008
Messaggi: 2896
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#16 |
Senior Member
Iscritto dal: Nov 2000
Città: Varees
Messaggi: 9156
|
mi sembra un po' troppo sicuro di ciò che ati e intel non stanno facendo... cioè sembra che ci siano solo loro!
|
![]() |
![]() |
![]() |
#17 | |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 20689
|
Quote:
E se anche fosse "scarsa" una resa del genere su un chip di 2B di transistor e 450 mmq (rumor ovviamente), allora com'è quella attuale su RV740 di 826M e 137mmq? Fino a Natale, nella migliore delle ipotesi, TSMC ha tutto l'interesse a recuperare, perchè, anche questo è un rumor, ci sono produttori che pagano per "gpu finita" come Ati e produttori per "wafer finito" come Nvidia. D'altronde paga e pagherà ancora in futuro il ritardo per aver licenziato il 5% della forza lavoro a gennaio, per poi "pentirsene" e riassumerli a maggio ed in questi giorni. |
|
![]() |
![]() |
![]() |
#18 |
Senior Member
Iscritto dal: Mar 2005
Città: Mareno di Piave (TV)
Messaggi: 6102
|
Sarebbe interessante se alla fine dell'articolo venisse pubblicato il video dell'intervista (con e senza traduzione) come facevate in alcuni articoli dei mesi scorsi.
|
![]() |
![]() |
![]() |
#19 |
Senior Member
Iscritto dal: Jan 2005
Città: Gotham City
Messaggi: 1597
|
L'articolo è interessante... traccia le linee guida di nVidia e del Visual Computing da qua a q.che anno.
Rimane da capire per ciò che riguarda il mondo del videoludo se ATI e nVidia proporranno tecnologie totalmente diverse anche per la gestione della fisica (già ad oggi) rendendo molto difficoltoso il lavoro alle software house nello sviluppo di una o di un'altra architettura e pacchetto software inclusi (vedi PhisiX) già belli che pronti, quasi maturi, crescente aumento dei titoli che supportano questa tecnologia x la fisica degli oggetti e liquidi e netto balzo in avanti di CUDA, dove invece ATI è ancora in alto mare con STREAM, un po' come il livello di sviluppo per i Driver Video per Linux (anche li.. tanta strada da fare). vabbè.. vedremo ke succede per Natale 2009 e cosa bolle in pentola. |
![]() |
![]() |
![]() |
#20 |
Senior Member
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
|
aria fritta...
....i problemi del GPU-computing sono di debug... ..scrivi il codice in C++ o in C... lo esegui....non funziona o funziona con una lentezza esasperante...perchè?!?!?! dove ho sbagliato?!!?!? semplice...il codice viene caricato nella ram della scheda video opportunamente allocata...nel frattempo la scheda video comunque continua a processare i calcoli che i driver le impongono....e quindi ascolta i vari interrupt...la cpu aspetta che questi risultati siano pronti per essere ricaricati in ram ed essere riutilizzati per essere magari rispediti alla scheda video per essere visualizzati.... ![]() ![]() ![]() ![]() siamo alla follia totale!!! allora 1...nvidia vuol far credere che si puo' fare a meno della cpu...cosa falsa... 2...nvidia vuol far credere di essere capace di una potenza di calcolo di gran lunga superiore a quella attuale...anche questo falso.... 3...il processore CELL che all'apparenza puo' apparire come un aborto...in realtà fa quello che dovrebbe fare una GPU+CPU...pertanto un sistema dual package CELL+INTEL (o AMD) quad core già oggi farebbe oggi tranquillamente quello che invidia propone per i prossimi anni... allora perche' tanto fracasso?!!?! E' solo marketing, non lasciatevi influenzare.... aria fritta che noi ci beviamo...glu glu glu.... |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 22:08.