PDA

View Full Version : Intervista a Bill Dally, NVIDIA Chief Scientist


Redazione di Hardware Upg
24-06-2009, 15:16
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2233/intervista-a-bill-dally-nvidia-chief-scientist_index.html

Intervista a Bill Dally, attuale Chief Scientist di NVIDIA. Un'opportunità importante, non tanto per riuscire a confrontarsi, quanto per riuscire a capire, intuire e forse anche cogliere qualche sfumatura circa le prospettive di sviluppo future nell'ambito delle GPU

Click sul link per visualizzare l'articolo.

Severnaya
24-06-2009, 15:31
"Uno degli aspetti che stiamo curando e che ad oggi rappresenta il più grande limite delle schede video è la banda di memoria e il sistema di interconnessione ad essa. "


è abb preoccupante Y__Y


"La sensazione di lentezza dello sviluppo software ci sarà sempre, ma solo perchè gli sviluppatori non cominciano mai a progettare software su hardware che non esiste e non si è ancora affermato."


è ot ma le cpu multicore da quanti anni sono in commercio in ambito home e in ambito professionale?


"La sensazione di lentezza dello sviluppo software ci sarà sempre, ma solo perchè gli sviluppatori non cominciano mai a progettare software su hardware che non esiste e non si è ancora affermato."


è un'affermazione abbastanza pesante, chissà se verrà mantenuta! :asd:

diddum
24-06-2009, 15:31
Perche' questa intervista e' nel canale Antivirus e Sicurezza?

The3DProgrammer
24-06-2009, 15:42
non mi risulta che le ultime CPU (p4 vs core, core vs Nehalem) abbiano fatto registrare incrementi prestazionali da una generazione all'altra del 10%.

Mparlav
24-06-2009, 15:51
Ho come l'impressione che i 512bit e GDDR5, e le unità di calcolo a doppia precisione su GT300, che qualcuno ha ipotizzato tempo fa', non siano così campati in aria ;)

Per il resto, condivido in pieno la visione di una gpu impegnata non solo per giocare, ma anche per tutte quelle applicazioni che oggi richiedono cpu di fascia alta.
Video encoding, fotoritocco e magari anche compressione/decompressione dati affidati alla gpu e d'un colpo, rendi quasi inutili tutti i quad core in commercio.
Ci manca solo che nella gpu ci mettono il supporto per la virtualizzazione...

E direi anche che ha "smontato" Larrabee in malo modo: spero per lui e per Nvidia che abbiano ragione, altrimenti possono anche chiudere bottega.

Maury
24-06-2009, 15:55
E' molto sicuro di se, ben per lui.

Non sarà facile per nVidia, AMD/ATI da una parte e Intel dall'altra, alla fine è l'unica a non poter contare su un duplice mercato, questo potrebbe penalizzarla a lungo andare. Vedremo al prossimo giro come si delinierà il mercato video.

Ren
24-06-2009, 16:19
Nvidia è accerchiata da due concorrenti che la pressano sia sul campo dei videogiochi che su quello del General Computing.

Stanno accompagnando la trasizione di un prodotto polivalente, sacrificando un pochino troppo il settore del gaming per anticipare Intel sul altro versante.

Da quanto si evince dai rumors, il GT300 pare abbia una resa in fonderia attorno al 20-30%, che definire scarsa è un eufenismo.
Intel non è messa meglio con il suo bisonte da 600mm2, ma ho il sentore che Larrabee sarà migliore nel GP.

Ati è indietro nel GPGPU, ma sta sfoggiando chip minuscoli dalle prestazioni comparabili con un target price che massacra nvidia.

Secondo me la questione determinante è Larrabee, se intel mette a segno un duro colpo, grazie anche alla sua influenza sui developer, sarannò guai acidi per nvidia.

Wonder
24-06-2009, 16:28
Bah, è lì da 6 mesi e già lo odiano tutti.

g.luca86x
24-06-2009, 16:40
intervista interessante! Conferma quello che si dice in giro: che larrabee sia solo il solito spaventapasseri che da anni intel mette sul campo seminato a grano delle gpu... Sono rimasto colpito sull'affermazione dei problemi relativi alla banda di memoria: se una banda di oltre 120 Gb/sec è modesta significa che le loro aspettative sui prossimi chip sono qualcosa di estremo, oserei dire forse irreali! Sono noti a tutti i problemi delle rese infime coi nuovi processi già per produrre chip di piccole dimensioni come rv740. Ho come l'impressione che alla fine il g300 sarà un bel mammut ma con le zampe di cristallo! Non per niente il processore grafico di intel sarà a 45 nm, invece che 32 come il chip della cpu. Oltretutto fare gli adattamenti per garantire interconnessioni decenti tra le linee di bus per il gddr5 non deve essere stato qualcosa di tanto normale. Non oso pensare che razza di diagramma ad occhio sarà venuto fuori con un crosstalk di 512 linee digitali a 1GHz di clock (significa garantire almeno il passaggio dei 5GHz)! Sarà stato l'occhio di un cinese!

Eizo114
24-06-2009, 17:29
scusate se non centra nulla o quasi... ma appena ho visto il titolo e quindi il nome del tizio non ho potuto fare a meno di leggere sbadatamente Billy Ballo! Ahaahah immagino questo con Mariottide che cantano.. ^^

Severnaya
24-06-2009, 18:06
wghaghwawghawghaghwaghwaghwaghwaghwaghwawghawghawghawghawghawgha


ma è impossibile! Billy Ballo è in carcere per pedofilia no?!

barbacat
24-06-2009, 18:23
In pratica per il signor Bill tra qualche tempo sia Intel sia AMD/ATI saranno "sconfitte" dalle innumerevoli applicazioni che nVidia ha progettato e stà migliorando...
Sicuramente avrà molte frecce al suo arco e quelli di nVidia avranno fatto bene i compiti,speriamo solo che non siano andati fuori tema...

davyjones
24-06-2009, 19:27
wghaghwawghawghaghwaghwaghwaghwaghwaghwawghawghawghawghawghawgha


ma è impossibile! Billy Ballo è in carcere per pedofilia no?!

eh già...l'hanno pizzicato mentre riaccompagnava a casa una 13enne...:(

Gli sketch del buon Maccio Capatonda non saranno più gli stessi...

Tornando IT queste di Dally potrebbero essere anche soltanto dichiarazioni di circostanza, d'altronde no può mica dire "ci stiamo cag***o sotto per Larrabee, non abbiamo cpu per completare una nostra piattaforma completa al pari di "Dragon" e AMD fa ottime schede che costano la metà delle nostre", ammesso e non concesso che tutto questo sia vero, ovviamente...
Comunque Nvidia ha poco da scherzare, è presa tra due fuochi...ecco perché sta spingendo i propri prodotti verso direzioni alternative oltre alla "semplice" grafica...per il resto quoto e straquoto il sig. Ren e poi si sa, il tempo è galantuomo e vedremo a chi darà ragione!

SUPERALEX
24-06-2009, 21:39
apro un sondaggio...che vga ha billy dentro il suo case??

hermanss
24-06-2009, 22:57
apro un sondaggio...che vga ha billy dentro il suo case??


Mah non saprei...una ATI? :asd:

frankie
25-06-2009, 00:20
mi sembra un po' troppo sicuro di ciò che ati e intel non stanno facendo... cioè sembra che ci siano solo loro!

Mparlav
25-06-2009, 10:08
Da quanto si evince dai rumors, il GT300 pare abbia una resa in fonderia attorno al 20-30%, che definire scarsa è un eufenismo.


Rumor di Theo Valich, precisiamolo.
E se anche fosse "scarsa" una resa del genere su un chip di 2B di transistor e 450 mmq (rumor ovviamente), allora com'è quella attuale su RV740 di 826M e 137mmq?
Fino a Natale, nella migliore delle ipotesi, TSMC ha tutto l'interesse a recuperare, perchè, anche questo è un rumor, ci sono produttori che pagano per "gpu finita" come Ati e produttori per "wafer finito" come Nvidia.
D'altronde paga e pagherà ancora in futuro il ritardo per aver licenziato il 5% della forza lavoro a gennaio, per poi "pentirsene" e riassumerli a maggio ed in questi giorni.

Spitfire84
25-06-2009, 10:42
Sarebbe interessante se alla fine dell'articolo venisse pubblicato il video dell'intervista (con e senza traduzione) come facevate in alcuni articoli dei mesi scorsi.

nudo_conlemani_inTasca
25-06-2009, 13:29
L'articolo è interessante... traccia le linee guida di nVidia e del Visual Computing da qua a q.che anno.

Rimane da capire per ciò che riguarda il mondo del videoludo se ATI e nVidia proporranno tecnologie totalmente diverse anche per la gestione della fisica (già ad oggi) rendendo molto difficoltoso il lavoro alle software house nello sviluppo di una o di un'altra architettura e pacchetto software inclusi (vedi PhisiX) già belli che pronti, quasi maturi, crescente aumento dei titoli che supportano questa tecnologia x la fisica degli oggetti e liquidi e netto balzo in avanti di CUDA, dove invece ATI è ancora in alto mare con STREAM, un po' come il livello di sviluppo per i Driver Video per Linux (anche li.. tanta strada da fare).

vabbè.. vedremo ke succede per Natale 2009 e cosa bolle in pentola.

homero
25-06-2009, 13:31
aria fritta...
....i problemi del GPU-computing sono di debug...
..scrivi il codice in C++ o in C... lo esegui....non funziona o funziona con una lentezza esasperante...perchè?!?!?!
dove ho sbagliato?!!?!?
semplice...il codice viene caricato nella ram della scheda video opportunamente allocata...nel frattempo la scheda video comunque continua a processare i calcoli che i driver le impongono....e quindi ascolta i vari interrupt...la cpu aspetta che questi risultati siano pronti per essere ricaricati in ram ed essere riutilizzati per essere magari rispediti alla scheda video per essere visualizzati....

:muro: :muro: :muro: :muro:

siamo alla follia totale!!!

allora 1...nvidia vuol far credere che si puo' fare a meno della cpu...cosa falsa...
2...nvidia vuol far credere di essere capace di una potenza di calcolo di gran lunga superiore a quella attuale...anche questo falso....

3...il processore CELL che all'apparenza puo' apparire come un aborto...in realtà fa quello che dovrebbe fare una GPU+CPU...pertanto un sistema dual package CELL+INTEL (o AMD) quad core già oggi farebbe oggi tranquillamente quello che invidia propone per i prossimi anni...

allora perche' tanto fracasso?!!?!

E' solo marketing, non lasciatevi influenzare....

aria fritta che noi ci beviamo...glu glu glu....

Rufus86
25-06-2009, 15:51
Per pura curiosità, attualmente David Kirk cosa fà? E' sembre dentro nVIDIA?

Il declino della mentalità di Kirk all'interno della società si è visto con G80, ricordo infatti che, nelle interviste di qualche mese prima il rilascio, David andava dicendo che le ALU generiche non erano idonee e che preferiva le pipeline specializzate in un solo ruolo.

qasert
25-06-2009, 15:51
xchè dare tuttta quest importanza a larrabee pensate veramente che chi gioca col pc possa bastare un larrabee?

MiKeLezZ
25-06-2009, 22:48
Per pura curiosità, attualmente David Kirk cosa fà? E' sembre dentro nVIDIA?Sì, l'hanno retrocesso a fanboy a pagamento. Ocio con chi parli, potrebbe essere ovunque.

Rufus86
26-06-2009, 16:22
Sì, l'hanno retrocesso a fanboy a pagamento. Ocio con chi parli, potrebbe essere ovunque.

Abbiamo svelato l'identità di halduemilauno. :asd:

mjordan
27-06-2009, 00:28
Gli hanno fatto le scarpe o c'è stato un semplice "passaggio di consegna"? :mbe:
Dove è andato a finire David Kirk? :muro:
Io stavo aspettando il suo libro sulla programmazione CUDA. Devo ritenerlo cancellato? :mad:

mjordan
27-06-2009, 00:31
Per pura curiosità, attualmente David Kirk cosa fà? E' sembre dentro nVIDIA?

Il declino della mentalità di Kirk all'interno della società si è visto con G80, ricordo infatti che, nelle interviste di qualche mese prima il rilascio, David andava dicendo che le ALU generiche non erano idonee e che preferiva le pipeline specializzate in un solo ruolo.

Avrà avuto le sue ragioni, non capisco perchè vada considerato "declino". Anzi, se vogliamo dirla tutta, Kirk è il papà di Cg. Quindi non consideriamolo troppo "in declino". Avessi io qualche grammo del suo cervello.

MiKeLezZ
27-06-2009, 01:50
Gli hanno fatto le scarpe o c'è stato un semplice "passaggio di consegna"? :mbe:
Dove è andato a finire David Kirk? :muro:
Io stavo aspettando il suo libro sulla programmazione CUDA. Devo ritenerlo cancellato? :mad:mica scherzavo
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=3266

mjordan
27-06-2009, 21:43
mica scherzavo
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=3266

Se è un'nvidia fellow, significa che è salito di categoria, altro che scarpe. Certo che stare sopra alla categoria di chief scientist di un'azienda del genere devi fare colazione la mattina con pane e neuroni...