Redazione di Hardware Upg
10-09-2025, 00:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/amd-protagonista-al-ces-2026-il-keynote-di-lisa-su-tra-ai-cpu-gpu-e-nuove-prospettive_143199.html
Lisa Su, CEO di AMD, terrà il keynote di apertura del CES 2026, in programma il prossimo 5 gennaio a Las Vegas. L'intervento toccherà temi legati ad AI, CPU, GPU e tanto altro. Attese anticipazioni su Zen 6 e nuovi acceleratori Instinct, senza escludere annunci inediti.
Click sul link per visualizzare la notizia.
Con tenacia e resilienza sta mettendo all'angolo Intel. Se si concentrano sugli errori nel ramo GPU / AI (in primis non aver investito a sufficienza sul software e sui clienti, leggi CUDA e non solo) potrebbe riprendersi per essere un vero concorrente di nVidia.
PS avete notato che i CEO di Intel, nVidia e AMD hanno tutti gli occhi a mandorla ;)
Lisa e Jensen sono cugini per chi non lo sapesse
Max Power
10-09-2025, 08:02
Lisa e Jensen sono cugini per chi non lo sapesse
Lo sanno tutti eccetto gli Nvidiari :asd:
Per loro Jensen è nato da un orifizio diverso da tutti gli altri :asd:
supertigrotto
10-09-2025, 08:46
Con tenacia e resilienza sta mettendo all'angolo Intel. Se si concentrano sugli errori nel ramo GPU / AI (in primis non aver investito a sufficienza sul software e sui clienti, leggi CUDA e non solo) potrebbe riprendersi per essere un vero concorrente di nVidia.
PS avete notato che i CEO di Intel, nVidia e AMD hanno tutti gli occhi a mandorla ;)
AMD punta su un software generico open per IA ,non come Nvidia su quello proprietario.
CUDA sta facendo danni,non lo dico io ma pure un signor nessuno di nome Keller e altri del settore,appunto perché sta portando i programmatori a diventare pigri o essere in difficoltà fuori dall' ambiente CUDA.ci sono diverse interviste in merito a vari novizi del settore.
ninja750
10-09-2025, 09:16
facile salire sul palco e gongolare presentando zen6 :read:
salga sul palco a presentare RDNA5/UDNA con la gente che lancia i pomodori sul palco :O
CrapaDiLegno
10-09-2025, 10:05
AMD punta su un software generico open per IA ,non come Nvidia su quello proprietario.
CUDA sta facendo danni,non lo dico io ma pure un signor nessuno di nome Keller e altri del settore,appunto perché sta portando i programmatori a diventare pigri o essere in difficoltà fuori dall' ambiente CUDA.ci sono diverse interviste in merito a vari novizi del settore.
E' un punto di vista parziale, di quello prettamente tecnico senza guardare all'aspetto pratico ed economico della cosa.
Il danno di CUDA è sicuramente inferiore a quello che fanno altri linguaggi oggi usati anche per cose di basso livello.
Il trend, dagli anni '90 in poi, è stata la semplificazione della programmazione, vuoi perché programmare bene con linguaggi di basso livello è difficile, vuoi perché i sistemi sono diventati molto complicati e mantenere un progetto nel tempo è diventato molto costoso.
L'AI è una ulteriore complicazione a modelli e sistemi di sviluppo non pensati per gestire innumerevoli flussi paralleli. Anni fa era impensabile avere una macchina su cui potevano girare centinaia di migliaia di thread, per di più su dispositivi che non fossero pure CPU, e ci si è dovuto armare di nuove idee per rendere questo tipo di programmazione sfruttabile, sia in termini tecnici che economici.
Il problema non è essere open source o meno E' avere un ambiente di sviluppo stabile su cui uno possa investire le ingenti cifre richieste per creare applicazioni che devono girare su data center da milioni se non centinaia di milioni di dollari.
Non si parla di fare progetti pilota o quelli hobbistici per i quali va bene qualsiasi cosa che in poco tempo prospetti la riuscit, e se no, va be', si riparte con qualcosa di diverso.
Oggi, settembre 2025, non è stato sviluppato nulla che ha mantenuto saldo il metodo di lavoro e la possibilità di riuso del vecchio codice come lo è stato il framework su cui CUDA si basa. CUDA è nato quando ancora tutti pensavano che le CPU fossero insostituibili per fare calcoli. Pure Intel ci ha provato a fare sistemi con decine di core paralleli che fossero sfruttabili tramite il consueto percorso di programmazione. Oggi che le CPU sono solo il contorno ai veri dispositivi che macinano numeri, e la cosa è dovuta all'accelerazione di Nvidia in questo campo non certo alle parole di qualche guru, tutti gli altri (che poi sono produttori di CPU principalmente) sembra si siano svegliati ieri a comprendere la rivoluzione che è avvenuta e quindi la disponibilità di alternative a CUDA è pari a zero.
Nessuno, e ripeto nessuno sano di mente investirebbe le sorti di un progetto pluriennale dal costo di svariati milioni usando una suite di sviluppo che è mantenuta da un gruppo di ragazzi in un garage in un posto qualsiasi del mondo o da una società "ballerina" che oggi c'è, domani forse no e se ci sarà non è detto che continui lo sviluppo o decida di cominciare da zero con qualcosa di nuovo (se pensi ad AMD hai pensato giusto, ROCm è l'ultimo dei 4 o 5 tentativi di sviluppare qualcosa di simile a CUDA, chiunque abbia tentato di usare i suoi sistemi di sviluppo precedenti ha buttato tutto nel cesso ancora prima di arrivare in fondo).
La fossilizzazione nell'uso di CUDA per la programmazione di sistemi ultra paralleli nasce quindi da una questione puramente economica.
Certo sarebbe fantastico avere schiere di programmatori capaci di sviluppare programmi e modelli usando il linguaggio Z inventato da Pincopalla e diventato standard al punto di essere in grado di supportare qualsiasi architettura odierna e futura con un ambiente aperto.
La realtà è che non esiste e nessuno investe milioni e ipoteca anni di risultati su un sistema acerbo e dal futuro non sicuro.
CUDA ha dimostrato in tutti i suoi anni di sviluppo di poter offrire un framework che è rimasto sempre compatibile con il passato ma supportando sempre in tempo zero le novità HW, che è garanzia che quello che ho fatto ieri e oggi non vada perso domani, aggiornato alle ultime novità, sia HW che SW, senza aspettare l'intervento divino ed è stato continuamente espanso in termini di tool e librerie che permettono di migliorare le metodologie di lavoro, semplificare passaggi e sincronizzazioni con altri tool altrimenti ostici e quindi DI RIDURRE I TEMPI DI SVILUPPO con quindi riduzione dei costi di sviluppo e vantaggi in termini di TTM.
I grandi luminari dell'informatica possono lamentarsi quanto vogliono circa quello che è il presunto danno che CUDA sta facendo, ma ciò che conta per il successo di adozione di uno strumento informatico non è "la bellezza estetica" o quella "spirituale", "comunitaria", "utopica", ma la sua efficacia reale a risolvere problemi e aumentare la produttività, che sia personale (si veda il successo dei prodotti Apple che sono semplificati al massimo e piuttosto blindati nel loro uso) sia quella di intere industrie come quelle che stanno investendo miliardi (dico miliardi) nell'AI.
Quando avranno capito questa semplice cosa forse capiranno anche perché l'anno prossimo sarà l'ennesimo anno di Linux.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.