Jetson AGX Orin, il nuovo cervello di NVIDIA per i robot è fino a 6 volte più potente
NVIDIA ha annunciato Jetson AGX Orin, una board di sviluppo per diversi settori embedded, tra cui la robotica e l'ambito sanitario, che grazie a 12 core Arm e una GPU Ampere offre fino a 6 volte più potenza di calcolo rispetto alla precedente Jetson AGX Xavier.
di Manolo De Agostini pubblicata il 10 Novembre 2021, alle 09:41 nel canale SistemiAmpereNVIDIAJetson
NVIDIA ha annunciato Jetson AGX Orin, una nuova board (o come lo definisce l'azienda "supercomputer IA") dedicata al mondo della robotica, delle auto autonome, dei dispositivi medici e "altre forme di computing embedded" che si preannuncia fino sei volte più potente rispetto all'attuale Jetson AGX Xavier.

Il SoC Orin di NVIDIA (17 mld di transistor) è dotato di 12 core Arm Cortex-A78AE "Hercules" con clock fino a 2 GHz, 32 GB di memoria LPDDR5 collegata tramite un bus a 256 bit (bandwidth di 204 GB/s) e una GPU Ampere con 2048 CUDA core che opera a 1 GHz. Il SoC contiene anche due Deep Learning Accelerators (DLA), un acceleratore per la computer vision e si appoggia a 64GB di storage eMMC 5.1.

"In settori come la robotica, l'assistenza sanitaria, la vendita al dettaglio, i trasporti e altri comparti essenziali la domanda di potenza di calcolo continua a crescere", ha affermato Deepu Talla, vicepresidente e direttore generale per l'embedded e l'edge computing di NVIDIA. "Jetson AGX Orin risponde a questa esigenza, consentendo agli 850.000 sviluppatori Jetson e alle oltre 6.000 aziende che costruiscono prodotti commerciali basati su di esso di creare soluzioni autonome e applicazioni di intelligenza artificiale che una volta sembravano impossibili".

Secondo NVIDIA, Jetson AGX Orin ha un TDP impostabile tra 15 e 50 Watt, ed è in grado di raggiungere (al massimo TDP) 200 TOPS con calcoli INT8 legati al machine learning. Il modulo (100 x 87 mm come la board precedente, con cui è "pin compatibile") e il kit per sviluppatori saranno disponibili dal Q1 2022 - gli interessati possono riceve una notifica registrandosi presso questa pagina.













Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Renault Twingo E-Tech Electric: che prezzo!
Exynos 2600: temperature più basse del 30% grazie a una nuova tecnologia per il chip a 2 nm di Samsung
Apple si ispirerà a Nothing? Back cover trasparente per i prossimi iPhone
Da Intel ad AMD, il grande salto di Kulkarni nel cuore della guerra dell'AI
Velocità 12 volte superiore a quella del suono e zero emissioni, ecco l'aereo ipersonico a idrogeno
Una piccola Morte Nera è già sul mercato: il laser Apollo abbatte fino a 200 droni con una sola carica
Sei frodi che minacciano gli utenti nel 2025, e come proteggersi secondo Google
BioShock 4: Take-Two rassicura sullo sviluppo, ma il ritorno della serie resta lontano
Tesla, Musk promette FSD 'quasi pronto' e guida con messaggi al volante entro due mesi
BioWare conferma: il nuovo Mass Effect è in pieno sviluppo e sarà la priorità del team
5 robot aspirapolvere di fascia alta in forte sconto Black Friday: modelli top con lavaggio ad acqua calda, risparmi di centinaia di Euro
Xiaomi Redmi Note 14 5G a 179€ è veramente hot: 8GB di RAM, 256GB di memoria e fotocamera da 108MP con OIS
Veri affari con gli sconti de 15% Amazon Seconda Mano - Warehouse: ancora attiva la promozione di cui in pochi sono a conoscenza
Tutti gli iPhone 16 128GB a 699€, 16e a 599€: costano molto meno dei 17 e sono ottimi, in forte sconto
Take-Two ammette: vendite di Borderlands 4 inferiori alle attese a causa dei problemi della versione PC









9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa non vedo più da tempo core ARM basati su Project Denver: ormai nVidia utilizza le classiche IP ARM.
Si vede che ha abbandonato il suo core ARM.
/OT
Si vede che ha abbandonato il suo core ARM.
/OT
Ho lavorato con i proci famiglia Carmel con GPU Volta. Delle bestie di processori per l'epoca ma NVIDIA ha fatto di tutto per complicare il più possibile la vita degli sviluppatori: già solo arrivare a caricare il kernel era un delirio fra partizioni protette e contro partizioni (non ti dico cos'è calcolare un hash ad un livello così basso), ma poi ad esempio anche la gestione del boot del core R5 safety che in teoria si fa in 30 righe era resa molto difficile dalle scelte di NVIDIA (se fatta fuori dall'ambiente ubuntu consigliato).
Praticamente uscire dalla pessima distro ubuntu che davano a disposizione era davvero dura, se poi come nel mio caso dovevi scrivere il bootloader toccava fare un giro a Lourdes. Mancavano tante cose fra cui il supporto a KVM o Xen, le patch RT che dovetti portare con una versione custom del kernel e tante altre cose che resero poco popolari quelle soluzioni.
Credo che sia anche per questo che sono tornati verso architetture più standard, eccetto ovviamente la parte video. Certo è che è stato un lavoraccio ma anche un piacere scrivere per quelle CPU, in 35W erano dei piccoli mostri per l'epoca.
Praticamente uscire dalla pessima distro ubuntu che davano a disposizione era davvero dura, se poi come nel mio caso dovevi scrivere il bootloader toccava fare un giro a Lourdes. Mancavano tante cose fra cui il supporto a KVM o Xen, le patch RT che dovetti portare con una versione custom del kernel e tante altre cose che resero poco popolari quelle soluzioni.
I consumi non erano superiori rispetto ai core ARM dell'epoca con prestazioni simili? Visto che non era un'architettura ARM, ma doveva ricorrere a un traduttore in parte hardware, e ha parecchia memoria come cache per i blocchi di codice tradotti, penso che avrebbe dovuto consumare di più rispetto a una soluzione nativa.
Loro davano per scontato che i dev avrebbero usato la versione di Ubuntu preparata da Nvidia e magari cambiato il kernel. Non li ha sfiorati l'idea che qualcuno volesse far girare applicazioni barebone o che per varie ragioni qualcuno potesse avere bisogno di scrivere il bootloader.
In ogni caso anche la stabilità degli strumenti software al 2020 non era delle migliori, ricordo il programma per fare il flash dell'OS falliva non deterministicamente (cioè a parità di condizioni ogni tanto non ci riusciva) e personalmente non sono mai riuscito a farlo funzionare via ethernet, ma solo via usb.
Nota che in altre piattaforme della famiglia Jetson non era così, ad esempio le Jetson piccole (Nano e Tx2) erano molto più stabili. Credo che il problema sia stato nella grandissima complessità di gestione introdotta con la famiglia di proci "grandi" e la volontà di inserire feature forse (azzardo) troppo complesse rispetto allo standard dei sistemi embedded per automotive e all'esperienza di NVIDIA stessa nel settore.
Aveva una GPU che le altre soluzioni si sognavano, giustificavano i consumi così.
EDIT Alla fine per me è stata un'esperienza positiva, sono entrato in contatto con diversi maintainer del kernel linux ed ho visto un mondo che non conoscevo, però ecco... non abbiamo ricomprato un'altra soluzione di Nvidia per sistemi "embedded".
Grazie per le spiegazioni. Quindi, come pensavo, il valore aggiunto non era la CPU, ma la GPU.
confermo
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".