Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2 è la nuova handheld PC gaming con processore AMD Ryzen Z2 Extreme (8 core Zen 5/5c, GPU RDNA 3.5 16 CU) e schermo OLED 8,8" 1920x1200 144Hz. È dotata anche di controller rimovibili TrueStrike con joystick Hall effect e una batteria da 74Wh. Rispetto al dispositivo che l'ha preceduta, migliora ergonomia e prestazioni a basse risoluzioni, ma pesa 920g e costa 1.299€ nella configurazione con 32GB RAM/1TB SSD e Z2 Extreme
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
A re:Invent 2025, AWS mostra un’evoluzione profonda della propria strategia: l’IA diventa una piattaforma di servizi sempre più pronta all’uso, con agenti e modelli preconfigurati che accelerano lo sviluppo, mentre il cloud resta la base imprescindibile per governare dati, complessità e lock-in in uno scenario sempre più orientato all’hybrid cloud
Cos'è la bolla dell'IA e perché se ne parla
Cos'è la bolla dell'IA e perché se ne parla
Si parla molto ultimamente di "bolla dell'intelligenza artificiale", ma non è sempre chiaro perché: l'IA è una tecnologia molto promettente e che ha già cambiato molte cose dentro e fuori le aziende, ma ci sono enormi aspettative che stanno gonfiando a dismisura i valori delle azioni e distorcendo il mercato. Il che, com'è facile intuire, può portare a una ripetizione della "bolla dotcom", e forse anche di quella dei mutui subprime. Vediamo perché
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 17-05-2017, 19:39   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: http://www.hwupgrade.it/news/cpu/goo...ale_68728.html

Il processore che Google ha sviluppato specificatamente per Intelligenza Artificiale e Machine Learning sfrutta ora le capacità del cloud: sarà inoltre a disposizione di ricercatori che ptoranno condurre gratuitamente i propri esperimenti

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 17-05-2017, 21:16   #2
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
I numeri sembrano uno sproposito, ma se non sono paragonati a quello che offrono gli altri non hanno molto senso.
Sopratutto non ha senso se non si parla di consumi.
nvidia offre 120TFLOPS per il DeepLearning con il nuovo GV100 in 300W.
AMD non si sa con Vega, visto che non sappiamo se e come è in grado di effettuare calcoli matriciali di questo tipo.
Di certo non è che Google è mille anni avanti al resto della ciurma con le sue soluzioni ad hoc (che fanno quello è poi basta).
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 17-05-2017, 21:47   #3
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
V100... GV100 non esiste ancora e come 100 la serie G è difficile che la facciano arrivare cosi' in alto (magari stesso numero di unità, ma in cut per resa).
120TF INT8 se consideri 15TF FP32, ma non è detto che quando calcoli in INT8 con quella macchina rimani a 300W o che comunque vada alla stessa frequenza... si sà ancora troppo poco su quel chip.

per questo TPU probabilmente si parla di 180TF FP16 (sono espressamente indicati in floating point e di solito la base piu' usata sul deep learning è FP16);
oltre questo non si sà nulla se non che un rack da 19x12" come standard ha 2X300W... ma chi li segue gli standard, ormai?
comunque per 11.5PF, non meno di un MW oggigiorno (e già cosi' sarebbe il doppio piu' efficiente di qualsiasi cosa vista con elevata densità, quindi mettiamoci almeno 2MW, con 2 PSU system standard).

ma senza dati son solo 4 chiacchere..
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 17-05-2017, 22:20   #4
acerbo
Senior Member
 
L'Avatar di acerbo
 
Iscritto dal: Mar 2012
Messaggi: 8798
180 mila miliardi di operazioni Floating Point al secondo

con quali consumi?
__________________
Pixel 5 - Galaxy S21 - Galaxy Tab S7 - Yoga Slim 7 Ryzen 7 16gb RAM - NUC i5-1145G7 /32Gb RAM /NVME 1Tb + SSD SATA 1Tb - BenQ EX2780Q + BenQ PD2500Q - XBOX Series S
acerbo è offline   Rispondi citando il messaggio o parte di esso
Old 18-05-2017, 14:27   #5
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da lucusta Guarda i messaggi
V100... GV100 non esiste ancora e come 100 la serie G è difficile che la facciano arrivare cosi' in alto (magari stesso numero di unità, ma in cut per resa).
120TF INT8 se consideri 15TF FP32, ma non è detto che quando calcoli in INT8 con quella macchina rimani a 300W o che comunque vada alla stessa frequenza... si sà ancora troppo poco su quel chip.

per questo TPU probabilmente si parla di 180TF FP16 (sono espressamente indicati in floating point e di solito la base piu' usata sul deep learning è FP16);
oltre questo non si sà nulla se non che un rack da 19x12" come standard ha 2X300W... ma chi li segue gli standard, ormai?
comunque per 11.5PF, non meno di un MW oggigiorno (e già cosi' sarebbe il doppio piu' efficiente di qualsiasi cosa vista con elevata densità, quindi mettiamoci almeno 2MW, con 2 PSU system standard).

ma senza dati son solo 4 chiacchere..
Compro un punto e una virgola.

A parte che il chip si chiama GV100: http://www.anandtech.com/show/11367/...ator-announced ed è la scheda a chiamarsi Tesla V100 (con Pascal era GP100 e la scheda Tesla P100), quello che tu definisci "GP100", cioè la versione per Geforce non ci sarà, perché ci sarà il GV102 come c'è stato il GP102 nella fascia enthusiast per Pascal.

Detto questo che corregge la prima inesattezza, prima di fare i calcoli della serva finendo con un "ma senza dati son solo 4 chiacchiere" magari dovresti leggere un po' di più di quel che esiste nel mondo reale così impari che ci sono altri che sanno fare calcoli molto meglio di te:
dallo stesso link (te lo evidenzio che magari fai fatica a leggere l'inglese e dopo mezz'ora non sei ancora arrivato al punto):
Quote:
By the numbers, Tesla V100 is slated to provide 15 TFLOPS of FP32 performance, 30 TFLOPS FP16, 7.5 TFLOPS FP64, and a whopping 120 TFLOPS of dedicated Tensor operations. With a peak clockspeed of 1455MHz, this marks a 42% increase in theoretical FLOPS for the CUDA cores at all size. Whereas coming from Pascal, for Tensor operations the gains will be closer to 6-12x, depending on the operation precision.
Tensor oprations = operazioni per il DeepLearning.
Poi come queste operazioni si trasformino in performance reali non lo so, così come non so quei 180TFLOPS dell'ASIC di Google come e dove operano (che banda hanno a disposizione?). Non si sa nemmeno se i tensor core possono funzionare insieme alle unità INT32 come fanno le unità FP32.

Ultima modifica di CrapaDiLegno : 18-05-2017 alle 14:32.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 22-05-2017, 14:30   #6
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4384
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Di certo non è che Google è mille anni avanti al resto della ciurma con le sue soluzioni ad hoc (che fanno quello è poi basta).
Se Google ha una soluzione che risolve in maniera brillante un problema, ed è più efficiente degli altri, poco conta se in ambiti non specifici vada male...
ovviamente se fino a ieri si sono appoggiate alle soluzioni come la S9300x2 e la P100, qualche dubbio è legittimo...ma se permetti ho qualche dubbio anche sul miglioramento reale della soluzione nvidia...
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'...
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti AWS re:Invent 2025: inizia l'era dell'AI-as-a-Se...
Cos'è la bolla dell'IA e perché se ne parla Cos'è la bolla dell'IA e perché se...
BOOX Palma 2 Pro in prova: l'e-reader diventa a colori, e davvero tascabile BOOX Palma 2 Pro in prova: l'e-reader diventa a ...
FRITZ!Repeater 1700 estende la rete super-veloce Wi-Fi 7 FRITZ!Repeater 1700 estende la rete super-veloce...
SpaceX: un satellite ha fotografato il s...
36 idee regalo con offerte Amazon sotto ...
Sony assume il controllo dei Peanuts: Sn...
DJI Neo scende a 149€ su Amazon, in vers...
Scoperto un nuovo esopianeta che orbita ...
Blue Origin NS-37: successo per la missi...
Potrebbe essere stata rilevata una super...
La cometa interstellare 3I/ATLAS è...
Xiaomi 17 Ultra: l'autonomia non sarà un...
Il processo produttivo a 2 nm di TSMC è ...
L'atteso aggiornamento dei driver della ...
The Elder Scrolls VI nel 2029 e Fallout ...
Il Ryzen 7 9850X3D appare nel catalogo d...
Weekend pre natalizio Amazon, ecco tutte...
Prezzi giù su Oral-B iO: spazzolini elet...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 23:03.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1