Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy S26 Ultra: finalmente qualcosa di nuovo
Recensione Samsung Galaxy S26 Ultra: finalmente qualcosa di nuovo
Per diversi giorni il Galaxy S26 Ultra di Samsung è stato il nostro compagno di vita. Oltre alle conferme del colosso coreano come la qualità del display e una suite AI senza rivali, arriva il Privacy Display, un unicum nel mondo smartphone. Ci sono ancora alcuni gap che non sono riusciti a colmare lato batteria e fotocamera, seppur con alcuni miglioramenti.
Diablo II Resurrected: il nuovo DLC Reign of the Warlock
Diablo II Resurrected: il nuovo DLC Reign of the Warlock
Abbiamo provato per voi il nuovo DLC lanciato a sorpresa da Blizzard per Diablo II: Resurrected e quella che segue è una disamina dei nuovi contenuti che abbiamo avuto modo di sperimentare nel corso delle nostre sessioni di gioco, con particolare riguardo per la nuova classe dello Stregone
Deep Tech Revolution: così Area Science Park apre i laboratori alle startup
Deep Tech Revolution: così Area Science Park apre i laboratori alle startup
Siamo tornati nel parco tecnologico di Trieste per il kick-off del programma che mette a disposizione di cinque startup le infrastrutture di ricerca, dal sincrotrone Elettra ai laboratori di genomica e HPC. Roberto Pillon racconta il modello e la visione
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 05-10-2022, 18:29   #41
Stefano Landau
Senior Member
 
Iscritto dal: Nov 2008
Messaggi: 720
Quote:
Originariamente inviato da ramses77 Guarda i messaggi
Bella cagata.
Già togliere il radar e usare le telecamere voglio vedere come funziona nella nebbia o nella pioggia, con la telecamera ricoperta di goccioline.
Togliere anche gli ultrasuoni per il parcheggio è la seconda cagata.
Come diavolo fa a darti una distanza, peraltro precisissima, come ora?
Si cambia per migliorare di solito, invece qui si cambia per spendere meno.
Detto da cliente.
Completamente d'accordo.
Le telecamere hanno troppi limiti.......
Nella nebbia non vedono, con la pioggia vedono peggio, possono essere abbagliate da un'auto che viene in senso opposto....... non aggiungono nulla alla sicurezza così, che è la cosa più importante.
Peccato, speriamo che ci pensino altri.....
Stefano Landau è offline   Rispondi citando il messaggio o parte di esso
Old 05-10-2022, 20:41   #42
Notturnia
Senior Member
 
L'Avatar di Notturnia
 
Iscritto dal: May 2008
Messaggi: 13451
Quote:
Originariamente inviato da Clax70 Guarda i messaggi
Premetto che ho una Tesla, ed una delle sua più grosse mancanze è l'assenza della telecamera frontale "bassa" ovvero quella che ti fa vedere gli ostacoli davanti al paraurti e di conseguenza l'assenza delle vista 360° (disponibile su tutte le auto di queso livello).

Quindi la domanda è senza aggiungerne una come fanno a dirmi se ho qualcosa davanti ? E se l'aggiungono come fanno con le auto già vendute se disattivano i sensori ad ultrasuoni ? Sfera di cristallo A.I. :-)
pensavo che la avesse..
sia sulla bmw che sulla mercedes c'è la telecamera sulla griglia per vedere davanti e due telecamere sulla parte alta del parabrezza
inoltre sulla parte bassa ho il radar anticollisione in entrambe

mi fa strano pensare che tesla lesini su queste cose visto i costi..
anche perchè è normale in certe situazioni fare fatica a vedere i problemi..

mi viene in mente la neve.. la nebbia.. certi momenti controluce.. etc..
dove il radar a volte mi ha avvisato di cose che ho tardato a vedere (non con la neve che il radar si disattiva)

boh.. ma si sa.. se puoi risparmiare dei soldi e far pagare alla gente alcuni imprenditori non ci pensano due volte
Notturnia è offline   Rispondi citando il messaggio o parte di esso
Old 05-10-2022, 22:18   #43
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6490
In Tesla devono essere proprio fissati con la visione computazionale, ma anche un essere umano non guida solo con gli occhi sebbene il sistema occhi-cervello sia in grado di fare semplicemente cose che per sistemi di visione basati su telecamere "convenzionali" sono complicatissime e fonti di errori.

Sono arrivati a sviluppare un supercomputer ottimizzato per le loro particolari esigenze di machine learning che é basato su processori ad hoc con tradeoff molto diversi da quanto altri hanno messo in commercio.
Su Chips&Cheese ne hanno fatto un analisi molto dettagliata:
https://chipsandcheese.com/2022/09/0...oarchitecture/

Fossi al loro posto punterei almeno anche sullo sviluppo di telecamere tipo event camera, ma da come stanno procedendo sembra siano intenzionati a implementare in software (o forse su fpga) tutto l'event processing a partire da immagini raster usando reti neurali addestrate con il loro supercomputer Dojo.
Mi chiedo cosa hanno in fase di sviluppo avanzato da portarli a decisioni come queste.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 05-10-2022, 23:26   #44
TorettoMilano
Senior Member
 
L'Avatar di TorettoMilano
 
Iscritto dal: Dec 2008
Messaggi: 18061
Quote:
Originariamente inviato da LMCH Guarda i messaggi
In Tesla devono essere proprio fissati con la visione computazionale, ma anche un essere umano non guida solo con gli occhi sebbene il sistema occhi-cervello sia in grado di fare semplicemente cose che per sistemi di visione basati su telecamere "convenzionali" sono complicatissime e fonti di errori.

Sono arrivati a sviluppare un supercomputer ottimizzato per le loro particolari esigenze di machine learning che é basato su processori ad hoc con tradeoff molto diversi da quanto altri hanno messo in commercio.
Su Chips&Cheese ne hanno fatto un analisi molto dettagliata:
https://chipsandcheese.com/2022/09/0...oarchitecture/

Fossi al loro posto punterei almeno anche sullo sviluppo di telecamere tipo event camera, ma da come stanno procedendo sembra siano intenzionati a implementare in software (o forse su fpga) tutto l'event processing a partire da immagini raster usando reti neurali addestrate con il loro supercomputer Dojo.
Mi chiedo cosa hanno in fase di sviluppo avanzato da portarli a decisioni come queste.
l'uomo non guida solo con gli occhi, guida pure col cu*o

a parte gli scherzi mi pare evidente sia sulle auto e sia sui robot vogliano usare lo stesso sistema di adeguamento allo spazio circostante basato sulle camere.

comunque continuo a non seguire il fine delle critiche sul "solo la vista non basta". personalmente immaginandomi con una vista a 360 gradi, vedendo a lunghissima distanza e riflessi sovrannaturali non riesco a immaginarsi nessuna situazione in cui avrei bisogno di un qualsiasi altro sensore per evitare situazioni pericolose. se ipoteticamente fossi quasi totalmente accecato semplicemente farei in modo di accostare o adeguerei il mio andamento in base alla visuale (un pò come già succede oggi sulle strade in caso di scarsa visibilità). non voglio con questo sminuire le numerose riflessioni anzi voglio dare uno spunto di riflessione in più

Ultima modifica di TorettoMilano : 05-10-2022 alle 23:28.
TorettoMilano è online   Rispondi citando il messaggio o parte di esso
Old 06-10-2022, 00:10   #45
Notturnia
Senior Member
 
L'Avatar di Notturnia
 
Iscritto dal: May 2008
Messaggi: 13451
Quote:
Originariamente inviato da TorettoMilano Guarda i messaggi
l'uomo non guida solo con gli occhi, guida pure col cu*o

a parte gli scherzi mi pare evidente sia sulle auto e sia sui robot vogliano usare lo stesso sistema di adeguamento allo spazio circostante basato sulle camere.

comunque continuo a non seguire il fine delle critiche sul "solo la vista non basta". personalmente immaginandomi con una vista a 360 gradi, vedendo a lunghissima distanza e riflessi sovrannaturali non riesco a immaginarsi nessuna situazione in cui avrei bisogno di un qualsiasi altro sensore per evitare situazioni pericolose. se ipoteticamente fossi quasi totalmente accecato semplicemente farei in modo di accostare o adeguerei il mio andamento in base alla visuale (un pò come già succede oggi sulle strade in caso di scarsa visibilità). non voglio con questo sminuire le numerose riflessioni anzi voglio dare uno spunto di riflessione in più
guidando in città capita spesso di ricevere flash di luce da superfici riflettenti in certe ore del giorno..
alba e tramonto per citarne alcune in cui abbassi le alette per non avere la luce negli occhi, momenti in cui le telecamere (anche le HDR) vengono accecate.. e in questo caso un secondo di reazione è un'enormità in città.. stiri facile il pedone che crede tu lo abbia visto.

un lidar non viene accecato dal sole e neanche un volgare radar.

capisco che muschio debba fare miliardi ma la vista non è perfetta in tutte le situazioni.. una cacca di un uccello puo' accecare una telecamera da 1 cm.. non puo' fermare un lidar ma alla peggio gli crea un disturbo
idem per il radar che non viene imbrogliato dalla foglia che raccogli in viaggio e si piazza li davanti

economiche e migliorabili le telecamere ma non ci affiderò mai la guida del mio veicolo visto che la responsabilità è la mia e ci sto io dentro alla macchina

sarei curioso di vedere come distingue un quadro realistico stile Bee-Beep disegnato su un muro in curva.. visto che tesla ha dimostrato di centrare camion grigi che non hanno contrasto con il cielo ceruleo..

sono contento per lui che è miliardario ma la mia tranquillità non si accontenta delle sue scorciatoie
Notturnia è offline   Rispondi citando il messaggio o parte di esso
Old 06-10-2022, 02:13   #46
frncr
Senior Member
 
Iscritto dal: May 2009
Messaggi: 904
Quote:
Originariamente inviato da LMCH Guarda i messaggi
un essere umano non guida solo con gli occhi
Sì e no. Non confondere i canali sensoriali che usiamo per acquisire informazioni sulla dinamica del veicolo con i canali sensoriali che usiamo per acquisire informazioni sull'ambiente nel quale il veicolo si muove.

Nella prima categoria ci sono il nostro senso vestibolare e i vari input "meccanici" come il feedback dal volante sulle mani. I veicoli moderni hanno già tutti gli equivalenti più sofisticati di questi canali sensoriali (accelerometro a 3 assi e giroscopio a 3 assi, sensore dell'angolo di sterzo, ecc.). I sistemi di gestione del veicolo, anche senza guida autonoma, hanno già più dati sulla dinamica rispetto a quelli ricavabili dai sensi del guidatore (ad esempio coppia motrice, velocità delle singole ruote, angolo di rollio, velocità di imbardata, ecc.). Sono i dati alla base del funzionamento di ABS, ESP, traction control, torque vectoring e quant'altro.

Nella seconda categoria ci sono i nostri sensi che permettono di percepire il mondo al di fuori del veicolo. Gli esseri umani hanno solo tre sensi che funzionano a distanza: vista, udito e olfatto. L'olfatto non è molto utile alla guida, al massimo ci avvisa quando il veicolo sta bruciando, o quando siamo finiti in un mucchio di letame. L'udito ci è a volte utile per percepire eventi fuori dal nostro campo visivo, per questo motivo abbiamo inventato i segnalatori acustici (clacson, sirene e simili). La vista è chiaramente il senso principale, in pratica quasi l'unico che utilizziamo per percepire l'ambiente ovvero la strada, gli altri veicoli, i pedoni, i segnali stradali, gli animali e quant'altro possiamo incontrare alla guida.

In prospettiva la scelta di basare l'input ambientale per la guida autonoma esclusivamente sulla visione è probabilmente la più sensata, proprio perché noi facciamo altrettanto e quando non ci distraiamo andiamo benino, anche se abbiamo un input visivo molto più limitato (pure con l'ausilio degli specchi retrovisori). I vari radar e lidar sono stati finora utilizzati per sopperire alle limitazioni hw e sw dei sistemi di visione artificiale, ma non c'è un motivo sostanziale perché la visione non possa progredire fino al punto di non aver più bisogno di stampelle.

Circa la notizia: i sensori di parcheggio non c'entrano nulla con la guida autonoma, e mi pare strano che possano essere eliminati perché con i sensori di immagine sarà difficile percepire ostacoli bassi molto vicini ai paraurti, in fase di uscita dai parcheggi o simili. Ma avranno fatto i loro conti.

Quote:
Originariamente inviato da LMCH
Mi chiedo cosa hanno in fase di sviluppo avanzato da portarli a decisioni come queste.
Basta guardare l'ultimo Tesla AI Day per farsi un'idea di cosa stanno facendo:
https://youtu.be/ODSJsviD_SU?t=3483
frncr è offline   Rispondi citando il messaggio o parte di esso
Old 10-10-2022, 09:51   #47
Stefano Landau
Senior Member
 
Iscritto dal: Nov 2008
Messaggi: 720
Quote:
Originariamente inviato da frncr Guarda i messaggi
Sì e no. Non confondere i canali sensoriali che usiamo per acquisire informazioni sulla dinamica del veicolo con i canali sensoriali che usiamo per acquisire informazioni sull'ambiente nel quale il veicolo si muove.

Nella prima categoria ci sono il nostro senso vestibolare e i vari input "meccanici" come il feedback dal volante sulle mani. I veicoli moderni hanno già tutti gli equivalenti più sofisticati di questi canali sensoriali (accelerometro a 3 assi e giroscopio a 3 assi, sensore dell'angolo di sterzo, ecc.). I sistemi di gestione del veicolo, anche senza guida autonoma, hanno già più dati sulla dinamica rispetto a quelli ricavabili dai sensi del guidatore (ad esempio coppia motrice, velocità delle singole ruote, angolo di rollio, velocità di imbardata, ecc.). Sono i dati alla base del funzionamento di ABS, ESP, traction control, torque vectoring e quant'altro.

Nella seconda categoria ci sono i nostri sensi che permettono di percepire il mondo al di fuori del veicolo. Gli esseri umani hanno solo tre sensi che funzionano a distanza: vista, udito e olfatto. L'olfatto non è molto utile alla guida, al massimo ci avvisa quando il veicolo sta bruciando, o quando siamo finiti in un mucchio di letame. L'udito ci è a volte utile per percepire eventi fuori dal nostro campo visivo, per questo motivo abbiamo inventato i segnalatori acustici (clacson, sirene e simili). La vista è chiaramente il senso principale, in pratica quasi l'unico che utilizziamo per percepire l'ambiente ovvero la strada, gli altri veicoli, i pedoni, i segnali stradali, gli animali e quant'altro possiamo incontrare alla guida.

In prospettiva la scelta di basare l'input ambientale per la guida autonoma esclusivamente sulla visione è probabilmente la più sensata, proprio perché noi facciamo altrettanto e quando non ci distraiamo andiamo benino, anche se abbiamo un input visivo molto più limitato (pure con l'ausilio degli specchi retrovisori). I vari radar e lidar sono stati finora utilizzati per sopperire alle limitazioni hw e sw dei sistemi di visione artificiale, ma non c'è un motivo sostanziale perché la visione non possa progredire fino al punto di non aver più bisogno di stampelle.

Circa la notizia: i sensori di parcheggio non c'entrano nulla con la guida autonoma, e mi pare strano che possano essere eliminati perché con i sensori di immagine sarà difficile percepire ostacoli bassi molto vicini ai paraurti, in fase di uscita dai parcheggi o simili. Ma avranno fatto i loro conti.


Basta guardare l'ultimo Tesla AI Day per farsi un'idea di cosa stanno facendo:
https://youtu.be/ODSJsviD_SU?t=3483



Quello che serve è un sistema per vedere nella nebbia ed avvisi di un pericolo.
Se vado a 130km/h in autostrada e mi trovo in un banco di nebbia di cui non mi ero accorto........ freno si..... ma mi trovo qualche secondo senza vedere dove vado. Stessa cosa le telecamere. IL RADAR o lidar serve per queste situazioni. Della guida autonoma posso farne a meno..... (guido io come ho fatto negli ultimi 35 anni....... ) un sistema di sicurezza in più come un radar però sarebbe veramente molto utile, anche costasse 500€ in più a macchina!
(Magari non in una citycar che se non esce dalla città non vedrà mai la nebbia, ma in qualsiasi auto che possa andare in autostrada direi che è indispensabile.....)
Stefano Landau è offline   Rispondi citando il messaggio o parte di esso
Old 10-10-2022, 09:56   #48
TorettoMilano
Senior Member
 
L'Avatar di TorettoMilano
 
Iscritto dal: Dec 2008
Messaggi: 18061
Quote:
Originariamente inviato da Stefano Landau Guarda i messaggi
Quello che serve è un sistema per vedere nella nebbia ed avvisi di un pericolo.
Se vado a 130km/h in autostrada e mi trovo in un banco di nebbia di cui non mi ero accorto........ freno si..... ma mi trovo qualche secondo senza vedere dove vado. Stessa cosa le telecamere. IL RADAR o lidar serve per queste situazioni. Della guida autonoma posso farne a meno..... (guido io come ho fatto negli ultimi 35 anni....... ) un sistema di sicurezza in più come un radar però sarebbe veramente molto utile, anche costasse 500€ in più a macchina!
(Magari non in una citycar che se non esce dalla città non vedrà mai la nebbia, ma in qualsiasi auto che possa andare in autostrada direi che è indispensabile.....)
ipotizzo nella situazione da te descritta succeda questo (o quantomeno dovrebbe succedere):
-l'auto rileva il banco di nebbia a distanza e rallenta (molto meglio di arrivare nel banco e inchiodare)
-dentro il banco di nebbia andrà a una velocità molto bassa

molto semplicemente non si creerà un pericolo
TorettoMilano è online   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy S26 Ultra: finalmente qualcosa di nuovo Recensione Samsung Galaxy S26 Ultra: finalmente ...
Diablo II Resurrected: il nuovo DLC Reign of the Warlock Diablo II Resurrected: il nuovo DLC Reign of the...
Deep Tech Revolution: così Area Science Park apre i laboratori alle startup Deep Tech Revolution: così Area Science P...
HP OMEN MAX 16 con RTX 5080: potenza da desktop replacement a prezzo competitivo HP OMEN MAX 16 con RTX 5080: potenza da desktop ...
Recensione Google Pixel 10a, si migliora poco ma è sempre un'ottima scelta Recensione Google Pixel 10a, si migliora poco ma...
La missione cinese Tianwen-3 per portare...
Un satellite di HEO Space ha catturato u...
Mini LED 144Hz a prezzo folle: questo Hi...
Novità per Fortinet: arrivano For...
Volkswagen e Xpeng, il SUV è real...
Volkswagen ribattezza ID.3 e le dà un mo...
Aruba rende disponibile VMware Hosted Pr...
Questa Olympus da 20 MP con stabilizzazi...
Il nuovo dispositivo di Rabbit si chiama...
'Se avete RAM, siamo pronti ad acquistar...
Veeam corregge diverse vulnerabilit&agra...
MacBook Neo segna una svolta per Apple: ...
Polestar pubblica il report LCA di Poles...
Il rame non basta più: NVIDIA, AM...
Velocissimo e consuma poco: ecco il nuov...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 19:31.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1