Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70 porta il concetto di smartphone ultrasottile su un terreno più concreto e accessibile: abbina uno spessore sotto i 6 mm a una batteria di capacità relativamente elevata, un display pOLED da 6,7 pollici e un comparto fotografico triplo da 50 MP. Non punta ai record di potenza, ma si configura come alternativa più pragmatica rispetto ai modelli sottili più costosi di Samsung e Apple
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Sono molte le novità che ASUS ha scelto di presentare al CES 2026 di Las Vegas, partendo da una gamma di soluzioni NUC con varie opzioni di processore passando sino agli schermi gaming con tecnologia OLED. Il tutto senza dimenticare le periferiche di input della gamma ROG e le soluzioni legate alla connettività domestica
Le novità ASUS per il 2026 nel settore dei PC desktop
Le novità ASUS per il 2026 nel settore dei PC desktop
Molte le novità anticipate da ASUS per il 2026 al CES di Las Vegas: da schede madri per processori AMD Ryzen top di gamma a chassis e ventole, passando per i kit di raffreddamento all in one integrati sino a una nuova scheda video GeForce RTX 5090. In sottofondo il tema dell'intelligenza artificiale con una workstation molto potente per installazioni non in datacenter
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 28-09-2021, 17:50   #121
the_joe
Senior Member
 
L'Avatar di the_joe
 
Iscritto dal: May 2003
Città: Lucca
Messaggi: 15091
Quote:
Originariamente inviato da baolian Guarda i messaggi
In casi come quello dell'esempio (non stiamo a questionare su quisquilie; è un esempio!), quando l'incidente è inevitabile, qualunque sia la reazione umana è in qualche modo giustificata.
Se tuttavia è un programmatore a dover decidere a priori cosa debba fare l'auto in un caso del genere (o comunque ad istruire un'IA con dei criteri di scelta), si apre un problema etico.
Il programatore decide con la sue istruzioni chi sacrificare.
Sono d'accordo nel dire che l'IA deve fondamentalmente tutelare la vita del conducente; però le casistiche non sono così "assolute".

Da un lato abbiamo l'investimento di un pedone, che non avendo nessuna forma di protezione è quasi sicuramente destinato alla morte; dall'altro un frontale con un altro veicolo, dove grazie a cinture, airbag, scocche moderne ultra sicure, la morte è solo una eventualità anche se sicuramente non ne esci senza danni fisici.
Cosa deve scegliere il programmatore: morte sicura del "colpevole" pedone o danni fisici con morte solo eventuale del conducente?

E se il pedone fosse (è sempre un esempio, non stiamo a cercare di modificarlo per non affrontare il problema) una madre col bambino e nell'auto un solo occupante? Cosa dovrebbe scegliere l'IA quand'anche fosse ad alto rischio anche la vita della persona a bordo del veicolo?
La sola vita dell'"innocente" a bordo oppure le due vite dei pedoni di cui uno comunque altrettanto "innocente"?
Scusa eh, ma intanto una macchina a guida autonoma rispetterebbe sempre e comunque il codice della strada che impone di rallentare in presenza di incroci, strisce pedonali, ingombri sulla carreggiata, situazioni di traffico complicate ecc. per cui l'esempio che porti diventerebbe oltremodo improbabile a meno di considerare la volontà di suicidio del pedone.
__________________
焦爾焦
the_joe è offline   Rispondi citando il messaggio o parte di esso
Old 28-09-2021, 17:59   #122
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da baolian Guarda i messaggi
Il programatore decide con la sue istruzioni chi sacrificare.
Non è così che funziona l'AI, non c'è un codice del tipo

Codice:
if ( BAMBINO && CANE ) { result = kill(CANE); }

L'AI impara e crea modelli in autonomia che non sono responsabilità del programmatore, il quale gli ha detto solo COME imparare, e non COSA. Nel caso descritto l'AI farebbe una scelta unica perché nessuna condizione iniziale è uguale all'altra, ma la farebbe assegnando dei pesi che hanno già dimostrato statisticamente di funzionare molto bene in quelle situazioni. Su milioni di casi qualche volta prenderà anche sotto il bambino, l'importante è che lo faccia meno rispetto ad un essere umano.
mmorselli è offline   Rispondi citando il messaggio o parte di esso
Old 28-09-2021, 19:05   #123
baolian
Senior Member
 
L'Avatar di baolian
 
Iscritto dal: Oct 2004
Messaggi: 1895
Quote:
Originariamente inviato da the_joe Guarda i messaggi
Scusa eh, ma intanto una macchina a guida autonoma rispetterebbe sempre e comunque il codice della strada che impone di rallentare in presenza di incroci, strisce pedonali, ingombri sulla carreggiata, situazioni di traffico complicate ecc. per cui l'esempio che porti diventerebbe oltremodo improbabile a meno di considerare la volontà di suicidio del pedone.
L'esempio può anche non essere perfetto, ma è il concetto che conta.
Non avete mai visto un bambino rincorrere una palla?
Una persona attraversare all'improvviso senza guardare dove non si può ed all'ultimo momento perchè magari è col telefonino?
Oppure attraversare a 20 all'ora col monopattino?
Oppure oppure oppure?
Non è il caso di cavillare su di un esempio, per quanto perfettibile. E' un esempio, serve solo a rappresentare una vastissima casistica più o meno ponderabile.


Quote:
Originariamente inviato da mmorselli Guarda i messaggi
Non è così che funziona l'AI, non c'è un codice del tipo

Codice:
if ( BAMBINO && CANE ) { result = kill(CANE); }

L'AI impara e crea modelli in autonomia che non sono responsabilità del programmatore, il quale gli ha detto solo COME imparare, e non COSA. Nel caso descritto l'AI farebbe una scelta unica perché nessuna condizione iniziale è uguale all'altra, ma la farebbe assegnando dei pesi che hanno già dimostrato statisticamente di funzionare molto bene in quelle situazioni. Su milioni di casi qualche volta prenderà anche sotto il bambino, l'importante è che lo faccia meno rispetto ad un essere umano.
Ovviamente il programmatore non può dire il COSA.
Sarebbe pretendere che preveda tutte le possibile casistiche.
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.
Io credo che questo apra anche un problema di tipo etico oltre che quello prettamente tecnico.
__________________
Un uomo intelligente risolve i problemi
Un uomo molto intelligente li previene
baolian è offline   Rispondi citando il messaggio o parte di esso
Old 28-09-2021, 19:14   #124
Notturnia
Senior Member
 
L'Avatar di Notturnia
 
Iscritto dal: May 2008
Messaggi: 13177
Quote:
Originariamente inviato da baolian Guarda i messaggi
L'esempio può anche non essere perfetto, ma è il concetto che conta.
Non avete mai visto un bambino rincorrere una palla?
Una persona attraversare all'improvviso senza guardare dove non si può ed all'ultimo momento perchè magari è col telefonino?
Oppure attraversare a 20 all'ora col monopattino?
Oppure oppure oppure?
Non è il caso di cavillare su di un esempio, per quanto perfettibile. E' un esempio, serve solo a rappresentare una vastissima casistica più o meno ponderabile.




Ovviamente il programmatore non può dire il COSA.
Sarebbe pretendere che preveda tutte le possibile casistiche.
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.
Io credo che questo apra anche un problema di tipo etico oltre che quello prettamente tecnico.
è stato più e più volte dimostrato che le IA imparano in funzione di quello che gli viene fatto "vedere" durante l'insegnamento e quindi faranno quello che hanno "visto" essere la scelta giusta e questa, come detto sopra, dipende da quello che gli è stato insegnato da chi le ha create

fra l'altro è uno dei motivi per cui hanno fatto presente quanto sia importante l'istruzione delle IA per evitare problemi di razzismo nelle IA che esagerano velocemente quello che apprendono.. era anche una notizia qua su HW 1.0 tempo fa.. avevano chiuso un progetto universitario proprio perchè a furia di far vedere immagini di persone bianche la IA era divenuta razzista nei confronti di persone diverse
Notturnia è offline   Rispondi citando il messaggio o parte di esso
Old 28-09-2021, 20:12   #125
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da baolian Guarda i messaggi
Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte.
La domanda che risolve il problema etico è questa: Il programmatore poteva prevedere l'esito di un incidente che secondo la comunità avrebbe dovuto avere un epilogo diverso?

Se la risposta è sì, allora che si intervenga anche a livello legislativo, come quando si impone un limite di età per salire in giostra o si impongono misure di sicurezza diverse per i bambini in auto.

Se la risposta è no, come può qualcuno essere eticamente responsabile di qualcosa che non poteva prevedere?
mmorselli è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 00:29   #126
mrk-cj94
Senior Member
 
Iscritto dal: Nov 2014
Messaggi: 4375
Quote:
Originariamente inviato da baolian Guarda i messaggi
In casi come quello dell'esempio (non stiamo a questionare su quisquilie; è un esempio!), quando l'incidente è inevitabile, qualunque sia la reazione umana è in qualche modo giustificata.
Se tuttavia è un programmatore a dover decidere a priori cosa debba fare l'auto in un caso del genere (o comunque ad istruire un'IA con dei criteri di scelta), si apre un problema etico.
Il programatore decide con la sue istruzioni chi sacrificare.
Sono d'accordo nel dire che l'IA deve fondamentalmente tutelare la vita del conducente; però le casistiche non sono così "assolute".

Da un lato abbiamo l'investimento di un pedone, che non avendo nessuna forma di protezione è quasi sicuramente destinato alla morte; dall'altro un frontale con un altro veicolo, dove grazie a cinture, airbag, scocche moderne ultra sicure, la morte è solo una eventualità anche se sicuramente non ne esci senza danni fisici.
Cosa deve scegliere il programmatore: morte sicura del "colpevole" pedone o danni fisici con morte solo eventuale del conducente?

E se il pedone fosse (è sempre un esempio, non stiamo a cercare di modificarlo per non affrontare il problema) una madre col bambino e nell'auto un solo occupante? Cosa dovrebbe scegliere l'IA quand'anche fosse ad alto rischio anche la vita della persona a bordo del veicolo?
La sola vita dell'"innocente" a bordo oppure le due vite dei pedoni di cui uno comunque altrettanto "innocente"?
continua ad essere un discorso fuorviante, puramente teorico ed inutile.

ma s'è mai vista a scuola guida una lezione teorica sul "se ti attraversa la strada una donna, un vecchio, un passeggino e un tir nell'altra corsia chi colpisci?"
ma s'è mai visto un incidente in cui al conducente è stato imputato l'errore di investire un bambino anzichè un anziano?

sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento (perchè l'umano, lo ripeto per la centesima volta, farà/farebbe/fa strike per tempi di reazione, distrazione, incapacità ecc. quindi peggio. quindi discorso finito. e lo dicono i numeri)


poi fa proprio ridere la frase sottolineata: qualsiasi decisione umana è giustificata.
quindi giustifichiamo a prescindere un uomo che investe una/due/cinque persone.
però se l'IA in media ne investe un decimo/centesimo/millesimo non va bene perchè poteva scegliere meglio (doveva prenderli tutti per par condicio?).
la logica di sto giochetto mi lascia stupefatto...
peraltro stai palesemente confondendo la giustificazione di un uomo che investe una persona (che non esiste) con la giustificazione di un primo soccorritore laico che tenta una rianimazione (o comunque un primo soccorso) senza successo (che esiste a tutti gli effetti ma non c'entra nulla col caso precedente)
__________________
Telegram > Whatsapp | Waze > Maps | iliad > vodafone | Basket > Calcio | Marquez > Rossi | Hamilton > Schumacher | futuro > passato
mrk-cj94 è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 00:48   #127
Notturnia
Senior Member
 
L'Avatar di Notturnia
 
Iscritto dal: May 2008
Messaggi: 13177
Quote:
Originariamente inviato da mrk-cj94 Guarda i messaggi
continua ad essere un discorso fuorviante, puramente teorico ed inutile.

ma s'è mai vista a scuola guida una lezione teorica sul "se ti attraversa la strada una donna, un vecchio, un passeggino e un tir nell'altra corsia chi colpisci?"
ma s'è mai visto un incidente in cui al conducente è stato imputato l'errore di investire un bambino anzichè un anziano?

sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento (perchè l'umano, lo ripeto per la centesima volta, farà/farebbe/fa strike per tempi di reazione, distrazione, incapacità ecc. quindi peggio. quindi discorso finito. e lo dicono i numeri)


poi fa proprio ridere la frase sottolineata: qualsiasi decisione umana è giustificata.
quindi giustifichiamo a prescindere un uomo che investe una/due/cinque persone.
però se l'IA in media ne investe un decimo/centesimo/millesimo non va bene perchè poteva scegliere meglio (doveva prenderli tutti per par condicio?).
la logica di sto giochetto mi lascia stupefatto...
peraltro stai palesemente confondendo la giustificazione di un uomo che investe una persona (che non esiste) con la giustificazione di un primo soccorritore laico che tenta una rianimazione (o comunque un primo soccorso) senza successo (che esiste a tutti gli effetti ma non c'entra nulla col caso precedente)
credo che il concetto e il termine non sia che le decisioni umane sono giustificate ma le decisioni umane sono responsabilizzate

se prendi sotto una due cinque persone vieni giudicato a seconda del motivo per cui è accaduto e, finalmente, rischi il carcere se non ci sono motivi a scusante degli omicidi commessi

mi lascia stupefatto che se l'evento coinvolge un'auto a guida autonoma ci si passi sopra dicendo che l'IA ha fatto il meglio che poteva e pazienza..

se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale

se una IA sbaglia a comprendere la situazione e commette lo stesso 3 omicidi sul marciapiede che succede ? non è colpa di nessuno, è un software le 3 persone sono morte per un errore di valutazione di un coso di silicio, pazienza. chi risarcisce le famiglie ? chi paga per aver ucciso 3 persone ? il proprietario dell'auto che l'ha comprata e dormiva durante il fatto ? (ricordo parliamo di auto a guida autonoma e non di quelle cose di oggi)
paga il sistemista che ha istruito male la AI ?
paga la ditta che ha messo su strada la macchina ?
paga lo stato che ha autorizzato quel veicolo a circolare ?
paga l'assicurazione ?

chi paga i potenziali morti per errori delle AI ?

io credo che il problema non sia quello che vuoi mandare tu in caciara depenalizzando i morti causati dagli umani ma capire come funziona dopo quando inevitabilmente ci sarà un incidente con morto.. vedi le tesla che oggi sbattono contro ai veicoli di soccorso.. (con la complicità di chi non guida ma gioca son il pad oggi..)

la questione forse non è etica.. è terra terra.. oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente

io sono curioso di capire come gestirà questa cosa la legge perchè l'infallibile è su in cielo e qua in terra umani e computer sbagliano.. ma se sbaglia l'uomo "paga" l'uomo.. e di norma se fai un lavoro a computer e lo mandi al cliente e excel ha sbagliato un calcolo è sempre colpa dell'uomo che ci ha lavorato.. ma domani con le AI verrà de-responsabilizzato tutto ?.. la AI non puo' "pagare" è un software.. il programmatore poverino era a 6 mila km dall'incidente e diciamo che è innocente.. la Motorizzazione non sapeva ma gli hanno detto che era una AI infallibile.. lo stato.. non pervenuto.. se ho capito bene finisce così nel futuro prospettato da qualcuno..

non è un problema etico.. non è proprio un problema.. l'AI è meglio!
Notturnia è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 02:05   #128
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da Notturnia Guarda i messaggi
se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale
Ma non penso proprio. La condizione per un reato penale è la colpa, devi aver commesso una negligenza senza la quale il reato non sarebbe stato commesso. Se finisci su quel marciapiede perché era inevitabile il problema torna ad essere di natura civile, e per queste cose c'è un'assicurazione chiamata appunto Responsabilità Civile Auto, che paghiamo obbligatoriamente e che continueremmo a pagare anche con le auto a guida autonoma.

L'AI può fare errori, ma non commettere negligenze, sarebbe un paradosso perché negligenza significa che tu sapevi qual era il comportamento giusto da tenere, ma hai scelto di ignorarlo e fare altrimenti. L'AI se fa una scelta è perché è convinta che sia la scelta giusta, anche se poi non si dovesse rivelare tale.
mmorselli è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 02:24   #129
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da Notturnia Guarda i messaggi
oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente
Una domanda: perché vuoi trovare il colpevole? Per vendicarti?

In un reato penale cerchiamo il colpevole:

- per toglierlo dalla società se è pericoloso, evitare che continui a perpetuare il reato
- per provare ad educarlo, per lo stesso motivo cui sopra
- per creare un deterrente a chi volesse commettere lo stesso crimine

Potresti ottenere le stesse cose se il "reato" fosse commesso da una macchina, posto che si possa parlare di reato commesso da una macchina. Il software puoi ritirarlo se è difettoso, puoi correggerlo, e non ti serve un deterrente per i suoi colleghi, visto che la patch può essere replicata.

E al morto che succede? Di sicuro mandare in galera qualcuno non lo riporta in vita, però la famiglia sarà risarcita dall'assicurazione esattamente come se il conducente fosse stato umano.

Cercare un colpevole da appendere ad un albero a tutti i costi fa parte di uno spirito Cow Boy che non mi appartiene, personalmente sarei molto meno arrabbiato se mio figlio fosse rimasto vittima di un software difettoso e poi corretto, che non ucciso da un ubriaco che dopo 3 anni è di nuovo libero e pericoloso.
mmorselli è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 07:02   #130
the_joe
Senior Member
 
L'Avatar di the_joe
 
Iscritto dal: May 2003
Città: Lucca
Messaggi: 15091
Quote:
Originariamente inviato da Notturnia Guarda i messaggi
credo che il concetto e il termine non sia che le decisioni umane sono giustificate ma le decisioni umane sono responsabilizzate

se prendi sotto una due cinque persone vieni giudicato a seconda del motivo per cui è accaduto e, finalmente, rischi il carcere se non ci sono motivi a scusante degli omicidi commessi

mi lascia stupefatto che se l'evento coinvolge un'auto a guida autonoma ci si passi sopra dicendo che l'IA ha fatto il meglio che poteva e pazienza..

se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale

se una IA sbaglia a comprendere la situazione e commette lo stesso 3 omicidi sul marciapiede che succede ? non è colpa di nessuno, è un software le 3 persone sono morte per un errore di valutazione di un coso di silicio, pazienza. chi risarcisce le famiglie ? chi paga per aver ucciso 3 persone ? il proprietario dell'auto che l'ha comprata e dormiva durante il fatto ? (ricordo parliamo di auto a guida autonoma e non di quelle cose di oggi)
paga il sistemista che ha istruito male la AI ?
paga la ditta che ha messo su strada la macchina ?
paga lo stato che ha autorizzato quel veicolo a circolare ?
paga l'assicurazione ?

chi paga i potenziali morti per errori delle AI ?

io credo che il problema non sia quello che vuoi mandare tu in caciara depenalizzando i morti causati dagli umani ma capire come funziona dopo quando inevitabilmente ci sarà un incidente con morto.. vedi le tesla che oggi sbattono contro ai veicoli di soccorso.. (con la complicità di chi non guida ma gioca son il pad oggi..)

la questione forse non è etica.. è terra terra.. oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente

io sono curioso di capire come gestirà questa cosa la legge perchè l'infallibile è su in cielo e qua in terra umani e computer sbagliano.. ma se sbaglia l'uomo "paga" l'uomo.. e di norma se fai un lavoro a computer e lo mandi al cliente e excel ha sbagliato un calcolo è sempre colpa dell'uomo che ci ha lavorato.. ma domani con le AI verrà de-responsabilizzato tutto ?.. la AI non puo' "pagare" è un software.. il programmatore poverino era a 6 mila km dall'incidente e diciamo che è innocente.. la Motorizzazione non sapeva ma gli hanno detto che era una AI infallibile.. lo stato.. non pervenuto.. se ho capito bene finisce così nel futuro prospettato da qualcuno..

non è un problema etico.. non è proprio un problema.. l'AI è meglio!
A parte trovare situazioni assurde e improbabili, una ia potrà fare un morto, a quel punto come nel caso di incidente fra umani l'RCA dell'auto risarcirà il danno e la società che ha prodotto il software correggerà l'errore e potrà essere giudicata per stabilire se ci siano state negligenze o colpe o dolo cos'altro vorresti?

PS se per evitare un tamponamento finisci su una folla, evidentemente hai infranto un bel po' di regole del CDS a partire dal rispetto della distanza di sicurezza
__________________
焦爾焦

Ultima modifica di the_joe : 29-09-2021 alle 07:04.
the_joe è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 07:56   #131
baolian
Senior Member
 
L'Avatar di baolian
 
Iscritto dal: Oct 2004
Messaggi: 1895
Quote:
Originariamente inviato da mrk-cj94 Guarda i messaggi
sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento


Prima di tutto io sono favorevolissimo all'introduzione dell'IA.
Sono io che ho postato i dati ANIA dove si evince che la maggior parte degli incidenti sono dovuti a cause prettamente umane.
Secondo me ci sono buone probabilità che già oggi un IA faccia meglio (o meno peggio) di un guidatore umano.
Tuttavia non mi piace ragionare da "tifoso".
Il fatto che la mia "squadra" sia quella dell'IA non mi impedisce di osservare che per riuscire ad introdurre la guida totalmente autonoma bisogna superare due problemi.
Il primo è quello dell'accettazione (è a questo che mi riferivo quando dicevo che giustifichiamo il comportamento umano, non certo a deresponsabilizzazione).
Accettiamo che un essere umano possa errare, ma dalle IA si "pretende" la perfezione.
Bastano pochi incidenti "pacchiani" (come quello di non riuscire a riconoscere un veicolo di soccorso fermo e sbatterci contro) per far sì che la guida autonoma non venga accettata dalla società.

Il secondo problema è quello prettamente etico.

Esempio tratto da una pubblicazione sul sito del Ministero dell'Economia e Finanza:

"Rispettare il principio del primum non nocere
(principle of non maleficence).
La realizzazione di tecnologie controllate da sistemi di IA porta con sé una serie di problemi legati al governo dell’autonomia gestionale. Gli artefatti IA hanno la capacità di mutare il loro comportamento in base alle condizioni in cui operano.
Come realizzare un test etico per l’IA
La libertà decisionale deve essere governata da una
artificial moral agent, ovvero una
moralità artificiale nei sistemi di IA.
La regola di base degli artefatti IA rispondenti a tale operatività è quella
di comportarsi in maniera da scegliere sempre il male minore in accordo con l’esperimento ideale circa la situazione del carrello"
(cfr. Philippa Foot & Judith Jarvis)

https://www.mef.gov.it/inevidenza/20...le_-_SOGEI.pdf
__________________
Un uomo intelligente risolve i problemi
Un uomo molto intelligente li previene
baolian è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 08:04   #132
blobb
Senior Member
 
Iscritto dal: Sep 2009
Messaggi: 6215
Quote:
Originariamente inviato da mmorselli Guarda i messaggi
Ma non penso proprio. La condizione per un reato penale è la colpa, devi aver commesso una negligenza senza la quale il reato non sarebbe stato commesso. Se finisci su quel marciapiede perché era inevitabile il problema torna ad essere di natura civile, e per queste cose c'è un'assicurazione chiamata appunto Responsabilità Civile Auto, che paghiamo obbligatoriamente e che continueremmo a pagare anche con le auto a guida autonoma.

L'AI può fare errori, ma non commettere negligenze, sarebbe un paradosso perché negligenza significa che tu sapevi qual era il comportamento giusto da tenere, ma hai scelto di ignorarlo e fare altrimenti. L'AI se fa una scelta è perché è convinta che sia la scelta giusta, anche se poi non si dovesse rivelare tale.
tutti quando fanno una scelta pensano che sia quella giusta , non è che tranne rari casi le persone volontariamente falciano pedoni , rimane l'errore di valutazione , ed il concetto è semplice chi paga , io che sono il proprietario
o chi ha costruito una macchina difettosa?
P.S. l'assicurazione obbligatoria non è scontata ci sono paesi che gli USA che è una opzione
blobb è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 08:06   #133
blobb
Senior Member
 
Iscritto dal: Sep 2009
Messaggi: 6215
Quote:
Originariamente inviato da the_joe Guarda i messaggi
A parte trovare situazioni assurde e improbabili, una ia potrà fare un morto, a quel punto come nel caso di incidente fra umani l'RCA dell'auto risarcirà il danno e la società che ha prodotto il software correggerà l'errore e potrà essere giudicata per stabilire se ci siano state negligenze o colpe o dolo cos'altro vorresti?

PS se per evitare un tamponamento finisci su una folla, evidentemente hai infranto un bel po' di regole del CDS a partire dal rispetto della distanza di sicurezza
se ti scoppia una gomma? se si rompono i freni? perndi una buca e perdi il controllo?
o la ia semplicemente (come è successo) scambia una ambulanza per un semaforo?
blobb è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 08:27   #134
the_joe
Senior Member
 
L'Avatar di the_joe
 
Iscritto dal: May 2003
Città: Lucca
Messaggi: 15091
Quote:
Originariamente inviato da blobb Guarda i messaggi
se ti scoppia una gomma? se si rompono i freni? perndi una buca e perdi il controllo?
o la ia semplicemente (come è successo) scambia una ambulanza per un semaforo?
Se capita a un umano?

Si può fare lo stesso?

I danni materiali vengono rimborsati dall'assicurazione del veicolo e i reati verranno discussi in un tribunale che deciderà su eventuali responsabilità penali, se sbandi per colpa di una buca non segnalata, la colpa è dell'ente che ha in carico la strada.

Non capisco il voler cavillare, se poi ci sarà bisogno di nuove leggi, saranno fatte, ne abbiamo centinaia di migliaia.
__________________
焦爾焦
the_joe è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 08:42   #135
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da blobb Guarda i messaggi
tutti quando fanno una scelta pensano che sia quella giusta
Ma non è vero, se vado a 80Km/h in città perché tanto la strada è grande e libera dal traffico so benissimo che non è la cosa giusta da fare, ma la faccio lo stesso perché mi conviene.


Quote:
P.S. l'assicurazione obbligatoria non è scontata ci sono paesi che gli USA che è una opzione
Non conosco le leggi di ogni Stato del mondo, ma in Italia se presto l'auto a qualcuno e questi provoca un danno è la mia assicurazione che paga, non la sua, la responsabilità civile rimane del proprietario dell'auto anche quando non poteva fare nulla per evitarlo, a parte scegliere di non prestare l'auto. Se non sono assicurato pago di tasca mia. Sono convinto che la colpa sia di un pezzo difettoso dell'auto? Che sia l'impianto frenante o l'AI cambia poco, tento una rivalsa sul produttore, e poi decide il giudice.

Quando tiriamo in ballo l'etica stiamo parlando di reati penali, nel civile è solo questione di chi tira fuori i soldi.
mmorselli è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 09:19   #136
dany-dm
Senior Member
 
L'Avatar di dany-dm
 
Iscritto dal: Oct 2003
Città: Pordenone
Messaggi: 904
Quote:
Originariamente inviato da baolian Guarda i messaggi
Prima di tutto io sono favorevolissimo all'introduzione dell'IA.
Sono io che ho postato i dati ANIA dove si evince che la maggior parte degli incidenti sono dovuti a cause prettamente umane.
Secondo me ci sono buone probabilità che già oggi un IA faccia meglio (o meno peggio) di un guidatore umano.
Tuttavia non mi piace ragionare da "tifoso".
Il fatto che la mia "squadra" sia quella dell'IA non mi impedisce di osservare che per riuscire ad introdurre la guida totalmente autonoma bisogna superare due problemi.
Il primo è quello dell'accettazione (è a questo che mi riferivo quando dicevo che giustifichiamo il comportamento umano, non certo a deresponsabilizzazione).
Accettiamo che un essere umano possa errare, ma dalle IA si "pretende" la perfezione.
Bastano pochi incidenti "pacchiani" (come quello di non riuscire a riconoscere un veicolo di soccorso fermo e sbatterci contro) per far sì che la guida autonoma non venga accettata dalla società.

Il secondo problema è quello prettamente etico.

Esempio tratto da una pubblicazione sul sito del Ministero dell'Economia e Finanza:

"Rispettare il principio del primum non nocere
(principle of non maleficence).
La realizzazione di tecnologie controllate da sistemi di IA porta con sé una serie di problemi legati al governo dell’autonomia gestionale. Gli artefatti IA hanno la capacità di mutare il loro comportamento in base alle condizioni in cui operano.
Come realizzare un test etico per l’IA
La libertà decisionale deve essere governata da una
artificial moral agent, ovvero una
moralità artificiale nei sistemi di IA.
La regola di base degli artefatti IA rispondenti a tale operatività è quella
di comportarsi in maniera da scegliere sempre il male minore in accordo con l’esperimento ideale circa la situazione del carrello"
(cfr. Philippa Foot & Judith Jarvis)

https://www.mef.gov.it/inevidenza/20...le_-_SOGEI.pdf
La IA deve mantenere la propria direzione e frenare in caso di ostacolo, se la capacità computazionale lo permette allora può pensare di schivare l'ostacolo senza causare altri incidenti.
Se ho un pedone al centro, auto nell'altro senso di marcia e alberi (o fosso) sulla dx, cerco di schivare ma se risulta impossibile allora devo semplicemente frenare (e quindi investire il pedone). Io non ho il potere per capire quale sarà il male minore (l'auto opposta potrebbe essere di una mamma incinta (e quindi anche senza cinture) e l'albero potrebbe causare l'incendio della mia auto).
dany-dm è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 09:58   #137
Notturnia
Senior Member
 
L'Avatar di Notturnia
 
Iscritto dal: May 2008
Messaggi: 13177
ok quindi mi pare di capire che non frega niente a "nessuno" dei difensori delle IA della responsabilità del morto..

tanto ci pensa la RCA a pagare.. chi se ne frega..

e visto che la IA non ha colpe di quello che fa siamo tutti felici e abbiamo depenalizzato il problema e "tutti" hanno la coscienza a posto

motivo per cui ben lungi dall'avere una IA che guida la mia macchina
Notturnia è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 10:14   #138
baolian
Senior Member
 
L'Avatar di baolian
 
Iscritto dal: Oct 2004
Messaggi: 1895
Quote:
Originariamente inviato da dany-dm Guarda i messaggi
La IA deve mantenere la propria direzione e frenare in caso di ostacolo, se la capacità computazionale lo permette allora può pensare di schivare l'ostacolo senza causare altri incidenti.
Se ho un pedone al centro, auto nell'altro senso di marcia e alberi (o fosso) sulla dx, cerco di schivare ma se risulta impossibile allora devo semplicemente frenare (e quindi investire il pedone). Io non ho il potere per capire quale sarà il male minore (l'auto opposta potrebbe essere di una mamma incinta (e quindi anche senza cinture) e l'albero potrebbe causare l'incendio della mia auto).
Semplifichiamo l'esempio e leviamo la possibilità dell'auto nell'altro senso di marcia.
Rimangono le due possibilità: investire il pedone (inerme) o urtare contro un albero (con cinture allacciate ed airbag attivi).
Sicuro che sia il pedone il male minore?


Ma facciamo un esempio più celebre: quello del tram.

Ad un gruppo di persone è stato posto questo quesito:
un tram procede su un binario dove sono state legate cinque persone.
L'autista non ha la possibilità di frenare in tempo, può solo azionare lo scambio per deviare su un altro binario dove però è stata legata un'altra persona; cosa deve fare l'autista?
La maggior parte (già qui c'è diversità di vedute) ha ritenuto moralmente lecito deviare il percorso.

Alle stesse persone è stata poi proposta una variante dello stesso quesito:
il tram è fuori controllo senza nessuno a bordo e sul binario sono legate le 5 persone.
Non c'è nessuno scambio, ma sulla banchina c'è un uomo grasso, talmente grasso che se venisse spinto sui binari farebbe deragliare il tram e salvare le 5 persone.
La maggior parte delle persone ha ritenuto moralmente illecito spingere l'uomo grasso sui binari.

Di questo dilemma ne sono state poste tante altre varianti ed è assolutamente applicabile anche alle IA (se state aspettando il treno vi consiglio di controllare che nelle vicinanze non vi siano robot che possano spingervi sui binari ).

Il problema etico non è un problema matematico che ha una soluzione, ma è un problema morale e come tale necessita di essere affrontato e condiviso perchè la morale non sempre è univoca (anche per il medesimo soggetto).
Se vogliamo che la guida autonoma venga introdotta, non possiamo pretendere che il problema etico venga "risolto" in laboratorio.
__________________
Un uomo intelligente risolve i problemi
Un uomo molto intelligente li previene
baolian è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 10:51   #139
Notturnia
Senior Member
 
L'Avatar di Notturnia
 
Iscritto dal: May 2008
Messaggi: 13177
Quote:
Originariamente inviato da baolian Guarda i messaggi
Semplifichiamo l'esempio e leviamo la possibilità dell'auto nell'altro senso di marcia.
Rimangono le due possibilità: investire il pedone (inerme) o urtare contro un albero (con cinture allacciate ed airbag attivi).
Sicuro che sia il pedone il male minore?


Ma facciamo un esempio più celebre: quello del tram.

Ad un gruppo di persone è stato posto questo quesito:
un tram procede su un binario dove sono state legate cinque persone.
L'autista non ha la possibilità di frenare in tempo, può solo azionare lo scambio per deviare su un altro binario dove però è stata legata un'altra persona; cosa deve fare l'autista?
La maggior parte (già qui c'è diversità di vedute) ha ritenuto moralmente lecito deviare il percorso.

Alle stesse persone è stata poi proposta una variante dello stesso quesito:
il tram è fuori controllo senza nessuno a bordo e sul binario sono legate le 5 persone.
Non c'è nessuno scambio, ma sulla banchina c'è un uomo grasso, talmente grasso che se venisse spinto sui binari farebbe deragliare il tram e salvare le 5 persone.
La maggior parte delle persone ha ritenuto moralmente illecito spingere l'uomo grasso sui binari.

Di questo dilemma ne sono state poste tante altre varianti ed è assolutamente applicabile anche alle IA (se state aspettando il treno vi consiglio di controllare che nelle vicinanze non vi siano robot che possano spingervi sui binari ).

Il problema etico non è un problema matematico che ha una soluzione, ma è un problema morale e come tale necessita di essere affrontato e condiviso perchè la morale non sempre è univoca (anche per il medesimo soggetto).
Se vogliamo che la guida autonoma venga introdotta, non possiamo pretendere che il problema etico venga "risolto" in laboratorio.
in effetti chi sta rispondendo a difesa della IA dice che il problema è un non problema.. non va affrontato perchè tanto l'uomo è peggio e quindi il problema non sussiste..

non vogliono decidere perchè è il fato che ha fatto discendere dall'alto dei cieli la AI.. è divina.. Lei non sbaglia perchè è amorale, superiore al banale umano che prende decisioni con cui poi dovrà convivere.. Lei è ... non appare.. prende decisioni insindacabili..

ti ricordi V.I.K.I di Asimov ? "La mia logia è ineccepibile" ... mi pare di vedere la stessa cosa nei testi di chi difende la AI a tutti i costi.. semplicemente non entrano nel dilemma etico perchè a loro non interessa.. l'uomo è di serie B e la AI è divina quindi non si pone il dubbio

l'uomo sbaglia a prescindere la AI decide cosa è giusto
Notturnia è offline   Rispondi citando il messaggio o parte di esso
Old 29-09-2021, 11:04   #140
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da Notturnia Guarda i messaggi
ok quindi mi pare di capire che non frega niente a "nessuno" dei difensori delle IA della responsabilità del morto..
Ma chi lo ha detto? Solo che "responsabilità" non vuol dire nulla.

Responsabilità penale o civile? Perché se parliamo di quella civile, a nessuno frega nulla nel senso che ce ne siamo da tempo liberati delegandola ad un ente terzo.

Se parliamo di responsabilità penale, allora ci sono tutte delle condizioni che devono verificarsi perché questa esista. Non deve esserci per forza, a meno che non sei un forcaiolo per cui a fronte di un danno qualcuno in galera ci deve andare sempre per la tua soddisfazione personale. Sul penale comunque decidono i giudici, se si dovessero rilevare delitti a carico dei produttori di automobili saranno le corti a pronunciarsi.
mmorselli è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza Motorola edge 70: lo smartphone ultrasottile che...
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
Le novità ASUS per il 2026 nel settore dei PC desktop Le novità ASUS per il 2026 nel settore de...
Le novità MSI del 2026 per i videogiocatori Le novità MSI del 2026 per i videogiocato...
I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers I nuovi schermi QD-OLED di quinta generazione di...
Il nuovo Snapdragon 8 Elite Gen 6 sar&ag...
Nintendo Switch 2: risultati sotto le at...
Weekend con tante sorprese su Amazon: to...
HONOR non si ferma più: il 2025 &...
Speciale best seller: EUREKA J15 Evo Ult...
Roborock Q10 X5+ da 10.000 Pa a 199€ &eg...
E-mail reset password di Instagram: la c...
La NASA ha discusso le problematiche del...
Il razzo spaziale NASA SLS e la capsula ...
Stazione Spaziale Internazionale: Crew-1...
Samsung Galaxy S26 Ultra: la ricarica de...
Apple ha un nuovo partner per la sua App...
Trenitalia introduce il prezzo dinamico ...
OnePlus non si ferma più: c'&egra...
DAZN sconta il piano Full per 6 mesi, se...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 14:35.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1