|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#121 | |
|
Senior Member
Iscritto dal: May 2003
Città: Lucca
Messaggi: 15091
|
Quote:
__________________
焦爾焦 |
|
|
|
|
|
|
#122 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Quote:
Codice:
if ( BAMBINO && CANE ) { result = kill(CANE); }
L'AI impara e crea modelli in autonomia che non sono responsabilità del programmatore, il quale gli ha detto solo COME imparare, e non COSA. Nel caso descritto l'AI farebbe una scelta unica perché nessuna condizione iniziale è uguale all'altra, ma la farebbe assegnando dei pesi che hanno già dimostrato statisticamente di funzionare molto bene in quelle situazioni. Su milioni di casi qualche volta prenderà anche sotto il bambino, l'importante è che lo faccia meno rispetto ad un essere umano. |
|
|
|
|
|
|
#123 | ||
|
Senior Member
Iscritto dal: Oct 2004
Messaggi: 1895
|
Quote:
Non avete mai visto un bambino rincorrere una palla? Una persona attraversare all'improvviso senza guardare dove non si può ed all'ultimo momento perchè magari è col telefonino? Oppure attraversare a 20 all'ora col monopattino? Oppure oppure oppure? Non è il caso di cavillare su di un esempio, per quanto perfettibile. E' un esempio, serve solo a rappresentare una vastissima casistica più o meno ponderabile. Quote:
Sarebbe pretendere che preveda tutte le possibile casistiche. Ma quando il programmatore insegna il COME, in qualche modo "assegna dei pesi", definisce i criteri in base ai quali l'IA effettuerà le proprie scelte. Io credo che questo apra anche un problema di tipo etico oltre che quello prettamente tecnico.
__________________
Un uomo intelligente risolve i problemi Un uomo molto intelligente li previene |
||
|
|
|
|
|
#124 | |
|
Senior Member
Iscritto dal: May 2008
Messaggi: 13177
|
Quote:
fra l'altro è uno dei motivi per cui hanno fatto presente quanto sia importante l'istruzione delle IA per evitare problemi di razzismo nelle IA che esagerano velocemente quello che apprendono.. era anche una notizia qua su HW 1.0 tempo fa.. avevano chiuso un progetto universitario proprio perchè a furia di far vedere immagini di persone bianche la IA era divenuta razzista nei confronti di persone diverse |
|
|
|
|
|
|
#125 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Quote:
Se la risposta è sì, allora che si intervenga anche a livello legislativo, come quando si impone un limite di età per salire in giostra o si impongono misure di sicurezza diverse per i bambini in auto. Se la risposta è no, come può qualcuno essere eticamente responsabile di qualcosa che non poteva prevedere? |
|
|
|
|
|
|
#126 | |
|
Senior Member
Iscritto dal: Nov 2014
Messaggi: 4375
|
Quote:
ma s'è mai vista a scuola guida una lezione teorica sul "se ti attraversa la strada una donna, un vecchio, un passeggino e un tir nell'altra corsia chi colpisci?" ma s'è mai visto un incidente in cui al conducente è stato imputato l'errore di investire un bambino anzichè un anziano? sono tutti discorsi campati per aria che non hanno alcuna attinenza con la realtà.. tutta una scusa per mandare in caciara il discorso e screditare l'IA senza alcun fondamento (perchè l'umano, lo ripeto per la centesima volta, farà/farebbe/fa strike per tempi di reazione, distrazione, incapacità ecc. quindi peggio. quindi discorso finito. e lo dicono i numeri) poi fa proprio ridere la frase sottolineata: qualsiasi decisione umana è giustificata. quindi giustifichiamo a prescindere un uomo che investe una/due/cinque persone. però se l'IA in media ne investe un decimo/centesimo/millesimo non va bene perchè poteva scegliere meglio (doveva prenderli tutti per par condicio?). la logica di sto giochetto mi lascia stupefatto... peraltro stai palesemente confondendo la giustificazione di un uomo che investe una persona (che non esiste) con la giustificazione di un primo soccorritore laico che tenta una rianimazione (o comunque un primo soccorso) senza successo (che esiste a tutti gli effetti ma non c'entra nulla col caso precedente)
__________________
Telegram > Whatsapp | Waze > Maps | iliad > vodafone | Basket > Calcio | Marquez > Rossi | Hamilton > Schumacher | futuro > passato |
|
|
|
|
|
|
#127 | |
|
Senior Member
Iscritto dal: May 2008
Messaggi: 13177
|
Quote:
se prendi sotto una due cinque persone vieni giudicato a seconda del motivo per cui è accaduto e, finalmente, rischi il carcere se non ci sono motivi a scusante degli omicidi commessi mi lascia stupefatto che se l'evento coinvolge un'auto a guida autonoma ci si passi sopra dicendo che l'IA ha fatto il meglio che poteva e pazienza.. se un umano sale su un marciapiede e falcia 3 persone per evitare di tamponare il veicolo davanti finisce in carcere per omicidio stradale se una IA sbaglia a comprendere la situazione e commette lo stesso 3 omicidi sul marciapiede che succede ? non è colpa di nessuno, è un software le 3 persone sono morte per un errore di valutazione di un coso di silicio, pazienza. chi risarcisce le famiglie ? chi paga per aver ucciso 3 persone ? il proprietario dell'auto che l'ha comprata e dormiva durante il fatto ? (ricordo parliamo di auto a guida autonoma e non di quelle cose di oggi) paga il sistemista che ha istruito male la AI ? paga la ditta che ha messo su strada la macchina ? paga lo stato che ha autorizzato quel veicolo a circolare ? paga l'assicurazione ? chi paga i potenziali morti per errori delle AI ? io credo che il problema non sia quello che vuoi mandare tu in caciara depenalizzando i morti causati dagli umani ma capire come funziona dopo quando inevitabilmente ci sarà un incidente con morto.. vedi le tesla che oggi sbattono contro ai veicoli di soccorso.. (con la complicità di chi non guida ma gioca son il pad oggi..) la questione forse non è etica.. è terra terra.. oggi il colpevole lo si trova.. domani invece ?.. facciamo una patch e risolviamo il problema e diciamo che sono morti solo in 3 e che è meglio così perchè l'uomo faceva peggio negli anni 2020 e quindi va tutto bene ?.. tranne per i morti ovviamente io sono curioso di capire come gestirà questa cosa la legge perchè l'infallibile è su in cielo e qua in terra umani e computer sbagliano.. ma se sbaglia l'uomo "paga" l'uomo.. e di norma se fai un lavoro a computer e lo mandi al cliente e excel ha sbagliato un calcolo è sempre colpa dell'uomo che ci ha lavorato.. ma domani con le AI verrà de-responsabilizzato tutto ?.. la AI non puo' "pagare" è un software.. il programmatore poverino era a 6 mila km dall'incidente e diciamo che è innocente.. la Motorizzazione non sapeva ma gli hanno detto che era una AI infallibile.. lo stato.. non pervenuto.. se ho capito bene finisce così nel futuro prospettato da qualcuno.. non è un problema etico.. non è proprio un problema.. l'AI è meglio! |
|
|
|
|
|
|
#128 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Quote:
L'AI può fare errori, ma non commettere negligenze, sarebbe un paradosso perché negligenza significa che tu sapevi qual era il comportamento giusto da tenere, ma hai scelto di ignorarlo e fare altrimenti. L'AI se fa una scelta è perché è convinta che sia la scelta giusta, anche se poi non si dovesse rivelare tale. |
|
|
|
|
|
|
#129 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Quote:
In un reato penale cerchiamo il colpevole: - per toglierlo dalla società se è pericoloso, evitare che continui a perpetuare il reato - per provare ad educarlo, per lo stesso motivo cui sopra - per creare un deterrente a chi volesse commettere lo stesso crimine Potresti ottenere le stesse cose se il "reato" fosse commesso da una macchina, posto che si possa parlare di reato commesso da una macchina. Il software puoi ritirarlo se è difettoso, puoi correggerlo, e non ti serve un deterrente per i suoi colleghi, visto che la patch può essere replicata. E al morto che succede? Di sicuro mandare in galera qualcuno non lo riporta in vita, però la famiglia sarà risarcita dall'assicurazione esattamente come se il conducente fosse stato umano. Cercare un colpevole da appendere ad un albero a tutti i costi fa parte di uno spirito Cow Boy che non mi appartiene, personalmente sarei molto meno arrabbiato se mio figlio fosse rimasto vittima di un software difettoso e poi corretto, che non ucciso da un ubriaco che dopo 3 anni è di nuovo libero e pericoloso. |
|
|
|
|
|
|
#130 | |
|
Senior Member
Iscritto dal: May 2003
Città: Lucca
Messaggi: 15091
|
Quote:
PS se per evitare un tamponamento finisci su una folla, evidentemente hai infranto un bel po' di regole del CDS a partire dal rispetto della distanza di sicurezza
__________________
焦爾焦 Ultima modifica di the_joe : 29-09-2021 alle 07:04. |
|
|
|
|
|
|
#131 | |
|
Senior Member
Iscritto dal: Oct 2004
Messaggi: 1895
|
Quote:
Prima di tutto io sono favorevolissimo all'introduzione dell'IA. Sono io che ho postato i dati ANIA dove si evince che la maggior parte degli incidenti sono dovuti a cause prettamente umane. Secondo me ci sono buone probabilità che già oggi un IA faccia meglio (o meno peggio) di un guidatore umano. Tuttavia non mi piace ragionare da "tifoso". Il fatto che la mia "squadra" sia quella dell'IA non mi impedisce di osservare che per riuscire ad introdurre la guida totalmente autonoma bisogna superare due problemi. Il primo è quello dell'accettazione (è a questo che mi riferivo quando dicevo che giustifichiamo il comportamento umano, non certo a deresponsabilizzazione). Accettiamo che un essere umano possa errare, ma dalle IA si "pretende" la perfezione. Bastano pochi incidenti "pacchiani" (come quello di non riuscire a riconoscere un veicolo di soccorso fermo e sbatterci contro) per far sì che la guida autonoma non venga accettata dalla società. Il secondo problema è quello prettamente etico. Esempio tratto da una pubblicazione sul sito del Ministero dell'Economia e Finanza: "Rispettare il principio del primum non nocere (principle of non maleficence). La realizzazione di tecnologie controllate da sistemi di IA porta con sé una serie di problemi legati al governo dell’autonomia gestionale. Gli artefatti IA hanno la capacità di mutare il loro comportamento in base alle condizioni in cui operano. Come realizzare un test etico per l’IA La libertà decisionale deve essere governata da una artificial moral agent, ovvero una moralità artificiale nei sistemi di IA. La regola di base degli artefatti IA rispondenti a tale operatività è quella di comportarsi in maniera da scegliere sempre il male minore in accordo con l’esperimento ideale circa la situazione del carrello" (cfr. Philippa Foot & Judith Jarvis) https://www.mef.gov.it/inevidenza/20...le_-_SOGEI.pdf
__________________
Un uomo intelligente risolve i problemi Un uomo molto intelligente li previene |
|
|
|
|
|
|
#132 | |
|
Senior Member
Iscritto dal: Sep 2009
Messaggi: 6215
|
Quote:
o chi ha costruito una macchina difettosa? P.S. l'assicurazione obbligatoria non è scontata ci sono paesi che gli USA che è una opzione |
|
|
|
|
|
|
#133 | |
|
Senior Member
Iscritto dal: Sep 2009
Messaggi: 6215
|
Quote:
o la ia semplicemente (come è successo) scambia una ambulanza per un semaforo? |
|
|
|
|
|
|
#134 | |
|
Senior Member
Iscritto dal: May 2003
Città: Lucca
Messaggi: 15091
|
Quote:
Si può fare lo stesso? I danni materiali vengono rimborsati dall'assicurazione del veicolo e i reati verranno discussi in un tribunale che deciderà su eventuali responsabilità penali, se sbandi per colpa di una buca non segnalata, la colpa è dell'ente che ha in carico la strada. Non capisco il voler cavillare, se poi ci sarà bisogno di nuove leggi, saranno fatte, ne abbiamo centinaia di migliaia.
__________________
焦爾焦 |
|
|
|
|
|
|
#135 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Ma non è vero, se vado a 80Km/h in città perché tanto la strada è grande e libera dal traffico so benissimo che non è la cosa giusta da fare, ma la faccio lo stesso perché mi conviene.
Quote:
Quando tiriamo in ballo l'etica stiamo parlando di reati penali, nel civile è solo questione di chi tira fuori i soldi. |
|
|
|
|
|
|
#136 | |
|
Senior Member
Iscritto dal: Oct 2003
Città: Pordenone
Messaggi: 904
|
Quote:
Se ho un pedone al centro, auto nell'altro senso di marcia e alberi (o fosso) sulla dx, cerco di schivare ma se risulta impossibile allora devo semplicemente frenare (e quindi investire il pedone). Io non ho il potere per capire quale sarà il male minore (l'auto opposta potrebbe essere di una mamma incinta (e quindi anche senza cinture) e l'albero potrebbe causare l'incendio della mia auto). |
|
|
|
|
|
|
#137 |
|
Senior Member
Iscritto dal: May 2008
Messaggi: 13177
|
ok quindi mi pare di capire che non frega niente a "nessuno" dei difensori delle IA della responsabilità del morto..
tanto ci pensa la RCA a pagare.. chi se ne frega.. e visto che la IA non ha colpe di quello che fa siamo tutti felici e abbiamo depenalizzato il problema e "tutti" hanno la coscienza a posto motivo per cui ben lungi dall'avere una IA che guida la mia macchina |
|
|
|
|
|
#138 | |
|
Senior Member
Iscritto dal: Oct 2004
Messaggi: 1895
|
Quote:
Rimangono le due possibilità: investire il pedone (inerme) o urtare contro un albero (con cinture allacciate ed airbag attivi). Sicuro che sia il pedone il male minore? Ma facciamo un esempio più celebre: quello del tram. Ad un gruppo di persone è stato posto questo quesito: un tram procede su un binario dove sono state legate cinque persone. L'autista non ha la possibilità di frenare in tempo, può solo azionare lo scambio per deviare su un altro binario dove però è stata legata un'altra persona; cosa deve fare l'autista? La maggior parte (già qui c'è diversità di vedute) ha ritenuto moralmente lecito deviare il percorso. Alle stesse persone è stata poi proposta una variante dello stesso quesito: il tram è fuori controllo senza nessuno a bordo e sul binario sono legate le 5 persone. Non c'è nessuno scambio, ma sulla banchina c'è un uomo grasso, talmente grasso che se venisse spinto sui binari farebbe deragliare il tram e salvare le 5 persone. La maggior parte delle persone ha ritenuto moralmente illecito spingere l'uomo grasso sui binari. Di questo dilemma ne sono state poste tante altre varianti ed è assolutamente applicabile anche alle IA (se state aspettando il treno vi consiglio di controllare che nelle vicinanze non vi siano robot che possano spingervi sui binari Il problema etico non è un problema matematico che ha una soluzione, ma è un problema morale e come tale necessita di essere affrontato e condiviso perchè la morale non sempre è univoca (anche per il medesimo soggetto). Se vogliamo che la guida autonoma venga introdotta, non possiamo pretendere che il problema etico venga "risolto" in laboratorio.
__________________
Un uomo intelligente risolve i problemi Un uomo molto intelligente li previene |
|
|
|
|
|
|
#139 | |
|
Senior Member
Iscritto dal: May 2008
Messaggi: 13177
|
Quote:
non vogliono decidere perchè è il fato che ha fatto discendere dall'alto dei cieli la AI.. è divina.. Lei non sbaglia perchè è amorale, superiore al banale umano che prende decisioni con cui poi dovrà convivere.. Lei è ... non appare.. prende decisioni insindacabili.. ti ricordi V.I.K.I di Asimov ? "La mia logia è ineccepibile" ... mi pare di vedere la stessa cosa nei testi di chi difende la AI a tutti i costi.. semplicemente non entrano nel dilemma etico perchè a loro non interessa.. l'uomo è di serie B e la AI è divina quindi non si pone il dubbio l'uomo sbaglia a prescindere la AI decide cosa è giusto |
|
|
|
|
|
|
#140 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Quote:
Responsabilità penale o civile? Perché se parliamo di quella civile, a nessuno frega nulla nel senso che ce ne siamo da tempo liberati delegandola ad un ente terzo. Se parliamo di responsabilità penale, allora ci sono tutte delle condizioni che devono verificarsi perché questa esista. Non deve esserci per forza, a meno che non sei un forcaiolo per cui a fronte di un danno qualcuno in galera ci deve andare sempre per la tua soddisfazione personale. Sul penale comunque decidono i giudici, se si dovessero rilevare delitti a carico dei produttori di automobili saranno le corti a pronunciarsi. |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 14:35.




















