In arrivo dall'Europa un codice etico sull'intelligenza artificiale

In arrivo dall'Europa un codice etico sull'intelligenza artificiale

L'Europa ha organizzato un comitato di 52 esperti con lo scopo di creare un codice etico sull'intelligenza artificiale previsto per fine 2019, ai fini utilizzare l'AI in maniera giusta nei confronti delle persone

di pubblicata il , alle 11:01 nel canale Scienza e tecnologia
intelligenza artificiale
 

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
ComputArte26 Dicembre 2018, 06:27 #11

Ottimo e necessario!

Ad oggi il problema risiede nell impossibilità di identificare il percorso "scelto" dalla macchina per giungere ad una conclusione.
Stiamo parlando della "black box"... quindi è NECESSARIO non solo regolamentare il settore, ma soprattutto RESPONSABILIZZARE chi decide...macchine incluse!
e qui ci viene in aiuto la block-chain! tracciare tutte le decisioni e vedere chi ....anzi, cosa ha preso determinate decisioni con le conseguenze nel e sul modno reale....e nel caso ...correggere e/o spegnere!
Toolkitman26 Dicembre 2018, 12:09 #12

Applicare o no il RANDOM

Mi sembra logico che se si applica un RANDOM in programmazione le scelte che potra' fare l'intelligenza arificiale saranno delimitate dal numero dato alla random e alle stringhe ad essa correlate, quindi si potebbero aver possibilita' quasi infinite di scelta. Forse e' questo che intendete per Black box?
Toolkitman26 Dicembre 2018, 13:08 #13

ISAAC ASIMOV

Perche' non prendere spunto dalle Tre Leggi Della Robotica di ISAAC ASIMOV, si possono leggere a questo link:

https://it.wikipedia.org/wiki/Tre_leggi_della_robotica
Flortex26 Dicembre 2018, 20:20 #14
Condivido lo scetticismo verso gli "esperti", o più probabilmente pseudo tali.

Tra l'altro non si capisce in che misura si arroghino il diritto di scegliere per tutti, anche a scapito di diritti individuali: sono io a dover decidere in che misura voglio essere "aiutato" per la mia "sicurezza". Non loro.

In ogni caso, le linee guida ad una lettura superficiale non mi paiono male:

[I]prevale la tutela del ruolo e della dignità dell'essere umano; viene stabilito infatti il principio che l'intelligenza artificiale non deve danneggiare l'umanità ma deve tutelare la sicurezza fisica, psicologica e finanziaria. Inoltre, le macchine intelligenti dovranno sempre operare in favore della realizzazione dell'autonomia dell'uomo, mai riducendola.[/I]

Sappiamo però che il diavolo si nasconde nei dettagli, per cui non è automatico si traduca in qualcosa di buono.

@Toolkitman: per black box credo si intenda quanto spiegato, ad esempio, qui: http://www.lescienze.it/news/2016/10/22/news/apprendimento_profondo_scatola_nera_problemi_spiegazione-3282154/
Toolkitman27 Dicembre 2018, 04:15 #15
Grazie del link Flortex.

Se puo' essere di minimo aiuto per quanto ho potuto capire riguardo la memoria random, perlomeno di un Apple II che per quanto primordiale e' pur sempre un buon home computer. Ho notato che all'avvio da spento il numero e' sempre lo stesso, mentre se si lascia andare la macchina il numero dato varia di continuo anche al finire del programma e al suo proseguimento. Pertanto bisognerebbe capire se i numeri dati sono sempre gli stessi anche lasciando andare la macchina. Penso sia questa la cosa piu ambigua di un calcolatore.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^