View Full Version : In arrivo dall'Europa un codice etico sull'intelligenza artificiale
Redazione di Hardware Upg
24-12-2018, 10:01
Link alla notizia: https://pro.hwupgrade.it/news/scienza-tecnologia/in-arrivo-dall-europa-un-codice-etico-sull-intelligenza-artificiale_79828.html
L'Europa ha organizzato un comitato di 52 esperti con lo scopo di creare un codice etico sull'intelligenza artificiale previsto per fine 2019, ai fini utilizzare l'AI in maniera giusta nei confronti delle persone
Click sul link per visualizzare la notizia.
supertigrotto
24-12-2018, 12:08
Ma chi sono questi esperti?
Non é che siano pseudouesperti? In stile "esperto in sicurezza informatica" PA italiana?
A volte mi chiedo in Europa se non mettono a capo gli esperti con il tipico modo di fare all'italiana....
Ma chi sono questi esperti?
Non é che siano pseudouesperti? In stile "esperto in sicurezza informatica" PA italiana?
A volte mi chiedo in Europa se non mettono a capo gli esperti con il tipico modo di fare all'italiana....
L'UE...
probabilmente saranno gli stessi "esperti" che hanno ritenuto ILLECITO avere Windows Media Player preinstallato in Windows...
bancodeipugni
24-12-2018, 13:02
normalmente i codici etici li stampano su carta igienica :stordita:
Doraneko
24-12-2018, 17:23
Figurati se la UE si lascia scappare l'opportunità di regolamentare qualcosa di nuovo :asd:
Doraneko
24-12-2018, 17:26
L'UE...
probabilmente saranno gli stessi "esperti" che hanno ritenuto ILLECITO avere Windows Media Player preinstallato in Windows...
Eh...a sto punto mi viene il dubbio che forse è meglio se fanno copia-incolla dalle 3 leggi della robotica di Asimov.
Eh...a sto punto mi viene il dubbio che forse è meglio se fanno copia-incolla dalle 3 leggi della robotica di Asimov.
che sono 4... :read: ;)
danieleg.dg
24-12-2018, 18:51
Ma chi sono questi esperti?
Non é che siano pseudouesperti? In stile "esperto in sicurezza informatica" PA italiana?
A volte mi chiedo in Europa se non mettono a capo gli esperti con il tipico modo di fare all'italiana....
C'è la lista: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence
Notturnia
24-12-2018, 22:16
Più ne leggo e più vedo queste cose e più mi rendo conto che stiamo eliminando il genere umano in modo ben più veloce che con l’inquinamento
Le AI mi sa che ci sfuggiranno di mano molto facilmente
Toolkitman
25-12-2018, 07:28
Penso sia molto importante una regolamentazione da parte della legge riguardo l'intelligenza artificiale ma non tanto in quanto l'intelligenza artifiiciale ma in quanto a chi la programma, perche' una macchina prima di tutto deve imparare dall'uomo, se l'uomo da istruzioni buone colei fara' cose buone se da istruzioni cattive fara' cose cattive (e si spera di no!). Direte da che pulpito viene questa predica, lo so anche io ho fatto cose stupide (non riguardo l'intelligenza artificiale), ma me ne sono riveduto e credo sia umano farle pertanto regolamentare e' una cosa buona, a volte le situzioni ci portano ad un livello di stress che non riusciamo piu' a sopportare ci fa fare cose sbagliate, ma una macchina se programmata bene non prova stress e non cadra' mai in errore. Ovvio meglio controllare e rincotrollare il programma prima di avviarlo e tenerlo costantemente sotto controllo da eventuali manomissioni.
Toolkitman
25-12-2018, 10:03
Penso sia molto importante una regolamentazione da parte della legge riguardo l'intelligenza artificiale ma non tanto in quanto l'intelligenza artifiiciale ma in quanto a chi la programma, perche' una macchina prima di tutto deve imparare dall'uomo, se l'uomo da istruzioni buone colei fara' cose buone se da istruzioni cattive fara' cose cattive (e si spera di no!). Direte da che pulpito viene questa predica, lo so anche io ho fatto cose stupide (non riguardo l'intelligenza artificiale), ma me ne sono riveduto e credo sia umano farle pertanto regolamentare e' una cosa buona, a volte le situazioni ci portano ad un livello di stress che non riusciamo piu' a sopportare ci fa fare cose sbagliate, ma una macchina se programmata bene non prova stress e non cadra' mai in errore. Ovvio meglio controllare e rincotrollare il programma prima di avviarlo e tenerlo costantemente sotto controllo da eventuali manomissioni.
NB: c'erano due piccoli errori di battitura corretti, non voletemi scrivo velocemente!
ComputArte
26-12-2018, 05:27
Ad oggi il problema risiede nell impossibilità di identificare il percorso "scelto" dalla macchina per giungere ad una conclusione.
Stiamo parlando della "black box"... quindi è NECESSARIO non solo regolamentare il settore, ma soprattutto RESPONSABILIZZARE chi decide...macchine incluse!
e qui ci viene in aiuto la block-chain! tracciare tutte le decisioni e vedere chi ....anzi, cosa :sofico: ha preso determinate decisioni con le conseguenze nel e sul modno reale....e nel caso ...correggere e/o spegnere! :ciapet:
Toolkitman
26-12-2018, 11:09
Mi sembra logico che se si applica un RANDOM in programmazione le scelte che potra' fare l'intelligenza arificiale saranno delimitate dal numero dato alla random e alle stringhe ad essa correlate, quindi si potebbero aver possibilita' quasi infinite di scelta. Forse e' questo che intendete per Black box?
Toolkitman
26-12-2018, 12:08
Perche' non prendere spunto dalle Tre Leggi Della Robotica di ISAAC ASIMOV, si possono leggere a questo link:
https://it.wikipedia.org/wiki/Tre_leggi_della_robotica
Condivido lo scetticismo verso gli "esperti", o più probabilmente pseudo tali.
Tra l'altro non si capisce in che misura si arroghino il diritto di scegliere per tutti, anche a scapito di diritti individuali: sono io a dover decidere in che misura voglio essere "aiutato" per la mia "sicurezza". Non loro. ;)
In ogni caso, le linee guida ad una lettura superficiale non mi paiono male:
prevale la tutela del ruolo e della dignità dell'essere umano; viene stabilito infatti il principio che l'intelligenza artificiale non deve danneggiare l'umanità ma deve tutelare la sicurezza fisica, psicologica e finanziaria. Inoltre, le macchine intelligenti dovranno sempre operare in favore della realizzazione dell'autonomia dell'uomo, mai riducendola.
Sappiamo però che il diavolo si nasconde nei dettagli, per cui non è automatico si traduca in qualcosa di buono.
@Toolkitman: per black box credo si intenda quanto spiegato, ad esempio, qui: http://www.lescienze.it/news/2016/10/22/news/apprendimento_profondo_scatola_nera_problemi_spiegazione-3282154/
Toolkitman
27-12-2018, 03:15
Grazie del link Flortex.
Se puo' essere di minimo aiuto per quanto ho potuto capire riguardo la memoria random, perlomeno di un Apple II che per quanto primordiale e' pur sempre un buon home computer. Ho notato che all'avvio da spento il numero e' sempre lo stesso, mentre se si lascia andare la macchina il numero dato varia di continuo anche al finire del programma e al suo proseguimento. Pertanto bisognerebbe capire se i numeri dati sono sempre gli stessi anche lasciando andare la macchina. Penso sia questa la cosa piu ambigua di un calcolatore.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.