Un fatto sicuro è che l'IA di per se non ha nessuna volontà propria.
Saper ragionare e simulare non significa prendere iniziative, i motori che fanno agire uomini e animali sono gli istinti e non certo la capacità simulativa (aka raziocinio o intelligenza).
Gli istinti derivano da un passato evolutivo: la competizione tra gli animali della stessa specie nel appropriarsi di più risorse, o nel dimostrare di essere più fit degli altri, che sono, di base, i motori sostanziali anche dei conflitti umani
Per una macchina non c'è alcuna differenza tra lo spalare sterco, morire, vivere o farsi un viaggio su marte o al polo nord: le macchine fanno quelle che sono programmate a fare e non hanno alcun desiderio proprio.
Il vero problema è che chi inventerà l'IA si troverà davanti due problemi:
1. sfruttarla a proprio vantaggio, e non è banale, essere l'unico uomo al mondo ad avere a disposizione l'IA potrebbe significare davvero dominare il pianeta, la tentazione sarà fortissima.
2. (più debole) non trasferire all'IA compiutamente alcuni parametri morali che noi riteniamo fondamentali: l'IA sarà per natura estremamente razionale ed efficiente, non avendo un passato evolutivo, empatia o altro. Se può fissare banale fissare alcuni parametri d'azione (es.: le leggi della robotica di asimov) questi potrebbero essere insufficienti e altri potrebbero sfuggire alla comprensione della macchina. Es.: alla macchina potrebbe no nessere chiaro perchè rendere felice una persona con l'uso di sostanze psicotrope è moralmente "sbagliato".
__________________
Ryzen 58000x3d, Kraken x62, Aorus b550 elite v2, Sapphire rx6900xt, Kingston FURY Renegade 2x16G 3600 c16, Kingston FURY Renegade PCIe 4.0 NVMe , Seasonic 620w, NZXT h500, Quest 2, Xiaomi 34 gaming monitor 1440p 144hz.
|