Entra

View Full Version : OpenAI si prepara ai 'rischi catastrofici' legati all'intelligenza artificiale: creato un team ad hoc


Redazione di Hardware Upg
27-10-2023, 07:11
Link alla notizia: https://www.hwupgrade.it/news/web/openai-si-prepara-ai-rischi-catastrofici-legati-all-intelligenza-artificiale-creato-un-team-ad-hoc_121258.html

OpenAI non vuole che l'intelligenza artificiale generativa deragli diventando un pericolo per l'umanità. Per questo è stato creato un team volto a valutare possibili rischi e scenari, nonché a sviluppare contromisure per evitare "rischi catastrofici".

Click sul link per visualizzare la notizia.

oliverb
27-10-2023, 07:20
mah... alla fine non è chissà che grande perdita la razza umana... e cmq basta prepararsi creando dei T-800 buoni

UtenteHD
27-10-2023, 08:17
Il problema e' che il ragionamento delle IA e' solo logico, anche se gli chiedi di fare una cosa "buona", magari per eseguire quel compito chissa' che fanno (per intenderci), per questo dovrebbero avere delle direttive primarie preimpostate veramente sicure per tutti.
Ma se gia' stanno pensando di farne alcuni come armi.. ciao

Saturn
27-10-2023, 08:29
mah... alla fine non è chissà che grande perdita la razza umana... e cmq basta prepararsi creando dei T-800 buoni

Aveva pienamente ragione l'agente Smith in Matrix...siamo un'infezione estesa per il pianeta...e le macchine sono la cura... :O

pachainti
27-10-2023, 08:34
I modelli LLM i danni li stanno già facendo, stanno riempiendo il web di informazioni false.
Il loro grande problema è che per costruzione non hanno alcuna consapevolezza e capacità deduttiva-logica. Questo è il motivo per cui a volte (spesso) prendono delle cantonate non conoscendo il contesto di applicazione delle loro inferenze link (https://www.spreaker.com/user/runtime/dk-7x10-stronzateartificiali). Inoltre, gli algoritmi di machine e deep learning, trovano le correlazioni statistiche tra i dati, ma le correlazioni non sono sinonimo di causalità (la causalità implica correlazione, non il viceversa).
Quindi se una persona già conosce l'argomento si accorge dei palesi errori mentre se non lo conosce e si fida dell'IA sta prendendo per vere delle falsità link (https://www.scienzainrete.it/articolo/pappagalli-stocastici-e-potere-delle-big-tech/chiara-sabelli/2021-03-12).
Questo è il grande problema da risolvere il prima possibile, il resto sono solo speculazioni e se analizziamo le previsioni e i fatti degli ultimi 20 anni, poche si sono avverate.

!fazz
27-10-2023, 08:52
esatto è il classico problema di hype alla gartner adesso siamo nel peak e giu tutti a pensare che le IA facciano miracoli quando esistono e si usano da decenni solo che prima non si chiamavano AI e deep learning ma reti neurali, sistemi non lineari, statistica avanzata, nomi meno fighi sicuro ma alla fine sempre nomi sono.

l'unica cosa che è cambiata è la potenza di calcolo disponibile, ormai chiunque può addestrare un dataset corposo, basta una carta di credito e un account gcp,aws, azure a scelta prima era un attività nettamenente più costosa. inoltre adesso è un fiorire di soluzioni low code / no code che permettono di creare sistemi semplici anche senza troppe skill di programmazione

giusto per farti un esempio,a memoria il primo algoritmo basato su reti neurali che ho sviluppato e messo in produzione in un azienda penso di averlo scritto tra il 2008 e il 2009 una robetta se mi ricordo bene da 3 strati e 37 nodi in back propagation con un paio di GB di dataset per il training ed il training ha occupato un core2quad con xp64 e 8 GB di ram con un raid 0 di dischi a 15k rpm e 8k€ di licenza di matlab(un macchinone per l'epoca) per tipo 90 giorni con la paura che lo script si incatramasse e dovessimo ricominciare da zero

rvrmarco
27-10-2023, 09:26
Il problema e' che il ragionamento delle IA e' solo logico, anche se gli chiedi di fare una cosa "buona", magari per eseguire quel compito chissa' che fanno (per intenderci), per questo dovrebbero avere delle direttive primarie preimpostate veramente sicure per tutti.
Ma se gia' stanno pensando di farne alcuni come armi.. ciao

Anche se la tua è una preoccupazione assolutamente valida e più volte esplorata dalle produzioni fantascientifiche, il problema in questo caso risiede altrove.

I sistemi di apprendimento automatico che comunemente chiamiamo IA, per quanto magnificamente complessi non esercitano nessun tipo di "ragionamento". Infatti le loro risposte possono essere completamente illogiche.

Ad esempio chatgpt, nonostante sia una feat tecnologica vermente impressionante, al suo core non è altro che un elaborato autocomplete.

Il vero problema di questi strumenti è come sempre l'uso che ne facciamo, delegare le decisioni a un sistema apparentemente intelligente è già un problema di per se.

Quando questi sistemi saranno veramente intelligenti e avranno delle loro ambizioni e obiettivi, questo problema sarà amplificato; specialmente se negli anni precedenti abbiamo lasciato a sistemi automatici la gestione delle nostre vite senza sistemi di controllo

Mo42
27-10-2023, 09:44
E se lo dicono loro...

Unrue
27-10-2023, 10:40
l'unica cosa che è cambiata è la potenza di calcolo disponibile


Beh, insomma, sono usciti modelli complessi come le RCNN (e la sua versione Faster) che hanno rivoluzionato il settore, ben lontano dai primi modelli semplici con la back propagation e 4 livelli in croce. Per non parlare dei modelli zero shot, anche quelli rivoluzionari ed impensabili fino a pochi anni fa. Poi chiaramente la potenza di calcolo aiuta, ma non è solo quella.

Univac
27-10-2023, 11:32
"J.A.R.V.I.S. risolvi la fame nel mondo, le guerre, le malattie, le ingiustizie!"
"certamente: piano di estinzione razza umana inizializzato"

Unax
27-10-2023, 11:57
se non si vuole che diventi un pericolo basta non fargli gestire o prendere decisioni critiche o al limite che ci siano umani a validare la cosa prima di attuarla

s12a
27-10-2023, 12:46
Spero in una IA che abbia il compito soddisfare gli istinti sessuali umani.

C'è ampio lavoro dalla community a riguardo:
https://rentry.co/ayumi_erp_rating

gino46
27-10-2023, 13:13
Oddio certo che riuscire a fare peggio di quello che sta facendo l’essere umano oggi giorno, bisogna impegnarsi parecchio.

huatulco
27-10-2023, 15:51
UtenteHD:
"Il problema e' che il ragionamento delle IA e' solo logico, anche se gli chiedi di fare una cosa "buona", magari per eseguire quel compito chissa' che fanno (per intenderci), per questo dovrebbero avere delle direttive primarie preimpostate veramente sicure per tutti."

Praticamente si tratta delle tre leggi della robotica di Asimov.