OpenAI rimuove il divieto esplicito all'uso per scopi militari e guerra

OpenAI rimuove il divieto esplicito all'uso per scopi militari e guerra

Utilizzi "militari e di guerra" non sono più esplicitamente vietati, ma le regole continuano a proibire impieghi per danneggiare le persone o le prorpietà

di pubblicata il , alle 09:01 nel canale Web
OpenAI
 

Fino a non molti giorni fa OpenAI poneva in maniera esplicita il divieto all'uso della sua tecnologia per scopi "militari e di guerra" nelle linee guida delle sue tecnologie.

Come riportato anche da The Intercept, la pagina è stata però aggiornata il 10 gennaio "per essere più chiara e fornire linee guida più specifiche", ma il riferimento esplicito è stato rimosso, anche se continua ad essere vietato l'uso dei suoi modelli linguistici per qualsiasi cosa possa causare danno, oltre ad ammonire gli utenti dall'utilizzarli per "sviluppare o usare armi". 

Il portavoce di OpenAI, Niko Felix, ha dichiarato che l'obiettivo di queste modifiche era quello di proporre principi universali semplici da ricordare, dato che le sue tecnologie sono utilizzate ampiamente anche da utenti comuni. "Non nuocere al prossimo è un concetto ampio ma facilmente comprensibile e rilevante in numerosi contesti" ha spiegato Felix.

Può apparire un dettaglio di poco conto, ma le implicazioni possono essere in realtà abbastanza significative. Prima delle modifiche OpenAI di fatto non poteva collaborare con agenzie governative militarmente impegnate, come ad esempio il Ministero della Difesa.

La società ha infatti precisato   che vi possano essere alcuni casi d'uso legati alla sicurezza nazionale che sono in linea con la sua missione e che le linee guida sono state modificate per permettere questo genere di attività, dal momento che il termine "militare" presente nella stesura precedente non avrebbe consentito determinati impieghi.

Questo ha permesso a OpenAI di avviare una collaborazione con il DARPA (le attività di ricerca avanzata della Difesa USA) per lo sviluppo di strumenti di sicurezza software per la protezione degli strumenti open source utilizzati in ambiti mission-critical da parte delle realtà governative.

Le nuove regole continuano a non consentire l'uso delle sue tecnologie per fare del male alle persone, sviluppare armi, sorvegliare comunicazioni, ferire altri o danneggiare proprietà, ma in questo modo possono consentire il confronto con interlocutori militari a scopi non necessariamente tali.

22 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
The_ouroboros15 Gennaio 2024, 09:11 #1
ed ingannare chatgpt è cosi difficile che è impossibile ottenere quello che ti serve
Notturnia15 Gennaio 2024, 09:20 #2
quindi adesso è possibile chiedere a chatgpt come creare una bomba per eliminare gli insetti in giardino ?

io credo che queste AI acerbe siano più dannose che utili senza regole ma capisco che per avere sovvenzioni e fondi si faccia di tutto..
The_ouroboros15 Gennaio 2024, 09:23 #3
Originariamente inviato da: Notturnia
quindi adesso è possibile chiedere a chatgpt come creare una bomba per eliminare gli insetti in giardino ?

io credo che queste AI acerbe siano più dannose che utili senza regole ma capisco che per avere sovvenzioni e fondi si faccia di tutto..


non è cosi chiuso come dice di essere.

Il problema è che llm non è AI ed il termine è abusato.
Oramai anche una cosa che ti avanza in automatico al cesso la carta igienica è chiamato AI
agonauta7815 Gennaio 2024, 09:29 #4
Pecunia non olet
The_ouroboros15 Gennaio 2024, 09:35 #5
Originariamente inviato da: agonauta78
Pecunia non olet


"ma io una banconota da 500 anche se puzza non la rifiuto"
barzokk15 Gennaio 2024, 10:05 #6
Originariamente inviato da: The_ouroboros
non è cosi chiuso come dice di essere.

Il problema è che llm non è AI ed il termine è abusato.
Oramai anche una cosa che ti avanza in automatico al cesso la carta igienica è chiamato AI

Mi fate venire in mente una cosa:

Military Intelligence è un ossimoro
Artificial Intelligence... di "intelligence" ce n'è ben poca, è solo una parvenza di intelligenza, un blob statistico...

Quindi, "Artificial Military Intelligence", cosa diventa, un ossimoro di un ossimoro ? un ossimoro al quadrato ? oddio
agonauta7815 Gennaio 2024, 10:18 #7
La parola IA è troppo inflazionata ultimamente , sembra la cura di ogni male o la maledizione che ci estinguerà . Secondo me è molto sopravvalutata (oggi ) .domani vedremo
Pino9015 Gennaio 2024, 10:21 #8
La cosa divertente è che vari sistemi di machine learning sono già in studio o applicazione da almeno 10 anni nel settore difesa. Senza entrare troppo nei dettagli, il problema principale era la comunicazione con gli operatori umani, ossia la spiegabilità delle azioni del sistema - azioni che in simulazione portavano sempre a una vittoria piuttosto rapida. All'epoca lo chiamavano 4D war, con un riferimento al meme degli scacchi in 5 dimensioni.

edit: più che vittoria, a un raggiungimento degli obiettivi sotto certi constraints
The_ouroboros15 Gennaio 2024, 10:30 #9
Originariamente inviato da: Pino90
La cosa divertente è che vari sistemi di machine learning sono già in studio o applicazione da almeno 10 anni nel settore difesa. Senza entrare troppo nei dettagli, il problema principale era la comunicazione con gli operatori umani, ossia la spiegabilità delle azioni del sistema - azioni che in simulazione portavano sempre a una vittoria piuttosto rapida. All'epoca lo chiamavano 4D war, con un riferimento al meme degli scacchi in 5 dimensioni.


Shall we play ...a .... game (cit)
Unrue15 Gennaio 2024, 10:42 #10
Difficile dire no al settore militare, che da sempre ha fondi praticamente illimitati.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^