OpenAI al lavoro su un nuovo LLM (GPT-5?) e forma un nuovo team di sicurezza

OpenAI al lavoro su un nuovo LLM (GPT-5?) e forma un nuovo team di sicurezza

OpenAI ha formato un nuovo comitato di sicurezza guidato dal CEO Sam Altman e da altri membri del consiglio di amministrazione. Il nuovo team svilupperà ulteriormente le misure di sicurezza dell'azienda, che ha annunciato anche l'arrivo imminente di un nuovo modello linguistico di grandi dimensioni

di pubblicata il , alle 09:31 nel canale Web
OpenAIChatGPT
 

OpenAI ha annunciato la formazione di un nuovo team di sicurezza incaricato di valutare e migliorare i processi e le misure di sicurezza aziendali. La notizia arriva in seguito ad alcune partenze importanti, fra cui il co-fondatore Ilya Sutskever, legate a preoccupazioni sulla sicurezza.

Guidato dal CEO Sam Altman, insieme ad Adam D'Angelo e Nicole Seligman del consiglio di amministrazione, il nuovo team di sicurezza formulerà raccomandazioni sulle "decisioni critiche in materia di sicurezza e protezione per i progetti e le operazioni di OpenAI". Tuttavia, con due membri del consiglio di amministrazione e lo stesso Altman a capo del comitato, sorge il dubbio se questo nuovo organo sarà effettivamente in grado di affrontare le preoccupazioni sollevate dai ricercatori che hanno recentemente lasciato l'azienda.

OpenAI si prepara al nuovo LLM e forma un nuovo team di sicurezza

Tra coloro che hanno rassegnato le dimissioni. oltre a Ilya Sutskever, c'è anche Jan Leike, co-leader del team di Superalignment creato per "guidare e controllare sistemi di intelligenza artificiale molto più intelligenti di noi". Entrambi hanno espresso preoccupazioni sul fatto che la sicurezza sia stata subordinata al perseguimento di "prodotti brillanti" da parte dell'azienda. Un'altra partenza di rilievo è stata quella di Gretchen Krueger, policy researcher in OpenAI, che ha citato problemi di sicurezza simili come motivo delle sue dimissioni.

Insieme al nuovo team di sicurezza OpenAI ha annunciato di essere al lavoro su un nuovo modello di intelligenza artificiale, anche se non ha confermato se si tratti di GPT-5. Nella nota si legge solamente che "OpenAI ha recentemente iniziato ad addestrare il suo modello di frontiera", il quale potrebbe portare "al livello successivo di capacità nel percorso verso l'AGI (Intelligenza Artificiale Generale)".

Oltre ad Altman, D'Angelo e Seligman, il nuovo comitato di sicurezza comprende anche Aleksander Madry, i responsabili della sicurezza Lilian Weng e Matt Knight, John Schulman e Jakub Pachocki.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
io78bis29 Maggio 2024, 10:29 #1
Sicuramente la presenza di alti dirigenti nel comitato di sicurezza non è molto rassicurante ma bisognerebbe vedere da quante persone è composto in totale e come si svolgono le votazioni/audit.
Se sono 3 dirigenti su 12 membri non c'è problema
The_Hypersonic29 Maggio 2024, 10:47 #2
Io devo ancora capire la finalità di una AGI quando comunque ci saranno AI specifiche e specializzati per ambiti di utilizzo non generalizzati.
TorettoMilano29 Maggio 2024, 10:52 #3
Originariamente inviato da: The_Hypersonic
Io devo ancora capire la finalità di una AGI quando comunque ci saranno AI specifiche e specializzati per ambiti di utilizzo non generalizzati.


immagino a regime l'AGI sia specializzata per ambiti di utilizzo non generalizzati
s12a29 Maggio 2024, 11:31 #4
"""sicurezza"""

Si potrà iniziare a parlare seriamente di sicurezza quando queste aziende la finiranno con le loro manie di grandezza e di trattare gli utenti anche paganti come se fossero tutti bambini delicati. Al momento la """sicurezza""" si tratta principalmente di 1) evitare imbarazzi per l'azienda; 2) attivismo, cercare di plasmare il pensiero dell'utente verso la visione del mondo dell'azienda (o più precisamente, del team di """sicurezza""".

Non è solo OpenAI, ma un po' tutte le aziende di Silicon Valley nel campo.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^