Redazione di Hardware Upg
29-05-2024, 09:31
Link alla notizia: https://www.hwupgrade.it/news/web/openai-al-lavoro-su-un-nuovo-llm-gpt-5-e-forma-un-nuovo-team-di-sicurezza_127549.html
OpenAI ha formato un nuovo comitato di sicurezza guidato dal CEO Sam Altman e da altri membri del consiglio di amministrazione. Il nuovo team svilupperà ulteriormente le misure di sicurezza dell'azienda, che ha annunciato anche l'arrivo imminente di un nuovo modello linguistico di grandi dimensioni
Click sul link per visualizzare la notizia.
Sicuramente la presenza di alti dirigenti nel comitato di sicurezza non è molto rassicurante ma bisognerebbe vedere da quante persone è composto in totale e come si svolgono le votazioni/audit.
Se sono 3 dirigenti su 12 membri non c'è problema
The_Hypersonic
29-05-2024, 10:47
Io devo ancora capire la finalità di una AGI quando comunque ci saranno AI specifiche e specializzati per ambiti di utilizzo non generalizzati.
TorettoMilano
29-05-2024, 10:52
Io devo ancora capire la finalità di una AGI quando comunque ci saranno AI specifiche e specializzati per ambiti di utilizzo non generalizzati.
immagino a regime l'AGI sia specializzata per ambiti di utilizzo non generalizzati
"""sicurezza"""
Si potrà iniziare a parlare seriamente di sicurezza quando queste aziende la finiranno con le loro manie di grandezza e di trattare gli utenti anche paganti come se fossero tutti bambini delicati. Al momento la """sicurezza""" si tratta principalmente di 1) evitare imbarazzi per l'azienda; 2) attivismo, cercare di plasmare il pensiero dell'utente verso la visione del mondo dell'azienda (o più precisamente, del team di """sicurezza""").
Non è solo OpenAI, ma un po' tutte le aziende di Silicon Valley nel campo.
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.