OpenAI si prepara ai 'rischi catastrofici' legati all'intelligenza artificiale: creato un team ad hoc
OpenAI non vuole che l'intelligenza artificiale generativa deragli diventando un pericolo per l'umanità. Per questo è stato creato un team volto a valutare possibili rischi e scenari, nonché a sviluppare contromisure per evitare "rischi catastrofici".
di Manolo De Agostini pubblicata il 27 Ottobre 2023, alle 08:11 nel canale WebIntelligenza ArtificialeOpenAI










Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Amazon aggiorna le offerte anche a metà settimana: 41 sconti attivi, 8 sono nuovi (li vedete in 2 minuti)
Trump elogia Microsoft: accordi con le Big Tech per ridurre l'impatto dei data center sulle bollette
L'Unione Europea scommette sul software open source per diventare indipendente nel digitale
In Cina parte la prima linea per batterie allo stato liquido-solido, ma cosa sono?
Un benchmark che mette in difficoltà la RTX 5090: arriva Radiance basato su raymarching
OnePlus nella bufera a Taiwan: emesso mandato d'arresto per il CEO Pete Lau
Arriva Hyper Hosting, la nuova offerta di Aruba per carichi di lavoro mission critical
Steam non si ferma più: nuovo record di utenti attivi in contemporanea
Venezuela, altro che petrolio: il tesoro segreto potrebbe chiamarsi Bitcoin
SK hynix: un nuovo impianto per produrre le memorie, ma non basterà a frenare i rincari
Facebook, cresce il furto di password con la tecnica browser-in-the-browser: ecco cosa sapere
Tesla lancia la nuova Model Y con 7 posti, solo Premium e 2.500 dollari in più
NVIDIA smentisce: nessun pagamento anticipato obbligatorio per le H200 destinate alla Cina









13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoC'è ampio lavoro dalla community a riguardo:
https://rentry.co/ayumi_erp_rating
"Il problema e' che il ragionamento delle IA e' solo logico, anche se gli chiedi di fare una cosa "buona", magari per eseguire quel compito chissa' che fanno (per intenderci), per questo dovrebbero avere delle direttive primarie preimpostate veramente sicure per tutti."
Praticamente si tratta delle tre leggi della robotica di Asimov.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".