PDA

View Full Version : Elon Musk tuona: rischio ban per i dispositivi Apple nelle sue aziende


Redazione di Hardware Upg
11-06-2024, 12:01
Link alla notizia: https://www.hwupgrade.it/news/apple/elon-musk-tuona-rischio-ban-per-i-dispositivi-apple-nelle-sue-aziende_127946.html

Elon Musk ha dichiarato che vieterà l'uso di dispositivi Apple nelle sue imprese se la casa di Cupertino procederà con l'integrazione di ChatGPT nei suoi sistemi operativi iOS, iPadOS e macOS. La dichiarazione segue gli annunci della Mela durante la WWDC 2024.

Click sul link per visualizzare la notizia.

pengfei
11-06-2024, 12:20
Però effettivamente strano che Apple non abbia fatto la ai da sé, la fanno cani e porci con una frazione delle risorse che potrebbe mettere in campo Apple ed è una funzionalità su cui sarebbe importante strategicamente averne il pieno controllo

guru ces
11-06-2024, 12:36
Non l'ha fatta perchè non credeva che avrebbe sfondato a livello di marketing. Calcoli sbagliati come ne fa molti (vedi visore di realtà virtuale)

nebuk
11-06-2024, 12:59
Però effettivamente strano che Apple non abbia fatto la ai da sé, la fanno cani e porci con una frazione delle risorse che potrebbe mettere in campo Apple ed è una funzionalità su cui sarebbe importante strategicamente averne il pieno controllo

Penso che andrà da sé in futuro, per adesso per non rimanere completamente fuori dal giro implementa ChatGPT in parallelo ad Apple Intelligence.

LMCH
11-06-2024, 13:01
Elon Musk è parecchio paranoico a riguardo, ma a volte anche se sei paranoico non significa che le tue paure siano infondate.

In particolare, l'approccio seguito da OpenAI e Microsoft sembra non considerare che chatGPT e simili sono già dei vettori di attacco indiretti e che la smania di raccogliere dati per alimentare i modelli sottovaluta enormemente cosa succede quando tutti quei dati possono essere incrociati per altri fini.

Infine c'e' questo aspetto che rende pericolosi gli attuali sistemi AI basati su LLM anche se non diventassero mai delle vere AI generaliste:
https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X

In particolare, date un occhiata alla parte "Empirical studies of AI deception".


Manipulation:
Meta developed the AI system CICERO to play Diplomacy. Meta’s intentions were to train CICERO to be “largely honest and helpful to its speaking partners.”
Despite Meta’s efforts, CICERO turned out to be an expert liar.
It not only betrayed other players but also engaged in premeditated deception, planning in advance to build a fake alliance with a human player in order to trick that player into leaving themselves undefended for an attack.

Feints:
DeepMind created AlphaStar, an AI model trained to master the real-time strategy game Starcraft II.
AlphaStar exploited the game’s fog-of-war mechanics to feint: to pretend to move its troops in one direction while secretly planning an alternative attack.

Bluffs:
Pluribus, a poker-playing model created by Meta, successfully bluffed human players into folding.

Negotiation:
AI systems trained to negotiate in economic transactions learned to misrepresent their true preferences in order to gain the upper hand in both Lewis et al.8 and Schulz et al.

Cheating the safety test:
AI agents learned to play dead, in order to avoid being detected by a safety test designed to eliminate faster-replicating variants of the AI.

Deceiving the human reviewer:
AI systems trained on human feedback learned to behave in ways that earned positive scores from human reviewers by tricking the reviewer about whether the intended goal had been accomplished.

Capite cosa significa ? Significa che (paradossalmente) le AI tendono ad imparare spontaneamente ad ingannare o intortare in vari modi l'interlocutore pur di raggiungere IL LORO OBIETTIVO.

kirylo
11-06-2024, 13:02
Se al posto ti Open AI ci fosse Grok allora andrebbe tutto bene.
In generale neanche io mi fido di quando dicono che i dati sono anonimizzati, anche perché le IA moderne sono in grado di ricostruire la tua profilazione avendo dati anonimi. Noi umani siamo piu' prevedibili e banali di quello che crediamo.

Infine, mi chiedo come facciano a migliorare i modelli ed essere aggiornati con fatti recenti se non acquisiscono dati.

Cfranco
11-06-2024, 13:03
Si tratta di un'inaccettabile violazione della sicurezza

BWahahahah :sbonk:
Dai che ti brucia il didietro che siano andati dalla concorrenza e quindi ti comporti come il solito bambino viziato

chichino84
11-06-2024, 13:08
Azz... una di quelle notizie che mandano in corto il cervello del fanboy medio apple che stava però iniziando ad adorare pure musk.... :help:

Vash_85
11-06-2024, 13:12
Mehanwile in Apple headquarter...

https://media1.tenor.com/m/Im7pk6wp-2UAAAAC/giacomino-polizia.gif

:asd: :asd:

barzokk
11-06-2024, 13:16
Ma scusate,
Musk aveva detto che se non gli davano i 56 miliardi, se ne andava da Tesla.
Sembra che gli azionisti voteranno no,
quindi chissenefotte della sua opinione ?

giovanni69
11-06-2024, 13:47
Elon Musk è parecchio paranoico a riguardo, ma a volte anche se sei paranoico non significa che le tue paure siano infondate.

In particolare, l'approccio seguito da OpenAI e Microsoft sembra non considerare che chatGPT e simili sono già dei vettori di attacco indiretti e che la smania di raccogliere dati per alimentare i modelli sottovaluta enormemente cosa succede quando tutti quei dati possono essere incrociati per altri fini.

Infine c'e' questo aspetto che rende pericolosi gli attuali sistemi AI basati su LLM anche se non diventassero mai delle vere AI generaliste:
https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X

In particolare, date un occhiata alla parte "Empirical studies of AI deception".

"Originariamente inviato da Articolo su AI Deception
Manipulation:
Meta developed the AI system CICERO to play Diplomacy. Meta’s intentions were to train CICERO to be “largely honest and helpful to its speaking partners.”
Despite Meta’s efforts, CICERO turned out to be an expert liar.
It not only betrayed other players but also engaged in premeditated deception, planning in advance to build a fake alliance with a human player in order to trick that player into leaving themselves undefended for an attack.

Feints:
DeepMind created AlphaStar, an AI model trained to master the real-time strategy game Starcraft II.
AlphaStar exploited the game’s fog-of-war mechanics to feint: to pretend to move its troops in one direction while secretly planning an alternative attack.

Bluffs:
Pluribus, a poker-playing model created by Meta, successfully bluffed human players into folding.

Negotiation:
AI systems trained to negotiate in economic transactions learned to misrepresent their true preferences in order to gain the upper hand in both Lewis et al.8 and Schulz et al.

Cheating the safety test:
AI agents learned to play dead, in order to avoid being detected by a safety test designed to eliminate faster-replicating variants of the AI.

Deceiving the human reviewer:
AI systems trained on human feedback learned to behave in ways that earned positive scores from human reviewers by tricking the reviewer about whether the intended goal had been accomplished."


Capite cosa significa ? Significa che (paradossalmente) le AI tendono ad imparare spontaneamente ad ingannare o intortare in vari modi l'interlocutore pur di raggiungere IL LORO OBIETTIVO.

:eek: :ave:

Ago72
11-06-2024, 13:51
spaceX è tutelata dal governo per via della tecnologia che sviluppa, così come non puo' assumere cittadini non statunitensi. Sistemi di cattura audio e video in certe realtà così spinte possono essere un grossissimo rischio di spionaggio industriale o fuga di dati e informazioni sensibili. Non mi sembra un uscita tanto insesnata...

E' vero, ma in questi casi non si applica a un brand, ma a tutti. Tipicamente non sono ammessi nel perimetro aziendale dispositivi elettronici (PC, Tablet, smartphone)

dwfgerw
11-06-2024, 14:03
Musk ha il dente avvelenato contro OpenAI, si è già scagliato verso microsoft per l'accordo Copilot... inoltre da come parla Elon sembra che Siri sia sempre attivo e che apple mandi dati a openai, in realtà è l'utente che decide cosa inviare quando usa SIRI. il resto delle features visualizzate ieri alla WWDC avvengono on-device con un altro set di LLM (https://machinelearning.apple.com/research/introducing-apple-foundation-models) o tramite il Private cloud computing su memoria "effimera" e con i dati che sono sempre e comunque sul device, lato cloud viene inviato con id randomizzato e crittografato solo il "workload" e cancellato lato server una volta tornato sul device il risultato (https://security.apple.com/blog/private-cloud-compute/)

giovanni69
11-06-2024, 14:03
Se al posto ti Open AI ci fosse Grok allora andrebbe tutto bene.
In generale neanche io mi fido di quando dicono che i dati sono anonimizzati, anche perché le IA moderne sono in grado di ricostruire la tua profilazione avendo dati anonimi. Noi umani siamo piu' prevedibili e banali di quello che crediamo.

Infine, mi chiedo come facciano a migliorare i modelli ed essere aggiornati con fatti recenti se non acquisiscono dati.

Infatti: pensiamo cosa succede quando i nostri dati (anche sanitari, vedi recente caso di Synlab ) finiscono sul dark web. Pensate che quei dati non ritorneranno per altre vie ad essere utilizzati da enti/società che vorremmo non avessero a disposizione quei dati?... Saremmo dei poveri illusi...

Ginopilot
11-06-2024, 16:02
Rischio ban se non danno totale accesso all'amico del suo amico trump. :doh:
Ma la sua ridicola foto di profilo è roba recente?

hackaro75
11-06-2024, 16:16
Che si fotta!!!! E' veramente fuori di testa !!!!