Elon Musk tuona: rischio ban per i dispositivi Apple nelle sue aziende

Elon Musk tuona: rischio ban per i dispositivi Apple nelle sue aziende

Elon Musk ha dichiarato che vieterà l'uso di dispositivi Apple nelle sue imprese se la casa di Cupertino procederà con l'integrazione di ChatGPT nei suoi sistemi operativi iOS, iPadOS e macOS. La dichiarazione segue gli annunci della Mela durante la WWDC 2024.

di pubblicata il , alle 13:01 nel canale Apple
Apple
 

Elon Musk è noto per non essere solitamente moderato nelle sue esternazioni sui social e nelle scorse ore ha lanciato una sfida diretta ad Apple, minacciando il colosso di vietare i suoi dispositivi nelle aziende che dirige qualora procedesse con l'integrazione di ChatGPT. Musk si dice preoccupato riguardo alla sicurezza dei dati e alla privacy degli utenti quando si tratta di condividere informazioni con OpenAI, la società dietro il popolare assistente virtuale basato sull'intelligenza artificiale.

Le esternazioni di Musk sono state pubblicate sul suo X, all'interno di una serie di post sull'integrazione di ChatGPT da parte di Apple su iOS, iPadOS e macOS: "Se Apple integra OpenAI a livello di sistema operativo, i dispositivi Apple saranno vietati nelle mie aziende. Si tratta di un'inaccettabile violazione della sicurezza", le parole di Musk nel primo post. Il miliardario ha poi continuato scrivendo che eventuali "visitatori delle sue aziende dovranno lasciare i loro dispositivi Apple all'ingresso, dove verranno custoditi in una gabbia di Faraday per prevenire l'accesso ai segnali wireless".

Elon Musk non consentirà l'accesso nelle sue aziende a chi usa dispositivi Apple

La dichiarazione arriva in seguito ai lanci di Apple in occasione della WWDC 2024, dove ha presentato la collaborazione con OpenAI che consentirà a Siri, l'assistente virtuale integrato sugli OS della Mela, di utilizzare le capacità di ChatGPT per gestire query complesse, purché gli utenti forniscano un'autorizzazione esplicita. Sebbene Apple abbia sottolineato che gli utenti avranno il pieno controllo su quando e come verrà utilizzato ChatGPT, e che i dati condivisi con OpenAI non verranno registrati o archiviati, Musk sta esprimendo forti preoccupazioni in merito.

"Apple non ha idea di cosa stia effettivamente succedendo ai dati degli utenti una volta consegnati a OpenAI", scrive Musk nei vari post sull'argomento, evidenziando come sia "assurdo che Apple non sia abbastanza intelligente da creare la propria intelligenza artificiale, ma sia in qualche modo in grado di garantire che OpenAI protegga la sicurezza e la privacy" degli utenti. In seguito alla conferenza di Apple, OpenAI ha sottolineato in un post sul blog che "le richieste non vengono memorizzate da OpenAI e gli indirizzi IP degli utenti sono oscurati".

Non sembrano essere state sufficienti, a placare il giudizio di Musk, neanche le dichiarazioni di Apple, che è stata chiara a ribadire che le nuove funzionalità di intelligenza artificiale sono progettate mettendo in primo piano la privacy dell'utente. L'approccio di Apple sfrutta un metodo definito Private Cloud Compute, basato sull'elaborazione on-device mista al cloud computing e con la garanzia che i dati non vengono archiviati nel cloud. Tutte rassicurazioni che non sembrano sufficienti a placare le preoccupazioni di Musk, che - ne siamo certi - tornerà sull'argomento puntando a favorire le sue piattaforme proprietarie.

15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
pengfei11 Giugno 2024, 13:20 #1
Però effettivamente strano che Apple non abbia fatto la ai da sé, la fanno cani e porci con una frazione delle risorse che potrebbe mettere in campo Apple ed è una funzionalità su cui sarebbe importante strategicamente averne il pieno controllo
guru ces11 Giugno 2024, 13:36 #2
Non l'ha fatta perchè non credeva che avrebbe sfondato a livello di marketing. Calcoli sbagliati come ne fa molti (vedi visore di realtà virtuale)
nebuk11 Giugno 2024, 13:59 #3
Originariamente inviato da: pengfei
Però effettivamente strano che Apple non abbia fatto la ai da sé, la fanno cani e porci con una frazione delle risorse che potrebbe mettere in campo Apple ed è una funzionalità su cui sarebbe importante strategicamente averne il pieno controllo


Penso che andrà da sé in futuro, per adesso per non rimanere completamente fuori dal giro implementa ChatGPT in parallelo ad Apple Intelligence.
LMCH11 Giugno 2024, 14:01 #4
Elon Musk è parecchio paranoico a riguardo, ma a volte anche se sei paranoico non significa che le tue paure siano infondate.

In particolare, l'approccio seguito da OpenAI e Microsoft sembra non considerare che chatGPT e simili sono già dei vettori di attacco indiretti e che la smania di raccogliere dati per alimentare i modelli sottovaluta enormemente cosa succede quando tutti quei dati possono essere incrociati per altri fini.

Infine c'e' questo aspetto che rende pericolosi gli attuali sistemi AI basati su LLM anche se non diventassero mai delle vere AI generaliste:
https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X

In particolare, date un occhiata alla parte "Empirical studies of AI deception".

Originariamente inviato da: "
Manipulation:
Meta developed the AI system CICERO to play Diplomacy. Meta’s intentions were to train CICERO to be “largely honest and helpful to its speaking partners.”
Despite Meta’s efforts, CICERO turned out to be an expert liar.
It not only betrayed other players but also engaged in premeditated deception, planning in advance to build a fake alliance with a human player in order to trick that player into leaving themselves undefended for an attack.

Feints:
DeepMind created AlphaStar, an AI model trained to master the real-time strategy game Starcraft II.
AlphaStar exploited the game’s fog-of-war mechanics to feint: to pretend to move its troops in one direction while secretly planning an alternative attack.

Bluffs:
Pluribus, a poker-playing model created by Meta, successfully bluffed human players into folding.

Negotiation:
AI systems trained to negotiate in economic transactions learned to misrepresent their true preferences in order to gain the upper hand in both Lewis et al.8 and Schulz et al.

Cheating the safety test:
AI agents learned to play dead, in order to avoid being detected by a safety test designed to eliminate faster-replicating variants of the AI.

Deceiving the human reviewer:
AI systems trained on human feedback learned to behave in ways that earned positive scores from human reviewers by tricking the reviewer about whether the intended goal had been accomplished.


Capite cosa significa ? Significa che (paradossalmente) le AI tendono ad imparare spontaneamente ad ingannare o intortare in vari modi l'interlocutore pur di raggiungere IL LORO OBIETTIVO.
kirylo11 Giugno 2024, 14:02 #5

Se invece fosse grok?

Se al posto ti Open AI ci fosse Grok allora andrebbe tutto bene.
In generale neanche io mi fido di quando dicono che i dati sono anonimizzati, anche perché le IA moderne sono in grado di ricostruire la tua profilazione avendo dati anonimi. Noi umani siamo piu' prevedibili e banali di quello che crediamo.

Infine, mi chiedo come facciano a migliorare i modelli ed essere aggiornati con fatti recenti se non acquisiscono dati.
Cfranco11 Giugno 2024, 14:03 #6
[I]Si tratta di un'inaccettabile violazione della sicurezza[/I]


BWahahahah
Dai che ti brucia il didietro che siano andati dalla concorrenza e quindi ti comporti come il solito bambino viziato
chichino8411 Giugno 2024, 14:08 #7
Azz... una di quelle notizie che mandano in corto il cervello del fanboy medio apple che stava però iniziando ad adorare pure musk....
Vash_8511 Giugno 2024, 14:12 #8
Mehanwile in Apple headquarter...

Link ad immagine (click per visualizzarla)

barzokk11 Giugno 2024, 14:16 #9
Ma scusate,
Musk aveva detto che se non gli davano i 56 miliardi, se ne andava da Tesla.
Sembra che gli azionisti voteranno no,
quindi chissenefotte della sua opinione ?
giovanni6911 Giugno 2024, 14:47 #10

Thanks!

Originariamente inviato da: LMCH
Elon Musk è parecchio paranoico a riguardo, ma a volte anche se sei paranoico non significa che le tue paure siano infondate.

In particolare, l'approccio seguito da OpenAI e Microsoft sembra non considerare che chatGPT e simili sono già dei vettori di attacco indiretti e che la smania di raccogliere dati per alimentare i modelli sottovaluta enormemente cosa succede quando tutti quei dati possono essere incrociati per altri fini.

Infine c'e' questo aspetto che rende pericolosi gli attuali sistemi AI basati su LLM anche se non diventassero mai delle vere AI generaliste:
https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X

In particolare, date un occhiata alla parte "Empirical studies of AI deception".

"Originariamente inviato da Articolo su AI Deception
Manipulation:
Meta developed the AI system CICERO to play Diplomacy. Meta’s intentions were to train CICERO to be “largely honest and helpful to its speaking partners.”
Despite Meta’s efforts, CICERO turned out to be an expert liar.
It not only betrayed other players but also engaged in premeditated deception, planning in advance to build a fake alliance with a human player in order to trick that player into leaving themselves undefended for an attack.

Feints:
DeepMind created AlphaStar, an AI model trained to master the real-time strategy game Starcraft II.
AlphaStar exploited the game’s fog-of-war mechanics to feint: to pretend to move its troops in one direction while secretly planning an alternative attack.

Bluffs:
Pluribus, a poker-playing model created by Meta, successfully bluffed human players into folding.

Negotiation:
AI systems trained to negotiate in economic transactions learned to misrepresent their true preferences in order to gain the upper hand in both Lewis et al.8 and Schulz et al.

Cheating the safety test:
AI agents learned to play dead, in order to avoid being detected by a safety test designed to eliminate faster-replicating variants of the AI.

Deceiving the human reviewer:
AI systems trained on human feedback learned to behave in ways that earned positive scores from human reviewers by tricking the reviewer about whether the intended goal had been accomplished."


Capite cosa significa ? Significa che (paradossalmente) le AI tendono ad imparare spontaneamente ad ingannare o intortare in vari modi l'interlocutore pur di raggiungere IL LORO OBIETTIVO.


Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^