Microsoft Copilot nei guai: email riservate finite nei riassunti dell'AI

Microsoft Copilot nei guai: email riservate finite nei riassunti dell'AI

Un errore nel codice ha permesso a Microsoft 365 Copilot Chat di elaborare e riassumere email contrassegnate come riservate. Microsoft conferma il problema e sostiene che un aggiornamento è in fase di distribuzione

di pubblicata il , alle 18:06 nel canale Web
MicrosoftPC Copilot+
 

Email contrassegnate come riservate finite nei riassunti generati dall'intelligenza artificiale. È quanto accaduto con Microsoft 365 Copilot Chat, assistente AI integrato negli strumenti di produttività aziendale di Microsoft, che per un errore ha elaborato contenuti che avrebbero dovuto restare esclusi, secondo un report della BBC.

Il problema riguarda i messaggi archiviati nelle cartelle Bozze e Posta inviata di Outlook desktop, inclusi quelli con etichette di riservatezza e soggetti a criteri di Data Loss Prevention (DLP). In alcuni casi, Copilot Chat ha sintetizzato tali email nella scheda di lavoro dell'assistente, anche quando erano protette da policy pensate per impedire la condivisione non autorizzata.

Microsoft Copilot

Secondo quanto confermato dall'azienda, la causa è riconducibile a un problema nel codice che ha portato il sistema a processare contenuti che avrebbero dovuto restare esclusi dall'esperienza Copilot. Microsoft ha dichiarato di aver identificato e risolto l'anomalia tramite un aggiornamento di configurazione distribuito a livello globale per i clienti enterprise.

L'azienda sottolinea, inoltre, che i controlli di accesso e le policy di protezione dei dati sono rimasti intatti e che Copilot non ha concesso accesso a informazioni a utenti non autorizzati. I contenuti elaborati, inclusi quelli sensibili, sarebbero rimasti visibili esclusivamente ai rispettivi autori.

Microsoft 365 Copilot Chat può essere utilizzato all'interno di applicazioni come Outlook e Teams per generare risposte, riassumere conversazioni o recuperare informazioni dai contenuti aziendali. L'errore ha portato l'assistente a includere nei propri output anche email etichettate come confidenziali, che erano state archiviate nelle cartelle personali dell'utente.

Il bug sarebbe stato individuato a gennaio e segnalato attraverso un avviso di servizio interno. Una comunicazione simile è apparsa anche su una dashboard di supporto IT del servizio sanitario inglese, dove l'origine del problema viene attribuita a un'anomalia nel codice. Le autorità coinvolte hanno precisato che non risultano esposti dati dei pazienti.

Pressione sull'AI e rischi per le aziende

Strumenti AI destinati alle imprese come Microsoft 365 Copilot Chat, disponibili con abbonamento Microsoft 365, includono normalmente controlli avanzati di sicurezza per evitare la diffusione di informazioni sensibili. L'episodio riaccende però il dibattito sui rischi legati all'integrazione accelerata di nuove funzionalità basate su AI nei contesti aziendali.

Secondo diversi analisti, la rapidità con cui vengono rilasciate nuove capacità generative aumenta la probabilità di errori di questo tipo. Il tema centrale riguarda la governance dell'intelligenza artificiale e la capacità delle organizzazioni di monitorare e gestire ogni nuova funzione.

Esperti di sicurezza informatica evidenziano inoltre l'importanza di adottare un approccio privacy-by-default e sistemi opt-in per funzionalità che accedono a dati interni. Anche in assenza di violazioni intenzionali, la possibilità di fuoriuscita di dati resta uno scenario da considerare quando si parla di AI generativa integrata nei flussi aziendali.

Microsoft, dal canto suo, ribadisce che l'aggiornamento che pone rimedio al problema è già operativo e che l'esperienza Copilot è stata riallineata alle impostazioni previste. Resta il fatto che l'episodio mette sotto i riflettori la gestione della sicurezza nei servizi AI enterprise, proprio mentre la competizione tra grandi piattaforme accelera sul fronte delle funzionalità intelligenti.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
euscar20 Febbraio 2026, 18:08 #1
Un errore nel codice ha permesso a Microsoft 365 Copilot Chat di elaborare e riassumere email contrassegnate come riservate.


Evviva la IA ficcata dappertutto

Sarà sempre peggio
supertigrotto20 Febbraio 2026, 18:16 #2
Originariamente inviato da: euscar
Evviva la IA ficcata dappertutto

Sarà sempre peggio


Tra poco anche nei preservativi,così tutte le donne del mondo sapranno le misure di tutti gli uomini al mondo!
L'unico vantaggio che vedo è che puoi sbugiardare il tipo al bar che si vanta di misure e prestazioni da numeri da circo
marcram20 Febbraio 2026, 18:17 #3
Microsoft Copilot nei guai: email riservate finite nei riassunti dell'AI

Povero... perché nei guai?
Ha fatto esattamente quello per cui è stato creato...
Saturn20 Febbraio 2026, 18:18 #4
Originariamente inviato da: marcram
Povero... perché nei guai?
Ha fatto esattamente quello per cui è stato creato...


E pure pagato !
mozzarello21 Febbraio 2026, 06:26 #5
Originariamente inviato da: euscar
Evviva la IA ficcata dappertutto

Sarà sempre peggio


Avevo letto evviva qualcos'altro con quelle scelte di parole
euscar21 Febbraio 2026, 16:45 #6
Originariamente inviato da: mozzarello
Avevo letto evviva qualcos'altro con quelle scelte di parole


Sempre a pensare a quella cosa lì
Heartfox21 Febbraio 2026, 17:31 #7
Quindi???
Nessuna denuncia o class action?
Nessun giudice che obbliga micro-coso a togliere l'ia spiona?
frega un cavolo che ha corretto oramai son tutti fuori i dati....

Europa, AGCOM et similia SVEGLIAAAAAAAAA......

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^