View Full Version : A Microsoft Ignite 2023 è l'intelligenza artificiale l'unica grande protagonista
Redazione di Hardware Upg
21-11-2023, 14:41
Link alla notizia: https://edge9.hwupgrade.it/news/innovazione/a-microsoft-ignite-2023-e-l-intelligenza-artificiale-l-unica-grande-protagonista_121964.html
Ormai quasi non sorprende più che gli annunci delle grandi aziende tecnologiche ruotino attorno all'IA, e Microsoft continua questa tendenza a Ignite 2023 con moltissimi annunci legati proprio all'intelligenza artificiale
Click sul link per visualizzare la notizia.
Wow! Mi chiedo quanti si rendono conto del disastro in slow-motion che sta per rilasciare Microsoft.
Copilot Dashboard sembra fatto apposta per monitorare facilmente i dipendenti ma traendo le conclusioni sbagliate sui dati che vengono presentati.
Copilot Studio si presta bene al furto di informazioni bypassando tutti gli attuali meccanismi di cybersecurity.
Copilot for Azure promette cose fantastiche, riduce il numero di sistemisti necessari per gestire una certa infrastruttura ed al tempo stesso apre una miriade di nuovi vettori d'attacco tramite sovversione di LLM.
La cosa più spettacolare é il "Customer Copyright Commitment": in pratica dicono che usando i loro prodotti le violazioni di Copyright saranno inevitabili e che saranno caXXi tuoi gestirne le conseguenze.
Un sacco di nuove opportunità per sviluppatori, tecnici, hacker ed avvocati che comprendono davvero le potenzialità di quei prodotti.
Wow! Mi chiedo quanti si rendono conto del disastro in slow-motion che sta per rilasciare Microsoft.
Se non capisci l'importanza di quello che sta avvenendo a livello enterprise non è colpa di Microsoft. Loro possono anche fallire, ma il concetto di "copilot" rimarrà ed è il futuro a cui ti devi abituare. Tant'è che aziende come Visa, BP, Honda, Pfizer, Accenture, EY, KPMG, Kyndryl e PwC lo usavano già in anteprima e adesso si stanno aggiungendo altre grosse realtà. Ma evidentemente non hanno nessuno skillato come LMCH :boh: ti consiglio di mandare il CV :asd:
Copilot Dashboard sembra fatto apposta per monitorare facilmente i dipendenti ma traendo le conclusioni sbagliate sui dati che vengono presentati.
Spiegati meglio, in che modo monitora i dipendenti? E' fatto per misurare le performance di Copilot, non dei dipendenti.
Copilot Studio si presta bene al furto di informazioni bypassando tutti gli attuali meccanismi di cybersecurity.
In che modo? Tieni conto che Copilot ha accesso soltanto alle informazioni a cui ha accesso l'utente che ne fa uso.
Copilot for Azure promette cose fantastiche, riduce il numero di sistemisti necessari per gestire una certa infrastruttura ed al tempo stesso apre una miriade di nuovi vettori d'attacco tramite sovversione di LLM.
Fammi un esempio di vettore d'attacco tramite sovversione di LLM sfruttabile tramite Copilot for Azure.
La cosa più spettacolare é il "Customer Copyright Commitment": in pratica dicono che usando i loro prodotti le violazioni di Copyright saranno inevitabili e che saranno caXXi tuoi gestirne le conseguenze.
Un sacco di nuove opportunità per sviluppatori, tecnici, hacker ed avvocati che comprendono davvero le potenzialità di quei prodotti.
Questo è perchè hai completamente travisato l'obiettivo dell'IA generativa. Non sostituisce il cervello dei dipendenti, ma semplicemente ne aumenta la produttività.
Se non capisci l'importanza di quello che sta avvenendo a livello enterprise non è colpa di Microsoft. Loro possono anche fallire, ma il concetto di "copilot" rimarrà ed è il futuro a cui ti devi abituare. Tant'è che aziende come Visa, BP, Honda, Pfizer, Accenture, EY, KPMG, Kyndryl e PwC lo usavano già in anteprima e adesso si stanno aggiungendo altre grosse realtà.
La capisco eccome l'importanza e non mi limito alle affermazioni ottimistiche di chi commercializza il prodotto.
E nota che io ho parlato specificamente di Microsoft e dei prodotti annunciati, visto che non è chiaro cosa/come le aziende citate usando di quei tool e se si tratta di test run o uso su larga scala.
Ma evidentemente non hanno nessuno skillato come LMCH :boh: ti consiglio di mandare il CV :asd:
Nah! Non mi interessa, lavoro in un settore totalmente diverso rispetto a quelli citati.
Paradossalmente ho seguito con estrema attenzione gli sviluppi dei LLM proprio per capire come integrarli nel nostro settore e quali potenziali vantaggi/svantaggi potrebbero portare. Diciamo che non sono rimasto impressionato, specialmente in base a quanto emerge dalle pubblicazioni sull'argomento e su come certe problematiche vengono aggirate.
Spiegati meglio, in che modo monitora i dipendenti? E' fatto per misurare le performance di Copilot, non dei dipendenti.
Il "trucco" sta nel criterio usato per suddividere in team un certo gruppo di dipendenti.
Dai un occhiata qui (https://learn.microsoft.com/en-us/viva/insights/org-team-insights/copilot-dashboard) e nota i punti dove compare
"This metric is not based on Copilot usage", in base a come suddividi i dipendenti in team puoi valutare sia come cambia la loro produttività con copilot e sia estrarre indicatori sulla produttività dei team.
In che modo? Tieni conto che Copilot ha accesso soltanto alle informazioni a cui ha accesso l'utente che ne fa uso.
E' scritto espressamente: "Copilot Studio è uno strumento "low code" per personalizzare Copilot usando i dati aziendali e creare modelli usabili dentro o fuori l'azienda, in base alle specifiche esigenze."
Considerando che le tecniche di sovversione dei LLM sono già ampiamente note, come fai ad essere sicuro di quali dati sono estraibili e quali no con opportune sessioni ad hoc ?
Fammi un esempio di vettore d'attacco tramite sovversione di LLM sfruttabile tramite Copilot for Azure.
Non è necessario fare un esempio specifico, basta notare quel che scrive Microsoft stessa (https://azure.microsoft.com/en-us/products/copilot) "Use Copilot AI assistance to answer questions, author complex commands, and act on your behalf using natural language."
Questo è perchè hai completamente travisato l'obiettivo dell'IA generativa. Non sostituisce il cervello dei dipendenti, ma semplicemente ne aumenta la produttività.
Non è quello il punto.
Il punto è che quei prodotti basati su AI generative commercializzati da Microsoft possono violare dei copyright e tocca all'utente verificare che questo non succeda perchè in caso di rogne la colpa è del cliente e non di Microsoft.
Possibile che da parte di Microsoft non vi sia un minimo sforzo di mitigare la cosa ?
Eppure anche solo tentare automaticamente un match con elementi visuali o testuali soggetti a copyright dovrebbe essere nelle capacità di un LLM capace di violarli. :rolleyes:
La capisco eccome l'importanza e non mi limito alle affermazioni ottimistiche di chi commercializza il prodotto.
E nota che io ho parlato specificamente di Microsoft e dei prodotti annunciati, visto che non è chiaro cosa/come le aziende citate usando di quei tool e se si tratta di test run o uso su larga scala.
Nah! Non mi interessa, lavoro in un settore totalmente diverso rispetto a quelli citati.
Paradossalmente ho seguito con estrema attenzione gli sviluppi dei LLM proprio per capire come integrarli nel nostro settore e quali potenziali vantaggi/svantaggi potrebbero portare. Diciamo che non sono rimasto impressionato, specialmente in base a quanto emerge dalle pubblicazioni sull'argomento e su come certe problematiche vengono aggirate.
Dipende dal settore e dal modello che si vuole usare, ma non c'è alcun dubbio che una IA possa essere di grosso aiuto per tantissimi lavori (compresa la programmazione che è quello che mi interessa maggiormente). Spero solo non reintroducano Clippy :asd:
Il "trucco" sta nel criterio usato per suddividere in team un certo gruppo di dipendenti.
Dai un occhiata qui (https://learn.microsoft.com/en-us/viva/insights/org-team-insights/copilot-dashboard) e nota i punti dove compare
"This metric is not based on Copilot usage", in base a come suddividi i dipendenti in team puoi valutare sia come cambia la loro produttività con copilot e sia estrarre indicatori sulla produttività dei team.
Hai capito molto male: "Count of Teams meetings users across your organization over the past 28 days"
Con Teams si intende il software non un gruppo di persone, infatti quelle metriche sono aggregate a livello di intera organizzazione.
E' scritto espressamente: "Copilot Studio è uno strumento "low code" per personalizzare Copilot usando i dati aziendali e creare modelli usabili dentro o fuori l'azienda, in base alle specifiche esigenze."
Considerando che le tecniche di sovversione dei LLM sono già ampiamente note, come fai ad essere sicuro di quali dati sono estraibili e quali no con opportune sessioni ad hoc ?
Perchè Microsoft ha già tutta un'infrastruttura adatta allo scopo in Azure, motivo per cui è una delle poche aziende che può sviluppare qualcosa come Copilot.
Vedi https://learn.microsoft.com/en-us/microsoft-365-copilot/microsoft-365-copilot-privacy
Non è necessario fare un esempio specifico, basta notare quel che scrive Microsoft stessa (https://azure.microsoft.com/en-us/products/copilot) "Use Copilot AI assistance to answer questions, author complex commands, and act on your behalf using natural language."
E con questo? Se intendi che si possano estorcere informazioni a cui non dovresti avere accesso vedi la risposta precedente. Se invece intendi che un malintenzionato possa fargli apprendere nozioni pericolose è impossibile perchè il modello non viene addestrato usando gli input dati dagli utenti.
Non è quello il punto.
Il punto è che quei prodotti basati su AI generative commercializzati da Microsoft possono violare dei copyright e tocca all'utente verificare che questo non succeda perchè in caso di rogne la colpa è del cliente e non di Microsoft.
Possibile che da parte di Microsoft non vi sia un minimo sforzo di mitigare la cosa ?
Eppure anche solo tentare automaticamente un match con elementi visuali o testuali soggetti a copyright dovrebbe essere nelle capacità di un LLM capace di violarli. :rolleyes:
Certo che tocca all'utente verificare quello che dice/fa l'IA, altrimenti sarebbe come dire che con l'Autopilot di Tesla puoi dormire mentre sei in viaggio. Io non lo farei, te?
Dipende dal settore e dal modello che si vuole usare, ma non c'è alcun dubbio che una IA possa essere di grosso aiuto per tantissimi lavori (compresa la programmazione che è quello che mi interessa maggiormente).
Dipende da cosa si intende per IA, una delle cose che mi crea parecchi problemi è che Microsoft sta puntando forte nel proporre i "suoi" prodotti bastati su algoritmi IA come se fossero delle "vere" IA per poi produrre roba come Microsoft Tay (il chatbot "nazista")
Spero solo non reintroducano Clippy :asd:
La slow-AI in Microsoft continua a fare tentativi a riguardo, prima Microsoft Bob, poi Clippy e gli altri "assistenti", poi Tay (il chatbot "convertito al nazismo") ... :D
Hai capito molto male: "Count of Teams meetings users across your organization over the past 28 days"
Con Teams si intende il software non un gruppo di persone, infatti quelle metriche sono aggregate a livello di intera organizzazione.
Eppure nel sito di Microsoft si trovano frasi come queste:
( link (https://learn.microsoft.com/en-us/microsoft-365/admin/activity-reports/microsoft-365-copilot-usage?view=o365-worldwide))
"To make the data in the Copilot for Microsoft 365 report anonymous, you must be a global administrator. This will hide identifiable information (using MD5 hashes) such as display name, email, and Microsoft Entra Object ID in report and their export."
Perchè Microsoft ha già tutta un'infrastruttura adatta allo scopo in Azure, motivo per cui è una delle poche aziende che può sviluppare qualcosa come Copilot.
Vedi https://learn.microsoft.com/en-us/microsoft-365-copilot/microsoft-365-copilot-privacy
Il mio punto era che usando tool low-code un dipendente dell'azienda ACME deliberatamente o per errore può inserire nel modello reso accessibile informazioni che non dovrebbero uscir fuori dall'azienda senza che nessuno se ne accorga.
E con questo? Se intendi che si possano estorcere informazioni a cui non dovresti avere accesso vedi la risposta precedente. Se invece intendi che un malintenzionato possa fargli apprendere nozioni pericolose è impossibile perchè il modello non viene addestrato usando gli input dati dagli utenti.
Ti sei scordato un malintenzionato entrato nel sistema che fa richieste al modello in modo tale che sia il modello a compiere azioni che producono fughe di informazioni oppure danni/malfunzionamenti all'infrastruttura per effetto combinato di richieste fatte da utenti diversi (e questo è solo uno dei possibili casi).
Certo che tocca all'utente verificare quello che dice/fa l'IA, altrimenti sarebbe come dire che con l'Autopilot di Tesla puoi dormire mentre sei in viaggio. Io non lo farei, te?
Il punto è che la stessa AI in teoria potrebbe fare tale verifica in modo più rapido ed esteso rispetto all'utente facendo un match di quanto prodotto con un database di copyright noti. Invece di proporre tale opzione almeno come funzionalità aggiuntiva a pagamento, hanno scelto di "fornire documentazione".
Dipende da cosa si intende per IA, una delle cose che mi crea parecchi problemi è che Microsoft sta puntando forte nel proporre i "suoi" prodotti bastati su algoritmi IA come se fossero delle "vere" IA per poi produrre roba come Microsoft Tay (il chatbot "nazista")
La slow-AI in Microsoft continua a fare tentativi a riguardo, prima Microsoft Bob, poi Clippy e gli altri "assistenti", poi Tay (il chatbot "convertito al nazismo") ... :D
Bravo, ottimo esempio di argomento fantoccio (https://it.wikipedia.org/wiki/Argomento_fantoccio)
Eppure nel sito di Microsoft si trovano frasi come queste:
( link (https://learn.microsoft.com/en-us/microsoft-365/admin/activity-reports/microsoft-365-copilot-usage?view=o365-worldwide))
"To make the data in the Copilot for Microsoft 365 report anonymous, you must be a global administrator. This will hide identifiable information (using MD5 hashes) such as display name, email, and Microsoft Entra Object ID in report and their export."
Perchè semplicemente non ammetti di aver preso un grosso abbaglio?
E' ovvio, i dati appartengono all'azienda che amministra l'organizzazione sul cloud, di conseguenza è l'amministratore dell'azienda che configura questo genere di cose in base alle policy aziendali. I dati non sono a disposizione di Microsoft come è spiegato nella pagina che avevo già linkato.
Il mio punto era che usando tool low-code un dipendente dell'azienda ACME deliberatamente o per errore può inserire nel modello reso accessibile informazioni che non dovrebbero uscir fuori dall'azienda senza che nessuno se ne accorga.
I meccanismi per mettere al sicuro i dati ci sono e non c'è niente di speciale riguardo a copilot, si tratta dell'infrastruttura già esistente su Azure con i propri log e le sue metriche da monitorare. Se mi dici che ci sono dei buchi lì allora mezzo mondo dovrebbe preoccuparsi perchè su Azure ci stanno dati ultra sensibili di aziende e governi piuttosto importanti.
Che poi ci siano gli incompetenti è vero, ma non ci si può fare niente, quello succedeva già prima.
Ti sei scordato un malintenzionato entrato nel sistema che fa richieste al modello in modo tale che sia il modello a compiere azioni che producono fughe di informazioni oppure danni/malfunzionamenti all'infrastruttura per effetto combinato di richieste fatte da utenti diversi (e questo è solo uno dei possibili casi).
Un malintenzionato non aumenta il proprio accesso al sistema tramite copilot, può accedere agli stessi dati con o senza copilot. Se non hai capito questo passaggio è anche inutile che ne discutiamo.
Il punto è che la stessa AI in teoria potrebbe fare tale verifica in modo più rapido ed esteso rispetto all'utente facendo un match di quanto prodotto con un database di copyright noti. Invece di proporre tale opzione almeno come funzionalità aggiuntiva a pagamento, hanno scelto di "fornire documentazione".
Te l'ho già detto, manda il CV che ti stanno aspettando :p
Bravo, ottimo esempio di argomento fantoccio (https://it.wikipedia.org/wiki/Argomento_fantoccio)
Mica tanto fantoccio, quello descritto è un approccio tipico di Microsoft.
Perchè semplicemente non ammetti di aver preso un grosso abbaglio?
E' ovvio, i dati appartengono all'azienda che amministra l'organizzazione sul cloud, di conseguenza è l'amministratore dell'azienda che configura questo genere di cose in base alle policy aziendali. I dati non sono a disposizione di Microsoft come è spiegato nella pagina che avevo già linkato.
Il mio punto era ed è che permette di monitorare i dipendenti, non che permette a Microsoft di monitorare i dipendenti di altre ditte. :rolleyes:
I meccanismi per mettere al sicuro i dati ci sono e non c'è niente di speciale riguardo a copilot, si tratta dell'infrastruttura già esistente su Azure con i propri log e le sue metriche da monitorare. Se mi dici che ci sono dei buchi lì allora mezzo mondo dovrebbe preoccuparsi perchè su Azure ci stanno dati ultra sensibili di aziende e governi piuttosto importanti.
Che poi ci siano gli incompetenti è vero, ma non ci si può fare niente, quello succedeva già prima.
Il mio punto è che si tratta di un NUOVO vettore di attacco e/o per exploit rispetto a quelli già noti. Non a caso parlavo di nuove opportunità per chi opera nel settore (cyberwarfare, cybersecurity e hacking di vario genere).
Poi ci sarebbe da aprire una parentesi su come viene delegata la gestione di dati strategici senza considerare a sufficienza l'aspetto della sicurezza (purtroppo c'è chi che per risparmiare spiccioli mette a rischio miliardi), ma è tutto un altro discorso.
Un malintenzionato non aumenta il proprio accesso al sistema tramite copilot, può accedere agli stessi dati con o senza copilot. Se non hai capito questo passaggio è anche inutile che ne discutiamo.
Il mio punto sta nel fatto che tramite copilot è molto più facile passare innosservati e sopratutto avere rapidamente una "mappa" del sistema e delle informazioni presenti senza attirare l'attenzione su di se.
Entrare in un sistema è la parte più facile, restarci dentro a lungo senza farsi beccare è dove si fanno i soldi trovando le cose più succose e/o si riesce a massimizzare le proprie possibilità di azione.
Te l'ho già detto, manda il CV che ti stanno aspettando :p
Veramente sono loro che cercano me. :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.