View Full Version : Apple a difesa dei minori: ecco come funziona il sistema contro la pedopornografia che analizza le foto prima del caricamento su iCloud
Redazione di Hardware Upg
06-08-2021, 10:02
Link alla notizia: https://www.hwupgrade.it/news/apple/apple-a-difesa-dei-minori-ecco-come-funziona-il-sistema-contro-la-pedopornografia-che-analizza-le-foto-prima-del-caricamento-su-icloud_99721.html
La Mela illustra un sistema che consentirà di rilevare materiale pedopornografico e relativo ad abusi su minori all'interno di iPhone, iPad e Mac. Prevista la sperimentazione inizialmente negli USA
Click sul link per visualizzare la notizia.
I "paladini della privacy" guardano tutte le vostre foto e segnalano quelle sospette alle autorità :sofico:
Mi pare che Microsoft sia parecchio tempo che fa la stessa cosa per OneDrive
Axios2006
06-08-2021, 10:59
La Mela sta inoltre lavorando ad alcune modifiche a Siri e all'app di ricerca, in maniera tale da spiegare agli utenti che effettuano ricerche relative a contenuti CSAM che si tratta di un interesse dannoso e problematico, oltre a suggerire modalità per ottenere aiuto per questo problema.
Segnalazione ad FBI, NSA e ATF e si risolve il problema. :read:
Mi pare che Microsoft sia parecchio tempo che fa la stessa cosa per OneDrive
Qui si insulta Apple, hai sbagliato thread.
ma qui siamo completamente fuori...finche' si mettono foto sui social si sa che non sono piu' tue. Ma che un qualunque dipendente prob. di terze parti possa vedere il faslo positivo della figlia di qualcuno che fa il bagnetto e' una cosa pazzesca. Disabilitero' immediatamente il servizio Cloud di Apple.
Qui si insulta Apple, hai sbagliato thread.
bhe sto giro se li merita tutti gli insulti
ma qui siamo completamente fuori...finche' si mettono foto sui social si sa che non sono piu' tue. Ma che un qualunque dipendente prob. di terze parti possa vedere il faslo positivo della figlia di qualcuno che fa il bagnetto e' una cosa pazzesca. Disabilitero' immediatamente il servizio Cloud di Apple.
Qualcosa mi dice che manco lo hai o lo hai mai visto neanche in foto :asd:
bhe sto giro se li merita tutti gli insulti
Perchè?
Qualcosa mi dice che manco lo hai o lo hai mai visto neanche in foto :asd:
Perchè?
perchè cosa metto nel cloud sono fatti miei ed un privato non dovrebbe avere la possibilità di esaminare i miei file senza il mio consenso
perchè cosa metto nel cloud sono fatti miei ed un privato non dovrebbe avere la possibilità di esaminare i miei file senza il mio consenso
Infatti non esaminano i tuoi file, ma un hash del tuo file. Basta leggere la documentazione per capire cosa fanno, è anche linkata nell'articolo.
Infatti non esaminano i tuoi file, ma un hash del tuo file. Basta leggere la documentazione per capire cosa fanno, è anche linkata nell'articolo.
lascia perdere i tecnicismi, la situazione cambia poco , apple con la pretesa di fare lo sceriffo "vede" cosa metto nel cloud personale , un vero schifo
TorettoMilano
06-08-2021, 13:55
già che si parla di foto su iphone qualcuno mi dice con che sistema ios cataloga in automatico le foto nell'hd del cell? immagino sia un controllo offline automatico
lascia perdere i tecnicismi, la situazione cambia poco , apple con la pretesa di fare lo sceriffo "vede" cosa metto nel cloud personale , un vero schifo
"lascia perdere i tecnicismi" = "non ho letto cosa fa ma insulto per partito preso" :asd:
Come al solito direi...
già che si parla di foto su iphone qualcuno mi dice con che sistema ios cataloga in automatico le foto nell'hd del cell? immagino sia un controllo offline automatico
Ovviamente... ma basta leggere un attimo cosa c'è scritto per capire che su iCloud viene caricato un tag e non viene "visto niente di cosa metto nel cloud personale".
Però leggeteli per bene gli articoli, e non solo questo di hwupgrade che al solito pecca di tante cose. Poi si può essere d’accordo o meno sull’etica ma è un altro discorso e ad esempio nonostante il “buon fine” io non sono d’accordo che facciano una cosa del genere ch comunque sarà valida solo per gli USA con previa autorizzazione dell’utente
Ovviamente... ma basta leggere un attimo cosa c'è scritto per capire che su iCloud viene caricato un tag e non viene "visto niente di cosa metto nel cloud personale".
Strano, questo passo mi dà l'idea che invece ci sarà proprio qualcuno a guardare le foto :
il controllo manuale dovrebbe garantire un tasso d'errore particolarmente basso
e siccome abbiamo già visto che questi sistemi segnalano un abnorme numero di falsi positivi secondo me di foto in bella mostra ce ne saranno parecchie
Strano, questo passo mi dà l'idea che invece ci sarà proprio qualcuno a guardare le foto :
il controllo manuale dovrebbe garantire un tasso d'errore particolarmente basso
e siccome abbiamo già visto che questi sistemi segnalano un abnorme numero di falsi positivi secondo me di foto in bella mostra ce ne saranno parecchie
"The threshold is selected to provide an extremely low (1 in 1 trillion) probability of incorrectly flagging a given account. This is further mitigated by a manual review process wherein Apple reviews each report to confirm there is a match, disables the user’s account, and sends a report to NCMEC. If a user feels their account has been mistakenly flagged they can file an appeal to have their account reinstated."
Viene revisionato manualmente solo dopo che si raggiunge un certo valore di segnalazioni, da quello che si legge. E' un pò diverso da uno che si mette lì a guardare tutte le foto segnalate.
"lascia perdere i tecnicismi" = "non ho letto cosa fa ma insulto per partito preso" :asd:
Come al solito direi...
Ovviamente... ma basta leggere un attimo cosa c'è scritto per capire che su iCloud viene caricato un tag e non viene "visto niente di cosa metto nel cloud personale".
amico mio te puoi dire quello che vuoi, ma in pratica analizza le tue foto e le confronta con un archivio, se queste risultano compatibili con altre foto pedopornografiche , apple ti denuncia alla polizia, perciò te puoi parlare di tutte le questioni tecniche , ma la sostanza rimane, apple indaga sui contenuti che hai nel cloud e dei messaggi - foto che ricevi
"The threshold is selected to provide an extremely low (1 in 1 trillion) probability of incorrectly flagging a given account. This is further mitigated by a manual review process wherein Apple reviews each report to confirm there is a match, disables the user’s account, and sends a report to NCMEC. If a user feels their account has been mistakenly flagged they can file an appeal to have their account reinstated."
Viene revisionato manualmente solo dopo che si raggiunge un certo valore di segnalazioni, da quello che si legge. E' un pò diverso da uno che si mette lì a guardare tutte le foto segnalate.
sei fantastico.....
sei fantastico.....
A me piace capire quello che leggo ;)
Ah, se devi scrivere qualcosa con gli stessi contenuti degli ultimi tuoi messaggi, evita di rispondere, o si discute o "amico" e "lascia perdere i tecnicismi" su un sito che parla di tecnologia stancano ancora prima di iniziare ;)
Gnubbolo
06-08-2021, 15:18
non capisco perchè ce l'avete con questi sistemi, se non avete foto strane o non votate per Trump o Berlusconi o la democrazia cristiana che timori avete ?
A me piace capire quello che leggo ;)
Ah, se devi scrivere qualcosa con gli stessi contenuti degli ultimi tuoi messaggi, evita di rispondere, o si discute o "amico" e "lascia perdere i tecnicismi" su un sito che parla di tecnologia stancano ancora prima di iniziare ;)
bhe visto le cantonate che prendi, forse è meglio che non posti te
parlerai di funzioni tecniche, ma poi non riesci a decifrare i contenuti
A me piace capire quello che leggo ;)
Ah, se devi scrivere qualcosa con gli stessi contenuti degli ultimi tuoi messaggi, evita di rispondere, o si discute o "amico" e "lascia perdere i tecnicismi" su un sito che parla di tecnologia stancano ancora prima di iniziare ;)
e ma non si comprendi i contenuti si chiama analfetismo funzionale
non capisco perchè ce l'avete con questi sistemi, se non avete foto strane o non votate per Trump o Berlusconi o la democrazia cristiana che timori avete ?
Perché una volta messo in piedi il sistema poi passare a cercare anche i contenuti "terroristici" è un attimo, e se pensiamo che alcuni paesi hanno un metro nel giudicare contenuti "pedofili" o "terroristici" estremamente generoso hai già messo in piedi il prossimo strumento di controllo per il governo saudita o cinese, manco devono sudare a cercarle le immagini.
bhe visto le cantonate che prendi, forse è meglio che non posti te
parlerai di funzioni tecniche, ma poi non riesci a decifrare i contenuti
e ma non si comprendi i contenuti si chiama analfetismo funzionale
CVD, quando non si sa cosa dire si insulta :asd:
Ma non avevo dubbi ;)
CVD, quando non si sa cosa dire si insulta :asd:
Ma non avevo dubbi ;)
guarda che chi ha cominciato a scrivere con frasi "stizzose " sei te non io,
io ho risposto solo a tono
Perché una volta messo in piedi il sistema poi passare a cercare anche i contenuti "terroristici" è un attimo, e se pensiamo che alcuni paesi hanno un metro nel giudicare contenuti "pedofili" o "terroristici" estremamente generoso hai già messo in piedi il prossimo strumento di controllo per il governo saudita o cinese, manco devono sudare a cercarle le immagini.
Infatti. Il sistema si presta facilmente ad usi alternativi o, una volta introdotto, ad abusi.
Cosa farà Apple se un paese gli dirà che ci sono altri tipi di immagini vietate dalle loro normative che quindi dovranno essere aggiunte?
Cosa farà se gli chiedono di controllare anche i testi oltre alle immagini?
Il database CSAM è americano e Apple è sotto la loro normativa: come potrà controllare che non vengano inseriti su CSAM (che immagino contenga parecchi milioni di foto) immagini che non c'entrano nulla con l'abuso dei minori ma che possono essere utili allo spionaggio?
Come faranno gli altri paesi che questo sistema non venga usato anche in caso di divieto (come probabilmente deciderà l'EU) per scopi diversi e senza autorizzazione?
Non ci fidiamo dei governi, anche di quelli eletti, ma dovremmo fidarci di Apple, che non ha rappresentanti eletti?
E poi, qual è la normativa di riferimento?
In effetti quello che mi preoccupa più di tutto ciò è l'idea implicita che ci sia un'unica normativa valida, quella USA, e che gli altri paesi dovrebbero adeguarsi senza possibilità di intervento.
Insomma, di fatto si impone una morale di parte (quella di base integralista religiosa evangelica americana, quella per cui nelle foto americane pubblicate nascondono i seni delle madri che allattano ma lasciano in piena vista i volti dei bambini) a tutto il resto del mondo.
Insomma, Tim Cook (non ho dubbi che l'idea abbia la sua approvazione) non ha l'idea di com'è il mondo al di fuori degli USA, ed esporta la sua morale integralista a tutti gli altri paesi, probabilmente senza nemmeno accorgersene.
Forse, vivendo in una società fortemente religiosa, deve risolvere i suoi sensi di colpa per essere omosessuale attraverso una risposta più emotiva che razionale.
Forse, vivendo in una società fortemente religiosa, deve risolvere i suoi sensi di colpa per essere omosessuale attraverso una risposta più emotiva che razionale.
Ma tu non ti senti molto bene secondo me
ogni scusa è buona per farsi i fatti nostri, prima era il terrorismo, ora che è passato di moda tirano in ballo i bambini. Mah.
Sembra che sia solo in Usa, in Europa dovremmo essere protetti dal GDPR... oops, la Ue ha appena approvato chatcontrol, la scansione di tutte le email e i messaggi, proprio con la stessa scusa. :muro:
Ma tu non ti senti molto bene secondo me
Spiegamelo tu perché un'azienda che finora ha trattato abbastanza bene la privacy, improvvisamente si metta a fare scelte del genere, di sua iniziativa, su questo specifico argomento. È una scelta in contraddizione con quanto fatto finora e con il noto rifiuto di inserire backdoor sui suoi dispositivi. Sembra che la pedofilia sia l'unico argomento che sfugge alle regole generali di comportamento, mentre nulla sugli omicidi o sulle stragi.
Certo, la pedofilia è un reato molto grave, ma lo sono anche le sparatorie nelle scuole (quasi 100 casi dal 2016 al 2018).
Io riesco a spiegarmelo solo con un atteggiamento emotivo non razionale.
Se tu hai un'altra spiegazione dimmela tranquillamente.
Questi sono fuori di testa... chi accetta 'ste cose intendo, mica Apple, Apple fa bene a pensare al guadagno, ci mancherebbe!
tommy781
07-08-2021, 14:22
che esaminino il file o un hash non cambia il fatto che vadano a mettere il naso nei file delle persone. Io ho un figlio e da piccolo le foto con lui nudo al mare o mentre faceva il bagnetto erano la norma, dovrebbero segnalarmi perchè il numero non è congruo per i loro standard? dovrei difendermi pagando un avvocato per dimostrare che sono foto di mio figlio? qua si sta rasentando il ridicolo nel nome di una difesa minorile tutta da dimostrare. Vogliono difendere i minori? Vietassero l'iscrizione ai social se non dietro spid ad esempio, idem le app di messaggistica così sarebbero i genitori ad avere il giusto controllo.
che esaminino il file o un hash non cambia il fatto che vadano a mettere il naso nei file delle persone. Io ho un figlio e da piccolo le foto con lui nudo al mare o mentre faceva il bagnetto erano la norma, dovrebbero segnalarmi perchè il numero non è congruo per i loro standard? dovrei difendermi pagando un avvocato per dimostrare che sono foto di mio figlio? qua si sta rasentando il ridicolo nel nome di una difesa minorile tutta da dimostrare. Vogliono difendere i minori? Vietassero l'iscrizione ai social se non dietro spid ad esempio, idem le app di messaggistica così sarebbero i genitori ad avere il giusto controllo.
questo è il pericolo.
In realtà confrontano le tue foto (tramite hash) con quelle già classificate come pedo, quindi in teoria sei salvo. Ma mi sembra un metodo un po' stupido, becca solo quelle già note e manca tutte quelle nuove, mah.
Poi oltre a segnalarti ti bloccano l'account, non capisco se solo per iCloud o non puoi più usare l'iphone. Voglio proprio vedere se bloccano il telefono a uno con tutti i dati e la rubrica (che non può più recuperare neanche dal backup icluod) che causa gli fa, se è falso positivo vive di rendita. :D
questo è il pericolo.
In realtà confrontano le tue foto (tramite hash) con quelle già classificate come pedo, quindi in teoria sei salvo. Ma mi sembra un metodo un po' stupido, becca solo quelle già note e manca tutte quelle nuove, mah.
Guarda che foto di bambini nudi che fanno il bagnetto sono presenti nelle raccolte dei pedofili, per cui sono sicuramente presenti anche nel database CSAM. Per cui, il rischio paventato da tommy781 esiste.
Non a caso alcuni raccomandano di non postare sui social foto di bambini, nell'idea improbabile di diminuire il traffico pedopornografico.
In realtà è una cautela che serve a poco: la maggioranza dei pedofili se le procura dai parenti ignari e poi le scambia nei gruppi protetti.
La faccenda è molto più grave di come Apple ha dichiarato ufficialmente:
https://mobile.twitter.com/matthew_d_green/status/1423071186616000513
A parte questo, l'hash che viene generato ed inviato ad Apple non viene prodotto a partire dall'immagine stessa, ma dall'output di una rete neurale addestrata con il database delle immagini fornito ed aggiornato dal governo USA (per ora).
Per come descrivono la cosa, basta che un aggenzia governativa inserisca un volto di una persona che gli interessa e poi quando da Apple arriva la segnalazione di un falso positivo da correggere hanno abbastanza informazioni per risalire a dove e quando c'è stato un contatto con il soggetto che cercano o che tengono sott'occhio, se poi Apple da in subappalto il check dei casi segnalati ancora meglio (un agenzia di copertura si becca l'appalto e così hanno ancor più mano libera).
La faccenda è molto più grave di come Apple ha dichiarato ufficialmente:
https://mobile.twitter.com/matthew_d_green/status/1423071186616000513
A parte questo, l'hash che viene generato ed inviato ad Apple non viene prodotto a partire dall'immagine stessa, ma dall'output di una rete neurale addestrata con il database delle immagini fornito ed aggiornato dal governo USA (per ora).
Per come descrivono la cosa, basta che un aggenzia governativa inserisca un volto di una persona che gli interessa e poi quando da Apple arriva la segnalazione di un falso positivo da correggere hanno abbastanza informazioni per risalire a dove e quando c'è stato un contatto con il soggetto che cercano o che tengono sott'occhio, se poi Apple da in subappalto il check dei casi segnalati ancora meglio (un agenzia di copertura si becca l'appalto e così hanno ancor più mano libera).
Infatti, il timore era anche quello, iniziano a scannerizzare tutte le tue foto, poi vai a sapere quello che veramente cercano.
È una trucco per aggirare la crittografia e2e, esaminano tutto "on device" prima che sia criptato, coperti dalla foglia di fico dell'AI per la privacy, e di un nobile fine ovviamente.
Mi chiedevo perché non usassero più la scusa del terrorismo, ora ho capito, perché così possono dire che guardano solo le foto di bambini, iniziano un po' alla volta poi si allargano...
La UE fa uguale eh, ma lo dice chiaro che ti spia tutte le comunicazioni, sempre con l'AI, e in futuro cercherà di bypassare la e2e ma non hanno ancora deciso come.
Invece problema terra terra: ma questo database csam quanto pesa, poiché aumenterà sempre e sarà su ogni device? E quanta batteria ciucerá questo lavoro in background?
Whattsapp contro Apple
https://twitter.com/wcathcart/status/1423701478699528193
This is an Apple built and operated surveillance system that could very easily be used to scan private content for anything they or a government decides it wants to control. Countries where iPhones are sold will have different definitions on what is acceptable.
Can this scanning software running on your phone be error proof? Researchers have not been allowed to find out. Why not? How will we know how often mistakes are violating people’s privacy?
What will happen when spyware companies find a way to exploit this software? Recent reporting showed the cost of vulnerabilities in iOS software as is. What happens if someone figures out how to exploit this new system?
Ricordiamoci qualche tempo fa quando Apple diceva ( e io personalmente ho considerato quella posizione giusta )
“We believe it would be in the best interest of everyone to step back and consider the implications, it would be wrong for the government to force us to build a backdoor into our products. And ultimately, we fear that this demand would undermine the very freedoms and liberty our government is meant to protect.”
insane74
09-08-2021, 10:38
la stessa cosa la fa Google: https://support.google.com/transparencyreport/answer/10330933
e anche Microsoft scansiona la posta e Onedrive: https://mspoweruser.com/just-like-google-microsoft-is-also-scanning-outlook-and-onedrive-for-explicit-child-abuse-images/
anche Facebook e altri usano sistemi simili per identificare e segnalare tali contenuti.
il sistema di Apple non mi sembra molto diverso da quello di Google (IA e hash di immagini).
poi c'è scritto chiaramente che questa feature sarà concordata paese per paese.
all'inizio partirà dagli USA.
non c'è scritto da nessuna parte che verrà rilasciata anche in Europa/Italia e in che modo/da chi verrà gestito il database.
quindi direi, giusto informarsi, ma forse prematuro gridare allo scandalo/violazione privacy/ecc ecc.
la stessa cosa la fa Google: https://support.google.com/transparencyreport/answer/10330933
e anche Microsoft scansiona la posta e Onedrive: https://mspoweruser.com/just-like-google-microsoft-is-also-scanning-outlook-and-onedrive-for-explicit-child-abuse-images/
anche Facebook e altri usano sistemi simili per identificare e segnalare tali contenuti.
il sistema di Apple non mi sembra molto diverso da quello di Google (IA e hash di immagini).
poi c'è scritto chiaramente che questa feature sarà concordata paese per paese.
all'inizio partirà dagli USA.
non c'è scritto da nessuna parte che verrà rilasciata anche in Europa/Italia e in che modo/da chi verrà gestito il database.
quindi direi, giusto informarsi, ma forse prematuro gridare allo scandalo/violazione privacy/ecc ecc.
un conto è scansionare contenuti che si pubblicano, un conto è farlo di default
nei tuoi dispositivi dovresti capire che è cosa diversa, e comunque se lo fanno
anche microsoft e google vuol dire che sono più soggetti a fare porcate
insane74
09-08-2021, 13:09
un conto è scansionare contenuti che si pubblicano, un conto è farlo di default
nei tuoi dispositivi dovresti capire che è cosa diversa, e comunque se lo fanno
anche microsoft e google vuol dire che sono più soggetti a fare porcate
la scansione di Onedrive direi che è indipendente dal pubblicare o meno qualcosa.
stessa cosa Google. sicuro che non scansioni tutte le foto che finiscono nel backup di Google Foto alla ricerca di questi contenuti illeciti?
io non ho scritto che "se lo fanno A e B allora perché non può farlo anche C?".
io sottolineavo il fatto che GIA' ORA altre Big Tech fanno scansioni dei contenuti alla ricerca di materiale pedopornografico.
e il metodo usato da Google è fondamentalmente identico a quello di Apple (database di hash e confronto degli hash delle proprie immagini con quelli del database).
solo che finora non s'era lamentato mai nessuno.
Apple implementa questa tecnologia e si scatena il putiferio.
e da notare che molte organizzazioni a tutela dei minori si lamentavano del fatto che Apple non facesse abbastanza per intervenire sugli abusi sui minori.
quindi finalmente decide di intervenire, con un approccio simile a quello di Google, però se lo fa Apple allora si scatenano le discussioni.
è singolare come approccio.
insane74
09-08-2021, 13:13
la differenza sta qui
https://cdn.iphoneincanada.ca/wp-content/uploads/2019/05/privacy.jpg
e qui
“We believe it would be in the best interest of everyone to step back and consider the implications, it would be wrong for the government to force us to build a backdoor into our products. And ultimately, we fear that this demand would undermine the very freedoms and liberty our government is meant to protect.”
fino a prova contraria:
- non c'è nessuna backdoor
- la scansione avviene sul dispositivo (al contrario di quello che fa Google per esempio) e solo se viene trovato un match viene segnalato, e solo se si supera una certa soglia interviene la review umana
non nascondiamoci dietro un dito.
la privacy assoluta non esiste.
al di là dei proclami e del marketing, o si sta fuori dalla rete (niente mail, niente social, ecc) o si accettano dei compromessi.
qui cosa c'è in ballo?
a parte le teorie complottiste, c'è una società che vende dispositivi informatici che sta cercando di adeguarsi a quanti già altri fanno per cercare di prevenire la diffusione di materiale pedopornografico.
insane74
09-08-2021, 14:06
"what happens on your iphone, stays on your iphone"***
***except for itunes, siri, icloud...
ok, quindi l'unica tua preoccupazione in merito a questa tematica è che, secondo te, Apple con questa iniziativa non rispetterebbe la pubblicità dei suoi prodotti.
punto di vista interessante.
insane74
09-08-2021, 14:38
Vabbè contenti voi di continuare ad acquistare prodotti che non rispettano ciò che la vostra amata apple sbandiera su un grattacielo... Ulteriore conferma che possono dire e fare ciò che vogliono
hai centrato il punto della discussione, delle polemiche sorte attorno all'annuncio di questa implementazione, delle affermazioni fatte da vari enti e personaggi più o meno noti.
la scansione di Onedrive direi che è indipendente dal pubblicare o meno qualcosa.
stessa cosa Google. sicuro che non scansioni tutte le foto che finiscono nel backup di Google Foto alla ricerca di questi contenuti illeciti?
io non ho scritto che "se lo fanno A e B allora perché non può farlo anche C?".
io sottolineavo il fatto che GIA' ORA altre Big Tech fanno scansioni dei contenuti alla ricerca di materiale pedopornografico.
e il metodo usato da Google è fondamentalmente identico a quello di Apple (database di hash e confronto degli hash delle proprie immagini con quelli del database).
solo che finora non s'era lamentato mai nessuno.
Apple implementa questa tecnologia e si scatena il putiferio.
e da notare che molte organizzazioni a tutela dei minori si lamentavano del fatto che Apple non facesse abbastanza per intervenire sugli abusi sui minori.
quindi finalmente decide di intervenire, con un approccio simile a quello di Google, però se lo fa Apple allora si scatenano le discussioni.
è singolare come approccio.
Sia Microsoft che Google scansionano documenti che tu hai messo sul Cloud o inviato per posta. Non scansionano quello che tieni solo sul tuo computer.
C'è una bella differenza. Quello che intende fare Apple è molto più invasivo. Mi stupisce che non te ne renda conto.
insane74
09-08-2021, 16:18
Sia Microsoft che Google scansionano documenti che tu hai messo sul Cloud o inviato per posta. Non scansionano quello che tieni solo sul tuo computer.
C'è una bella differenza. Quello che intende fare Apple è molto più invasivo. Mi stupisce che non te ne renda conto.
Microsoft scansiona Ondrive, quindi file che hai sul tuo dispositivo.
Google scansiona tutto (mail ecc).
Apple con questa implementazione:
- per le sole foto/video di cui si fa il backup su iCloud effettua un hashing locale con il database CSAM (child sexual abuse material, lo stesso usato da Google, Microsoft, Facebook ecc) e se trova un match invia una copia criptata del file ad Apple e flagga il contenuto come sospetto. se si supera una soglia di file sospetti interviene un supervisore umano e, nel caso il contenuto sia effettivamente pedopornografico, scattano le segnalazioni. esattamente come fanno MS e Google
- per i contenuti inviati in iMessage dai minori di 12 anni, se il genitore attiva l'opzione, compare un avviso sul dispositivo del minore che segnala la presenza di contenuto sessuale. se procede alla visualizzazione/invio il genitore riceve una notifica (quindi questa funzionalità arricchisce il parental control).
da nessuna parte, in nessun documento, c'è scritto che Apple scansionerà tutti i tuoi file alla ricerca di materiale pedopornografico.
qui: https://www.apple.com/child-safety/pdf/Expanded_Protections_for_Children_Frequently_Asked_Questions.pdf si può leggere meglio, per chi ne ha voglia, come funzionerà quanto vuole implementare Apple.
dal PDF:
CSAM detection
Does this mean Apple is going to scan all the photos stored on my
iPhone?
No. By design, this feature only applies to photos that the user chooses to upload to iCloud
Photos, and even then Apple only learns about accounts that are storing collections of known
CSAM images, and only the images that match to known CSAM. The system does not work for
users who have iCloud Photos disabled. This feature does not work on your private iPhone photo library on the device.
Will this download CSAM images to my iPhone to compare against
my photos?
No. CSAM images are not stored on or sent to the device. Instead of actual images, Apple uses
unreadable hashes that are stored on device. These hashes are strings of numbers that represent known CSAM images, but it isn’t possible to read or convert those hashes into the CSAM
images they are based on. This set of image hashes is based on images acquired and validated
to be CSAM by child safety organizations. Using new applications of cryptography, Apple is able
to use these hashes to learn only about iCloud Photos accounts that are storing collections of
photos that match to these known CSAM images, and is then only able to learn about photos
that are known CSAM, without learning about or seeing any other photos.
il sistema, così come proposto, sulla carta non fa nulla di sbagliato.
la preoccupazione, semmai, è che possa essere abusato da stati dittatoriali o simili che possano forzare la mano ad Apple (e ad altri che usano tecnologie simili) per "ampliare" il database per i match degli hash per includere contenuti che nulla hanno a che fare con il CSAM.
la scansione di Onedrive direi che è indipendente dal pubblicare o meno qualcosa.
stessa cosa Google. sicuro che non scansioni tutte le foto che finiscono nel backup di Google Foto alla ricerca di questi contenuti illeciti?
io non ho scritto che "se lo fanno A e B allora perché non può farlo anche C?".
io sottolineavo il fatto che GIA' ORA altre Big Tech fanno scansioni dei contenuti alla ricerca di materiale pedopornografico.
e il metodo usato da Google è fondamentalmente identico a quello di Apple (database di hash e confronto degli hash delle proprie immagini con quelli del database).
solo che finora non s'era lamentato mai nessuno.
Apple implementa questa tecnologia e si scatena il putiferio.
e da notare che molte organizzazioni a tutela dei minori si lamentavano del fatto che Apple non facesse abbastanza per intervenire sugli abusi sui minori.
quindi finalmente decide di intervenire, con un approccio simile a quello di Google, però se lo fa Apple allora si scatenano le discussioni.
è singolare come approccio.
quello da te riportato riguardo le email microsoft è appunto uno scambio di email con contenuti pedopornografici,
non si parla di scansione del proprio dispositivo per cercare prove di attività pedopornografiche, con apple stiamo ad un livello superiore, alias il controllo di massa
Sarà interessante vedere come finirà con il chatcontrol (https://www.dday.it/redazione/40112/controlli-email-chat-unione-europea), recentemente approvato a Bruxelles (primi di luglio 2021), dove si nota pure l'apertura di intervenire non solo a livello app ma anche OS (e magari firmware) per bypassare la crittografia endtoend.
Poi ovvio che salterà fuori il solito demente certificato col discorso "non ho niente da nascondere".
insane74
09-08-2021, 16:53
quello da te riportato riguardo le email microsoft è appunto uno scambio di email con contenuti pedopornografici,
non si parla di scansione del proprio dispositivo per cercare prove di attività pedopornografiche, con apple stiamo ad un livello superiore, alias il controllo di massa
ecco il complottista.
controllo di massa. :muro:
Apple scansionerà in locale solo le foto di cui si fa il backup su iCloud (quindi basta disattivare il iCloud Foto, tanto per dire. E' scritto pure nella documentazione, se la si leggesse) per verificare se hanno un match con il database di contenuti noti come pedopornografici del CSAM e solo se trova una corrispondenza parte tutto il resto del meccanismo.
dov'è il controllo di massa? :confused:
Google & Co scansionano, a loro dire, contenuti postati/condivisi.
ora, qual è la differenza rispetto ad Apple? come li hai ricevuti quei contenuti? via mail? via iMessage? via altre app criptate? come fare a verificare che non siano pedopornografici?
si aspetta che tu li posti online? che li invii a qualcun altro con un'app non criptata così che possano essere scansionati?
oppure fai una verifica in locale (e solo di quelle foto che finirebbero cmq sul cloud tramite iCloud Foto) per verificare l'eventuale presenza di materiale CSAM?
quale altra soluzione adottereste?
tenete presente che da anni le organizzazioni per la tutela dei minori facevano pressioni su Apple perché non faceva abbastanza per impedire la diffusione di CSAM e, proprio grazie alla "difesa" della privacy, è sempre stato difficile per le autorità andare a spulciare nei device della mela di questi soggetti.
in che altro modo Apple avrebbe potuto implementare questo monitoraggio dei contenuti senza rendere "bucabili" i propri device?
Apple può fare qualsiasi porcata ma i suoi difensori sarebbero comunque qua a raccontarci quanto tutto il sistema sia bello e sicuro con commovente dedizione.
la stessa cosa la fa Google: https://support.google.com/transparencyreport/answer/10330933
Scusa ma visitando il link che riporti non trovo nessun documento da cui risulti che Google faccia questo tipo di ricerca sui terminali Android o sui dati degli utenti. Si parla genericamente di "strumenti" e di API, di "piattaforme" e l'unico riferimento concreto è alla scansione di contenuti video online (youtube).
Ma forse ho letto troppo di fretta. Mi puoi indirizzare su un documento dove risulti che "la stessa cosa fa Google"?
insane74
09-08-2021, 18:27
Scusa ma visitando il link che riporti non trovo nessun documento da cui risulti che Google faccia questo tipo di ricerca sui terminali Android o sui dati degli utenti. Si parla genericamente di "strumenti" e di API, di "piattaforme" e l'unico riferimento concreto è alla scansione di contenuti video online (youtube).
Ma forse ho letto troppo di fretta. Mi puoi indirizzare su un documento dove risulti che "la stessa cosa fa Google"?
Dal link:
We invest heavily in fighting child sexual exploitation online and use technology to deter, detect, and remove CSAM from our platforms. This includes automated detection and human review, in addition to relying on reports submitted by our users and third parties such as NGOs, to detect, remove, and report CSAM on our platforms. We deploy hash matching, including YouTube’s CSAI Match, to detect known CSAM. We also deploy machine learning classifiers to discover never-before-seen CSAM, which is then confirmed by our specialist review teams
Da quello che leggo Google scansione attivamente le “proprie piattaforme”.
Quali? YouTube? Gmail? Altro? Non so, bisognerebbe approfondire, se esiste documentazione in tal senso.
Parlano comunque di hash matching, dello stesso database CSAM, di review umana, ecc.
insane74
09-08-2021, 18:30
no se non usi onedrive o i file che non hai su one drive ... e' ben diverso
E se non usi iCloud Foto non c’è scansione.
Quindi?
ecco il complottista.
controllo di massa. :muro:
Apple scansionerà in locale solo le foto di cui si fa il backup su iCloud (quindi basta disattivare il iCloud Foto, tanto per dire. E' scritto pure nella documentazione, se la si leggesse) per verificare se hanno un match con il database di contenuti noti come pedopornografici del CSAM e solo se trova una corrispondenza parte tutto il resto del meccanismo.
dov'è il controllo di massa? :confused:
Google & Co scansionano, a loro dire, contenuti postati/condivisi.
ora, qual è la differenza rispetto ad Apple? come li hai ricevuti quei contenuti? via mail? via iMessage? via altre app criptate? come fare a verificare che non siano pedopornografici?
si aspetta che tu li posti online? che li invii a qualcun altro con un'app non criptata così che possano essere scansionati?
oppure fai una verifica in locale (e solo di quelle foto che finirebbero cmq sul cloud tramite iCloud Foto) per verificare l'eventuale presenza di materiale CSAM?
quale altra soluzione adottereste?
tenete presente che da anni le organizzazioni per la tutela dei minori facevano pressioni su Apple perché non faceva abbastanza per impedire la diffusione di CSAM e, proprio grazie alla "difesa" della privacy, è sempre stato difficile per le autorità andare a spulciare nei device della mela di questi soggetti.
in che altro modo Apple avrebbe potuto implementare questo monitoraggio dei contenuti senza rendere "bucabili" i propri device?
e dove hai letto che scansionano solo quelle che vanno nel cloud??
ma anche e fosse la roba che sta nel cloud mica è condivisa o pubblicata
Dal link:
Da quello che leggo Google scansione attivamente le “proprie piattaforme”.
Quali? YouTube? Gmail? Altro? Non so, bisognerebbe approfondire, se esiste documentazione in tal senso.
Parlano comunque di hash matching, dello stesso database CSAM, di review umana, ecc.
Esatto: non sai. Però hai scritto che "fanno lo stesso". Da quanto c'è scritto lì questa tecnologia potrebbe essere usata solo sui contenuti online, gli unici citati, perciò direi che la tua è una affermazione infondata.
insane74
09-08-2021, 19:25
e dove hai letto che scansionano solo quelle che vanno nel cloud??
ma anche e fosse la roba che sta nel cloud mica è condivisa o pubblicata
C’è scritto nel PDF con le FAQ di Apple. La scansione avviene solo per le foto che vengono backuppate su iCloud (attivando quindi iCloud Foto).
insane74
09-08-2021, 19:27
Esatto: non sai. Però hai scritto che "fanno lo stesso". Da quanto c'è scritto lì questa tecnologia potrebbe essere usata solo sui contenuti online, gli unici citati, perciò direi che la tua è una affermazione infondata.
“Fanno lo stesso” perché scansionano il contenuto tramite hash e confronto col db del CSAM.
Cosa si intende per “online”?
Mail? Qualcuno mette contenuti simili su YouTube? Cloud?
il sistema, così come proposto, sulla carta non fa nulla di sbagliato.
la preoccupazione, semmai, è che possa essere abusato da stati dittatoriali o simili che possano forzare la mano ad Apple (e ad altri che usano tecnologie simili) per "ampliare" il database per i match degli hash per includere contenuti che nulla hanno a che fare con il CSAM.
esatto, ma non solo da stati dittatoriali, come diceva LMCH anche dai nostri governi.
E una volta che iniziano a scansionare DENTRO il tuo dispositivo, non sai dove si fermeranno...
dall'articolo di DDay linkato sopra da NuiMg a proposito di chatcontrol:
"La legge non è scritta su pietra: le leggi cambiano, i governi cambiano. Oggi la necessità è la lotta alla pedopornografia, domani può essere l’antiterrorismo e poi i crimini ideologici. Non sappiamo cosa ci riserva il futuro e inserire una backdoor per un accesso eccezionale da parte dell'autorità comporta anche tutti questi rischi."
domanda: che iCloud, a differenza degli iphone, non fosse criptato e che il governo Usa potesse accedervi era noto (a tutti dai tempi di S.Benardino), quindi perchè ora devono fare controlli in locale prima di mandarli su icloud? hanno criptato e2e anche iCloud?
insane74
09-08-2021, 19:39
…
domanda: che iCloud, a differenza degli iphone, non fosse criptato e che il governo Usa potesse accedervi era noto (a tutti dai tempi di S.Benardino), quindi perchè ora devono fare controlli in locale prima di mandarli su icloud? hanno criptato e2e anche iCloud?
Non ne ho idea. Immagino che se questa scansione si poteva fare solo lato server non avrebbero nemmeno dovuto annunciarne l’implementazione. Potevano farlo e basta.:fagiano:
“Fanno lo stesso” perché scansionano il contenuto tramite hash e confronto col db del CSAM.
Cosa si intende per “online”?
Mail? Qualcuno mette contenuti simili su YouTube? Cloud?
C'è una differenza sostanziale e radicale fra i dati online, come i video caricati su youtube o le immagini su web catalogate dai motori di ricerca, e i dati personali degli utenti, sia quando risiedono sui loro terminali che quanto sono duplicati su servizi cloud.
Nella notizia si sta parlando di un sistema di sorvegliana massiva operante sui dati degli utenti Apple, mi pare, e tu rispondi asserendo che Google "fa lo stesso" ma nella fonte che citi non c'è menzione alcuna di un sistema simile per ambito di applicazione.
Ergo la tua affermazione mi pare per ora infondata.
insane74
09-08-2021, 19:55
C'è una differenza sostanziale e radicale fra i dati online, come i video caricati su youtube o le immagini su web catalogate dai motori di ricerca, e i dati personali degli utenti, sia quando risiedono sui loro terminali che quanto sono duplicati su servizi cloud.
Nella notizia si sta parlando di un sistema di sorvegliana massiva operante sui dati degli utenti Apple, mi pare, e tu rispondi asserendo che Google "fa lo stesso" ma nella fonte che citi non c'è menzione alcuna di un sistema simile per ambito di applicazione.
Ergo la tua affermazione mi pare per ora infondata.
Ok, mettiamo da parte Google (o chi per lei) un attimo, perché parli di “sorveglianza massiva”?
Da quello che sappiamo Apple scansionerà gli hash delle foto che finiscono in iCloud matchandole con un hash di database di contenuti CSAM e se trova un match poi scatta tutto il resto.
Sorveglianza? :confused:
Domanda più generale: siete la società X, vendete il prodotto Y che ha determinate caratteristiche.
Purtroppo il mondo è un posto pieno di gente schifosa che usa il prodotto Y per condividere contenuti pedopornografici.
Come supportate le organizzazioni che si battono per prevenire questi crimini e nel contempo cercate di rispettare il più possibile la privacy degli utenti del vostro prodotto Y?
Ok, mettiamo da parte Google (o chi per lei) un attimo, perché parli di “sorveglianza massiva”?
Da quello che sappiamo Apple scansionerà gli hash delle foto che finiscono in iCloud matchandole con un hash di database di contenuti CSAM e se trova un match poi scatta tutto il resto.
Sorveglianza? :confused:
Domanda più generale: siete la società X, vendete il prodotto Y che ha determinate caratteristiche.
Purtroppo il mondo è un posto pieno di gente schifosa che usa il prodotto Y per condividere contenuti pedopornografici.
Come supportate le organizzazioni che si battono per prevenire questi crimini e nel contempo cercate di rispettare il più possibile la privacy degli utenti del vostro prodotto Y?
Ma per contrastare il crimine ci sono gli enti preposti i quali indagano con tutte le garanzie del caso l azienda y dovrebbe intervenire solo su richiesta della magistratura, no che si mette a fare lo sceriffo e attuare un controllo indiscriminato sui suoi utenti, se iniziamo così allora tutte le aziende si mettono a controllare quello che fai per vedere se commetti reati, non se ne esce più verremo controllati su qualsiasi lato,
Faccio un esempio te vai a fare le analisi del sangue e il gabinetto controlla se assumi sostanze stupefacenti...
Oppure ti segnalano perché il tuo GPS segnala che vai più volte in luoghi dove c'è prostituzione
Ok, mettiamo da parte Google (o chi per lei) un attimo, perché parli di “sorveglianza massiva”?
Sorveglianza massiva perché sarà applicata a miliardi di persone.
Da quello che sappiamo Apple scansionerà gli hash delle foto che finiscono in iCloud matchandole con un hash di database di contenuti CSAM e se trova un match poi scatta tutto il resto.
Sorveglianza? :confused:
Domanda più generale: siete la società X, vendete il prodotto Y che ha determinate caratteristiche.
Purtroppo il mondo è un posto pieno di gente schifosa che usa il prodotto Y per condividere contenuti pedopornografici.
Come supportate le organizzazioni che si battono per prevenire questi crimini e nel contempo cercate di rispettare il più possibile la privacy degli utenti del vostro prodotto Y?
Mi pare che tu faccia finta di non capire. Sorvolando per ora sul fine dichiaratemente "benevolo", si tratta di un sistema che monitora i contenuti privati di tutti gli utenti, cercando delle corrispondenze con un archivio centrale sul quale nessuno può sapere cosa effettivamente potrà essere inserito. Di fatto è un ottimo sistema di sorveglianza di massa che può servire a molti usi liberticidi, sia in paesi che già non hanno le libertà fondamentali, sia in quelli che ancora le hanno ma potrebbero tranquilamente perderle, anche in modi subdoli e non plateali.
Come hanno già fatto notare, il tema del contrasto alla pedopornografia è un ottimo cavallo di troia per iniziare a sopprimere o limitare alcuni diritti fondamentali (il diritto alla riservatezza della propria vita privata e delle proprie comunicazioni è uno di questi) con la scusa di un bene presunto superiore (la tutela dei bambini). Il discorso chiaramente si applica anche a quell'altra porcata europea del bucare per legge le mail cifrate. Ogni sistema di key escrow calato dall'alto è sempre e comunque ideato per minare alla base il diritto delle persone a comuncare in modo riservato, qualunque sia la nobile causa che venga usata come giustificazione (lotta al crimine, sicurezza nazionale, tutela dei minori, ecc.).
Sembra di essere tornati ai tempi oscuri di quando in USA l'intelligence voleva fare fuori Phil Zimmermann per aver creato e diffuso PGP, rendendo la crittografia forte disponibile a tutti.
Come supportate le organizzazioni che si battono per prevenire questi crimini e nel contempo cercate di rispettare il più possibile la privacy degli utenti del vostro prodotto Y?
Non è questo il tema importante della notizia secondo me, ma in ogni caso: il contrasto efficace alla pedopornografia (che per inciso non è un sinonimo di pedofilia, anche se i due fenomeni sono chiaramente collegati e sovrapposti) si fa in un solo modo: infiltrandosi nelle reti di relazioni di queste persone. Ci saranno sempre canali utilizzabili da queste persone per scambiarsi o commerciare i loro materiali, ma tutti questi canali saranno sempre vulnerabili all'infiltrazione da parte delle forze dell'ordine che se ne occupano. Quando scaricavano e scambiavano questa roba dalla rete eDonkey la polizia postale li beccava a strascico semplicemente con dei client civetta (probabile che lo facciano ancora); adesso sul dark web avranno degli agenti (con molto stomaco) che si infiltrano guadagnandosi la fiducia di questi delinquenti/malati, ecc..
Un sistema automatico come quello in discussione io lo vedo utile ed opportuno per filtrare i materiali foto e video prima che vengano messi online, quello sì, ma non per altro, i benefici sarebbero poca cosa in rapporto ai costi (in termini di diritti di tutti violati).
Sorveglianza massiva perché sarà applicata a miliardi di persone.
Mi pare che tu faccia finta di non capire.
Infatti, non capisco se insane74 sia un fanboy apple, un difensore d'ufficio delle multinaziionali, o solo un sampliciotto di quelli che "tanto io non ho nulla da nascondere, che mi frughino anche il buco del c.lo". Edit: vedendo gli altri suoi post propendo per il primo, sostituisce Svelgen che è in vacanza. :D
Sorvolando per ora sul fine dichiaratemente "benevolo", si tratta di un sistema che monitora i contenuti privati di tutti gli utenti, cercando delle corrispondenze con un archivio centrale sul quale nessuno può sapere cosa effettivamente potrà essere inserito. Di fatto è un ottimo sistema di sorveglianza di massa che può servire a molti usi liberticidi, sia in paesi che già non hanno le libertà fondamentali, sia in quelli che ancora le hanno ma potrebbero tranquilamente perderle, anche in modi subdoli e non plateali.
Come hanno già fatto notare, il tema del contrasto alla pedopornografia è un ottimo cavallo di troia per iniziare a sopprimere o limitare alcuni diritti fondamentali (il diritto alla riservatezza della propria vita privata e delle proprie comunicazioni è uno di questi) con la scusa di un bene presunto superiore (la tutela dei bambini). Il discorso chiaramente si applica anche a quell'altra porcata europea del bucare per legge le mail cifrate. Ogni sistema di key escrow calato dall'alto è sempre e comunque ideato per minare alla base il diritto delle persone a comuncare in modo riservato, qualunque sia la nobile causa che venga usata come giustificazione (lotta al crimine, sicurezza nazionale, tutela dei minori, ecc.).
Esatto, e gli esempi di uso deviato ci sono e sono proprio recentissimi (scandalo Pegasus-Nso), anche se qui su hwup hanno evitato accuratamente di darne notizia mentre tutto il mondo ne parlava.
Metto un paio di link, sia mai che sveglino le coscienze dei più addormentati:
-giornalisti e attivisti spiati, due uccisi:
https://www.dday.it/redazione/40108/giornalisti-attivisti-spiati-pegasus-nso%20
-come ha contribuito la falsa sicurezza di iphone:
https://www.dday.it/redazione/40113/iphone-quando-la-sicurezza-diventa-unarma-a-doppio-taglio%20
Per la crittografia più o meno forte il discorso è complesso, per ora lasciamolo stare. Ribadiamo solo che le indagini/perquisizioni si possono/devono fare solo dietro mandato di un giudice, coma quelle in casa.
Perchè par perquisirti la casa ci vuole un mandato, mentre per perquisirti telefono/mail/cloud non ci vuole, e anzi lo possono fare dei privati?
Certo è più comodo appaltare la giustizia...
Poi ci scandalizzaimo dela cina, ma noi stiamo diventando uguali.
Edit: casualmente prprio stasera danno in tv Minority Report, consiglio di guardarlo, e sono ancor meglio le puntate di Elementary dove combattono un boss dell'IT che vuole "prevenire" il crimine (mi pare stagione 7), calzano a pennello.
Edit 2: altra citazione che fa sempre bene: "la libertà muore tra scroscianti applausi" sempre in nome della sicurezza ovviamente:
https://www.youtube.com/watch?v=sRplZ8-XXzY
Microsoft scansiona Ondrive, quindi file che hai sul tuo dispositivo.
Vedo che la prima frase che scrivi è già sbagliata: OneDrive è una directory del tuo computer che viene sincronizzata con il cloud. Lo scopo è duplice: avere una maggiore sicurezza (non come un backup ma comunque maggiore di avere una sola copia) e rendere quei file disponibili da qualunque dispositivo, ed eventualmente ai tuoi amici.
Tutto ciò che metti su OneDrive va nel cloud.
Tutto ciò che non metti su OneDrive non va sul cloud.
Per cui Microsoft scansiona file che tu hai esplicitamente messo nel cloud.
Una differenza fondamentale rispetto a quello che tu credi: tu puoi prendere tranquillamente un file di tuo interesse e metterlo in una cartella non pubblicata su cloud. Naturalmente puoi scegliere di mettere tutto sul cloud, ma è una scelta tua, non di Microsoft.
Non c'è bisogno di leggere tutto il post per capire che non sai di cosa stai parlando.
Questo articolo di un esperto dell'analisi forense di immagini spiega molto bene come è la situazione attuale e come l'approccio scelto da Apple solleva parecchi dubbi :mbe: sia a livello di tecnologia che a livello legale:
https://www.hackerfactor.com/blog/index.php?/archives/929-One-Bad-Apple.html
È anche interessante l'analisi dell'algoritmo "segreto" fornito da Microsoft al NCMEC, specialmente il fatto che ne sia stato fatto il reverse engineering e che l'algoritmo generi hash "reversibili" (a partire dall'hash si può ricavare una thumbnail dell'immagine originale) mentre Microsoft affermava il contrario. :muro:
bell' articolo tecnico fatto da un professionista, di cui sottolineo altre due parti secondo me interessanti:
- "In order to manually review the match, they must have access to the content. This means that the content must be transferred to Apple. ...
The problem is that you don't know which pictures will be sent to Apple. You could have corporate confidential information and Apple may quietly take a copy of it."
- (icloud) "content like photos and videos don't use end-to-end encryption. They're encrypted in transit and on disk, but Apple has the key. In this regard, they don't seem to be any more private than Google Photos, Dropbox, etc." Quindi perché questa manfrina dello scan on device, quando potrebbero farlo su icloud prima di crittarle?
Aggiungo al post sopra che in USA esite il "Cloud Act" per cui tutti i dati salvati o in transito sui server cloud sul territorio Usa devono essere accessibili alle agenzie nazionali. Quindi a maggior ragione tutta la manfrina è solo per poter mettere le mani (occhi) dentro il device, per vedere anche ciò che non carichi nel cluod, tanto non sai cosa segnalano quindi possono fare ciò che vogliono.
Oggi è per i bambini, domani perchè non per gli altri reati, poi per prevenirli alla minority report, ecc... questa è solo una testa di ponte, un cavallo di troia, che poi si allargherà.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.