Meta sotto accusa: avrebbe usato contenuti pirata ottenuti via Torrent per allenare l'IA

Nuovi documenti rivelano che Meta potrebbe aver utilizzato materiale protetto da copyright per addestrare la sua intelligenza artificiale. La causa legale alimenta il dibattito sull'uso di contenuti pirata nello sviluppo di modelli linguistici avanzati, prassi che sembrerebbe decisamente diffusa.
di Nino Grasso pubblicata il 14 Gennaio 2025, alle 12:31 nel canale WebMeta
Meta è stata recentemente accusata di aver utilizzato contenuti piratati per addestrare la sua intelligenza artificiale. La controversia riguarda specificamente il modello linguistico Llama, il motore dietro Meta AI, e alimenta il dibattito sul confine tra innovazione tecnologica e rispetto del diritto d'autore nell'era della GenAI.
La vicenda ha origine da una causa legale intentata nel 2023 da due romanzieri, Richard Kadrey e Christopher Golden, i quali sostengono che Meta abbia impiegato materiale protetto da copyright senza la dovuta autorizzazione. Inizialmente, l'azienda aveva presentato documenti con parti oscurate al tribunale, ma un recente ordine del giudice Vince Chhabria del tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California ha imposto la loro divulgazione integrale.
Meta ha usato contenuti pirata per addestrare la propria IA?
Questi documenti includono conversazioni interne tra i dipendenti di Meta, ora rese pubbliche, che gettano luce sulle pratiche potenzialmente discutibili adottate in fase di training delle tecnologie. Un ingegnere dell'azienda ha espresso preoccupazioni riguardo all'uso di torrent su laptop aziendali, suggerendo una consapevolezza interna delle implicazioni etiche di tali azioni. Ancora più sorprendente è l'allusione a un'autorizzazione diretta da parte di "MZ" - presumibilmente Mark Zuckerberg - per l'utilizzo di materiale piratato nell'addestramento dell'IA.
Tra le fonti di contenuti non autorizzati figura LibGen, una vasta biblioteca digitale nota per ospitare libri, riviste e articoli accademici piratati. Creata in Russia nel 2008, LibGen è stata al centro di numerose controversie legali sul copyright, pur mantenendo un alone di mistero riguardo alla sua gestione effettiva. Secondo quanto riportato da Wired, Meta avrebbe attinto anche da altre "librerie ombra" per alimentare il suo progetto di intelligenza artificiale. La difesa di Meta si basa sulla dottrina del "fair use", un principio legale che, in determinate circostanze, consente l'uso di materiale protetto da copyright senza esplicita autorizzazione.
La causa "Kadrey et al. v. Meta Platforms" rappresenta uno dei primi casi legali incentrati sull'uso di contenuti protetti da copyright nell'addestramento di modelli di intelligenza artificiale. Come tale, potrebbe stabilire importanti precedenti per il futuro del settore, influenzando il modo in cui le aziende tecnologiche approcciano l'acquisizione e l'utilizzo di dati per lo sviluppo di IA. La causa si inserisce in un momento cruciale per l'evoluzione della tecnologia, con il settore che si trova a un bivio etico e legale dove la spinta verso l'avanzamento tecnologico si scontra con la necessità di rispettare i diritti degli autori e dei creatori di contenuti. La risoluzione di questo caso, insomma, potrebbe influenzare le pratiche future nell'addestramento di modelli linguistici e altre forme di IA anche anche di altre realtà concorrenti del nuovo prolifico mercato.
8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCosa esattamente non è protetto dal copyright sul web a parte documenti esplicitamente di pubblico dominio (lo 0.0x % del totale)?
Si casca dal pero. L'addestramento dei modelli IA base è effettuato con dati pescati a strascico da qualunque fonte immaginabile. Ma svariati terabyte di dati compressi in pochi gigabyte di "pesi" implicano un tasso di compressione tale che dei dati originali resta ben poco.
Il problema principale qui probabilmente è il fatto di avere scaricato torrent pirata dall'azienda.
Il c.d. "Fair use" cui si appellano i vari produttori di motori IA, è solo una scusa per giustificare la loro pesca a strascico e, soprattutto, l'utilizzo che di tale conoscenza viene fatto.
Il fair use riguarda la redistribuzione in forma parziale dei lavori originali coperti da copyright senza richiedere autorizzazione. Con un LLM non redistribuisci i dati originali, ma al limite un estratto assai digerito.
Il fair use riguarda anche il non trarre eccessivo profitto dall'utilizzo dei contenuti.
Un autore umano che legge libri altrui e poi ne trae ispirazione per scriverne di nuovi sulla stessa tematica non è la stessa cosa di una multinazionale che costruisce un modello linguistico usando migliaia di libri di autori diversi e che monetizza subito e nei modi più disparati (mentre un essere umano non è così rapido e non monetizza in così tanti modi diversi).
Capirei al limite se i modelli fossero completamente chiusi e creati ad uso e consumo esclusivo dell'azienda (OpenAI, Anthropic...), ma in questo caso sono cosiddetti open-weight; non vedo come cercare di affossare Meta in merito possa portare benefici collettivi.
Praticamente si va a colpire per questioni ideologiche una delle poche aziende con le risorse per addestrare regolarmente modelli di tale capacità (dai costi di addestramento complessivi di svariate decine di milioni di euro) e che simultaneamente rilascia pubblicamente anche i pesi; grande idea!
I genii dell'UE non sono stati da meno e grazie a loro (con l'AI Act) molto probabilmente non vedremo Llama4 (o altri modelli open-weight da altre aziende, addestrati con dati coperti da copyright) ufficialmente in territorio Europeo.
ma come fanno a sapere con cosa uno ha addestrato la propria IA?
ma come fanno a sapere con cosa uno ha addestrato la propria IA?
Segnalazione dall'interno (whistleblower) come è successo con OpenAI, oppure in questo caso specifico, nel paper del primo Llama rilasciato nel 2023 gli autori avevano candidamente ammesso di avere usato Books3 (un noto archivio di libri in formato plaintext per l'addestramento di LLM), da cui è partita una denuncia da alcuni autori, e dai documenti legali è infine uscito fuori che sono stati anche usati i contenuti di LibGen, scaricato via torrent da un PC aziendale.
Link ad immagine (click per visualizzarla)
Altrimenti, normalmente non è possibile tirare fuori libri parola per parola da un LLM generalistico, a meno che non sia addestrato espressamente per memorizzarne i contenuti al 100%, cosa che però non viene normalmente fatta, perché altrimenti il modello non sarebbe in grado di generare null'altro (e non sarebbe più generalistico) e poi perché comunque c'è un limite alla quantità di informazione che un LLM può memorizzare in questo modo; non è un database.
I "case documents".
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".