Redazione di Hardware Upg
14-01-2025, 11:31
Link alla notizia: https://www.hwupgrade.it/news/web/meta-sotto-accusa-avrebbe-usato-contenuti-pirata-ottenuti-via-torrent-per-allenare-l-ia_134519.html
Nuovi documenti rivelano che Meta potrebbe aver utilizzato materiale protetto da copyright per addestrare la sua intelligenza artificiale. La causa legale alimenta il dibattito sull'uso di contenuti pirata nello sviluppo di modelli linguistici avanzati, prassi che sembrerebbe decisamente diffusa.
Click sul link per visualizzare la notizia.
Meta potrebbe aver utilizzato materiale protetto da copyright per addestrare la sua intelligenza artificiale
Cosa esattamente non è protetto dal copyright sul web a parte documenti esplicitamente di pubblico dominio (lo 0.0x % del totale)?
[...] prassi che sembrerebbe decisamente diffusa.
Si casca dal pero. L'addestramento dei modelli IA base è effettuato con dati pescati a strascico da qualunque fonte immaginabile. Ma svariati terabyte di dati compressi in pochi gigabyte di "pesi" implicano un tasso di compressione tale che dei dati originali resta ben poco.
Il problema principale qui probabilmente è il fatto di avere scaricato torrent pirata dall'azienda.
Il problema non è la "compressione" di Tbyets di dati originali in Gbytes di "pesi" utilizzati dal motore IA. Il problema è il nesso di causalità tra i dati originari, coperti da copyright, rispetto al risultato. Il prodotto finale, rappresentato dai pesi del motore IA, non si sarebbe potuto originare senza l'utilizzo dei dati originari. Per i quali non si è avuta alcuna autorizzazione all'utilizzo, oltre ovviamente al corrispettivo economico
Il c.d. "Fair use" cui si appellano i vari produttori di motori IA, è solo una scusa per giustificare la loro pesca a strascico e, soprattutto, l'utilizzo che di tale conoscenza viene fatto.
La compressione è un punto chiave del'argomento, perché a tali livelli è per forza di cose lossy, con perdita molto elevata; non è possibile riprodurre con un normale LLM i dati di addestramento originali parola per parola, se non di brevi frammenti di passaggi citati innumerevoli volte in giro per il web.
Il fair use riguarda la redistribuzione in forma parziale dei lavori originali coperti da copyright senza richiedere autorizzazione. Con un LLM non redistribuisci i dati originali, ma al limite un estratto assai digerito.
Il fair use riguarda la redistribuzione in forma parziale dei lavori originali coperti da copyright senza richiedere autorizzazione. Con un LLM non redistribuisci i dati originali, ma al limite un estratto assai digerito.
Il fair use riguarda anche il non trarre eccessivo profitto dall'utilizzo dei contenuti.
Un autore umano che legge libri altrui e poi ne trae ispirazione per scriverne di nuovi sulla stessa tematica non è la stessa cosa di una multinazionale che costruisce un modello linguistico usando migliaia di libri di autori diversi e che monetizza subito e nei modi più disparati (mentre un essere umano non è così rapido e non monetizza in così tanti modi diversi).
Puoi scaricare i pesi di Meta Llama ufficiali su HuggingFace (https://huggingface.co/meta-llama) o le versioni quantizzate dalla community dallo stesso sito e monetizzarci anche tu, volendo, o semplicemente usarli per svago/studio/curiosità.
Capirei al limite se i modelli fossero completamente chiusi e creati ad uso e consumo esclusivo dell'azienda (OpenAI, Anthropic...), ma in questo caso sono cosiddetti open-weight; non vedo come cercare di affossare Meta in merito possa portare benefici collettivi.
Praticamente si va a colpire per questioni ideologiche una delle poche aziende con le risorse per addestrare regolarmente modelli di tale capacità (dai costi di addestramento complessivi di svariate decine di milioni di euro) e che simultaneamente rilascia pubblicamente anche i pesi; grande idea!
I genii dell'UE non sono stati da meno e grazie a loro (con l'AI Act (https://artificialintelligenceact.eu/)) molto probabilmente non vedremo Llama4 (o altri modelli open-weight da altre aziende, addestrati con dati coperti da copyright) ufficialmente in territorio Europeo.
Scusate la domanda niubba..
ma come fanno a sapere con cosa uno ha addestrato la propria IA? :confused:
Scusate la domanda niubba..
ma come fanno a sapere con cosa uno ha addestrato la propria IA? :confused:
Segnalazione dall'interno (whistleblower) come è successo con OpenAI, oppure in questo caso specifico, nel paper del primo Llama rilasciato nel 2023 (https://arxiv.org/abs/2302.13971) gli autori avevano candidamente ammesso di avere usato Books3 (un noto archivio di libri in formato plaintext per l'addestramento di LLM), da cui è partita una denuncia da alcuni autori (https://www.reuters.com/legal/litigation/authors-sue-meta-microsoft-bloomberg-latest-ai-copyright-clash-2023-10-18/), e dai documenti legali è infine uscito fuori che sono stati anche usati i contenuti di LibGen, scaricato via torrent da un PC aziendale.
https://files.catbox.moe/48sygc.png
Altrimenti, normalmente non è possibile tirare fuori libri parola per parola da un LLM generalistico, a meno che non sia addestrato espressamente per memorizzarne i contenuti al 100%, cosa che però non viene normalmente fatta, perché altrimenti il modello non sarebbe in grado di generare null'altro (e non sarebbe più generalistico) e poi perché comunque c'è un limite alla quantità di informazione che un LLM può memorizzare in questo modo; non è un database.
https://www.courtlistener.com/docket/67569326/kadrey-v-meta-platforms-inc/?page=3
I "case documents".
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.