View Full Version : New York Times contro OpenAI: l'editore minaccia azioni legali, e nel frattempo disabilita l'accesso al crawler di ChatGPT
Redazione di Hardware Upg
22-08-2023, 11:01
Link alla notizia: https://edge9.hwupgrade.it/news/data/new-york-times-contro-openai-l-editore-minaccia-azioni-legali-e-nel-frattempo-disabilita-l-accesso-al-crawler-di-chatgpt_119352.html
Il quotidiano americano ha cercato invano di trovare un accordo con OpenAI per utilizzare gli articoli come base per addestrare ChatGPT. Dopo il fallimento delle trattative, il New York Times sta valutando di procedere per vie legali
Click sul link per visualizzare la notizia.
TorettoMilano
22-08-2023, 11:03
lo uso poco chatgpt ma mi pare metta i link della fonte quando attinge direttamente a un determinato articolo
Minacciano azioni legali...eheh...mi fanno quasi tenerezza...
Me li immagino tra qualche anno o forse anche prima loro e giornali simili, con la loro intelligenza artificiale che scrive articoli al posto di metà del personale, mandato a casa perchè ormai "non più necessario"...
agonauta78
22-08-2023, 11:16
I giornalisti sono tra le prime figure che presto scompariranno .si dovranno inventare un altro lavoro
I giornalisti sono tra le prime figure che presto scompariranno .si dovranno inventare un altro lavoro
Senza alcun rimpianto, aggiungerei.
Di giornalisti, di veri giornalisti, ormai se ne contano veramente pochi.
Gli altri definirli tali è un complimento NON MERITATO.
Basta leggere un qualsiasi quotidiano, online o meno, per rendersene conto.
Meglio le AI a questo punto.
agonauta78
22-08-2023, 11:27
I lavori prettamente manuali al momento non corrono rischi . Chi lavora con tastiera e mouse dovrebbe iniziare a cercare un posto in fabbrica o nei campi
giovanni69
22-08-2023, 11:28
Per Redazione: accento di troppo :O
TorettoMilano
22-08-2023, 11:30
I lavori prettamente manuali al momento non corrono rischi . Chi lavora con tastiera e mouse dovrebbe iniziare a cercare un posto in fabbrica o nei campi
con l'evoluzione delle stampe 3d e con i robot umanoidi low cost a breve vedremo rivoluzioni pure lato lavori manuali. tralasciando poi diversi lavori manuali sono già stati persi a causa dell'automazione
I lavori prettamente manuali al momento non corrono rischi . Chi lavora con tastiera e mouse dovrebbe iniziare a cercare un posto in fabbrica o nei campi
Eccomi. Ma son capace anche di svolgere lavori manuali per fortuna.
Sto pensando di mandare curricula alle pompe funebri.
Quello è un settore che non conosce crisi...:stordita:
Il tema è tutt'altro che semplice. Se io produco contenuti che hanno un costo (materiale o di tempo), scegliendo di essere retribuito con un approccio "pay pe view". E lo stesso avviene per chi produce tutorial.
Come facciamo a retribuire queste persone? E se queste persone domani smettono di produrre contenuti in quanto non conveniente, cosa accadara'? Come si terranno aggiornate le AI? Le implicazioni sono tali e varie che la risposta è molto complicata.
I lavori prettamente manuali al momento non corrono rischi . Chi lavora con tastiera e mouse dovrebbe iniziare a cercare un posto in fabbrica o nei campi
Dipende cosa fai con tastiera e mouse... Non pensare che sia così facile sostituire certi profili professionali.
Ti faccio un esempio molto semplice. Io sono un programmatore nel campo dell'HPC, ed uso ChatGPT regolarmente per suggerimenti. Fino a che lo usi per piccoli pezzi di codice funziona benissimo, è un modo anche per imparare nuovi approcci, ma come inizi a fargli generare roba più grande va a gambe all'aria. Non nel senso che non lo sa fare, nel senso che ti genera proprio codice sbagliato. Per quanto mi riguarda posso stare tranquillo ancora per un bel pò.
The_ouroboros
22-08-2023, 13:18
Dipende cosa fai con tastiera e mouse... Non pensare che sia così facile sostituire certi profili professionali.
Ti faccio un esempio molto semplice. Io sono un programmatore nel campo dell'HPC, ed uso ChatGPT regolarmente per suggerimenti. Fino a che lo usi per piccoli pezzi di codice funziona benissimo, è un modo anche per imparare nuovi approcci, ma come inizi a fargli generare roba più grande va a gambe all'aria. Non nel senso che non lo sa fare, nel senso che ti genera proprio codice sbagliato. Per quanto mi riguarda posso stare tranquillo ancora per un bel pò.
per un bel periodo direi, date le intrinseche allucinazioni di GTP3/4
Per quanto mi riguarda posso stare tranquillo ancora per un bel pò.
https://i.redd.it/7ptrlc47tuc51.jpg
--Per quanto mi riguarda posso stare tranquillo ancora per un bel pò.
Sai benissimo che spesso queste cose seguono un progresso esponenziale e quello che *oggi* sembra fantascienza, tra 5 anni non lo sembrerá piú.
Personalmente, non nutro molte speranze... quelli che dicono "solo quelli scarsi perderanno il lavoro" devono solo aspettare la generazione di AI successiva. Quelli che dicono "solo chi non tratta con i clienti" idem.
Si deve solo sperare che ci sia un limite (economico, tecnologico) che impedisca a quello che ora sembra un trend esponenziale di crescere fino a diventare seriamente un rischio (e ricordiamo che giá oggi lavori sono stati persi per queste AI).
@Ago72
XD verissimo XD
Il problema é che a quel punto ne basta solo uno, quello che interpreta il volere del cliente e lo descrive formalmente alla AI. Gli altri 10 che servivano per implementare la soluzione non serviranno piú...
E se queste persone domani smettono di produrre contenuti in quanto non conveniente, cosa accadara'? Come si terranno aggiornate le AI? Le implicazioni sono tali e varie che la risposta è molto complicata. Spero proprio che succeda questo, se tutti gli editori si mettono d'accordo per bloccare i robots delle IA queste lentamente "moriranno di fame", o perlomeno non saranno più aggiornate e diventeranno obsolete.
In teoria potrebbero chiedere di pagare anche per quello che hanno già "succhiato", ma poichè ormai è impossibile "estrarlo" le IA andrebbero azzerate e riaddestrate da zero (altri articoli ne hanno parlato come un'eventuialità seria). Sai che risate. :D
h.rorschach
22-08-2023, 18:52
Le direttive specificate nel robots.txt non sono legge, sono un invito e sta al crawler decidere se rispettarle o meno (spoiler: non le rispettano). Il NYT può chiedere per favore ai crawler di OpenAI di non sifonare contenuti, ma se ne sbattono e possono farlo comunque. Oltretutto, le vacche sono scappate dal recinto sin dal 2021: il corpus è già stato formato ed utilizzato.
Le direttive specificate nel robots.txt non sono legge, sono un invito e sta al crawler decidere se rispettarle o meno (spoiler: non le rispettano). Il NYT può chiedere per favore ai crawler di OpenAI di non sifonare contenuti, ma se ne sbattono e possono farlo comunque. Oltretutto, le vacche sono scappate dal recinto sin dal 2021: il corpus è già stato formato ed utilizzato. Ma se c'è paywall il crawler non viene bloccato come tutto il resto? come fa a bypassarlo se non paga? (scusa l'ignoranza)
Io sapevo che gli permettevano di passare per risultare nei motori di ricerca, non che fosse impossibile bloccarli.
h.rorschach
22-08-2023, 19:15
Ma se c'è paywall il crawler non viene bloccato come tutto il resto? come fa a bypassarlo se non paga? (scusa l'ignoranza)
Io sapevo che gli permettevano di passare per risultare nei motori di ricerca, non che fosse impossibile bloccarli.
Basta che OpenAI cambi l'User-Agent del crawler a qualcosa di consentito, i.e.: il crawler di Google, Bing, Yandex, o qualunque altra cosa.
mrk-cj94
27-08-2023, 20:05
I giornalisti sono tra le prime figure che presto scompariranno .si dovranno inventare un altro lavoro
magari :p
mrk-cj94
27-08-2023, 20:06
https://i.redd.it/7ptrlc47tuc51.jpg
:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.