Sfrutta l'IA per migliorare a lavoro, l'azienda lo ringrazia con una lettera di licenziamento
Un dipendente statunitense, dopo 17 anni di servizio, è stato licenziato insieme a una dozzina di colleghi perché sostituito da un modello linguistico. Dopo essere stato spronato a utilizzare l'IA per migliorare il flusso di lavoro, l'azienda ha deciso di coprire il suo ruolo direttamente con lo strumento
di Vittorio Rienzo pubblicata il 09 Ottobre 2025, alle 14:43 nel canale WebKevin Cantera, ricercatore di Las Cruces (New Mexico), lavorava da 17 anni in un’azienda di tecnologia educativa. Quando il suo capo lo ha spinto a integrare intelligenza artificiale generativa nel suo lavoro, ha accettato con entusiasmo. Dopo pochi mesi, l’azienda ha deciso di rimpiazzarlo direttamente con lo strumento che aveva imparato a utilizzare.
Cantera ha raccontato al Washington Post di essersi presto affezionato all’assistenza offerta dai modelli linguistici di grandi dimensioni (LLM), tanto da definirli un “collaboratore”. Utilizzava ChatGPT per migliorare testi, correggere errori e velocizzare le ricerche, mantenendo sempre un controllo umano sul risultato finale. La produttività era aumentata, ma il riconoscimento non è mai arrivato: l’azienda ha scelto di sostituire lui e un'altra dozzina di colleghi con un sistema automatizzato.

Secondo quanto riferito, la direzione aveva assicurato ai dipendenti che l’IA non avrebbe portato licenziamenti. Eppure, dopo l’integrazione del nuovo flusso di lavoro, molti posti sono stati tagliati. Cantera si chiede ora chi controllerà la qualità dei contenuti generati, considerando che l’IA può facilmente produrre errori o informazioni imprecise.
Il caso si inserisce in una tendenza più ampia: molte aziende adottano strumenti di intelligenza artificiale per ridurre i costi, ma i risultati non sempre corrispondono alle aspettative. Uno studio del MIT rivela che il 95% delle imprese che hanno integrato l’IA non ha registrato crescita del fatturato. In diversi casi, i flussi di lavoro si sono complicati, generando più correzioni e rallentamenti.
Il sogno di un’automazione perfetta si scontra quindi con una realtà più complessa. Da un lato, la tecnologia promette efficienza e taglio delle spese, ma dall’altro rischia di eliminare competenze essenziali e creare un circolo vizioso di errori e revisioni continue.

"È terrificante pensare che possano affidarsi all’output dell’IA senza un controllo esperto", ha dichiarato Cantera, riflettendo su come la fiducia cieca nella tecnologia possa compromettere la qualità del lavoro umano.
E mentre molte aziende continuano a spingere i propri dipendenti a usare ChatGPT e strumenti simili, cresce il dubbio: accettare di collaborare con l’IA significa proteggere il proprio ruolo o accelerare la sua fine?










SONY BRAVIA 8 II e BRAVIA Theatre System 6: il cinema a casa in formato compatto
KTC H27E6 a 300Hz e 1ms: come i rivali ma a metà prezzo
Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Una startup vuole rivoluzionare l'IA: Majestic Labs promette di aumentare di 1.000 volte la memoria per singolo sistema
Accumulo a batterie, l'Europa si sveglia: il più grande del continente in costruzione in Germania
Intel rende anche gli IHS modulari: più economici, più semplici e più performanti
Tesla perde ancora pezzi: lascia l'azienda anche il responsabile di Model Y
Bungie in crisi? Destiny 2 sotto le aspettative, Marathon per il riscatto. E Sony si gode Helldivers 2
PS5 festeggia cinque anni e supera 84 milioni di unità andando oltre le aspettative
Patreon lancia Quips, un social network interno per connettere creator e fan
Honda richiama oltre 400mila Civic: c'è il rischio che una ruota si stacchi durante la guida
Manipolazione robotica: Adaptronics chiude un round da 3,15 milioni
Singles' Day 2025: le offerte AliExpress da non perdere per la Festa dei Single
Nasce in Belgio il primo parco solare per la produzione di idrogeno verde al mondo
Grande festa in Cina, Fiido esagera: fino a 1.300 euro di sconto sulle e-bike
Terapia genica 'one-shot' abbatte colesterolo e trigliceridi: prima sperimentazione umana riuscita
Il primo sconto in assoluto di iPhone 17 Pro: 256 GB a 1.299€









30 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSe questo sia accettabile e porti un reale vantaggio dipende dal processo in questione.
ti faccio presente che c'è gente che spera che le IA ci uccidano tutti e siano il futuro del mondo
Se questo sia accettabile e porti un reale vantaggio dipende dal processo in questione.
boh.. dipende molto dai processi ma noi abbiamo iniziato a ridimensionare la IA perchè inizia a prendere "iniziative" non gradite.. diciamo scorciatoie..
dobbiamo comunque controllare a mano tutti i dati che elabora perchè, purtroppo, non è un programma che fa sempre la stessa cosa 100 volte nello stesso modo.. si permette delle libertà e c'è il rischio che se le chiedi la stessa cosa 100 volte ce ne siano 2-3 sbagliate.. la cosa è "buffa" ma pericolosa per noi
Basta che la addestri a fare errori così poi quando ti licenziano e non funziona più una mazza neanche possono accusarti di sabotaggio
ma questa è solo una parte della storia, perché poi i testi vanno revisionati contro le allucinazioni (in senso lato, i limiti dei LLM sono molti e diversi)
se per il datore di lavoro 10 revisioni di qualità valgono meno di 1000 testi prodotti in batteria con maggiore rischio di imprecisioni, c'è poco da fare per il sig. Cantera
questo apre ad un ragionamento più ampio che verte sulla comprensione di cosa siano i LLM attuali e di cosa sia quella che chiamiamo IA oggi.
reti neurali e deep learning eccellono nel trovare pattern, il "ragionamento" non c'è, è solo un'illusione che emerge dalla quantità di input con cui sono state "addestrate". e questo, ahimé, a volte basta a far perdere il posto a qualcuno (sono in IT e data science, ne so qualcosa. non ci si può fare niente, c'è una parte della professione che è stata perfettamente automatizzata, e non tornerà. pure al netto di chi esagera e poi ci si fa del male, vedi Klarna)
LLM e reti neurali non rimpiazzeranno granché al di fuori dei loro, pochi, casi d'uso elettivi, almeno non allo stato attuale. sono strumenti che eccellono in alcuni compiti: l'analisi di grandi volumi di dati, riconoscimento di pattern, pesarne i collegamenti tra uno e l'altro e, dunque, anche la produzione di testi/immagini/audio che aggregano pattern "conosciuti".
non sono capasci di processare vincoli, regoli, "fatti", non è quella la loro vocazione. sono, al più, assistenti.
per dire, quante partite di scacchi sono registrate nei DB mondiali? tutte insieme sono nell ordine del miliardo.
sempre sull'argomento, quanti libri esistono? quante migliaia di ore di video su YT? quanti post su blog e via dicendo? c'è una infinità di materiale da cui apprendere.
eppure, ChatGPT non sa giocare a scacchi.
regole che un bambino delle elementari riesce perfettamente a comprendere. magari non sarà un bravo giocatore, ma capisce le dannate regole. ChatGPT no, non le comprende e fa tantissime mosse illegali. e non c'è modo di "farglielo capire".
questo è il limite delle reti neurali ed il motivo per il quale non fai ricerca con esse, ma sono solo degli assistenti. ottimi, veloci, efficaci, ma anche con la tendenza innata a sparare tante cazzate.
le IA più "fattuali"e vicine a quello che indichiamo come ragionamento sono quelle basate su paradigmi evolutivi, simbolici, formali, neurosimbolici, neuromorfici ecc.
come le reti neurali, è quasi tutta roba teorizzata e formalizzata da parecchi decenni. solo che non esiste, nemmeno lontanamente, la possibilità di implementarle su larga scala, per ora e per un altro bel po di tempo.
se un LLM ti rimpiazza, o la "parte umana" del tuo lavoro non vale più la candela contro la enorme produzione di un LLM, oppure l'azienda sta pensando che un LLM sia quello che non è.
a occhio direi 50 e 50
ma questa è solo una parte della storia, perché poi i testi vanno revisionati contro le allucinazioni (in senso lato, i limiti dei LLM sono molti e diversi)
se per il datore di lavoro 10 revisioni di qualità valgono meno di 1000 testi prodotti in batteria con maggiore rischio di imprecisioni, c'è poco da fare per il sig. Cantera
questo apre ad un ragionamento più ampio che verte sulla comprensione di cosa siano i LLM attuali e di cosa sia quella che chiamiamo IA oggi.
reti neurali e deep learning eccellono nel trovare pattern, il "ragionamento" non c'è, è solo un'illusione che emerge dalla quantità di input con cui sono state "addestrate". e questo, ahimé, a volte basta a far perdere il posto a qualcuno (sono in IT e data science, ne so qualcosa. non ci si può fare niente, c'è una parte della professione che è stata perfettamente automatizzata, e non tornerà. pure al netto di chi esagera e poi ci si fa del male, vedi Klarna)
LLM e reti neurali non rimpiazzeranno granché al di fuori dei loro, pochi, casi d'uso elettivi, almeno non allo stato attuale. sono strumenti che eccellono in alcuni compiti: l'analisi di grandi volumi di dati, riconoscimento di pattern, pesarne i collegamenti tra uno e l'altro e, dunque, anche la produzione di testi/immagini/audio che aggregano pattern "conosciuti".
non sono capasci di processare vincoli, regoli, "fatti", non è quella la loro vocazione. sono, al più, assistenti.
per dire, quante partite di scacchi sono registrate nei DB mondiali? tutte insieme sono nell ordine del miliardo.
sempre sull'argomento, quanti libri esistono? quante migliaia di ore di video su YT? quanti post su blog e via dicendo? c'è una infinità di materiale da cui apprendere.
eppure, ChatGPT non sa giocare a scacchi.
regole che un bambino delle elementari riesce perfettamente a comprendere. magari non sarà un bravo giocatore, ma capisce le dannate regole. ChatGPT no, non le comprende e fa tantissime mosse illegali. e non c'è modo di "farglielo capire".
questo è il limite delle reti neurali ed il motivo per il quale non fai ricerca con esse, ma sono solo degli assistenti. ottimi, veloci, efficaci, ma anche con la tendenza innata a sparare tante cazzate.
le IA più "fattuali"e vicine a quello che indichiamo come ragionamento sono quelle basate su paradigmi evolutivi, simbolici, formali, neurosimbolici, neuromorfici ecc.
come le reti neurali, è quasi tutta roba teorizzata e formalizzata da parecchi decenni. solo che non esiste, nemmeno lontanamente, la possibilità di implementarle su larga scala, per ora e per un altro bel po di tempo.
se un LLM ti rimpiazza, o la "parte umana" del tuo lavoro non vale più la candela contro la enorme produzione di un LLM, oppure l'azienda sta pensando che un LLM sia quello che non è.
a occhio direi 50 e 50
Post interessante, non sono tanti quelli così lunghi che leggo per intero.
Confermo anche io che le allucinazioni nel produrre "testi" (o anche rispostine a domandine facili) sono una marea. E quindi vanno bene per sparar cazzate, ma per fare cose in cui si vogliono certezze proprio no.
Se il capo ti dice di addestrare un IA altrimenti ti licenzia, cosa fai?
1)Addestri l'IA, dopo un paio di anni ti licenziano perché l'IA ti sostituisce
2)Ti rifiuti di farlo e vieni licenziato subito
E' facile condannare questa gente, ma non tutti hanno il lusso di dire "No"
Questa cosa mi ricorda certi comportamenti di figure 'commerciali' che pur di accontentare il cliente, rigirano la storia nel modo che crea maggiore empatia con il cliente (diciamo ti prrendo per...:ciapet
@lollo9. grazie lollo per il tuo post interessante.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".