Sfrutta l'IA per migliorare a lavoro, l'azienda lo ringrazia con una lettera di licenziamento

Sfrutta l'IA per migliorare a lavoro, l'azienda lo ringrazia con una lettera di licenziamento

Un dipendente statunitense, dopo 17 anni di servizio, è stato licenziato insieme a una dozzina di colleghi perché sostituito da un modello linguistico. Dopo essere stato spronato a utilizzare l'IA per migliorare il flusso di lavoro, l'azienda ha deciso di coprire il suo ruolo direttamente con lo strumento

di pubblicata il , alle 14:43 nel canale Web
 

Kevin Cantera, ricercatore di Las Cruces (New Mexico), lavorava da 17 anni in un’azienda di tecnologia educativa. Quando il suo capo lo ha spinto a integrare intelligenza artificiale generativa nel suo lavoro, ha accettato con entusiasmo. Dopo pochi mesi, l’azienda ha deciso di rimpiazzarlo direttamente con lo strumento che aveva imparato a utilizzare.

Cantera ha raccontato al Washington Post di essersi presto affezionato all’assistenza offerta dai modelli linguistici di grandi dimensioni (LLM), tanto da definirli un “collaboratore”. Utilizzava ChatGPT per migliorare testi, correggere errori e velocizzare le ricerche, mantenendo sempre un controllo umano sul risultato finale. La produttività era aumentata, ma il riconoscimento non è mai arrivato: l’azienda ha scelto di sostituire lui e un'altra dozzina di colleghi con un sistema automatizzato.

Secondo quanto riferito, la direzione aveva assicurato ai dipendenti che l’IA non avrebbe portato licenziamenti. Eppure, dopo l’integrazione del nuovo flusso di lavoro, molti posti sono stati tagliati. Cantera si chiede ora chi controllerà la qualità dei contenuti generati, considerando che l’IA può facilmente produrre errori o informazioni imprecise.

Il caso si inserisce in una tendenza più ampia: molte aziende adottano strumenti di intelligenza artificiale per ridurre i costi, ma i risultati non sempre corrispondono alle aspettative. Uno studio del MIT rivela che il 95% delle imprese che hanno integrato l’IA non ha registrato crescita del fatturato. In diversi casi, i flussi di lavoro si sono complicati, generando più correzioni e rallentamenti.

Il sogno di un’automazione perfetta si scontra quindi con una realtà più complessa. Da un lato, la tecnologia promette efficienza e taglio delle spese, ma dall’altro rischia di eliminare competenze essenziali e creare un circolo vizioso di errori e revisioni continue.

"È terrificante pensare che possano affidarsi all’output dell’IA senza un controllo esperto", ha dichiarato Cantera, riflettendo su come la fiducia cieca nella tecnologia possa compromettere la qualità del lavoro umano.

E mentre molte aziende continuano a spingere i propri dipendenti a usare ChatGPT e strumenti simili, cresce il dubbio: accettare di collaborare con l’IA significa proteggere il proprio ruolo o accelerare la sua fine?

30 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
tommy78109 Ottobre 2025, 15:20 #1
Quando dico che la gente è stupida mi riferisco a questo,oggi addestri l' ia che domani ti sostituirà! Ma la gente si diverte e pensa di essere figa a usarla e poi piange se resta senza lavoro.
wingman8709 Ottobre 2025, 15:35 #2
Affidarsi completamente a questi modelli IA consente di eseguire molto più lavoro a parità di tempo ma spesso a scapito della qualità.

Se questo sia accettabile e porti un reale vantaggio dipende dal processo in questione.
Notturnia09 Ottobre 2025, 15:44 #3
Originariamente inviato da: tommy781
Quando dico che la gente è stupida mi riferisco a questo,oggi addestri l' ia che domani ti sostituirà! Ma la gente si diverte e pensa di essere figa a usarla e poi piange se resta senza lavoro.


ti faccio presente che c'è gente che spera che le IA ci uccidano tutti e siano il futuro del mondo

Originariamente inviato da: wingman87
Affidarsi completamente a questi modelli IA consente di eseguire molto più lavoro a parità di tempo ma spesso a scapito della qualità.

Se questo sia accettabile e porti un reale vantaggio dipende dal processo in questione.


boh.. dipende molto dai processi ma noi abbiamo iniziato a ridimensionare la IA perchè inizia a prendere "iniziative" non gradite.. diciamo scorciatoie..
dobbiamo comunque controllare a mano tutti i dati che elabora perchè, purtroppo, non è un programma che fa sempre la stessa cosa 100 volte nello stesso modo.. si permette delle libertà e c'è il rischio che se le chiedi la stessa cosa 100 volte ce ne siano 2-3 sbagliate.. la cosa è "buffa" ma pericolosa per noi
_GV_09 Ottobre 2025, 15:57 #4
al momento l'IA dovrebbe solo servire a migliorare la produttività delle persone non a sostituirle. Un uso troppo spregiudicato può portare a derive con errori madornali e conseguenze imprevedibilmente enormi. Però un uso consapevole credo sia già adesso indispensabile per ogni azienda, figuriamoci in futuro.
Cfranco09 Ottobre 2025, 16:00 #5
Originariamente inviato da: tommy781
Quando dico che la gente è stupida mi riferisco a questo,oggi addestri l' ia che domani ti sostituirà! Ma la gente si diverte e pensa di essere figa a usarla e poi piange se resta senza lavoro.


Basta che la addestri a fare errori così poi quando ti licenziano e non funziona più una mazza neanche possono accusarti di sabotaggio
lollo909 Ottobre 2025, 16:40 #6
al di là dell'aspetto ontologico della cosa, su cui non mi addentro, questo tizio, come tanti, faceva uno dei mestieri più attaccabili da quella che è l'IA attuale, ovvero produrre testi.
ma questa è solo una parte della storia, perché poi i testi vanno revisionati contro le allucinazioni (in senso lato, i limiti dei LLM sono molti e diversi)
se per il datore di lavoro 10 revisioni di qualità valgono meno di 1000 testi prodotti in batteria con maggiore rischio di imprecisioni, c'è poco da fare per il sig. Cantera


questo apre ad un ragionamento più ampio che verte sulla comprensione di cosa siano i LLM attuali e di cosa sia quella che chiamiamo IA oggi.
reti neurali e deep learning eccellono nel trovare pattern, il "ragionamento" non c'è, è solo un'illusione che emerge dalla quantità di input con cui sono state "addestrate". e questo, ahimé, a volte basta a far perdere il posto a qualcuno (sono in IT e data science, ne so qualcosa. non ci si può fare niente, c'è una parte della professione che è stata perfettamente automatizzata, e non tornerà. pure al netto di chi esagera e poi ci si fa del male, vedi Klarna)

LLM e reti neurali non rimpiazzeranno granché al di fuori dei loro, pochi, casi d'uso elettivi, almeno non allo stato attuale. sono strumenti che eccellono in alcuni compiti: l'analisi di grandi volumi di dati, riconoscimento di pattern, pesarne i collegamenti tra uno e l'altro e, dunque, anche la produzione di testi/immagini/audio che aggregano pattern "conosciuti".
non sono capasci di processare vincoli, regoli, "fatti", non è quella la loro vocazione. sono, al più, assistenti.

per dire, quante partite di scacchi sono registrate nei DB mondiali? tutte insieme sono nell ordine del miliardo.
sempre sull'argomento, quanti libri esistono? quante migliaia di ore di video su YT? quanti post su blog e via dicendo? c'è una infinità di materiale da cui apprendere.
eppure, ChatGPT non sa giocare a scacchi.
regole che un bambino delle elementari riesce perfettamente a comprendere. magari non sarà un bravo giocatore, ma capisce le dannate regole. ChatGPT no, non le comprende e fa tantissime mosse illegali. e non c'è modo di "farglielo capire".
questo è il limite delle reti neurali ed il motivo per il quale non fai ricerca con esse, ma sono solo degli assistenti. ottimi, veloci, efficaci, ma anche con la tendenza innata a sparare tante cazzate.

le IA più "fattuali"e vicine a quello che indichiamo come ragionamento sono quelle basate su paradigmi evolutivi, simbolici, formali, neurosimbolici, neuromorfici ecc.
come le reti neurali, è quasi tutta roba teorizzata e formalizzata da parecchi decenni. solo che non esiste, nemmeno lontanamente, la possibilità di implementarle su larga scala, per ora e per un altro bel po di tempo.

se un LLM ti rimpiazza, o la "parte umana" del tuo lavoro non vale più la candela contro la enorme produzione di un LLM, oppure l'azienda sta pensando che un LLM sia quello che non è.
a occhio direi 50 e 50
zappy09 Ottobre 2025, 16:58 #7
Originariamente inviato da: lollo9
al di là dell'aspetto ontologico della cosa, su cui non mi addentro, questo tizio, come tanti, faceva uno dei mestieri più attaccabili da quella che è l'IA attuale, ovvero produrre testi.
ma questa è solo una parte della storia, perché poi i testi vanno revisionati contro le allucinazioni (in senso lato, i limiti dei LLM sono molti e diversi)
se per il datore di lavoro 10 revisioni di qualità valgono meno di 1000 testi prodotti in batteria con maggiore rischio di imprecisioni, c'è poco da fare per il sig. Cantera


questo apre ad un ragionamento più ampio che verte sulla comprensione di cosa siano i LLM attuali e di cosa sia quella che chiamiamo IA oggi.
reti neurali e deep learning eccellono nel trovare pattern, il "ragionamento" non c'è, è solo un'illusione che emerge dalla quantità di input con cui sono state "addestrate". e questo, ahimé, a volte basta a far perdere il posto a qualcuno (sono in IT e data science, ne so qualcosa. non ci si può fare niente, c'è una parte della professione che è stata perfettamente automatizzata, e non tornerà. pure al netto di chi esagera e poi ci si fa del male, vedi Klarna)

LLM e reti neurali non rimpiazzeranno granché al di fuori dei loro, pochi, casi d'uso elettivi, almeno non allo stato attuale. sono strumenti che eccellono in alcuni compiti: l'analisi di grandi volumi di dati, riconoscimento di pattern, pesarne i collegamenti tra uno e l'altro e, dunque, anche la produzione di testi/immagini/audio che aggregano pattern "conosciuti".
non sono capasci di processare vincoli, regoli, "fatti", non è quella la loro vocazione. sono, al più, assistenti.

per dire, quante partite di scacchi sono registrate nei DB mondiali? tutte insieme sono nell ordine del miliardo.
sempre sull'argomento, quanti libri esistono? quante migliaia di ore di video su YT? quanti post su blog e via dicendo? c'è una infinità di materiale da cui apprendere.
eppure, ChatGPT non sa giocare a scacchi.
regole che un bambino delle elementari riesce perfettamente a comprendere. magari non sarà un bravo giocatore, ma capisce le dannate regole. ChatGPT no, non le comprende e fa tantissime mosse illegali. e non c'è modo di "farglielo capire".
questo è il limite delle reti neurali ed il motivo per il quale non fai ricerca con esse, ma sono solo degli assistenti. ottimi, veloci, efficaci, ma anche con la tendenza innata a sparare tante cazzate.

le IA più "fattuali"e vicine a quello che indichiamo come ragionamento sono quelle basate su paradigmi evolutivi, simbolici, formali, neurosimbolici, neuromorfici ecc.
come le reti neurali, è quasi tutta roba teorizzata e formalizzata da parecchi decenni. solo che non esiste, nemmeno lontanamente, la possibilità di implementarle su larga scala, per ora e per un altro bel po di tempo.

se un LLM ti rimpiazza, o la "parte umana" del tuo lavoro non vale più la candela contro la enorme produzione di un LLM, oppure l'azienda sta pensando che un LLM sia quello che non è.
a occhio direi 50 e 50

Post interessante, non sono tanti quelli così lunghi che leggo per intero.
Confermo anche io che le allucinazioni nel produrre "testi" (o anche rispostine a domandine facili) sono una marea. E quindi vanno bene per sparar cazzate, ma per fare cose in cui si vogliono certezze proprio no.
Hiei360009 Ottobre 2025, 16:59 #8
Originariamente inviato da: tommy781
Quando dico che la gente è stupida mi riferisco a questo,oggi addestri l' ia che domani ti sostituirà! Ma la gente si diverte e pensa di essere figa a usarla e poi piange se resta senza lavoro.


Se il capo ti dice di addestrare un IA altrimenti ti licenzia, cosa fai?
1)Addestri l'IA, dopo un paio di anni ti licenziano perché l'IA ti sostituisce
2)Ti rifiuti di farlo e vieni licenziato subito

E' facile condannare questa gente, ma non tutti hanno il lusso di dire "No"
giovanni6909 Ottobre 2025, 17:00 #9
Originariamente inviato da: Notturnia
si permette delle libertà e c'è il rischio che se le chiedi la stessa cosa 100 volte ce ne siano 2-3 sbagliate.. la cosa è "buffa" ma pericolosa per noi


Questa cosa mi ricorda certi comportamenti di figure 'commerciali' che pur di accontentare il cliente, rigirano la storia nel modo che crea maggiore empatia con il cliente (diciamo ti prrendo per...:ciapet , a costo di inventare o mentire.

@lollo9. grazie lollo per il tuo post interessante.
risk-io09 Ottobre 2025, 18:51 #10
Questo dimostra una cosa gia' nota: chi lavora meglio viene punito.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^