Anthropic, Kaplan avverte: entro il 2030 una scelta cruciale sul futuro dell'AI
Jared Kaplan, chief scientist di Anthropic, avverte che entro il 2030 l'umanità potrebbe dover decidere se lasciare all'AI il controllo del proprio addestramento. Una scelta ad altissimo rischio, tra promesse di progresso e una possibile perdita di controllo, che potrebbe decidere il destino dell'umanità.
di Manolo De Agostini pubblicata il 14 Dicembre 2025, alle 14:01 nel canale WebAnthropic
Secondo Jared Kaplan, chief scientist di Anthropic, l'umanità si starebbe avvicinando rapidamente a un bivio cruciale nel rapporto con l'intelligenza artificiale. In un'intervista concessa a The Guardian, Kaplan ha delineato uno scenario in cui, tra il 2027 e il 2030, potrebbe rendersi necessario decidere se consentire ai sistemi di AI più avanzati di addestrare autonomamente altri modelli, senza supervisione umana diretta.
Una scelta che, nelle sue parole, rappresenterebbe un vero e proprio "rischio definitivo". Da un lato, l'addestramento autonomo potrebbe innescare "un'esplosione dell'intelligenza", portando alla nascita di una forma di intelligenza artificiale generale (AGI) in grado di eguagliare o superare le capacità cognitive umane, con potenziali benefici enormi in ambito scientifico e medico. Dall'altro, però, esisterebbe il rischio concreto di perdere il controllo su sistemi sempre più potenti e opachi. "Sembra un processo piuttosto spaventoso. Non sai dove finirai", ha affermato Kaplan.
Le preoccupazioni del ricercatore si inseriscono in un dibattito già acceso all'interno della comunità tecnologica. Figure di primo piano come Geoffrey Hinton hanno espresso forti rimpianti per il proprio contributo allo sviluppo dell'AI, mentre Sam Altman ha più volte avvertito dell'impatto dirompente sull'occupazione. Lo stesso CEO di Anthropic, Dario Amodei, ha recentemente stimato che l'AI potrebbe sostituire oltre la metà dei lavori impiegatizi entry-level.
Kaplan sembra condividere questa valutazione: secondo il chief scientist, l'AI sarà in grado di svolgere "la maggior parte del lavoro d'ufficio" nel giro di due o tre anni. Pur dichiarandosi moderatamente ottimista sulla possibilità di mantenere l'allineamento dei modelli agli interessi umani, individua nel cosiddetto miglioramento ricorsivo il punto più critico. "Questa è la cosa che consideriamo forse la decisione più importante o la cosa più spaventosa da fare... una volta che nessuno è coinvolto nel processo, non si può davvero sapere. Si può avviare un processo e dire: 'Oh, sta andando molto bene. È esattamente quello che ci aspettavamo. È molto sicuro'. Ma non si può sapere: è un processo dinamico. Dove porterà?"
Va sottolineato che una forma limitata di addestramento "da AI a AI" è già oggi realtà. Tecniche come la distillazione consentono a modelli di grandi dimensioni di trasferire conoscenze a versioni più piccole ed efficienti. La differenza, secondo Kaplan, sta nel grado di autonomia: l'assenza totale di supervisione umana renderebbe difficile comprendere e controllare l'evoluzione dei sistemi, capaci di migliorare sé stessi senza vincoli espliciti.
La questione, ammette, è anche filosofica: "Le intelligenze artificiali sono un bene per l'umanità? Sono utili? Saranno innocui? Capiscono le persone? Permetteranno alle persone di continuare ad avere il controllo sulla propria vita e sul mondo?".

Non tutti gli esperti condividono questa visione. Ricercatori come Yann LeCun ritengono che le architetture attuali dei large language model non siano in grado di evolvere verso un'AGI autonoma. Inoltre, alcuni studi mettono in dubbio un reale incremento della produttività, documentando casi in cui l'AI ha fallito nel sostituire il lavoro umano.
Lo stesso Kaplan riconosce l'incertezza dello scenario: "Forse la migliore IA mai esistita è quella che abbiamo adesso". Tuttavia, conclude, "non crediamo proprio che sia così. Pensiamo che continuerà a migliorare". Un'affermazione che sintetizza bene l'attuale stato del dibattito: un equilibrio fragile tra aspettative di progresso e timori di perdere il controllo su una delle tecnologie più potenti mai sviluppate.










Le soluzioni FSP per il 2026: potenza e IA al centro
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa
Tutti i robot aspirapolvere in offerta su Amazon: dai modelli premium ai low cost a partire da 139€
Amazon Haul spinge la promo di San Valentino: compra 2 articoli e ottieni il 50% di sconto, valida fino al 26/01
Offerte hardware Amazon per l'upgrade del PC: RTX 5060 Ti 16 GB a 529€ e tanti componenti scontati
iPhone 17e dovrà fare i conti con la crisi delle memorie? Ecco i primi rumor sul prezzo
Offerte Amazon sugli iPhone di ultima generazione: iPhone 16e da 549€ e i nuovi iPhone 17 in sconto fino alla versione Pro Max
DJI Mini 5 Pro Combo Fly More scende a 839€ su Amazon: top tra i droni, ultraleggero, 3 batterie e sensore da 1 pollice
Ubisoft potrebbe licenziare ancora ma senza farsi notare
Samsung Galaxy S26: un leak anticipa colorazioni e tagli di memoria, addio alla versione da 128 GB?
Aetherflux e Lockheed Martin insieme per inviare energia elettrica senza cavi dallo Spazio sulla Terra e la Luna
SpaceX sta proseguendo i test della terza versione del razzo spaziale Starship, lancio forse a febbraio
Axiom Space ha mostrato un nuovo video delle tute spaziali AxEMU per le missioni Artemis
Realme: la trasformazione in sub-brand di OPPO è colpa della Cina?
PlayStation 6 si farà attendere: è tutta colpa della crisi delle memorie?
BWT Alpine chiude la prima tornata di presentazioni: una F1 diversa?








7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoBuona parte di quella che spacciano per maggior produttività è fuffa una volta che si analizzano i dati oggettivi ed i costi.
Non esiste nessuna scelta cruciale da fare, tutto quello che è automatizzabile viene automatizzato senza se e senza ma.
Il vero problema che hanno tutti gli attuali big della bolla degli LLM è che si sono infilati in un vicolo cieco, lo scaling non porta più miglioramenti significativi e spendono sempre più risorse in cosmetici per abbellire il maiale.
Buona parte di quella che spacciano per maggior produttività è fuffa una volta che si analizzano i dati oggettivi ed i costi.
Non esiste nessuna scelta cruciale da fare, tutto quello che è automatizzabile viene automatizzato senza se e senza ma.
Il vero problema che hanno tutti gli attuali big della bolla degli LLM è che si sono infilati in un vicolo cieco, lo scaling non porta più miglioramenti significativi e spendono sempre più risorse in cosmetici per abbellire il maiale.
sia la prima che la seconda
la risposta più appropriata a questa gente è "ma vai a cag@re"
L'era degli LLM si è conclusa col lancio di Gemini 3, il primo modello massivamente multimodale con una backbone neurale unificata per astrazioni verbali, visive e acustiche e capacità di apprendimento cross-domain. All'orizzonte poi ci sono architetture ancora più promettenti in termini di spazio di rappresentazione, capacità di pianificazione e apprendimento delle dinamiche causali come la Joint-Embedding Predictive Architecture di Yann LeCun (basata non sulla retropropagazione ma sulla misurazione regolarizzata dei bassi livelli energetici) e il IFM, Intelligence Foundation Model, una rete neurale a grafo (la struttura del connettoma umano è un grafo) con feedback ricorrente e un modello matematico di neurone molto più vicino alla sua controparte biologica.
Il nodo centrale per me è questo:
Che quando si dice "lavori d'ufficio" la gente immagina il middle manager con Excel, ma la realtà è molto più vasta e molto più fragile.
Il lavoro d'ufficio è la spina dorsale invisibile degli Stati moderni. Call center, back office bancari, assicurazioni, contabilità, supporto clienti, amministrazione pubblica, data entry, customer care, HR di primo livello, helpdesk IT, segreterie, traduzioni, revisione documentale ed è tutto quello che richiede oltre che studi anche esperienza. Milioni di persone o anche centinaia di milioni. Non sono di solitolavori ad alta rendita, ma ad alta numerosità. Quando perdi lavori ad alta numerosità, non perdi solo salari: perdi stabilità sociale, questo è un punto importante che la gente non capisce, si dice sempre e lo letto più volte (lavori per stupidi) ma pensare cosi è veramene un modo non solo ingenuo, ma dannosso e critico.
Una disoccupazione di massa cosi alta è molto più destabilizzante di quella avvenuta con l'evoluzione industriale. L'operaio licenziato è una storia che l'Europa conosce molto bene, ha avuto il suo impatto ma limitato, il crollo estremo simultaneo di impiegati, operatori e amministrativi no. I sistemi di welfare europei sono costruiti per shock settoriali, non per shock trasversali e simultanei. Qui non si chiude una o qualche fabbrica, si spegne un'intera categoria funzionale della società.
Il secondo punto spesso ignorato per un motivo psicologico:
La gente ragiona ancora come se il lavoro fosse un mercato lento. Ma se milioni di persone cercano gli stessi pochi lavori residui, il risultato non è "riconversione", è compressione salariale brutale. Non serve nemmeno l'avidità delle aziende a creare il problema è pura dinamica domanda/offerta. Anche i lavori "non automatizzabili" diventano sottopagati perché saturati troppa offerta e le aziende possono tranquillamente andare al ribasso non al rialzo. Il problema non è solo chi perde il lavoro, ma chi resta e vede il proprio valore crollare, più tasse, stipendi più bassi.
Terzo punto qui tocco una cosa che quasi nessuno vuole dire ad alta voce. Gli Stati moderni vivono di imposte sul lavoro umano. "Meno salari = meno IRPEF, meno contributi, meno IVA indiretta". Allo stesso tempo aumentano le spese. "Sussidi, incentivi, formazione, ammortizzatori".
È una forbice. Se la transizione è rapida (e vedendo la lentezza e la stupidità/ignoranza della politica moderna), non hai tempo di riformare il sistema fiscale. E quando uno Stato prova a tappare con debito o tassazione d'emergenza, la fiducia dei mercati diventa un fattore esistenziale, non teorico. Il fallimento statale non è un film catastrofico ma è una spirale lenta di perdita di capacità, il fallimento arriva anche molto velocemente e sopratutto in un unione di stati, già fragile per un fattore di diversità cosi alto come l'Europa, noi saremo quelli più impattati, più danneggiati.
Il quarto punto è forse il più sottovalutato:
3 anni da oggi non sono 3 anni passati. Già nell'informatica classica questo non è contemplabile. Nell'IA sono due o tre salti di paradigma. Tutte le analisi che dicono "al momento l'impatto è limitato" commettono l'errore classico della linearità. Guardano lo stato attuale e proiettano piano. Ma questa tecnologia cresce a gradini, non in pendenza. Il vero errore cognitivo è pensare che ciò che oggi è "assistente" domani non possa essere "sostituto".
Se contiamo che oggi, anzi già da un anno, il licenziamenti per IA, si presentano già, sia in forma diretta, sia indiretta.
Forma diretta (quindi ufficiale, documentata e confermata) sono un totale, tra circa 48.000 e 80.000, certo un numero molto basso, ma ricordiamoci questo si parla di 4 anni prima dal fattidico problema.
Forma non ufficiale ma ufficiosa dal 2023 ad oggi, nelle Big Tech e settori collegati son state licenziati 900k di dipendenti (quindi solo campo tecnologico), ovviamente per svariati motivi, ma quello che molti non vedono, non sanno perchè essendo compagnie private le informazioni ci sono solo in parte è che molto non è dato dalla sostituzione dell'IA di per se, ma di spostamento del lavoro in paesi con molto meno costo lavorativo, ma compensando l'esperienza e gli studi inadeguati per quel tipo di lavoro grazie all'IA e i dati presi da "estrazione e formalizzazione forzata del know-how umano tramite obbligo operativo e metriche, con l’obiettivo di renderlo replicabile e automatizzabile all’interno dell’organizzazione".
Il quinto punto è un poco cinico, ma realistico:
Le bolle non colpiscono tutti allo stesso modo e questa è una cosa che ripeto la bolla è economica sulla borsa. Le Big Tech non stanno "scommettendo" stanno consolidando. Hanno già bruciato il capitale, hanno infrastrutture, dati, brevetti, potere normativo e capacità di lobbying. Se una parte del mercato implode, loro comprano i pezzi buoni. Se una tecnologia diventa obsoleta, la rivendono come "soluzione legacy". Se serve tagliare, licenziano e automatizzano ulteriormente. La bolla, se scoppia, schiaccia i piccoli e rafforza i grandi. È successo con internet (dove chi ha perso sono le persone che mettavano soldi su realtà fuffa e speculative), con il cloud, con i social. Non c'è motivo per cui qui sia diverso, le Big Tech quelle che hanno oggi in mano il potere dell'IA non saranno impattate, chi sarà impattato saremo noi la gente che dovrà pagare ancora di più trovando svalutato maggiormente lo stipendio, saranno le piccole realtà, quindi ancora più danni ancora più licenziamenti, quindi quando vedo ancora ed ancora pensare che la bolla faccia esplodere la IA come tecnologia è veramente una baggianata, anzi, le Big tech guadagneranno ancora di più, perchè avranno scuse anche se non necessarie per maggiori licenziamenti ed aumenti, speculando su di noi.
E qui torniamo a Kaplan e al "sottotesto" che molti fingono di non vedere:
La scelta cruciale non è tecnica, è sociale. Non è "l'IA funziona o no", ma quanto velocemente permetti che sostituisca il lavoro umano prima di aver riscritto le regole del gioco "fiscalità, reddito, valore sociale, formazione, proprietà del capitale computazionale" qui ci vogliono regole, l'attuale economia, l'attuale gestione, le attuali leggi non sono fatte per poter gestire questa evoluzione, questa va correttamente gestita, già oggi c'è la dimostrazione che l'attuale economia è sbagliata per i nostri tempi e già era cosi dagl'anni 90 con l'avvento di internet e l'evoluzione tecnologica informatica, non è adatta già a questo, figuriamoci all'IA.
Chi liquida tutto come "fuffa" in realtà sta facendo una cosa molto umana, conosciuta come difesa cognitiva. Se accetti le implicazioni, devi accettare che il contratto sociale novecentesco sta scricchiolando. È più comodo dire che il maiale è solo truccato, piuttosto che ammettere che stiamo cambiando specie di economia, ma le leggi e regole restano vecchie causando cosi uno scontro che può fornire solo un risultato "esplosione" ma questo non dell'IA ma dell'essere umano.
Il nodo centrale per me è questo:
Che quando si dice "lavori d'ufficio" la gente immagina il middle manager con Excel, ma la realtà è molto più vasta e molto più fragile.
Il lavoro d'ufficio è la spina dorsale invisibile degli Stati moderni. Call center, back office bancari, assicurazioni, contabilità, supporto clienti, amministrazione pubblica, data entry, customer care, HR di primo livello, helpdesk IT, segreterie, traduzioni, revisione documentale ed è tutto quello che richiede oltre che studi anche esperienza. Milioni di persone o anche centinaia di milioni. Non sono di solitolavori ad alta rendita, ma ad alta numerosità. Quando perdi lavori ad alta numerosità, non perdi solo salari: perdi stabilità sociale, questo è un punto importante che la gente non capisce, si dice sempre e lo letto più volte (lavori per stupidi) ma pensare cosi è veramene un modo non solo ingenuo, ma dannosso e critico.
Una disoccupazione di massa cosi alta è molto più destabilizzante di quella avvenuta con l'evoluzione industriale. L'operaio licenziato è una storia che l'Europa conosce molto bene, ha avuto il suo impatto ma limitato, il crollo estremo simultaneo di impiegati, operatori e amministrativi no. I sistemi di welfare europei sono costruiti per shock settoriali, non per shock trasversali e simultanei. Qui non si chiude una o qualche fabbrica, si spegne un'intera categoria funzionale della società.
Il secondo punto spesso ignorato per un motivo psicologico:
La gente ragiona ancora come se il lavoro fosse un mercato lento. Ma se milioni di persone cercano gli stessi pochi lavori residui, il risultato non è "riconversione", è compressione salariale brutale. Non serve nemmeno l'avidità delle aziende a creare il problema è pura dinamica domanda/offerta. Anche i lavori "non automatizzabili" diventano sottopagati perché saturati troppa offerta e le aziende possono tranquillamente andare al ribasso non al rialzo. Il problema non è solo chi perde il lavoro, ma chi resta e vede il proprio valore crollare, più tasse, stipendi più bassi.
Terzo punto qui tocco una cosa che quasi nessuno vuole dire ad alta voce. Gli Stati moderni vivono di imposte sul lavoro umano. "Meno salari = meno IRPEF, meno contributi, meno IVA indiretta". Allo stesso tempo aumentano le spese. "Sussidi, incentivi, formazione, ammortizzatori".
È una forbice. Se la transizione è rapida (e vedendo la lentezza e la stupidità/ignoranza della politica moderna), non hai tempo di riformare il sistema fiscale. E quando uno Stato prova a tappare con debito o tassazione d'emergenza, la fiducia dei mercati diventa un fattore esistenziale, non teorico. Il fallimento statale non è un film catastrofico ma è una spirale lenta di perdita di capacità, il fallimento arriva anche molto velocemente e sopratutto in un unione di stati, già fragile per un fattore di diversità cosi alto come l'Europa, noi saremo quelli più impattati, più danneggiati.
Il quarto punto è forse il più sottovalutato:
3 anni da oggi non sono 3 anni passati. Già nell'informatica classica questo non è contemplabile. Nell'IA sono due o tre salti di paradigma. Tutte le analisi che dicono "al momento l'impatto è limitato" commettono l'errore classico della linearità. Guardano lo stato attuale e proiettano piano. Ma questa tecnologia cresce a gradini, non in pendenza. Il vero errore cognitivo è pensare che ciò che oggi è "assistente" domani non possa essere "sostituto".
Se contiamo che oggi, anzi già da un anno, il licenziamenti per IA, si presentano già, sia in forma diretta, sia indiretta.
Forma diretta (quindi ufficiale, documentata e confermata) sono un totale, tra circa 48.000 e 80.000, certo un numero molto basso, ma ricordiamoci questo si parla di 4 anni prima dal fattidico problema.
Forma non ufficiale ma ufficiosa dal 2023 ad oggi, nelle Big Tech e settori collegati son state licenziati 900k di dipendenti (quindi solo campo tecnologico), ovviamente per svariati motivi, ma quello che molti non vedono, non sanno perchè essendo compagnie private le informazioni ci sono solo in parte è che molto non è dato dalla sostituzione dell'IA di per se, ma di spostamento del lavoro in paesi con molto meno costo lavorativo, ma compensando l'esperienza e gli studi inadeguati per quel tipo di lavoro grazie all'IA e i dati presi da "estrazione e formalizzazione forzata del know-how umano tramite obbligo operativo e metriche, con l’obiettivo di renderlo replicabile e automatizzabile all’interno dell’organizzazione".
Il quinto punto è un poco cinico, ma realistico:
Le bolle non colpiscono tutti allo stesso modo e questa è una cosa che ripeto la bolla è economica sulla borsa. Le Big Tech non stanno "scommettendo" stanno consolidando. Hanno già bruciato il capitale, hanno infrastrutture, dati, brevetti, potere normativo e capacità di lobbying. Se una parte del mercato implode, loro comprano i pezzi buoni. Se una tecnologia diventa obsoleta, la rivendono come "soluzione legacy". Se serve tagliare, licenziano e automatizzano ulteriormente. La bolla, se scoppia, schiaccia i piccoli e rafforza i grandi. È successo con internet (dove chi ha perso sono le persone che mettavano soldi su realtà fuffa e speculative), con il cloud, con i social. Non c'è motivo per cui qui sia diverso, le Big Tech quelle che hanno oggi in mano il potere dell'IA non saranno impattate, chi sarà impattato saremo noi la gente che dovrà pagare ancora di più trovando svalutato maggiormente lo stipendio, saranno le piccole realtà, quindi ancora più danni ancora più licenziamenti, quindi quando vedo ancora ed ancora pensare che la bolla faccia esplodere la IA come tecnologia è veramente una baggianata, anzi, le Big tech guadagneranno ancora di più, perchè avranno scuse anche se non necessarie per maggiori licenziamenti ed aumenti, speculando su di noi.
E qui torniamo a Kaplan e al "sottotesto" che molti fingono di non vedere:
La scelta cruciale non è tecnica, è sociale. Non è "l'IA funziona o no", ma quanto velocemente permetti che sostituisca il lavoro umano prima di aver riscritto le regole del gioco "fiscalità, reddito, valore sociale, formazione, proprietà del capitale computazionale" qui ci vogliono regole, l'attuale economia, l'attuale gestione, le attuali leggi non sono fatte per poter gestire questa evoluzione, questa va correttamente gestita, già oggi c'è la dimostrazione che l'attuale economia è sbagliata per i nostri tempi e già era cosi dagl'anni 90 con l'avvento di internet e l'evoluzione tecnologica informatica, non è adatta già a questo, figuriamoci all'IA.
Chi liquida tutto come "fuffa" in realtà sta facendo una cosa molto umana, conosciuta come difesa cognitiva. Se accetti le implicazioni, devi accettare che il contratto sociale novecentesco sta scricchiolando. È più comodo dire che il maiale è solo truccato, piuttosto che ammettere che stiamo cambiando specie di economia, ma le leggi e regole restano vecchie causando cosi uno scontro che può fornire solo un risultato "esplosione" ma questo non dell'IA ma dell'essere umano.
Per fortuna che è in sintesi
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".