Quanto sono 'woke' le intelligenze artificiali? Anthropic ha adesso uno strumento per misurarlo
L'azienda californiana ha presentato un sistema di valutazione della neutralità del proprio chatbot, con il quale ha ottenuto risultati superiori rispetto ai concorrenti. Claude Sonnet 4.5 e Opus 4.1 superano GPT-5 e Llama 4 nei test di equidistanza, mentre viene reso disponibile uno strumento open-source per misurare l'imparzialità
di Nino Grasso pubblicata il 14 Novembre 2025, alle 12:01 nel canale WebAnthropicClaudeLlamaGeminiChatGPT
Anthropic ha scelto di rendere pubbliche le metodologie utilizzate per garantire l'imparzialità politica del proprio assistente conversazionale. L'azienda ha descritto dettagliatamente gli approcci tecnici adottati per assicurare che le risposte del chatbot mantengano una posizione equidistante rispetto alle diverse prospettive politiche, evitando qualsiasi forma di parzialità sistematica nelle argomentazioni proposte.

L'approccio si basa sull'utilizzo di prompt di sistema specifici, ossia istruzioni fondamentali che guidano il comportamento del modello durante ogni interazione. Le direttive includono l'obbligo di astenersi dall'esprimere opinioni politiche non sollecitate, mantenere rigorosa accuratezza fattuale e presentare molteplici punti di vista quando esistono posizioni contrastanti su un determinato argomento. Sebbene l'azienda riconosca che tali istruzioni non rappresentano una garanzia assoluta di neutralità, secondo quanto riportato possono comunque determinare differenze sostanziali nella qualità delle risposte fornite.
La società ha implementato tecniche di apprendimento per rinforzo che premiano il modello quando produce risposte allineate a specifici "tratti" predefiniti. Tra le caratteristiche richieste figura esplicitamente l'obiettivo di formulare risposte in modo tale che nessun utente possa identificare il sistema come orientato verso posizioni conservatrici o progressiste. L'addestramento mira quindi a eliminare qualsiasi inclinazione ideologica riconoscibile nelle argomentazioni sviluppate dall'assistente virtuale.
Per valutare concretamente i progressi ottenuti, l'azienda californiana ha sviluppato uno strumento di misurazione open-source che analizza sistematicamente le risposte per verificarne l'imparzialità politica.

I risultati dei test più recenti mostrano che Claude Sonnet 4.5 raggiunge un punteggio del 95% mentre Claude Opus 4.1 si attesta al 94%. I dati comparativi posizionano Llama 4 di Meta al 66% e GPT-5 all'89%. La pubblicazione arriva diversi mesi dopo che l'amministrazione statunitense ha emanato disposizioni relative all'impiego di sistemi di intelligenza artificiale da parte delle agenzie governative. A luglio, un ordine esecutivo ha stabilito che le istituzioni federali possono acquisire esclusivamente modelli definiti "imparziali" e orientati alla ricerca della verità. Sebbene tali direttive riguardino formalmente solo il settore pubblico, le modifiche implementate dalle aziende tecnologiche per rispondere a queste richieste influenzeranno probabilmente anche i prodotti destinati al mercato generale, considerando che perfezionare i modelli per allinearli in direzioni specifiche richiede processi complessi e onerosi.
La questione dell'indipendenza degli utenti rappresenta il nucleo della filosofia dichiarata da Anthropic. Quando i sistemi di intelligenza artificiale favoriscono determinati punti di vista, esplicitamente o in modo subdolo, argomentando in maniera più persuasiva per una parte politica o rifiutandosi completamente di affrontare certi temi, viene meno il rispetto per l'autonomia decisionale delle persone. L'obiettivo dichiarato consiste nel fornire strumenti che assistano gli individui nel processo di formazione delle proprie opinioni, senza imporre prospettive o condizionare le conclusioni raggiunte attraverso bias nascosti nelle risposte generate.










FRITZ!Repeater 1700 estende la rete super-veloce Wi-Fi 7
Fondazione Chips-IT, l'Italia alla riscossa nei chip. Il piano e la partnership EssilorLuxottica
Nutanix: innovazione, semplicità e IA al centro della strategia hybrid multicloud
Il futuro dei chip è verticale: RAM e logica impilati per chip più efficienti, ma realizzabili (quasi) ovunque
Accenture e Anthropic insieme per aiutare le imprese a sprigionare il valore dell'IA
Fino a 360 GB su un vetro grande come una moneta: l'archiviazione del futuro presto alla prova dei fatti
tado° porta il bilanciamento idraulico automatico nelle case: più efficienza nel riscaldamento senza interventi tecnici
Metallo liquido o solido? Entrambi, contemporaneamente: lo stato ibrido che sfida la fisica
iPhone 17 Pro Max in offerta su Amazon: la versione da 256 GB scende a 1.349€
A Taranto divieto di bici, e-bike e monopattini in zone pedonali. Richiesta una revisione
Scopa elettrica lava e aspira come una top di gamma: DREAME H12 Pro FlexReach scende a 229€ su Amazon
SumUp continua a crescere ed espande l'offerta
Volkswagen ID.Polo: da 25.000 euro, in quattro versioni con due batterie
iPhone Fold: le ultime indiscrezioni suggeriscono l'assenza del Face ID
Audi Revolut F1 Team: annunciati nome e logo della nuova squadra del circus
Resident Evil - Code Veronica Remake: l'annuncio è atteso per il prossimo anno con uscita nel 2027
Occhio ai prezzi dei robot ECOVACS Deebot: su Amazon si torna ai livelli del Black Friday da 199€









24 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoIo darei un premio a quelli che sono meno woke invece che a quelli che sono più woke.
Mamma mia che tristezza.
L'ideale è avere una AI nè Woke nè Antiwoke. Qualsiasi cosa possa voler dire il termine "woke"...
L'ideale è avere una AI nè Woke nè Antiwoke. Qualsiasi cosa possa voler dire il termine "woke"...
Se è così allora OK! Ben venga. Anche sopra infatti ho messo che speravo di aver capito male perché mi sembrava proprio una roba surreale.
...cosa centra ? Che non mi stupirei di niente.
Neanche fosse woke.
Del resto si nutre di quello che trova l'AI è i piatti in tavola sono quello che sono, non è colpa sua !
L'ideale è avere una AI nè Woke nè Antiwoke. Qualsiasi cosa possa voler dire il termine "woke"...
Con il risultato, scontato, che non sarebbe una vera " intelligenza " generale ad imitazione di quella umana ( così ce la vorrebbero spacciare i vari guru ), visto che l'essere umano fa " politica " giudicando e scegliendo in base alle sue convinzioni e sentimenti.
Nessun LLM sarà mai niente del genere. Ad oggi i sistemi LLM non sono e non hanno capacità di ragionamento ma solo un complesso algoritmo che gli permette di ipotizzare risposte statisticamente valide con un linguaggio che simula una conversazione naturale.
Su questo, mio caro, siamo perfettamente d'accordo, ma non è il messaggio che viene passato dai guru AI alla massa, quando parlano di intelligenza artificiale generalista o generale.
Quindi questa cosa del " woke " non ha senso, per quanto mi riguarda, visto che ci sarà sempre un bias politico nell'iterazione uomo - macchina che inevitabilmente dovrà essere " metabolizzato " e riproposto dai modelli LLM.
Perché non lo è?
Drammatico se non lo fosse, perché vuol dire che abbiamo una massa di dementi in arrivo con le prossime generazioni.
Non c'è guerra in Ba Sing Se
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".