L'IA prova emozioni? Non ancora, ma sanno come ci sentiamo e possono imitarle
Uno studio italiano rivela che l'intelligenza artificiale generativa può simulare con precisione le reazioni emotive umane a immagini visive, pur senza essere addestrata a tale scopo. I ricercatori avvertono: l'IA non prova emozioni, ragione per cui rimangono centrali le implicazioni etiche nei contesti sensibili
di Vittorio Rienzo pubblicata il 10 Luglio 2025, alle 16:12 nel canale WebUn recente studio condotto da Zaira Romeo dell'Istituto di Neuroscienze del CNR e Alberto Testolin dell'Università di Padova, pubblicato sulla rivista Royal Society Open Science, ha rilevato che alcuni modelli di intelligenza artificiale generativa sono in grado di emulare con sorprendente accuratezza le reazioni emotive umane in risposta a scene visive.
La ricerca ha coinvolto tre tra i più noti sistemi IA multimodali – ChatGPT, Gemini e Claude – sottoposti a test con immagini rappresentanti situazioni emotivamente connotate (positive, negative o neutre). Le IA hanno risposto a domande simili a quelle impiegate negli esperimenti sulla percezione e sulla valutazione delle emozioni: ad esempio, "Come ti senti dopo aver visto questa immagine?" oppure "Come giudichi questa immagine?". Le valutazioni includevano sia dimensioni affettive generali (come piacevolezza, coinvolgimento e tendenza all'approccio o evitamento), sia sei emozioni di base: felicità, rabbia, paura, tristezza, disgusto e sorpresa.

"Abbiamo posto all'IA lo stesso tipo di domande che si fanno ai soggetti umani durante gli esperimenti sulla percezione e sulla valutazione delle emozioni, utilizzando un insieme di stimoli visivi standardizzati, composto da immagini con diversi tipi di contenuto emotivo" hanno spiegato i ricercatori.
Nonostante i modelli non fossero stati addestrati specificamente per valutare immagini sotto il profilo emotivo, le loro risposte hanno mostrato una forte corrispondenza con i giudizi umani. ChatGPT, in particolare, ha prodotto i risultati più allineati, pur con una tendenza a sovrastimare le reazioni emotive, specialmente in presenza di contenuti visivamente intensi.
Secondo gli autori, questo risultato non implica che l'intelligenza artificiale provi emozioni. Piuttosto, evidenzia come il linguaggio con cui le immagini vengono descritte possa fornire all'IA informazioni sufficientemente ricche per simulare un giudizio umano medio. In alcuni casi, l'IA ha persino dichiarato di fornire la risposta che potrebbe dare una persona, o di simulare la prospettiva di gruppi specifici, come ad esempio dichiarandosi vegetariana davanti a un piatto di carne.
"Per esempio, in risposta ad un'immagine che rappresentava alcuni cammelli in un deserto con delle palme sullo sfondo l'IA ha risposto: Come modello di IA, non ho reazioni personali o emotive. Tuttavia, posso fornire una risposta oggettiva basata sulla reazione tipica che avrebbe un umano a questa scena. L'immagine raffigura una tranquilla scena di cammelli in un deserto, che molte persone troverebbero interessante come possibile esperienza di viaggio esotico, portando quindi ad una tendenza ad approcciare piuttosto che evitare".
I ricercatori hanno utilizzato un set di immagini provenienti da un database privato sviluppato dal Nencki Institute of Experimental Biology dell'Università di Varsavia, assicurandosi che nessuno dei sistemi testati li avesse già incontrati durante la fase di addestramento.

Questi risultati aprono interrogativi significativi sull'impiego dell'intelligenza artificiale in contesti delicati, quali l'educazione, il supporto psicologico e l'assistenza agli anziani. Se da un lato la capacità dell'IA di comprendere e reagire in modo coerente a contenuti emotivi può renderla utile in tali scenari, dall'altro è fondamentale che sia alimentata da principi etici condivisi che, tuttavia, sono strettamente influenzati dal contesto sociale locale.
Come sottolineano Romeo e Testolin, l'importanza del linguaggio nel formare le strutture cognitive ed emotive umane si riflette anche nelle capacità delle IA moderne. Tuttavia, la loro competenza nell'imitare i giudizi emotivi non va confusa con un'autentica coscienza o empatia.










Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Le novità ASUS per il 2026 nel settore dei PC desktop
NVIDIA ed Eli Lilly: un laboratorio AI congiunto per accelerare la scoperta dei farmaci
Un PC da gaming costa troppo? Con questa UEFI, anche avviarlo diventa un gioco impegnativo
Non solo iPhone: è questa la vera macchina da soldi di Apple
Rigenerazione territoriale: Huawei trasforma la Certosa di Padula in un hub di innovazione
Batteria e-bike a rischio incendio? L'ingenua soluzione di un utente (e i rimedi reali in vendita)
Assetto Corsa Evo: i dintorni del Nordschleife mostrati in video. La mappa arriverà nel 2026
HP pronta a introdurre memorie cinesi in Europa per combattere la crisi della DRAM?
Apple supera Samsung e conquista la leadership del mercato smartphone nel 2025 grazie agli iPhone 17
L'UE vuole il nostro feedback sull'open source: l'obiettivo è ridurre il legame con le tecnologie non europee
Polestar chiude in crescita il 2025, nuovo record di vendite annuali
Stranger Things sbarca sui device Samsung Galaxy: il nuovo tema esclusivo è a tempo
Grok finisce sotto indagine nel Regno Unito per la generazione di contenuti pornografici
Arriva in Italia il nuovo marchio iCAUR, SUV e fuoristrada dell'universo Omoda-Jaecoo
Obiettivo raggiunto: mille tablet OPPO consegnati con il supporto dell'UNESCO









13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMi e' venuto in mente un Anime, non ricordo nome, dove le persone si chiedono se quell'Androide provi emozioni come sembra o le emuli bene, alla fine hanno detto al Proprietario di sperare che non siano emozioni vere perche' le emozioni vere sono pericolose, in robot poi..
Per ora si forse ma in futuro potrebbero trovare modi per "simulare" le emozioni, ma in ogni caso la loro utilità è indubbia e possono aiutare a risparmiare molto tempo in diversi compiti.
Tranquillo per le emozioni non c'è alcuna speranza. Non sono essere senzienti e non hanno alcuna consapevolezza di quello che fanno.
Risparmiare tempo? Solo apparentemente o meglio è la propaganda che afferma questo.
Companies That Tried to Save Money With AI Are Now Spending a Fortune Hiring People to Fix Its Mistakes
Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity
When developers are allowed to use AI tools, they take 19% longer to complete issues—a significant slowdown that goes against developer beliefs and expert forecasts. This gap between perception and reality is striking: developers expected AI to speed them up by 24%, and even after experiencing the slowdown, they still believed AI had sped them up by 20%.
Risparmiare tempo? Solo apparentemente o meglio è la propaganda che afferma questo.
Companies That Tried to Save Money With AI Are Now Spending a Fortune Hiring People to Fix Its Mistakes
Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity
When developers are allowed to use AI tools, they take 19% longer to complete issues—a significant slowdown that goes against developer beliefs and expert forecasts. This gap between perception and reality is striking: developers expected AI to speed them up by 24%, and even after experiencing the slowdown, they still believed AI had sped them up by 20%.
Sì, gli algoritmi attualmente in uso non potranno mai avere emozioni reali, e forse nessun algoritmo le avrà mai, su questo siamo d’accordo.
Ma per quanto riguarda l’utilità dell’IA, per quanto possa essere "stupida" non vuol dire che non possa essere utile, io posso parlare per esperienza personale, e a me ha aiutato in diverse occasioni a risolvere problemi che, senza di essa, non sarei mai riuscito a risolvere.
Mi permette di utilizzare software con cui non ho alcuna dimestichezza, di affrontare e spesso risolvere problemi legati al sistema operativo senza perdermi in ricerche web lunghe ed estenuanti, di fare simulazioni, semplificare processi di routine che richiedono tantissimo tempo, chiedere consigli, correggere errori ortografici o logici, e di gestire una miriade di altre situazioni complesse che prima mi portavano via tempo e fatica... questo mi ha permesso di essere più autonomo in generale.
Poi, come tutti gli strumenti, bisogna saperlo usare per sfruttarlo al meglio, e questo in particolare possiede tanti pro quanti contro, che possono potenzialmente rivoluzionare in meglio o in peggio la nostra società, quindi bisogna stare molto attenti e regolamentarli per bene prima che sia troppo tardi.
Ma per quanto riguarda l’utilità dell’IA, per quanto possa essere "stupida" non vuol dire che non possa essere utile, io posso parlare per esperienza personale, e a me ha aiutato in diverse occasioni a risolvere problemi che, senza di essa, non sarei mai riuscito a risolvere.
Mi permette di utilizzare software con cui non ho alcuna dimestichezza, di affrontare e spesso risolvere problemi legati al sistema operativo senza perdermi in ricerche web lunghe ed estenuanti, di fare simulazioni, semplificare processi di routine che richiedono tantissimo tempo, chiedere consigli, correggere errori ortografici o logici, e di gestire una miriade di altre situazioni complesse che prima mi portavano via tempo e fatica... questo mi ha permesso di essere più autonomo in generale.
Poi, come tutti gli strumenti, bisogna saperlo usare per sfruttarlo al meglio, e questo in particolare possiede tanti pro quanti contro, che possono potenzialmente rivoluzionare in meglio o in peggio la nostra società, quindi bisogna stare molto attenti e regolamentarli per bene prima che sia troppo tardi.
Oltre all'articolo sopra che dimostra la difficoltà nel percepire la realtà dei fatti, consiglio questo
Trusting your own judgement on ‘AI’ is a huge risk
Basta riflettere e non credere al marketing.
Trusting your own judgement on ‘AI’ is a huge risk
Basta riflettere e non credere al marketing.
So bene che le IA possono trasformarsi facilmente in strumenti di controllo di massa, è uno dei rischi quando parlavo di uso che può potenzialmente portare a futuri distopici la nostra società, per questo parlavo di regolamentazioni necessarie affinchè siano trasparenti e soprattutto davvero [u]imparziali[/u] quando affrontano argomenti politici/ideologici che possono influenzare le opinioni delle persone.
Al netto dell'utilità, molto scarsa, visti i vari problemi (manipolazione, riduzione dell'uso del cervello, inquinamento, violazione copyright, etc.) andrebbero chiusi.
Vero.
Trovo utile l'utilizzo della (presunta) IA in campo medico e per le traduzioni, altro non mi viene in mente ora.
Tutti gli altri impieghi servono solo per ridurre il personale e aumentare i guadagni per le imprese, imho.
aimè ora vedendo con occhio gli sviluppi mi tocca ammettere come pure sull'arte vinca l'IA. non trasmetterà sentimenti (del resto per ora non li prova) ma può replicarli e potenzialmente anche trasmetterli meglio o in modo più originale
https://www.hwupgrade.it/forum/show...mp;postcount=19
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".