Gemini, Google investe 30 milioni per la salute mentale degli utenti

Gemini, Google investe 30 milioni per la salute mentale degli utenti

Google annuncia una serie di aggiornamenti per Gemini focalizzati sulla salute mentale e la sicurezza degli utenti. Tra investimenti milionari e nuove interfacce di emergenza, Big G punta a trasformare l'AI in un ponte verso il supporto umano qualificato

di pubblicata il , alle 16:01 nel canale Web
GoogleGemini
 

Google ha rimosso i veli su un aggiornamento di Gemini, mirato a trasformare il chatbot in uno strumento di orientamento più sicuro ed efficace per chi attraversa momenti di disagio psicologico. L'iniziativa si concretizza attraverso un impegno finanziario massiccio: 30 milioni di dollari erogati tramite Google.org nel prossimo triennio per sostenere le linee di assistenza globali.

Con questa novità, Google intende evitare che l'intelligenza artificiale tenti di sostituirsi alla terapia, agendo invece come un catalizzatore per l'accesso immediato a risorse professionali reali. Quando i protocolli di sicurezza di Gemini rilevano input che indicano una potenziale crisi legata al suicidio o all'autolesionismo, il sistema attiva un modulo riprogettato denominato "Puoi chiedere aiuto", basata su un'interfaccia "one-touch" semplificata che permette all'utente di connettersi istantaneamente con le linee di emergenza senza ulteriori passaggi.

Gemini e la gestione delle crisi: un ponte verso il supporto umano

Questa opzione di contatto professionale rimane ancorata e visibile per tutta la durata della sessione, garantendo che il supporto rimanga a portata di clic anche se la conversazione prosegue su altri binari. Il supporto di Big G si estende ulteriormente attraverso una partnership rafforzata con ReflexAI, che vede l'iniezione di 4 milioni di dollari e l'integrazione diretta di Gemini nella suite di formazione dell'organizzazione. I Google.org Fellows collaboreranno pro bono allo sviluppo di Prepare, una piattaforma che sfrutta simulazioni basate sull'IA per addestrare staff e volontari. Attraverso scenari realistici e interattivi, chi opera nel terzo settore può affinare le proprie capacità nel gestire conversazioni delicate, migliorando la reattività del supporto umano grazie all'addestramento computazionale.

Sotto il profilo ingegneristico, i team di sicurezza hanno implementato restrizioni rigorose sulla "personalità" del modello. Per prevenire la formazione di legami parassociali o dipendenze emotive, Gemini è stato addestrato per evitare sistematicamente di presentarsi come un essere umano o un compagno fidato. Le nuove regole impediscono all'IA di affermare di possedere attributi umani, bisogni personali o di utilizzare un linguaggio che simuli intimità.

Questi vincoli sono particolarmente severi per gli utenti minorenni. Il sistema è progettato per non assecondare convinzioni errate o impulsi dannosi, mantenendo un ancoraggio costante alla realtà oggettiva. Le risposte sono strutturate per scoraggiare comportamenti autolesionistici, evitando qualsiasi forma di convalida di pensieri pericolosi. In sostanza, Google sta depotenziando deliberatamente l'illusione di empatia dell'IA per dare priorità alla sicurezza clinica e alla protezione dal bullismo e dalle molestie. Il messaggio è chiaro: Gemini non è, e non deve essere, un sostituto della terapia professionale.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^