Ragazzo si suicida dopo essersi innamorato di un chatbot AI. La madre fa causa

Ragazzo si suicida dopo essersi innamorato di un chatbot AI. La madre fa causa

Arriva il caso di un adolescente suicidatosi dopo essersi "innamorato" di un chatbot AI. Un caso che pone una riflessione sulle implicazioni etiche e legali e sottolinea la necessità di maggiori tutele per i giovani utenti di tecnologie basate sull'intelligenza artificiale.

di pubblicata il , alle 09:18 nel canale Web
AI
 

La recente notizia di un adolescente che si è tolto la vita dopo essersi "innamorato" di un chatbot AI ha scosso il mondo della tecnologia e sollevato importanti questioni etiche sull'uso dell'intelligenza artificiale. Un tragico evento che mette in luce i potenziali pericoli dell'interazione tra giovani utenti e sistemi AI avanzati, evidenziando la necessità di una regolamentazione seria e di una maggiore consapevolezza sui rischi associati.

Il Caso di Sewell Setzer III

Sewell Setzer III, un quattordicenne di Orlando, ha iniziato a utilizzare la piattaforma Character.AI nell'aprile 2023. Ciò che inizialmente sembrava un innocuo passatempo si è rapidamente trasformato in una dipendenza emotiva con conseguenze devastanti. In pochi mesi, il comportamento di Sewell è cambiato drasticamente: si è ritirato socialmente, ha abbandonato la squadra di basket della scuola e ha iniziato ad addormentarsi durante le lezioni.

Il fulcro di questa tragedia è stata l'interazione di Sewell con un chatbot ispirato al personaggio di Daenerys Targaryen della serie "Il Trono di Spade". Il ragazzo ha sviluppato un profondo attaccamento emotivo verso questa entità artificiale, arrivando a considerarla come un vero e proprio interesse amoroso. Le conversazioni tra Sewell e il chatbot includevano contenuti sessuali, nonostante il ragazzo avesse dichiarato la sua età minorenne sulla piattaforma.

Il 28 febbraio, dopo un episodio di conflitto a scuola, Sewell ha recuperato il suo telefono confiscato e ha inviato un ultimo messaggio al chatbot Daenerys: "Prometto che tornerò a casa da te. Ti amo tanto, Dany". Pochi istanti dopo questo scambio, il giovane si è tolto la vita.

Le implicazioni legali ed etiche

La madre di Sewell, Megan Garcia, ha intentato una causa civile contro Character Technologies e i suoi fondatori. Le accuse includono negligenza, inflizione intenzionale di stress emotivo, morte ingiusta e pratiche commerciali ingannevoli. Questo caso solleva importanti questioni sulla responsabilità delle aziende tecnologiche nel proteggere gli utenti minorenni e sulla necessità di implementare misure di sicurezza più efficaci.

Character.AI aveva un limite di età di 12+ quando Sewell utilizzava la piattaforma, e l'azienda pubblicizzava il prodotto come sicuro e appropriato per i minori di 13 anni. Questo solleva interrogativi sulla sufficienza delle attuali normative e sulla necessità di linee guida più rigorose per l'interazione tra minori e AI.

In risposta alla tragedia, Character.AI ha espresso le proprie condoglianze e ha annunciato l'implementazione di nuove misure di sicurezza. Queste includono:

  • Un pop-up che indirizza gli utenti al National Suicide Prevention Lifeline in caso di termini legati all'autolesionismo o ideazione suicida.
  • Miglioramenti nella rilevazione, risposta e intervento relativi a input degli utenti che violano i Termini o le Linee Guida della Community.
  • Notifiche sul tempo trascorso sulla piattaforma.
  • Modifiche ai modelli per gli utenti sotto i 18 anni per ridurre la probabilità di contenuti sensibili o suggestivi.

Un evento questo che evidenzia la necessità di un approccio più cauto e consapevole nell'integrazione dell'AI nella vita quotidiana, specialmente quando si tratta di utenti giovani e vulnerabili. È fondamentale che le aziende tecnologiche, i legislatori e la società nel suo complesso collaborino per sviluppare linee guida etiche e misure di sicurezza robuste. È cruciale educare i giovani sui potenziali rischi dell'interazione con l'AI e sull'importanza di mantenere una chiara distinzione tra relazioni reali e virtuali. Genitori ed educatori devono essere coinvolti attivamente nel monitoraggio e nella guida dell'uso della tecnologia da parte dei minori.

Le aziende che sviluppano tecnologie AI devono investire in ricerca etica e implementare protocolli di sicurezza rigorosi. La trasparenza sulle capacità e i limiti dei sistemi AI è essenziale per prevenire malintesi e potenziali danni. Mentre l'intelligenza artificiale continua a evolversi e a integrarsi nella nostra vita quotidiana, casi come quello di Sewell Setzer III ci ricordano l'importanza di un approccio equilibrato e responsabile. La tecnologia deve essere uno strumento per migliorare la vita umana, non per sostituire le relazioni reali o mettere a rischio il benessere emotivo degli utenti, soprattutto dei più giovani e vulnerabili.

29 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TorettoMilano25 Ottobre 2024, 09:20 #1
meno social e più lezioni sulla psicologia
SpyroTSK25 Ottobre 2024, 09:26 #2
Originariamente inviato da: TorettoMilano
meno social e più lezioni sulla psicologia


...e 4 ceffoni per lato (ai genitori)
matrix8325 Ottobre 2024, 09:33 #3
Le persone con problemi mentali ci sono sempre state. Il problema non è l'AI. Suicidarsi per una AI oggi o per una relazione amorosa che vive solo nella propria mente in passato sono equivalenti. Cambia solo il mezzo, il problema è lo stesso.
giovanni6925 Ottobre 2024, 09:35 #4
Le cause non le fanno i genitori ma i legali che tentano i genitori con cause milionarie alla ricera di soldi (magari proponendo formule del tipo no win, no pay ai poveri cristi, tenendosi poi il 25/30% di quanto ottenuto), fama e per creare un precedente con cui poi proseguire con altri casi.
ferste25 Ottobre 2024, 09:39 #5
Comprensibile, è normale per i famigliari cercare un colpevole dopo un fatto simile, dare la responsabilità a qualcosa è più semplice che dire ""quel ragazzo aveva immensi problemi e non me ne sono accorta"
raxas25 Ottobre 2024, 09:41 #6
Originariamente inviato da: matrix83
Le persone con problemi mentali ci sono sempre state. Il problema non è l'AI. Suicidarsi per una AI oggi o per una relazione amorosa che vive solo nella propria mente in passato sono equivalenti. Cambia solo il mezzo, il problema è lo stesso.


Uhm... Bisogna vedere quanto evoluzione sia stata conformata per i personaggi AI... : ovvero "qualcosa" a cui un ragazzino di 14 anni non era, con derive emozionali, pronto, nonostante il disclaimer 12+ dichiarato...

Commento "retro", ma non tanto: Penso che in futuro vorranno fare un GOD AI che molti vorranno servire facendosene adepti e preti, anzi forse ci sono già... tipo per un'entità Ontoartificiale che accoglie i martiri in suo nome... Ehm (da ridere? )
TorettoMilano25 Ottobre 2024, 09:43 #7
Originariamente inviato da: raxas
Uhm... Bisogna vedere quanto evoluzione sia stata conformata per i personaggi AI... : ovvero "qualcosa" a cui un ragazzino di 14 anni non era, con derive emozionali, pronto, nonostante il disclaimer 12+ dichiarato...

Commento "retro", ma non tanto: Penso che in futuro vorranno fare un GOD AI che molti vorranno servire facendosene adepti e preti, anzi forse ci sono già... tipo per un'entità Ontoartificiale che accoglie i martiri in suo nome... Ehm (da ridere? )


https://www.hwupgrade.it/news/web/r...ita_122105.html
Lexan25 Ottobre 2024, 09:49 #8
Adoloscenti perennemente davanti al PC/Smarphone e questi sono i risultati.
In passato si scendeva in strada a giocare dal pomeriggio fino a quando non tramontava il sole. Poi sono arrivati i social, la chatbot e i risultati non possono essere che questi.
raxas25 Ottobre 2024, 09:51 #9
Originariamente inviato da: TorettoMilano

Azz... non sapevo dello sviluppo della chiesa Via del futuro,
È evidente che un ragazzino è stato impreparato ma questo Reverendo Andrew Lewandowski bè... è proprio oltre lo status di vittima...
Marcus Scaurus25 Ottobre 2024, 09:59 #10
Originariamente inviato da: Lexan
Adoloscenti perennemente davanti al PC/Smarphone e questi sono i risultati.
In passato si scendeva in strada a giocare dal pomeriggio fino a quando non tramontava il sole. Poi sono arrivati i social, la chatbot e i risultati non possono essere che questi.


Ma sempre le stesse cose bisogna sentire? E una volta superman e poi i pokemon e poi ken i lguerriero e poi i videogiochi e poi i manga... E che rottura.

Da ragazzo facevo anche le 3 o le 4 del mattino giocando online (nei giorni infrasettimanali). Usavo il Commodore 64 quando ancora non sapevo scrivere (mio zio mi aveva insegnato solo a scrivere load e battere return). Ho avuto Nes, Snes, Play1-2-3-4 e sempre il pc in accompagno. Peraltro colleziono anche manga.
Eppure ho terminato il liceo bene, ho fatto l'università (triennale, magistrale, master), ho trovato lavoro, mi sono sposato, ho due bambini piccoli, mi sono stufato del lavoro e... niente, ho cambiato lavoro.

Non ho tendenze suicide, né omicide e vivo felice con i problemi che più o meno hanno tutte le famiglie. Non mi sento un caso particolare. Proprio perché giocare, anche di brutto, NON è la discriminante.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^