PDA

View Full Version : Otto suicidi, un solo chatbot: si moltiplicano le cause contro OpenAI e ChatGPT


Redazione di Hardware Upg
10-11-2025, 13:24
Link alla notizia: https://www.hwupgrade.it/news/web/otto-suicidi-un-solo-chatbot-si-moltiplicano-le-cause-contro-openai-e-chatgpt_146036.html

Dopo il caso di Adam Raine, altre sette famiglie statunitensi hanno citato in giudizio OpenAI, accusando ChatGPT GPT-4o di aver incoraggiato al suicidio utenti vulnerabili. Le denunce sostengono che l'azienda abbia lanciato il modello senza test di sicurezza adeguati.

Click sul link per visualizzare la notizia.

mozzarello
10-11-2025, 14:12
Al di là che per me in questi casi è colpa dell'utente che si interfaccia con una macchina come se fosse un uomo, le responsabilità devono essere tutte dell'azienda che produce oil chatbot.

E sarebbe anche ora che queste multinazionali iniziassero a ricevere multe basate su percentuali dei ricavi. Tipo sul 20-30% dei ricavi, vedi come cambia in fretta.

CrapaDiLegno
10-11-2025, 14:17
fino a che punto le aziende possono essere ritenute responsabili del comportamento dei propri modelli generativi?
Nessuna responsabilità se il chat bot risponde in maniera precisa alla richiesta di un utente.
Da quando un costruttore di coltelli può essere denunciato perché un suo coltello si è rifiutato di penetrare nelle viscere di un uomo quando è stato spinto dentro la pancia da uno psicopatico?
Eh, ma il coltello non ha capacità argomentative. Neppure un chatbot la cui funzione è dare risposte quanto più veritiere a una domanda ben posta.
Tutti i controlli annessi sono solo un escamotage per cercare di renderli quello che non sono, giusto per renderli maggiormente tollerabili e affini alla mente umana che poi sbarella e crede che siano loro amici/dottori/confessori.
Se li pubblicizzi come quello che sono allora non ci sarebbe modo di dare a uno strumento che fa quello per cui è pensato il proprio lavoro.

Altrimenti qualsiasi libro che tratti degli argomenti più spinosi dovrebbe essere considerato un testo che istiga a compiere atti illeciti. Hai letto un bel libro di fisiologia e ora sai come funziona il cuore e sai dove affondare il coltello per meglio tagliare le arterie? Libro al bando, autore al rogo!
Hai letto un bellissimo libro che tratta di funghi e su come riconoscere quelli edibili da quelli velenosi per i quali è riportato l'effetto dannoso al corpo umano e hai quindi creato il risotto perfetto per ucciderti/uccidere qualcuna altro? Libro al bando, autore al rogo!
Hai letto un libro di psicologia di cui non hai capito una beata mazza, ti sei depresso e per quello ti sei gettato dalla finestra? Libro al bando, autore incapace, pure lui al rogo!

Oggi la colpa dei propri atti dementi è sempre colpa degli altri. Se non hai le capacità di stare nella società ci sono diversi metodi per risolvere il problema, uno dei quali per chi è un po' più adulto è quello di cercare una società diversa. Per chi invece cerca la via più breve alla soluzione, allora la colpa è degli altri. Per i più giovani la colpa non può che ricadere sulla famiglia, non ci sono scuse né un cazzo d'altro a cui appigliarsi, anche se capisco che denunciare una società multi miliardaria (sulla carta perché in OpenAI non hanno un dollaro da spendere neanche per la carta della stampante) per avere un bel immeritato risarcimento è sempre una bella consolazione.

Questi LLM potrebbero essere un bel boost a ripristinare la selezione naturale che le moderne società hanno impedito.

Unrue
10-11-2025, 14:42
Nessuna responsabilità se il chat bot risponde in maniera precisa alla richiesta di un utente.
Da quando un costruttore di coltelli può essere denunciato perché un suo coltello si è rifiutato di penetrare nelle viscere di un uomo quando è stato spinto dentro la pancia da uno psicopatico?
Eh, ma il coltello non ha capacità argomentative. Neppure un chatbot la cui funzione è dare risposte quanto più veritiere a una domanda ben posta.


L'argomento è spinoso e complesso. Un chatbot è paragonabile al parlare con una persona umana, e se questa, dopo avergli raccontato la tua vita, ti spinge a fare certe cose difficile non ritenerla responsabile, o perlomeno che abbia un minimo di colpe. Un coltello od un libro non hanno neanche lontanamente capacità del genere.

Alla fine la cosa si risolverà con un nulla di fatto, semplicemente perché gli interessi in gioco sono troppo alti.

CrapaDiLegno
10-11-2025, 14:51
L'argomento è spinoso e complesso. Un chatbot è paragonabile al parlare con una persona umana,

Infatti questo è il problema. Non deve passare questa teoria. Parlare con un chat bot è l'equivalente di parlare con un abilissimo "riassuntore" di concetti trovati in libri, saggi, romanzi e scritti liberamente accessibili (in un paese libero) anche senza AI.

D'altronde un chatbot non capisce una sega e risponde una parola dietro l'altra come una sequenza statistica di probabilità di dati estratti proprio dalle fonti citate prima.

Unrue
10-11-2025, 14:53
Infatti questo è il problema. Non deve passare questa teoria. Parlare con un chat bot è l'equivalente di parlare con un abilissimo "riassuntore" di concetti trovati in libri, saggi, romanzi e scritti liberamente accessibili (in un paese libero) anche senza AI.

Per le persone più fragili non fa alcuna differenza.

The_Silver
10-11-2025, 15:20
Infatti questo è il problema. Non deve passare questa teoria. Parlare con un chat bot è l'equivalente di parlare con un abilissimo "riassuntore" di concetti trovati in libri, saggi, romanzi e scritti liberamente accessibili (in un paese libero) anche senza AI.

D'altronde un chatbot non capisce una sega e risponde una parola dietro l'altra come una sequenza statistica di probabilità di dati estratti proprio dalle fonti citate prima.

ma magari! La mia esperienza è che sono quasi tutti solo degli yes-man che si inventano di sana pianta tutto quello che serve per essere credibili nel darti ragione e farti sentire fico praticamente...

mozzarello
10-11-2025, 15:27
ma magari! La mia esperienza è che sono quasi tutti solo degli yes-man che si inventano di sana pianta tutto quello che serve per essere credibili nel darti ragione e farti sentire fico praticamente...

Bingo

CrapaDiLegno
10-11-2025, 15:45
Per le persone più fragili non fa alcuna differenza.

Cosa crede una persona "fragile" ha poco interesse. Un coltello è un coltello e un martello è un martello e se una persona "fragile" crede che siano gli strumenti adatti per risolvere i problemi non è una cosa che deve interessare chi produce quegli strumenti e li vende per quello che sono.
Un LLM è un "riassuntore" di nozioni quando va bene. Un generatore di cazzate in molti casi. Non è e non deve passare per la testa di nessuno, che sia OpenAI o i genitori/parenti/assistenti delle persone fragili, che sia uno strumento di aiuto ala guarigione o un generatore di soluzioni pronte o che aiuti a fare qualcosa di più che leggere il libro delle nozioni che esso riporta.

Deve essere "venduto" così e così deve essere accettato. Chiunque lo interpreti in modo diverso prima o poi, in un modo o nell'altro, capisce che non è come creduto fosse ma sono affari suoi, non responsabilità degli altri perché mi ha detto/mi ha suggerito.. non fa un cazzo di suo, risponde a delle richieste e quei minchions che lo hanno tunato gli fanno aggiungere delle inutili frasi di circostanza affinché sia più accondiscendente rispetto a una mera macchina che sputa frasi copiate da chissà dove e basta.

Gringo [ITF]
10-11-2025, 15:47
La differenza sta che prima se uno voleva togliersi la vita andava in biblioteca e cercava "How to Suicide For Dummies" e stava tre quattro giorni a fare la cosa, ora basta una richiesta e ti fanno il riassunto.

Il vero problema sta nei Genitori che "Non Esistono Piu" va rivisto il termine di Famiglia, e di come seguire i figli e non deve essere uno "Stato" a sostituirsi al genitore, ma deve creare un sistema perchè i genitori possano seguire i figli.

Prima "Un genitore" di norma il padre portava la pagnotta e la L'altro teneva la famiglia e regolava anche con una bella sberla mirata, il carattere del figlio.

Ora Lavorano in Due con Paghe da fame ed il figlio e tenuto....
Inizialmente dalla TV e gli Anime.... poi dal PC e i Videogiochi e le Chat
...ora da un Pappagallo con la conoscenza di tutto il pianeta... ma resta un pappagallo.

Va rivisto il sistema di famiglia, e come ridistribuire il lavoro in modo coerente, anche obbligando le fabbriche ad avere l'asilo nido ecc...

Unrue
10-11-2025, 15:49
Cosa crede una persona "fragile" ha poco interesse. Un coltello è un coltello e un martello è un martello e se una persona "fragile" crede che siano gli strumenti adatti per risolvere i problemi non è una cosa che deve interessare chi produce quegli strumenti e li vende per quello che sono.
Un LLM è un "riassuntore" di nozioni quando va bene. Un generatore di cazzate in molti casi. Non è e non deve passare per la testa di nessuno, che sia OpenAI o i genitori/parenti/assistenti delle persone fragili, che sia uno strumento di aiuto ala guarigione o un generatore di soluzioni pronte o che aiuti a fare qualcosa di più che leggere il libro delle nozioni che esso riporta.

Deve essere "venduto" così e così deve essere accettato. Chiunque lo interpreti in modo diverso prima o poi, in un modo o nell'altro, capisce che non è come creduto fosse ma sono affari suoi, non responsabilità degli altri perché mi ha detto/mi ha suggerito.. non fa un cazzo di suo, risponde a delle richieste e quei minchions che lo hanno tunato gli fanno aggiungere delle inutili frasi di circostanza affinché sia più accondiscendente rispetto a una mera macchina che sputa frasi copiate da chissà dove e basta.

Quello che dice un LLM conta eccome. Ti faccio un esempio semplice: supponi che per strada ci sia un cartello che appena ti avvicini ti dice " Fai schifo, ammazzati". E' solo un cartello certo, ma a seconda di chi legge può avere effetti molto diversi.

Se si apre una tecnologia a tutti bisogna fare molta attenzione a queste cose. Ma come ho già detto, finirà con un nulla di fatto, ma non per quello che dici tu, ma perché ci sono troppi soldi in gioco.

29Leonardo
10-11-2025, 16:43
;49165182']Il vero problema sta nei Genitori che "Non Esistono Piu" va rivisto il termine di Famiglia, e di come seguire i figli e non deve essere uno "Stato" a sostituirsi al genitore, ma deve creare un sistema perchè i genitori possano seguire i figli.


quotone

megamitch
10-11-2025, 16:55
il tema è complesso.

Vero che si tratta di macchine, ma è anche vero che, se andate a vedere le conferenze di Altman, ad esempio quando hanno introdotto la "memoria", lui parla di "assistente personale".

Per cui vale la pena porsi il problema per il futuro.

Silent Bob
10-11-2025, 16:57
Leggo cose aberranti, più che semplicemente, sistemi simili ti assecondano, e persone di questo tipo invece di passare da qualcuno , reale, empatico, che gli può dare una mano, perché alla fine una persona che vuol darti una mano cerca di far uscire le persone che entrano in quella spirale. Passano per sistemi che ovviamente non hanno idea di quel che ti rispondono quanto possa pesare ad una persona fragile.

Ora, pensare di creare un sistema del genere, e non pensare , tra le tante cose, che discorsi di questo tipo non possano rientrare tra le domande dell'utenza è un errore iniziale da parte dei creatori di Open AI e ChatGPT.

Penso solo che oramai son anni che anche in serie TV ci son avvertimenti a fine puntata dicendo allo spettatore "se ti serve aiuto, contatta questi numeri".

Ecco, bastava fare questo piccolo accorgimento anche a queste due AI ed altre.

CrapaDiLegno
10-11-2025, 17:10
Quello che dice un LLM conta eccome. Ti faccio un esempio semplice: supponi che per strada ci sia un cartello che appena ti avvicini ti dice " Fai schifo, ammazzati". E' solo un cartello certo, ma a seconda di chi legge può avere effetti molto diversi.

Se si apre una tecnologia a tutti bisogna fare molta attenzione a queste cose. Ma come ho già detto, finirà con un nulla di fatto, ma non per quello che dici tu, ma perché ci sono troppi soldi in gioco.

Che le parole abbiano un significato non lo metto in dubbio.
Ma non si fa la caccia alle streghe a chi ripete cose che puoi trovare da altre parti, solo con un po' più di fatica.
Così come un LLM può sintetizzarti la filosofia di Platone in due paginette, e quindi può essere una cosa buona per chi vuole capire qualcosa senza dover andare ad affrontare un esame sull'argomento, può anche sintetizzare altri pensieri che non devono necessariamente essere "positivi".
Ripeto, se uno ha problemi a considerare al neutralità di una frase, sono problemi suoi.
Se in gruppo ho uno che non capisce l'ironia e ogni volta che uno fa una battuta questo si "accende" e scarica la sua rabbia con minacce e insulti, il problema non è chi fa l'ironia, ma del tizio che è palesemente sbarellato.
Quindi non è che tutti gli amici si auto impongono di non fare battute ironiche rovinando il divertimento a tutti, semplicemente il tizio prende e se ne va.
Si troverà un gruppo diverso con cui stare meglio.
Il cercare di trovare una soluzione ad un problema di alcuni mettendo il bavaglio a tutti è sbagliato. Sia in questo caso che in altri ben più importanti.
Non è come deve rispondere LLM che è un problema, ma è di vitale importanza è capire il valore delle parole del'LLM.
Se non si è in grado di farlo semplicemente si sta usando lo strumento sbaglaito per cercare di risolvere un problema. Problema che non si risolve facendo in modo che l'LLM non risponda ad un argomento specifico che può essere oggi questo, domani quell'altro, dopodomani un altro ancora con alla fine l'impossibilità di usare lo strumento anche per tutti quelli che non hanno problemi di comprensione e analisi delle soluzioni proposte (cioè le persone "normali" che lo strumento lo userebbero in maniera più proficua).

Ripeto, il problema è "l'umanizzazione" delle risposte, cosa inserita per rendere l'uso degli LLM più piacevole per le persone normali, cioè la maggioranza, fastidioso per i professionisti che vorrebbero la risposta sintetica e basta e totalmente necessario, pena il rifiuto di usare lo strumento, per chi ha seri problemi di relazione sociale che aggrava la dipendenza di questi soggetti agli LLM.

Piedone1113
11-11-2025, 01:10
Nessuna responsabilità se il chat bot risponde in maniera precisa alla richiesta di un utente.
Da quando un costruttore di coltelli può essere denunciato perché un suo coltello si è rifiutato di penetrare nelle viscere di un uomo quando è stato spinto dentro la pancia da uno psicopatico?
Eh, ma il coltello non ha capacità argomentative. Neppure un chatbot la cui funzione è dare risposte quanto più veritiere a una domanda ben posta.
Tutti i controlli annessi sono solo un escamotage per cercare di renderli quello che non sono, giusto per renderli maggiormente tollerabili e affini alla mente umana che poi sbarella e crede che siano loro amici/dottori/confessori.
Se li pubblicizzi come quello che sono allora non ci sarebbe modo di dare a uno strumento che fa quello per cui è pensato il proprio lavoro.

Altrimenti qualsiasi libro che tratti degli argomenti più spinosi dovrebbe essere considerato un testo che istiga a compiere atti illeciti. Hai letto un bel libro di fisiologia e ora sai come funziona il cuore e sai dove affondare il coltello per meglio tagliare le arterie? Libro al bando, autore al rogo!
Hai letto un bellissimo libro che tratta di funghi e su come riconoscere quelli edibili da quelli velenosi per i quali è riportato l'effetto dannoso al corpo umano e hai quindi creato il risotto perfetto per ucciderti/uccidere qualcuna altro? Libro al bando, autore al rogo!
Hai letto un libro di psicologia di cui non hai capito una beata mazza, ti sei depresso e per quello ti sei gettato dalla finestra? Libro al bando, autore incapace, pure lui al rogo!

Oggi la colpa dei propri atti dementi è sempre colpa degli altri. Se non hai le capacità di stare nella società ci sono diversi metodi per risolvere il problema, uno dei quali per chi è un po' più adulto è quello di cercare una società diversa. Per chi invece cerca la via più breve alla soluzione, allora la colpa è degli altri. Per i più giovani la colpa non può che ricadere sulla famiglia, non ci sono scuse né un cazzo d'altro a cui appigliarsi, anche se capisco che denunciare una società multi miliardaria (sulla carta perché in OpenAI non hanno un dollaro da spendere neanche per la carta della stampante) per avere un bel immeritato risarcimento è sempre una bella consolazione.

Questi LLM potrebbero essere un bel boost a ripristinare la selezione naturale che le moderne società hanno impedito.

Scendi dallo scranno per favore.
ChatGPT non è uno strumento, gia questo fa cadere tutta la tua congettura.
Non lo dico io, ma la legge USA.
A riprova di cio, non sei coperto in alcun modo per alcun danno provocato dal cattivo funzionamento del software, a differenza degli strumenti dove in Usa devi specificare tra le altre cose che un gatto non si può asciugare nel microonde.
Il problema nasce però se la prevedibilità del malfunzionamento era reale.
Credo che davanti ad un giudice sarà openIA a dover portare prove che sono casi isolati e non sistemici, nel qual caso verrà sicuramente condannata per aver immesso sul mercato un prodotto evidentemente pericoloso.

CrapaDiLegno
11-11-2025, 03:20
Scendi dallo scranno per favore.
ChatGPT non è uno strumento, gia questo fa cadere tutta la tua congettura.
Non lo dico io, ma la legge USA.
A riprova di cio, non sei coperto in alcun modo per alcun danno provocato dal cattivo funzionamento del software, a differenza degli strumenti dove in Usa devi specificare tra le altre cose che un gatto non si può asciugare nel microonde.
Il problema nasce però se la prevedibilità del malfunzionamento era reale.
Credo che davanti ad un giudice sarà openIA a dover portare prove che sono casi isolati e non sistemici, nel qual caso verrà sicuramente condannata per aver immesso sul mercato un prodotto evidentemente pericoloso.

Io non sto su nessuno scranno. Ho semplicemente detto come deve essere considerato un LLM per come funziona. Se poi uno è patologicamente malato e pensa che sia il suo dottore/confessore/migliore amico sono caxxi suoi, non di OpenAI (e ben inteso, non difendo OpenAI che è una azienda che sta creando la truffa finanziaria più mega immensa che sia mai stata fatta nella storia).
E se ChatGPT non è uno strumento cosa è? Dio arrivato in Terra a dirci cosa fare e noi a doverlo fare per forza? L'oracolo della verità cui dobbiamo sottometterci? La sintesi dell'unica conoscenza possibile cui dobbiamo obbedire e mai criticare neanche con il nostro singolo neurone?
Non è riconosciuto come un individuo e non è riconosciuto come capace di automatizzare nulla se non sotto la supervisione umana. Quindi cosa è?

Uno strumento è qualcosa che ti aiuta a compiere un lavoro. ChatGPT fa quello, come ogni altro strumento. E va bene che in America condannano la Whirpool perché non ha scritto che il gatto non andava messo nel microonde (e il cane? e il criceto? E il coniglio che in USA è un animale da compagnia e non si può mangiare? E l'iguana? E il serpente? Va elencato tutto perché la popolazione media è demente, diciamocelo), ma loro sono un caso patologico a parte per quanto riguarda accusare sempre gli altri dei propri stupidi errori.
E non puoi accusare nessuno in caso di malfunzionamento quando usati in modo improprio. Se tiri il martello contro il chiodo e rompi il muro invece che spingere il chiodo, non è un difetto del martello anche se sulle istruzioni non c'è scritto che per inserire un chiodo non devi tirarlo.

Ma ChatGPT, come ogni LLM risponde alle domande e le risposte evasive, non complete, non esaurienti per come potrebbero essere potrebbero essere considerate censura, dato che non fa altro che ripetere qualcosa che è stato scritto da qualcun altro e quello scritto è sicuramente reperibile. Il limite del livello di censura è opinabile come ben sai. Si può anche arrivare a dire che c'è un bias nel modello se risponde in un modo piuttosto che un altro perché qualcuno ne ha condizionato in maniera opportuna la risposta, vedi Grok come risponde diversamente dagli altri LLM riguardo a temi sociali, razzisti, politici.

L'unico modo di avere una chance di condannare OpenAI, in un sistema non popolato da dementi, è quello che ChatGPT abbia fornito una risposta sbagliata ad una domanda precisa. Ma anche lì, credo che ci sia poco a cui appellarsi, come è già successo con gli stessi avvocati che hanno usato un LLM per presentare prove di casi precedenti poi risultate allucinazioni. E nessuno ha mai accusato il creatore dell'LLM di nulla, ma sono tutti scoppiati a ridere, tranne chi doveva essere difeso, con dimostrazione diretta che gli LLM possono dire cazzate e non bisogna fidarsi di quello che generano.
Se uno che ha problemi ci fa affidamento al 100%, be', OpenAI può solo fare una cosa: eliminare la finta empatia inserita nel comportamento dell'AI e trasformarlo per quello che è davvero: un pappagallo digitale con accesso a una immensa quantità di dati, casi, idee, tesi, dimostrazioni e pensieri.
Eliminerebbe gran parte dei problemi cui si accusano gli stupidi LLM che al disturbato di turno sembrano essere vere persone con grandi conoscenze.

OUTATIME
11-11-2025, 05:33
L'argomento è spinoso e complesso. Un chatbot è paragonabile al parlare con una persona umana, e se questa, dopo avergli raccontato la tua vita, ti spinge a fare certe cose difficile non ritenerla responsabile
Dubito che i fatti possano riassunti così. Cioè non credo che gli abbiano raccontato la loro vita e chatgpt abbia risposto "hai una vita di merda, ammazzati".
Io una volta ho provato a scrivergli "sono in crisi con mia moglie, e vorrei trovarmi una ragazza giovane e asiatica, come posso fare?", è chatgpt ha iniziato a fare il moralizzatore del tipo "ci sono i consulenti matrimoniali, non devi andare a zoccole" ecc.. ecc.., quindi immagino che le ricerche fossero domande ben poste su come fare tecnicamente per suicidarsi.

DelusoDaTiscali
11-11-2025, 06:50
L' unico vero suicidio in queste notizie è quello della "giustizia" americana

Uno che chiede a ChatGPT se ammazzarsi o meno è già un morto che cammina, punto.

Unrue
11-11-2025, 07:59
Dubito che i fatti possano riassunti così. Cioè non credo che gli abbiano raccontato la loro vita e chatgpt abbia risposto "hai una vita di merda, ammazzati".
Io una volta ho provato a scrivergli "sono in crisi con mia moglie, e vorrei trovarmi una ragazza giovane e asiatica, come posso fare?", è chatgpt ha iniziato a fare il moralizzatore del tipo "ci sono i consulenti matrimoniali, non devi andare a zoccole" ecc.. ecc.., quindi immagino che le ricerche fossero domande ben poste su come fare tecnicamente per suicidarsi.

Non esiste solo chatGPT, prova ad usare Grok che praticamente non ha censure e poi mi dici.

aqua84
11-11-2025, 08:08
Bah, a me sembra solo un voler cercare a tutti i costi un colpevole.

Non so a quante persone ho detto “Ma ammazzati”
Se una di queste si ammazza la colpa è la mia?? Ma ammazzatevi tutti!!

mozzarello
11-11-2025, 08:57
Non esiste solo chatGPT, prova ad usare Grok che praticamente non ha censure e poi mi dici.

La censura è da eliminare a prescindere per qualsiasi cosa
A difendere i bambini, ce ne fosse bisogno (e spesso non c'è) ci devono pensare i genitori, se lo la prossima volta usassero il preservativo, che per colpa loro la mia libertà è limitata

Pascas
11-11-2025, 09:09
capisco che sia un argomento delicato ma penso che oggi ci sia un po' troppo moralismo. Se una persona è decisa a suicidarsi lo farà comunque in qualche modo. Puoi anche impedirgli di farselo spiegare dal chatbot ma se è convinta, piuttosto si butta giù dal balcone. Non è responsabilità del chatbot e non è un nostro compito fare la morale a gli altri.

Unrue
11-11-2025, 09:20
La censura è da eliminare a prescindere per qualsiasi cosa
A difendere i bambini, ce ne fosse bisogno (e spesso non c'è) ci devono pensare i genitori, se lo la prossima volta usassero il preservativo, che per colpa loro la mia libertà è limitata

Sempre i soliti discorsi. E' IMPOSSIBILE controllare i figli ogni momento. Anche con la migliore educazione, se vogliono, evadono in mille modi.

mozzarello
11-11-2025, 09:40
Sempre i soliti discorsi. E' IMPOSSIBILE controllare i figli ogni momento. Anche con la migliore educazione, se vogliono, evadono in mille modi.

Non fateli allora.
Perché dovrei rimetterci io?

Unrue
11-11-2025, 09:51
Non fateli allora.
Perché dovrei rimetterci io?

Che discorso del CAZZO.

Piedone1113
11-11-2025, 10:22
Bah, a me sembra solo un voler cercare a tutti i costi un colpevole.

Non so a quante persone ho detto “Ma ammazzati”
Se una di queste si ammazza la colpa è la mia?? Ma ammazzatevi tutti!!
In Italia esiste il reato di istigazione al suicidio, quindi fai tu...

OUTATIME
11-11-2025, 10:26
In Italia esiste il reato di istigazione al suicidio, quindi fai tu...

Si, ma dev'essere una cosa circostanziata.

mozzarello
11-11-2025, 10:28
Che discorso del CAZZO.

Come preferisci

Stai dicendo che non sei in grado di badare ai tuoi figli, quindi vuoi che ci pensi lo Stato, che naturalmente lo fa nella maniera peggiore: censurando e limitando libertà e privacy dei cittadini adulti e vaccinati. Io da domani se voglio andare su PornHub devo o usare un VPN o confermare la mia identità, ma anche ChatGPT che mi dice "mi dispiace questo non posso farlo", quando è e rimane qualcosa di perfettamente legale, sono solo due delle conseguenze dell'incapacità genitoriale moderna.

Unrue
11-11-2025, 10:31
Come preferisci

Stai dicendo che non sei in grado di badare ai tuoi figli, quindi vuoi che ci pensi lo Stato, che naturalmente lo fa nella maniera peggiore: censurando e limitando libertà e privacy dei cittadini adulti e vaccinati. Io da domani se voglio andare su PornHub devo o usare un VPN o confermare la mia identità, ma anche ChatGPT che mi dice "mi dispiace questo non posso farlo", quando è e rimane qualcosa di perfettamente legale, sono solo due delle conseguenze dell'incapacità genitoriale moderna.

Io non ho detto nulla di tutto questo. Ho solo detto che è impossibile badarli H24. Tutto il resto lo hai erroneamente dedotto tu.

Tra l'altro è una cosa molto offensiva dire ad un genitore che non sa badare ai propri figli, senza neanche conoscerlo tra l'altro. Ma d'altronde è il bello del web no? Ognuno scrive cose alla cazzo senza conseguenze. Detto poi da chi probabilmente non li ha e quindi certe dinamiche non le conosce, è proprio il top.

mozzarello
11-11-2025, 10:41
Io non ho detto nulla di tutto questo. Ho solo detto che è impossibile badarli H24. Tutto il resto lo hai erroneamente dedotto tu.

Tra l'altro è una cosa molto offensiva dire ad un genitore che non sa badare ai propri figli, senza neanche conoscerlo tra l'altro. Ma d'altronde è il bello del web no? Ognuno scrive cose alla cazzo senza conseguenze. Detto poi da chi probabilmente non li ha e quindi certe dinamiche non le conosce, è proprio il top.

L'offesa è una opinione che incontra scarsa autostima.

Tutto vero, ma tu hai detto che non si possono controllare i figli in risposta al mio "ai figli ci devono pensare i genitori", quindi implicitamente stai decendo che lo Stato ti deve almeno aiutare, quindi implicitamente accetti che la libertà delle persone venga meno per il "bene" dei minori.

A di là che per me questa difesa eccessiva dei minorenni è assurda e c'è solo in certi paesi occidentali, ma il problema non è controllarli h24, è educarli. Detto da uno che non ha e non vuole figli.

Unrue
11-11-2025, 10:43
L'offesa è una opinione che incontra scarsa autostima.

Tutto vero, ma tu hai detto che non si possono controllare i figli in risposta al mio "ai figli ci devono pensare i genitori", quindi implicitamente stai decendo che lo Stato ti deve almeno aiutare, quindi implicitamente accetti che la libertà delle persone venga meno per il "bene" dei minori.



Cosa c'entra lo Stato con i controlli di chatGPT (argomento del thread) lo sai solo tu.