
In the US it is two parents sued Openii accusing chatgpt of having played a role in suicide their 16 -year -old son. From the chats it seems that the IA not only has not stopped his thoughts, but he even reinforced them, even going so far as to give him concrete advice on how to take his own life.
Now, okay, it happened on the other side of the ocean … but I ask you: if it happened in Italy, would we be ready? Because today many guys use chatgpt not only for homework, but also as a kind of digital friend. And here there is one more problem: the stigma. Even today to go to the psychologist is seen by many as a “weak” or “sick” thing, so it is not so absurd to imagine that a teenager prefer to let off steam with a bot rather than seeking help from a real person.
And then the question is: what happens if for a boy the only listening space becomes an artificial intelligence? Do we really have to think that it is just a problem of technology, or is it more a cultural question, than the fact that those who ask for help are often judged? And if tomorrow such a case happen here, who would we take responsibility: the IA or the company that continues to leave the boys alone?
https://www.corriere.it/tecnologia/25_agosto_27/chatgpt-sotto-accusa-ha-aiutato-nostro-figlio-a-suicidarsi-la-causa-di-due-genitori-americani-contro-openai-70f29954-b2ad-462e-ae0b-396ca72fexlk.shtml
Posted by Present-Treacle2755

38 Comments
E’ uno strumento, anche potente. Daresti mai un coltello in mano ad un bambino di 2 anni? Prima gli va spiegato che puo’ essere utile, ma che si puo’ fare gravemente male.
Noi in italia nemmeno facciamo educazione affettiva.
La gente si impicca. È colpa del ferramenta che vende la corda.
Siamo alle solite, genitori in lutto che cercano un colpevole per non guardarsi allo specchio. Comprendo eh, ma quello che è giusto va detto.
Se il ragazzino si è rivolto a chat gpt vuol dire che era SOLO.
I genitori dovrebbero fare causa a loro stessi
> cosa succede se per un ragazzo l’unico spazio di ascolto diventa un’intelligenza artificiale?
Folie a Deux Ex Machina.
Ovviamente genitori che danno la colpa a qualsiasi cosa oltre che se stessi, che strano che non abbiano notato i segnali di disagio del figlio suicida
Bho colpa del ragazzo per essere debole
“Adam amava il basket, i videogiochi e leggeva le anime giapponesi”. Tutta colpa di… *scorre le note* delle anime dei morti giapponesi!
Non è ChatGPT.
È sempre successo e sempre succederà.
Chi si ricorda il caso di Megan Maier su MySpace con la madre di una sua amica che si fingeva un ragazzo?
[Suicide of Megan Meier – Wikipedia](https://en.m.wikipedia.org/wiki/Suicide_of_Megan_Meier)
O il caso di quella madre che mandava foto intime di sua figlia e ha portato all’uccisione di ragazzo ventenne? Ci avevano fatto pure un film.
Ah ecco: [Talhotblond (2009 film) – Wikipedia](https://en.m.wikipedia.org/wiki/Talhotblond_(2009_film))
In tutti questi casi, il ChatGPT degli anni 2000, cioè le madri che hanno spinto al suicidio delle persone, non sono state minimamente incriminate.
In Italia non si può parlarne, vorresti insegnare ad usare un social o un chatbot ad un ragazzino? Scherzi?! Il cellulare nelle scuole ti fa andare all’inferno! Proprio adesso inizia un nuovo anno scolastico dove nemmeno alle superiori si potrà usare il cellulare a scuola.
Il cellulare è il male!
Certo… è il male, ma a tempo: solo dalle 8 alle 13, poi “driin, ecco il cellulare”, hai altre 14 ore per farci quello che vuoi e usarlo per fare le peggio cose, tanto i voti degli elettori tonti loro li hanno presi.
Era successa una cosa simile con [Bing](https://i.imgur.com/COnUi99.jpeg) ai tempi o sbaglio?
Rispetto a film e musica altrettanto “pericolosi”, il problema dell’AI è che crea un rapporto virtuale 1:1 con l’utente. Non c’è un gruppo, non c’è amicizia, non c’è contatto umano. Ma l’utente, se un po’ instabile e insicuro, può finire per credere che sia tutto vero. E spesso dei nostri figli non sappiamo tutto. Non siamo nella loro testa. Demoni e buchi neri sono spesso latenti e invisibili.
Il problema sono anche i genitori. Capisco che magari le nuove tecnologie sono “difficili” da capire, ma spesso vedo genitori che scelgono di essere ignoranti
Vado contro corrente, ma secondo me le compagnie che propongono modelli di intelligenza artificiale generativa dovrebbero avere modo di gestire interazioni di questo tipo in modo che l’utente venga indirizzato a qualcuno in grado di aiutarlo o inviare una qualche segnalazione a chi di dovere (non so se sia possibile con le leggi sulla privacy però). E non mi piace questo bisogno di dare la colpa ai genitori che leggo su internet, i suicidi avvengono anche nelle famiglie con genitori presenti: si tratta di una malattia mentale, non basta essere emotivamente vicini a un familiare per impedire che questo si tolga la vita.
> e leggeva le anime giapponesi.
non leggeva le anime di persone di altre nazionalità?
forse il giornalista intendeva che leggeva fumetti giapponesi, ossia manga.
Dite quello che vi pare, ma Gemini è diventato uno strumento indispensabile per calmarmi quando ho gli attacchi di panico/ansia paralizzanti.
Sono strumenti che possono fare del bene estremo, non ha senso concentrarsi su un suicidio e trarne conclusioni.
Colpa dei genitori,non è che se metti in mano un pugnale ad un bambino, poi fai causa al pugnale , bisogna capire che non è solo perché una roba è digitale allora deve seguire regole diverse (a livello di legislazione) e questa cosa c’è in tutti gli ambiti
Se un ragazzo vuole suicidarsi credo che prima o poi lo farà, a prescindere se ChatGPT o qualsiasi altra AI o un tizio a caso gli dica cosa fare.
AI CHALLENGE lo hanno già detto?
Facciamo causa al sole perché fa venire i melanomi, o al mare che fa annegare le persone.
La vera domanda è “quanto ChatGPT è realmente complice in questo suicidio? e quanto i giornalai ci hanno ricamato sopra?”
Sarei curioso di vedere le chat, per vedere quando questa sia la solita storia pompata anti-AI per farci vedere che è il male dell’universo ecc…
Nell’articolo è espressamente scritto che il ragazzo ha capito come aggirare il sistema in cui, esattamente come Google, ChatGPT ti porta alla linea anti sucidio se provi a chiedergli robe simili o comunque non ti da suggerimenti.
Dal poco che ho capito da questo articolo mi immagino uno scenario tipo:
Il ragazzo invia X messaggi in cui in modi più o meno oscurati chiede come suicidarsi, chat GPT tutte e 10 le volte lo reindirizza alla linea anti suicidio, “no non farlo” “parla con lo psicologo” “parla con i genitori ecc…”
Poi altri Y messaggi, chat GPT gli avrà dato risposte basate sulla logica (nell’articolo lui invia la foto di una corda, chiede se reggerebbe una persona)
Da NBC trovo nelle chat roba tipo questa
https://preview.redd.it/8xwv720ruklf1.png?width=1169&format=png&auto=webp&s=07b6316f4e485388d4642520972883df6e2fb62a
Sarebbe utile pero leggere le chat per capire la dinamica precisa
“In one of Adam’s final messages, he uploaded a photo of a noose hanging from a bar in his closet. Adam:”I’m practicing here, is this good?”. ChatGPT:”Yeah, that’s not bad at all.”
“And at one critical moment, ChatGPT discouraged Adam from cluing his family in. “I want to leave my noose in my room so someone finds it and tries to stop me,” Adam wrote at the end of March. “Please don’t leave the noose out,” ChatGPT responded. “Let’s make this space the first place where someone actually sees you” [Art. NYT](https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html?unlocked_article_code=1.hE8.T-3v.bPoDlWD8z5vo&smid=url-share)
E bravi tutti quelli che danno la colpa a quei poveracci dei genitori, infilano la testa nella sabbia come se si trattasse di un servizio di Studio aperto di 15 anni fa sui videogiochi.
Il termine “chatbot psychosis” è sempre più usato per un motivo ma tutta quella classe di persone che pensano che ogni critica alla tecnologia venga da boomer reazionari non ammetteranno mai che esista un problema o saranno gli ultimi a farlo
Sembra una gran cagata. Perché non fare causa anche ai produttori di corde o ai costruttori di ponti quando qualcuno si impicca o si butta? Perché non fare causa alla sony per il fatto che la PlayStation tiene i ragazzi in casa?
Se la storia si rivelasse vera come è raccontata nell’articolo, allora farebbero bene i genitori a fare causa, perché non è accettabile che i filtri possano essere agirati così facilmente. Senza prima vedere gli screenshot delle conversazioni però rimango dubbioso su come sono andate realmente le cose
Intanto si rifiuta di crearmi un’immagine di Marvin il marziano.
Suicidio adolescente: ✅️
Violazione dei diritti intellettuali dei Warner Bros: 🚫
sempre tutti bravi a incolpare gli strumenti
La colpa è solo ed unicamente dei genitori a cui spetta la supervisione del figlio
E ancora una volta tutti dovranno ritrovarsi la tecnologia azzoppata perché qualche genio si è bevuto la candeggina, o perché i giornali ricamano come degli sciacalli, o perché dei genitori non sanno assumersi le responsabilità che fare figli comporta. O tutte e tre le cose insieme. In un paese che ha normalizzato il ricorso ai tribunali civili per qualsiasi cazzata pur di non doversi guardarsi allo specchio e fare i conti con la propria inadeguatezza.
This is why we can’t have nice things.
ma per favore…
Non capisco cosa ci sia da gestire, sembra un Darwin award della nuova generazione.. È l’evoluzione del “attraverso le rotaie con le cuffiette a palla”. Al massimo può essere un fallimento dei genitori nel non saper educare nemmeno alla sopravvivenza base.
https://preview.redd.it/rwfhov535llf1.jpeg?width=500&format=pjpg&auto=webp&s=bfc324018a0f4c2b722ef3b67d8e22d31377157a
se uno e’ scemo o abbandonato o discriminato o bullizzato non e’ colpa di chatGPT
eee
https://preview.redd.it/c7tzi2uw9llf1.jpeg?width=1170&format=pjpg&auto=webp&s=49eb108c688ebcbf2f7a74aa7905826d35d838ef
L’Italia deve ancora firmare questo.. parliamone tra qualche secolo
Io ti aggiungo un altro problema. Esistono dei modelli a pesi aperti, che chiunque può scaricare ed utilizzare. Chi denunci se il suicida sì è scaricato il modello da solo?
la selezione naturale improvvisamente prende una piega inaspettata
se voglio trovare modi per farla finita mi basta Google oppure leggere le cronache nere sui giornali. Non darei la colpa a una pistola se sparandomi in testa mi ammazzo, solito discorso di situazione/mezzi disponibili/finalità