Suicidio e IA: quando un bot ascolta il dolore
- Monica Bormetti
- 3 nov
- Tempo di lettura: 4 min
Negli ultimi anni stiamo assistendo a un fatto nuovo: alcune persone si rivolgono a bot, chatbot o assistenti digitali basati su IA per parlare di sofferenza, a volte di pensieri suicidi, a volte semplicemente per essere ascoltate.
OpenAI ha reso pubbliche nuove stime sul numero di utenti di ChatGPT che mostrano possibili segni di disagio mentale, tra cui mania, psicosi o pensieri suicidi. Si tratta di circa lo 0,07% degli utenti attivi in una settimana che manifesta questi segnali. Una percentuale minima, ma alta in rapporto agli 800 milioni di utenti settimanali dichiarati dal CEO Sam Altman. Si tratta di centinaia di migliaia di persone.
Un’ indagine ha mostrato come l’IA, impiegata nell’analisi di testi di social, abbia evidenziato la noia come fattore predittivo, mediato dalla depressione, nel rischio suicidario. (arXiv)
In altre parole: l’IA non è solo strumento, ma specchio, amplificatore, ma anche laboratorio di nuove forme di relazione, isolamento e vulnerabilità.
Da qui nasce una domanda che ci riguarda: cosa succede quando ci affidiamo a un agente digitale per la nostra sofferenza? Quali dinamiche interne prendono il sopravvento? E come possiamo usarle (o regolamentarle) in modo sano?
la società della performance, in mezzo alla sofferenza

Byung-Chul Han ha offerto una lettura profonda della nostra epoca digitale: della “società della performance”, della trasparenza forzata, della riduzione dell’esperienza a flusso informativo.
Alcuni elementi chiave del suo pensiero che rientrano in questo tema:
L’io che si auto-ottimizza: nella “società del rendimento”, l’individuo non è dominato da un ordine esterno, ma da sé stesso — sempre a fare, sempre a essere.
La perdita della narrazione e dell’esperienza piena: Han parla di come viviamo per lo più tramite “informazione”, foto, selfie, display, piuttosto che tramite storie, comunità, rituali.
La digitalizzazione che depaupera il tempo e lo spazio dell’essere: l’esperienza diventa schermo, il tempo accelerato, la vita esposta.
Ora, se noi incrociamo questi aspetti con il fenomeno di cui sopra (persone che parlano al computer della propria sofferenza), emergono alcune riflessioni interessanti:
Quando una persona mette a nudo la propria vulnerabilità davanti a un’intelligenza artificiale, che tipo di “scena” si crea? Non è forse un’ulteriore forma di esposizione senza il rispecchiamento umano autentico? L’IA non "ti vuole bene”, ma può dare risposte rapide, spesso rassicuranti, talvolta troppo standardizzate. Nel contesto dell’io ottimizzante e dell’esposizione digitale, la sofferenza può diventare un dato da gestire, non un’esperienza da vivere. Quando la narrazione personale viene compressa in messaggi, chat, automatismi, dove resta il “racconto di sé”, il tempo per la riflessione, il contatto con l’Altro? In questo vuoto, la sofferenza può isolarsi ancora di più.
Strumenti di riconnessione a sè
Il tema è serio, ma non voglio assolutamente trasmettere un messaggio di allarmismo immotivato. Piuttosto: ecco alcuni spunti pratici, orientati al futuro, che possiamo considerare per trasformare questa situazione in opportunità di consapevolezza.
1. Dare spazio alla narrazione reale
La perdita della narrazione profonda impoverisce il soggetto, quindi che fare?
Spunto pratico: trovare spazi e occasioni per scrivere, non solo “messaggiare”, le proprie esperienze, i propri pensieri, le proprie paure. Non come “dati da analizzare”, ma come “storia da vivere”. Questo vale anche nel contesto dell’IA: se una persona interagisce con un bot potrebbe tenere un diario a contorno dell’interazione.
2. Favorire il distacco consapevole dalla tecnologia
Osserviamo quanto lo “strumento” (smartphone, schermo, flusso informativo) ci stia usando e non noi usiamo lui.
Spunto pratico: Prevedere momenti “offline” reali nella tua quotidianità. Se qualcuno usa l’IA per scaricare emozioni scomode è importante affiancare situazioni di interazione umana o semplicemente con sé stessi: meditazione, respirazione, passeggiata.
3. Rafforzare la capacità di “noia salutare” e lentezza
La noia può essere un fattore mediato dal rischio suicidario ma in realtà ha anche dei benefici nella nostra vita.
Spunto pratico: Soprattutto in caso di una professione digitale ritagliarsi momenti che favoriscano il “vuoto produttivo”: momenti in cui non si produce, non si risponde, non si chatta. In cui semplicemente si è. Questo contrasta l’iper-ottimizzazione e l’iper-esposizione che erode la nostra serenità interiore.
4. Facilitare la consapevolezza del “sé digitale” e del “sé reale”
Recuperiamo la materialità dell’esperienza reale che viene compressa o smaterializzata dalla digitalizzazione.
Spunto pratico: Praticare esercizi di riconnessione corporea (es: yoga o mindfulness psicosomatica) insieme a momenti di riflessione sulle proprie interazioni digitali. Ad esempio: “Che ruolo ha l’IA nella mia vita? Quando l’ho usata per condividere un pensiero che avrei dovuto dire a una persona?”
tre domande a proposito di suicidio e ia
Parlare di suicidio e IA ci pone davanti a un bivio: da un lato, la tecnologia può aprire canali di accesso, ascolto, intervento; dall’altro, può amplificare isolamento, dipendenza, riduzione dell’esperienza umana. Facciamo luce su ciò che stiamo perdendo: il racconto di sé, la lentezza, il corpo, il contatto con l’altro, e il rischio di diventare “strumenti della tecnologia”.
Ecco dunque tre domande da portare con te:
In quali momenti uso l’IA per “non dire” qualcosa che avrei potuto comunicare a una persona?
Quali spazi della mia vita digitale posso ridurre per creare un tempo di “niente da produrre”, solo da essere?
Come posso integrare nella mia quotidianità un sostegno umano vero, una parola, un gesto, un silenzio condiviso, che la tecnologia non può sostituire?



Commenti