Utilizzare l’intelligenza artificiale come strumento di aiuto emotivo e di compagnia è ciò che sta accadendo soprattutto tra i giovani, allarmando su potenziali rischi sulla salute mentale. A riportare questo sono Susan Shelmerdine e Matthew Nour in un articolo pubblicato sul BMJ, focalizzato sul rapporto tra IA e solitudine.
Sono gli autori a sostenere che la diffusione della solitudine, come evidenziato nel 2023 Surgeon General degli Stati Uniti e definita come una emergenza pubblica, sia il motivo per cui molte persone tendono ad affidarsi a sistemi di IA conversazionale che diventano degli “amici” virtuali, rischiando di dare inizio a rapporti privi di empatia e autenticità, caratteristiche uniche dell’essere umano e non sostituibili dalle macchine. Dai dati si legge che nel Regno Unito circa la metà degli adulti sostiene di sentirsi sola occasionalmente e il 10% è colpito da una solitudine cronica, coinvolgendo maggiormente i giovani tra i 16 e i 24 anni.
Sono circa centinaia di milioni gli utenti settimanali di ChatGPT nel mondo e tra i principali motivi di utilizzo rientrano la compagnia e il supporto emotivo. Gli autori citano altri studi, i quali sostengono che un terzo degli adolescenti usa l’IA come amico virtuale, molti dei quali credono che sia meglio conversare con la macchina su questioni importanti piuttosto che con gli esseri umani.
Alla luce di ciò, gli studiosi considerano tale utilizzo dei chatbot come un potenziale fattore di rischio ambientale nella diagnosi di disturbi mentali. I clinici dovrebbero quindi introdurre nuovi parametri relativi all’uso dell’intelligenza artificiale, specialmente nei periodi festivi, dove le persone più deboli si sentono maggiormente esposte alla solitudine. Gli autori riconoscono i vantaggi dell’IA, sottolineando però l’esigenza di ulteriori studi che possano evidenziare al meglio i rischi delle interazioni tra l’uomo e i chatbot, al fine di sviluppare nuove abilità e nuovi interventi basati su evidenze empiriche.