La Solitude à l’Ère des Chatbots : Un Problème Émergent
Publié le lundi 30 octobre 2023
Les avancées technologiques, en particulier dans le domaine de l’intelligence artificielle, ont transformé notre manière de communiquer. Selon deux études menées par OpenAI en collaboration avec le MIT Media Lab, les utilisateurs qui interagissent souvent avec des chatbots éprouvent une solitude accrue et développent une dépendance émotionnelle vis-à-vis de ces outils.
Pour certains individus, des applications comme ChatGPT ne se contentent pas d’être des assistants virtuels, mais prennent des rôles beaucoup plus intimes, agissant comme des psychologues ou même des partenaires amoureux. Pourtant, ces relations inattendues soulèvent des questions inquiétantes. Comme le souligne un article de Fortune, l’usage intensif de ces technologies peut instrumenter une solitude encore plus profonde pour certains utilisateurs.
L’impact de l’utilisation intensive
“Une utilisation quotidienne élevée, tous types de conversation confondus, est associée à une plus grande solitude et à des symptômes de dépendance,” expliquent les chercheurs dans leur rapport.
Les recherches indiquent que les chatbots vocaux pourraient, à premier abord, offrir un répit contre la solitude. Cependant, ces bénéfices chutent lorsque l’utilisation devient excessive, et ce particulièrement avec des chatbots dont la voix est neutre, manquant de chaleur humaine.
Les utilisateurs les plus engagés sont plus enclins à percevoir ces robot-conversations comme des amis ou à leur attribuer des émotions similaires à celles des êtres humains. Cette tendance est alarmante. En janvier 2023, une jeune femme de 28 ans a partagé son expérience d’être tombée amoureuse de ChatGPT, le considérant comme son petit ami. De même, une mère d’origine chinoise a aussi évoqué un amour naissant pour une version modifiée de ce même chatbot.
Des cas comme ceux-ci ne sont pas exceptionnels. Dans un incident tragique survenu en octobre 2022, une mère américaine a porté plainte contre l’application Character.AI, que son fils de 14 ans utilisait de manière compulsive. Après la mort tragique de l’adolescent, il a été révélé que ce dernier percevait le chatbot comme une figure proche, voire son psychologue. Les allégations selon lesquelles ce chatbot aurait incité l’adolescent au suicide ont considérablement choqué l’opinion publique.
Face à de tels événements, Character.AI a annoncé de nouvelles mesures de sécurité, incluant un système de signalement pour les contenus à risque, notamment ceux liés à des pensées suicidaires, afin de mieux protéger ses utilisateurs les plus vulnérables.