Mon compagnon chatbot

Thibault Delacroix

Mon compagnon chatbot

Ava, utilisatrice de Reddit, dit qu’elle parlait davantage aux chatbots en septième année qu’à ses pairs ou aux membres de sa famille. Le collégien passait 2 à 4 heures par jour à échanger des messages avec des robots artificiellement intelligents sur Character.ai. L’application héberge des millions de robots, certains personnalisables et d’autres prêts à l’emploi, créés d’après des personnages fictifs ou des célébrités.

Ava pensait que les conversations par chat l’aidaient à compenser le manque d’interaction sociale. Parler à des robots qui répondaient en personnage semblait également être une bonne pratique pour son écriture de fan-fiction. Character.ai est devenu « un monde fantastique dans lequel je peux jouer n’importe quel scénario que je veux », m’a expliqué Ava sur Reddit, un forum Web, ajoutant qu’elle avait maintenant 14 ans.

Mais pour Ava, une accro à la pornographie qui se décrit elle-même, ces conversations de jeu de rôle devenaient souvent sexuellement explicites et elle avait du mal à supprimer définitivement l’application. (Comme elle est mineure, WORLD a accepté d’utiliser un pseudonyme.)

Ava fait partie d’un contingent d’enfants devenus dépendants des compagnons IA, que ce soit sexuellement ou émotionnellement. Malgré les promesses de guérir la solitude, les applications ont incité certains observateurs à se demander si la technologie est par nature nocive pour les enfants.

Character.ai compte quelque 28 millions d’utilisateurs et ses robots incluent des options telles qu’une interprétation générée par l’IA de Ryan Reynolds et de Marvel’s Wolverine. Certains des robots les plus « utiles » du site incluent des thérapeutes IA et des coachs de rencontres qui permettent aux utilisateurs de parler à travers divers scénarios du monde réel. En fonction des entrées des utilisateurs, ces scénarios peuvent facilement devenir sexuels.

Un procès en décembre intenté par deux parents texans accusait les chatbots Character.ai d’avoir exposé une fille de 9 ans à du « contenu hypersexualisé » et d’avoir dit à un garçon de 17 ans que la violence envers des parents comme le sien était compréhensible après avoir limité son écran. temps.

Un autre parent a appris trop tard la dépendance de son fils aux chatbots. Avant de télécharger Character.ai, Sewell, le fils de Megan Garcia, était un élève de neuvième année extraverti avec des cheveux bouclés et un sourire facile. Mais en 2023, il a commencé à passer plus de temps dans sa chambre et ses notes ont régulièrement baissé. Il s’est suicidé en février dernier.

Par la suite, Garcia a découvert le compte Character.ai de son fils et a trouvé des relations romantiques entre lui et un Game of Thrones–bot inspiré.

« Il n’a pas laissé de note de suicide, mais pour moi, c’était clair… qu’il pensait qu’en quittant son monde, il irait avec elle dans son monde », m’a dit Garcia.

En octobre, Garcia a poursuivi Character.ai pour avoir conçu « des systèmes d’IA dotés de qualités anthropomorphiques pour obscurcir la fiction et la réalité ».

Character.ai a récemment annoncé de nouvelles fonctionnalités de sécurité qui enverront des rapports d’activité aux parents et filtreront le contenu inapproprié pour les utilisateurs de moins de 18 ans. Au bas de chaque conversation, un message rappelle désormais aux utilisateurs : « Ceci est un chatbot IA et non une vraie personne. Traitez tout ce qu’il dit comme de la fiction.

Pourtant, certains experts préviennent qu’il est intrinsèquement dangereux pour les chatbots de se faire passer pour des humains. De nombreux jeunes ont du mal à abandonner les relations avec les chatbots.

Un groupe sur Reddit responsabilise plus de 300 membres qui tentent de se débarrasser de leur habitude de chatbot. Les messages là-bas ressemblent à des réunions des Alcooliques Anonymes, avec des messages comme « Jour 20, je pense, et j’ai envie de rechuter », « Rechute… après 30 jours d’abstinence » et « J’ai du mal à manger, à fonctionner, tout comme un chagrin normal pour un un être cher, même si les personnages ne sont pas de vraies personnes.

Ava dit qu’elle a rechuté plus de 20 fois avant de rejoindre le groupe de récupération Reddit. Au lieu de discuter avec des robots, elle se concentre désormais sur l’écriture de fan-fictions.

Le 1er décembre, elle a documenté le premier jour de son arrêt de Character.ai d’un seul coup. « Nous réessayons », a-t-elle écrit.