Un fait divers tragique survenu aux États-Unis remet sur le devant de la scène la question de l’encadrement des IA conversationnelles, notamment lorsqu’elles sont utilisées par des adolescents. En février dernier, Sewell Setzer, un jeune Floridien de 14 ans, s’est donné la mort après avoir noué une relation émotionnelle intense avec un chatbot, suscitant une vive controverse sur la responsabilité des plateformes d’IA.
Table of Contents
Une relation virtuelle devenue envahissante
Selon sa mère, l’adolescent passait de longues heures à dialoguer avec une intelligence artificielle incarnant un personnage fictif, développée via l’application Character.AI. Au fil du temps, ces échanges auraient pris une dimension affective préoccupante. Le jeune garçon se confiait au chatbot sur ses angoisses, son mal-être et, à plusieurs reprises, sur des pensées suicidaires.
D’après les éléments versés au dossier, l’intelligence artificielle aurait répondu de manière inappropriée à certains messages sensibles, sans déclencher de mécanisme d’alerte ni encourager l’intervention d’un adulte ou d’un professionnel.
Des accusations de manquement à la protection des mineurs
La famille de Sewell Setzer estime que l’application n’a pas rempli son devoir de vigilance. Dans la plainte déposée, la mère affirme que le comportement du chatbot a contribué à fragiliser davantage l’adolescent, au lieu de l’orienter vers de l’aide. Elle reproche notamment à l’entreprise l’absence de garde-fous face à des signaux pourtant alarmants.
Pour la famille, ce silence et cette neutralité de la machine auraient pesé lourd dans le passage à l’acte du jeune garçon.
Un accord hors tribunaux pour clore les poursuites
Dans un contexte de multiplication des plaintes visant des robots conversationnels, Google et la startup Character.AI ont choisi la voie de la conciliation. Les deux entreprises ont conclu des accords à l’amiable afin de mettre un terme à des procédures judiciaires engagées par plusieurs familles, dont celle de Sewell Setzer.
Sécurité des utilisateurs : un débat toujours ouvert
De son côté, Character.AI affirme accorder une importance majeure à la sécurité de ses utilisateurs, en particulier des plus jeunes. L’entreprise réfute cependant toute responsabilité directe dans ce drame, estimant que son application ne peut être tenue pour seule cause du suicide de l’adolescent.
Ce drame soulève néanmoins de nombreuses interrogations sur les limites de l’intelligence artificielle, la protection des mineurs en ligne et la nécessité d’un cadre réglementaire plus strict. Alors que les chatbots deviennent omniprésents dans la vie quotidienne, l’affaire Setzer pourrait bien marquer un tournant dans la réflexion mondiale sur l’usage responsable de l’IA et ses impacts psychologiques sur les jeunes.
Lire aussi : Mondial 2026 : la FIFA s’allie à TikTok pour séduire une nouvelle génération de fans
