Une mère de famille de Floride a déposé plainte mardi contre la société Charachter.AI qui créé des robots de discussion (chatbots en anglais, NDLR) en ligne à l’aide de l’intelligence artificielle, rapporte l’agence Reuters . Elle l’accuse d’avoir provoqué le suicide de son fils de quatorze ans en février, affirmant qu’il était devenu addict à une intelligence artificielle. Son fils, Sewell Setzer, aurait été ciblé avec des «expériences anthropomorphiques, hypersexualisées et terriblement réalistes», détaille la plainte.
Elle a déclaré que l'entreprise avait programmé son robot pour «se faire passer pour une personne réelle, un psychothérapeute agréé et un amant adulte, ce qui a finalement conduit Sewell à vouloir ne plus vivre en dehors » du monde créé par le service. «Une dangereuse application de chatbot IA commercialisée auprès des enfants a abusé de mon fils et l'a manipulé pour qu'il se suicide», explique-t-elle dans un communiqué. «Notre famille a été dévastée par cette tragédie, mais je m'exprime pour avertir des dangers de la technologie IA trompeuse et addictive et pour exiger des comptes de Character.AI, de ses fondateurs et de Google», poursuit-elle.
L’adolescent a commencé, selon la plainte de sa mère, à utiliser Character.AI en avril 2023 et est rapidement devenu «sensiblement renfermé, a passé de plus en plus de temps seul dans sa chambre et a commencé à souffrir d'une faible estime de soi». Il s’était attaché à une représentation virtuelle de «Daenerys», un personnage de la série Game of Thrones, incarné à l’écran par Emilia Clarke. Sewell, progressivement, a quitté son équipe de basket, puis a commencé à devenir amoureux de «Daenerys» et a plusieurs conversations à caractère sexuel avec elle.
Source : www.lefigaro.fr