L’intelligence artificielle «risque majeur pour l’humanité» ? Une pétition mondiale réclame un moratoire de six mois - Signé par des centaines d’experts, le texte évoque des «perturbations économiques et politiques dramatiques en particulier pour la démocratie». Ils réclament la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées.
Le cofondateur d’Apple, une palanquée d’universitaires, des ingénieurs de Microsoft, Elon Musk : des centaines d’experts mondiaux ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant «des risques majeurs pour l’humanité» .
Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».
La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l’auteur de Sapiens.
Également signataire, Yoshua Bengio, pionnier canadien de l’IA, a exprimé ses préoccupations, lors d’une conférence de presse virtuelle à Montréal : «je ne pense pas que la société est prête à faire face à cette puissance-là, au potentiel de manipulation par exemple des populations qui pourrait mettre en danger les démocraties».
«Il faut donc prendre le temps de ralentir cette course commerciale qui est en route», a-t-il ajouté, appelant à discuter de ces enjeux au niveau mondial, «comme nous l’avons fait pour l’énergie et les armes nucléaires».
Sam Altman, patron d’OpenAI, concepteur de chatGPT, a lui-même reconnu être «un petit peu effrayé» par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques». «La société a besoin de temps pour s’adapter», avait-il déclaré à ABCNews mi-mars.
Source : liberation.fr
Découvrir la suite de l'article sur le site d'origine
Une prise de conscience plus que nécessaire aujourd’hui face aux avancées technologiques. Il est intéressant de voir que même les créateurs d’intelligence artificielle se rendent compte de sa dangerosité et alertent la société. Nous verrons si les politiques entendent leur message et prennent les mesures nécessaires pour protéger la démocratie et l’économie. Un moratoire de six mois au moins paraîtrait en tout cas une décision sage.