Développement de l’intelligence artificielle : « la santé sert de prétexte »

Développement de l’intelligence artificielle : « la santé sert de prétexte »
Publié le
April 8, 2025
Développement de l’intelligence artificielle : « la santé sert de prétexte » - L’intelligence artificielle (IA) pénètre toutes les sphères de la société et certains prédisent une « guerre des intelligences » dont l’homme serait le perdant annoncé. Mais cette « guerre des intelligences » a-t-elle seulement un sens ? Rémi Sentis, docteur ès sciences, directeur de recherche émérite et co-auteur de La guerre des intelligences n’aura pas lieu paru chez Salvator, a accepté de répondre aux questions de Gènéthique.

Gènéthique : La France a récemment organisé un sommet international dédié à l’intelligence artificielle. Le président Emmanuel Macron a annoncé de futurs investissements s’élevant à 109 milliards d’euros. L’IA représenterait une « révolution », avec des apports majeurs notamment dans le domaine de la santé. Partagez-vous cet enthousiasme ?

Rémi Sentis : Il y a un effet de mode dans cette annonce, c’est indéniable. L’énormité de la dépense envisagée montre qu’elle ne sera pas entièrement dédiée à l’intelligence artificielle au sens strict (comprenant les logiciels, le hardware, les serveurs de données, etc.) et à ce qui concerne la robotique. Une partie importante de cet argent sera très vraisemblablement consacrée à d’autres fins : agences de régulation, surveillance des réseaux sociaux, etc.

Comme souvent, quand il s’agit de promouvoir des innovations techniques, la santé sert de prétexte.

Le fait qu’il s’agisse d’une source unique de financement, via éventuellement divers canaux, pose problème, car il reviendra finalement à la seule administration – aidée sans doute d’universitaires choisis par elle – de décider de la destination de ces investissements. Or l’innovation a toujours besoin de diversité.

G : Certains experts ne cachent pas leur inquiétude. Trois « contre-sommets » ont même été organisés en parallèle pour alerter sur les risques. Quels sont les principaux dangers selon vous ?

RS : Plusieurs outils d’IA ont été développés pour la santé qui ne posent pas de problème en soi : les robots chirurgicaux, les implants visant à réparer des handicaps auditifs, visuels, des paralysies, la gestion administrative de cohortes de patients, les outils d’imagerie médicale. En revanche, le développement des implants pour « réparer » l’homme peut être le marche pied vers l’homme « augmenté ». Un fantasme qui date d’il y a 30 ans mais qui reste présent dans les esprits.

Un autre danger concerne les outils de diagnostics médicaux automatisés. Ces pratiques sont en train de se développer : une infirmière reçoit un patient, prend ses constantes, l’interroge sur son historique médical, fait éventuellement un prélèvement sanguin et envoie toutes les informations collectées vers un logiciel d’IA qui pose un diagnostic et formule une prescription. Ce n’est pas l’infirmière qui décide, elle ne fait que transmettre.

Ce type de pratique fait disparaitre la notion de responsabilité, or celle-ci est capitale en médecine comme dans de multiples autres domaines humains. En effet, l’intelligence artificielle n’est qu’un outil, un outil créé par un concepteur responsable de ce qu’il a développé. Par ailleurs, les utilisateurs sont également responsables de l’usage qu’ils en font. Ils ne doivent pas utiliser l’outil en dehors de son domaine de validité. C’est ce qui fait toute la difficulté, car l’utilisateur ne comprend pas toujours les limites de validité d’un outil d’intelligence artificielle. En outre, entre le concepteur et l’utilisateur il y a de nombreux agents (ceux qui fournissent les bases de données, ceux qui personnalisent le logiciel). Tous ces acteurs ont une part de responsabilité.

G : On recense aussi de nouveaux usages en matière de diagnostic prénatal ou préimplantatoire (cf. IA : un algorithme pour détecter les anomalies chromosomiques ; DPI : une intelligence artificielle pour trier les embryons ?). Qu’en pensez-vous ?

RS : En effet, les progrès de l’imagerie et ceux des techniques d’analyse amènent à fournir des données toujours plus nombreuses sur l’enfant à naitre, ce qui conduit à le chosifier. C’est dramatique.

L’embryon est objet d’analyses extrêmement poussées : les transhumanistes promeuvent cela comme un progrès technique. Pour eux, grâce à l’intelligence artificielle, adviendra un « monde meilleur » ; et au nom d’un prétendu progrès médical, on ne saurait mettre aucune barrière au progrès technique. C’est une dérive éthique grave.

G : Publications scientifiques, vidéos, actualités : ne risque-t-on pas de se diriger vers un monde où il deviendra impossible de démêler le vrai du faux ? N’est-ce pas la porte ouverte à toutes les manipulations ? Risque-t-on de perdre tout contrôle ?

RS : C’est en effet une question centrale. Ce qu’on appelle le cyberespace est un espace extrêmement conflictuel. Les Etats en ont conscience. Des milliers d’ingénieurs travaillent à la cyberdéfense, que ce soit au niveau de l’Etat ou des entreprises privées. Des milliers sont aussi formés à la cyberattaque : en France, la DGSE organise des manœuvres avec cyberattaque et cyberdéfense (rouges contre bleus !).

Source : www.genethique.org

Découvrir la suite de l'article sur le site d'origine

Commentaire du CPDH

Une interview passionnante sur l’intelligence artificielle. Rémi Santis, docteur de recherche émérite, nous présente la face sombre de l’IA, notamment celle qui se sert de la santé comme prétexte pour mettre en œuvre des projets transhumanistes. En annihilant la responsabilité individuelle d’une part et en créant « l’homme augmenté » de l’autre, l’IA permet aux transhumanistes de réaliser leurs fantasmes. À nous en tant que société, de mettre des gardes fous pour préserver l’humain dans toute son humanité.

Consulter les fiches repères

L'Union Européenne-Les commissions parlementaires
L'Union Européenne-Le processus législatif
L'Union Européenne-Les institutions
Le wokisme