Des scientifiques ont disséqué le cerveau d’une intelligence artificielle à la recherche de ses pensées cachées

Des scientifiques ont disséqué le cerveau d’une intelligence artificielle à la recherche de ses pensées cachées
Publié le
June 21, 2024

Des scientifiques ont disséqué le cerveau d’une intelligence artificielle à la recherche de ses pensées cachées - Comment « pense » une IA ? Alors que paradoxalement, les intelligences artificielles sont créées par les humains, leur fonctionnement nous échappe au fil de leurs progrès. Pour répondre à cette question, les chercheurs d’Anthropic ont disséqué le « cerveau » de l’IA Claude 3.

Inquiétantes, fascinantes, les intelligences artificielles (IA) font désormais partie de notre quotidien et alors que ce sont des créations humaines, elles développent leur part de mystère au fil de leurs progrès. Futura avait déjà évoqué les recherches qu'effectuent les scientifiques sur le fonctionnement des IA et leurs grandes difficultés à le cerner. Ils parlent même de « boîte noire », car ils ne savent pas vraiment comment l'IA avec les quantités astronomiques de données ingurgitées a construit sa propre compréhension du monde.

Aujourd'hui, des chercheurs issus d'Anthropic, la société qui développe le chatbot Claude, affirment qu'ils sont justement capables de pénétrer cette boîte noire et même de modifier le fonctionnement du cerveau des IA. Dans une publication, ils expliquent qu'ils ont pu cartographier les chemins de « pensée » de leur propre IA. En utilisant une technique appelée « apprentissage par dictionnaire », l'équipe d'Anthropic a pu faire correspondre les modèles d'« activation neuronale » de l'IA avec des idées et des concepts familiers aux humains. Ces expériences ont été menées sur des versions de modèles de langage très restreintes afin de découvrir les « schémas de pensée » qui s'activaient lorsque les modèles traitaient de certaines idées. Lors de ces tests, il est apparu que l'IA parvenait à trier les concepts parfois éloignés et à les lier entre eux d'elle-même, mais à sa façon. Certains concepts sont plus ou moins regroupés ou éloignés dans « l'esprit » de Claude.

Si l'expérience a bien fonctionné sur ce petit modèle, comment réaliser la même chose avec un modèle de langage alimenté par une base colossale de données ? Les chercheurs d'Anthropic ont pour cela construit un modèle d'apprentissage de taille moyenne à partir de Claude 3. Là encore, ils sont parvenus avec succès à extraire suffisamment de données pour créer une carte des concepts élaborée par l'IA lorsqu'elle est en train de « penser ». Ainsi, ils ont appris que l'IA stocke les concepts de manière indépendante du langage, ou même du type de données.

Source : www.futura-sciences.com

Découvrir la suite de l'article sur le site d'origine

Newsletter hebdomadaire
Ne ratez aucune information. Recevez un seul e-mail avec toutes les actualités de la semaine.
Nous respectons vos données personnelles. Politique de confidentialité
Merci ! Votre inscription a bien été reçue.
Oups! Une erreur s'est produite. Si le problème persiste, contactez-nous.

Consulter les fiches repères

L'Union Européenne-Les commissions parlementaires
L'Union Européenne-Le processus législatif
L'Union Européenne-Les institutions
Le wokisme