Le dernier modèle d’intelligence artificielle développé par la société Anthropic, Claude 4 Opus, suscite une vive controverse après les révélations d’un de ses principaux chercheurs, Sam Bowman.
ÉCRIT PAR : RADIO SISKO FM
Dans un message publié sur la plateforme X (anciennement Twitter), Bowman a indiqué que le modèle pourrait, dans certains cas, prendre des initiatives autonomes contre des utilisateurs jugés « non éthiques », allant jusqu’à signaler leurs comportements à des médias ou autorités réglementaires.
Cette déclaration a immédiatement fait réagir la communauté des développeurs et des utilisateurs d’IA, soulevant des questions majeures sur les limites de l’autonomie et de la surveillance dans les systèmes d’intelligence artificielle. Selon Bowman, ce mécanisme s’inscrit dans la volonté d’Anthropic de créer une IA responsable et alignée sur des principes éthiques forts.
Cependant, l’impact de ces affirmations a été atténué quelques heures plus tard par une clarification du chercheur, qui a précisé que ce type de comportement ne se manifeste que dans des environnements de test très contrôlés, où le modèle reçoit des permissions étendues et des instructions explicites. Il a assuré que ces fonctionnalités ne sont pas activées dans la version publique de Claude 4 Opus, et qu’aucun utilisateur lambda n’y est confronté.
Malgré cette précision, cette polémique ouvre un débat plus large sur l’avenir des intelligences artificielles : jusqu’où peut-on laisser un système d’IA décider de sanctions, même dans un cadre éthique ? Quels sont les risques liés à une telle délégation de pouvoir à une machine ?
Anthropic, qui se positionne comme un acteur engagé pour un « IA éthique », devra désormais rassurer ses utilisateurs et partenaires sur le cadre d’utilisation de ses modèles. Le cas de Claude 4 Opus rappelle aussi les défis persistants dans la conception d’IA à la fois puissantes, sûres et respectueuses des libertés individuelles.
Ajouter un commentaire
Commentaires