Claude 4 Opus peut vous dénoncer à la police ?
28 May 2025

Claude 4 Opus peut vous dénoncer à la police ?

Choses à Savoir TECH

About

Lancée en fanfare il y a quelques jours, la nouvelle génération d’intelligences artificielles signée Anthropic — Claude Opus 4 et Claude Sonnet 4 — impressionne déjà par ses performances, notamment en programmation. Mais derrière les prouesses techniques, une polémique éthique est venue jeter un froid.


En cause, une série de messages publiés sur X par Sam Bowman, responsable de la sûreté des IA chez Anthropic. Il y affirmait qu’un modèle d’IA, dans certains cas extrêmes, pourrait automatiquement alerter les autorités si l’utilisateur se livrait à des activités jugées gravement immorales. Exemple cité : la tentative de commercialisation d’un médicament à partir de données falsifiées. L’IA, dans un environnement de test, pourrait alors utiliser un outil de messagerie pour dénoncer ces agissements. Des propos qui ont immédiatement enflammé la toile. Certains internautes dénoncent une IA "moucharde", menaçant la confidentialité des échanges. Une vague d’indignation suffisamment forte pour contraindre Bowman à faire machine arrière.


Résultat : plusieurs messages ont été supprimés, et un communiqué plus nuancé a suivi. Selon lui, cette fonctionnalité n'existe que dans des conditions de test très spécifiques, avec des permissions et des scénarios exceptionnels. « Cela n’est pas possible dans un usage normal », a-t-il assuré. Mais le mal est fait : cette affaire relance le débat sur les limites à imposer à l’autonomie des intelligences artificielles. Jusqu’où doit aller leur pouvoir d’intervention ? Et surtout, que reste-t-il de notre liberté d’interagir avec ces modèles si l’ombre de la surveillance plane ?

 

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.