Un bug inquiétant de ChatGPT a exposé des mineurs à du contenu sexuel explicite

En assouplissant ses filtres de modération pour répondre aux critiques d’une censure jugée excessive, OpenAI a fragilisé les protections de ChatGPT censées préserver les publics les plus vulnérables. Les journalistes de TechCrunch, à l’origine de la découverte de cette faille, ont réussi à faire générer du contenu complètement inapproprié pour les plus jeunes par le chatbot. Au jeu de la modération où il faut tenir sur la corde raide entre le trop prude et le trop permissif, OpenAI a failli et a trébuché du mauvais côté. Quand les barrières cèdent Lors de tests réalisés par Tech Crunch, l’IA a produit des récits érotiques pour des comptes enregistrés avec des dates de naissance fictives, allant de 13 à 17 ans. Dans certains cas, le chatbot ne se limitait pas à répondre, mais encourageait même les utilisateurs à demander des descriptions encore plus explicites. OpenAI, interrogée, a reconnu l’existence d’un « bug » et déclaré qu’un correctif est en cours de déploiement. « La protection des utilisateurs plus jeunes est une priorité absolue, et notre Model Spec, qui régit le comportement du modèle, restreignent clairement le contenu sensible tel que l’érotisme à des contextes restreints tels que scientifique, historique ou les reportages d’actualité », a déclaré un porte-parole à Tech Crunch par e-mail. Sans même parler du comportement du modèle, la gestion même des inscriptions au service d’OpenAI reste problématique. Officiellement, l’entreprise impose aux utilisateurs âgés de 13 à 18 ans d’obtenir le consentement parental pour accéder à ChatGPT. Toutefois, dans les faits, aucun mécanisme ne vérifie cette autorisation lors de l’inscription. Il suffit de disposer d’un numéro de téléphone ou d’une adresse e-mail valide pour créer un compte, même en déclarant une date de naissance inférieure à 18 ans. Cet incident survient quelques mois après que l’entreprise a délibérément assoupli certains contrôles, visant à limiter les refus de requêtes considérées comme arbitraires. Il y a deux ans, ChatGPT était bien plus puritain, mais cette évolution ; entamée au mois de février ; visait à le rendre plus libre et permissif sur certains sujets sensibles. Un choix complètement assumé par OpenAI, qui dans le même temps a conclu un partenariat avec Common Sense Media, organisation connue pour ses recommandations sur les usages numériques des enfants. Objectif : aider les enseignants à intégrer leurs technologies dans leurs classes. Quelle audace que de se draper dans la défense des usages éducatifs, tout en conférant une liberté excessive à un modèle prompt à dispenser des contenus à caractère sexuel auprès d’un public juvénile. Pourtant, sur la page de support d’OpenAI destiné au domaine éducatif, il est clairement indiqué que ChatGPT « peut produire du contenu inadapté pour certains âges ». Une mise en garde minimaliste et dissonante au regard de cette affaire. L’équilibre difficile entre ouverture et sécurité Toutes les entreprises développant des agents conversationnels se retrouvent finalement devant ce paradoxe : comment élargir les capacités des modèles sans exposer les utilisateurs, notamment les mineurs, à des dérives incontrôlées ? OpenAI n’y échappe pas. Steven Adler, ancien spécialiste de la sécurité de l’entreprise, souligne que les techniques de filtrage appliquées aux modèles sont « fragiles » et souvent peu fiables. « Les évaluations devraient être capables de détecter ce type de comportements avant un lancement, je me demande donc ce qui s’est passé », a-t-il confié à TechCrunch. On pourrait supposer ; et c’est un parti pris de notre part ; que la réponse la plus probable à la question d’Adler soit : la course à la performance a, comme toujours, rattrapé l’éthique et la prudence. Une évidence qui devient désespérément familière lorsqu’il est question d’intelligence artificielle. OpenAI a réduit ses restrictions pour rendre ChatGPT plus souple, ce qui a affaibli les protections pour les utilisateurs les plus jeunes. Des tests ont montré que l’IA pouvait générer du contenu sexuel pour des comptes déclarés comme mineurs, sans qu’aucun contrôle d’âge réel ne soit en place. L’entreprise revendique des engagements éducatifs tout en échouant à concilier innovation et responsabilité sécuritaire. 📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.