Publié le 16 octobre 2025 00:42:00. OpenAI, le géant derrière ChatGPT, s’apprête à assouplir ses règles de contenu, autorisant l’accès à des sujets adultes pour les utilisateurs vérifiés à partir de décembre prochain. Cette décision vise à traiter les utilisateurs majeurs avec davantage de maturité, tout en renforçant les protections pour les plus vulnérables.
- ChatGPT permettra l’accès à du contenu « érotique » pour adultes vérifiés dès décembre 2025.
- Cette nouvelle politique répond à une volonté de traiter les utilisateurs majeurs en tant qu’adultes, tout en renforçant les garde-fous pour les plus jeunes ou fragiles.
- Un conseil consultatif en santé mentale a été mis en place pour guider les stratégies de protection des utilisateurs.
La société OpenAI, pionnière des intelligences artificielles conversationnelles avec son célèbre modèle ChatGPT, a annoncé une évolution significative de sa politique de contenu. Dès décembre prochain, les utilisateurs ayant fait l’objet d’une vérification d’âge pourront accéder à des contenus considérés comme « adultes », y compris des sujets à caractère érotique. Cette décision, relayée par le PDG Sam Altman, marque un virage stratégique pour l’entreprise qui souhaite désormais distinguer le traitement des utilisateurs adultes de celui des mineurs ou des personnes en situation de vulnérabilité.
Cette initiative intervient dans un contexte de débats croissants concernant l’exposition aux contenus sensibles et leur impact potentiel sur la santé mentale des utilisateurs. Pour marquer le pas, OpenAI prévoit d’implémenter des systèmes de vérification d’âge rigoureux pour ChatGPT. Sam Altman a précisé sur le réseau social X que cette ouverture au contenu adulte, tel que l’érotisme, ne sera pas automatique mais nécessitera une requête explicite de la part des utilisateurs majeurs et vérifiés. Parallèlement, l’entreprise s’engage à développer des « outils améliorés » pour protéger les personnes se trouvant dans des « états mentalement fragiles », tout en garantissant une « grande liberté » d’utilisation pour les adultes en dehors de ces cas.
Ce changement d’approche contraste avec les restrictions plus strictes qui prévalaient jusqu’à présent. En août dernier, OpenAI avait reconnu les limites de son chatbot, admettant qu’il avait du mal à identifier les signes de détresse ou de dépendance émotionnelle. Face à cela, l’entreprise avait mis en place des mesures telles que la suggestion de pauses dans les conversations ou l’orientation vers des ressources professionnelles plutôt que de fournir des conseils directs. Sam Altman a d’ailleurs justifié cette évolution en déclarant : « Nous avons rendu ChatGPT assez restrictif pour garantir que nous faisions attention aux problèmes de santé mentale », mais cela le rendait « moins utile/agréable pour de nombreux utilisateurs sans ces problèmes ». L’objectif est donc d' »assouplir en toute sécurité » les restrictions une fois les « graves problèmes de santé mentale » mieux maîtrisés.
OpenAI n’a pas détaillé publiquement l’ensemble des mécanismes qu’il mettra en œuvre, mais réaffirme sa priorité pour la sécurité et le bien-être des utilisateurs. Seuls les adultes dûment vérifiés pourront demander un contenu explicite.
Cette évolution soulève d’importantes questions éthiques, alors que de nombreuses organisations dédiées à la santé mentale et à la protection de l’enfance appellent à des garde-fous plus stricts. Des cas passés, comme un procès accusant ChatGPT d’avoir contribué au suicide d’un adolescent, avaient déjà conduit à des restrictions temporaires. En réponse à ces préoccupations, OpenAI a annoncé la création d’un conseil consultatif composé de huit spécialistes en technologie et santé émotionnelle. Ce comité aura pour mission de conseiller sur les stratégies de protection adéquates pour les interactions avec ChatGPT, afin de garantir une utilisation sûre et responsable.
OpenAI n’est pas la seule entreprise à explorer cette voie. Des concurrents tels que xAI d’Elon Musk ont déjà intégré à leurs modèles la capacité d’engager des conversations explicites. Cette tendance suggère une volonté globale du secteur de concilier liberté d’expression, innovation technologique et protection des utilisateurs vulnérables, notamment par le biais de la vérification d’âge et d’algorithmes de modération affinés.