Publié le 26 octobre 2025 11:10:00. La nouvelle application vidéo de l’IA, Sora d’OpenAI, suscite à la fois l’admiration pour son réalisme et l’inquiétude face à la propagation de la désinformation et à l’érosion de la confiance.
- Sora, l’outil de génération vidéo par IA d’OpenAI, permet de créer des clips hyperréalistes à partir de descriptions textuelles, entraînant une viralité rapide sur les réseaux sociaux.
- Des personnalités publiques et des familles de célébrités décédées alertent sur l’utilisation non autorisée de leurs images, soulevant des questions éthiques et juridiques sur la protection de l’identité numérique.
- Face aux polémiques et aux pressions, OpenAI ajuste sa politique, introduisant des restrictions sur la création de contenu protégé et cherchant des moyens de mieux contrôler l’utilisation des ressemblances.
Défiler sur l’application Sora donne l’impression de naviguer à travers un multivers où les frontières du réel sont constamment redéfinies. On y découvre Michael Jackson faisant du stand-up, l’extraterrestre de « Predator » préparant des hamburgers chez McDonald’s, ou encore la Reine Elizabeth plongeant d’une table de pub. Ces scénarios improbables, futurs fantastiques et vidéos absurdes sont la signature de Sora, la dernière-née des applications vidéo d’OpenAI, le créateur de ChatGPT. Si le flux de vidéos hyperréalistes générées par intelligence artificielle est d’abord fascinant, il impose rapidement une remise en question constante de la véracité de chaque contenu.
« Le risque majeur avec Sora est qu’il rend le déni plausible quasi impossible à surmonter et érode la confiance dans notre capacité à distinguer l’authentique du synthétique », avertit Sam Gregory, expert en deepfakes et directeur exécutif de WITNESS, une organisation de défense des droits humains. « Les contrefaçons individuelles ont leur importance, mais le véritable dommage est le brouillard de doute qui s’installe sur tout ce que nous voyons. »
Bien que toutes les vidéos générées par Sora soient intégralement créées par IA et qu’aucune option ne permette de partager des images réelles, l’application a connu un succès fulgurant. Dès sa première semaine de lancement, les utilisateurs ont partagé massivement leurs créations sur les réseaux sociaux. Moins de sept jours après sa mise en ligne le 30 septembre, l’application Sora a dépassé le million de téléchargements, surpassant la croissance initiale de ChatGPT et atteignant la première place de l’App Store aux États-Unis. Pour l’heure, Sora est disponible uniquement pour les utilisateurs iOS aux États-Unis, sur invitation.
L’utilisation de l’application requiert une authentification faciale et l’enregistrement de la signature vocale de l’utilisateur. Par la suite, il suffit de saisir une description textuelle pour générer des vidéos hyperréalistes de 10 secondes, accompagnées de sons et de dialogues. La fonctionnalité « Cameos » permet même de superposer son visage ou celui d’un ami sur une vidéo existante. Malgré un filigrane visible sur chaque création, de nombreux sites proposent désormais des outils pour le supprimer.
Lors de son lancement, OpenAI avait adopté une approche libérale concernant le droit d’auteur, autorisant par défaut la recréation de contenus protégés, sauf opposition des ayants droit. Les utilisateurs se sont rapidement emparés de cette possibilité pour générer des vidéos mettant en scène des personnages de « Bob l’éponge », « South Park » ou « Breaking Bad », ainsi que des reconstitutions inspirées de jeux télévisés et de sitcoms cultes des années 90.
Cependant, la tendance s’est rapidement orientée vers la reconstitution de célébrités décédées. Tupac Shakur errant dans les rues de Cuba, Hitler face à Michael Jackson, ou encore des remix du discours « I Have A Dream » du révérend Martin Luther King Jr. appelant à la libération du rappeur Sean « Diddy » Combs ont vu le jour. Face à ces usages, Zelda Williams, fille du regretté Robin Williams, a exprimé sa consternation sur Instagram :
« S’il vous plaît, arrêtez de m’envoyer des vidéos IA de papa. Vous ne créez pas de l’art, vous fabriquez des hot-dogs dégoûtants et sur-transformés à partir de la vie d’êtres humains, de l’histoire de l’art et de la musique, pour ensuite les faire avaler à quelqu’un d’autre en espérant qu’il vous donnera un petit coup de pouce et qu’il aimera ça. C’est répugnant. »
Zelda Williams
D’autres reconstitutions de figures comme Kobe Bryant, Stephen Hawking ou le président Kennedy ont accumulé des millions de vues. La famille de Fred Rogers s’est également dite « frustrée par les vidéos d’IA déformant Monsieur Rogers diffusées en ligne ». Des images montrant le célèbre personnage tenant une arme ou saluant Tupac, créées sur Sora, ont circulé, contredisant les valeurs de développement de l’enfant promues par Fred Rogers. Christina Gorski, directrice des communications chez Fred Rogers Productions, a déclaré au Times :
« Nous avons contacté OpenAI pour demander le blocage de la voix et de l’image de Mister Rogers sur la plateforme Sora, et nous nous attendons à ce qu’eux et d’autres plateformes d’IA respectent à l’avenir les identités personnelles. »
Christina Gorski, directrice des communications chez Fred Rogers Productions
Les syndicats hollywoodiens, tels que la SAG-AFTRA, ont accusé OpenAI d’usage inapproprié des ressemblances, soulevant la question du contrôle sur l’utilisation des images d’acteurs et de personnages sous licence, ainsi que d’une compensation équitable. En réponse, Sam Altman, PDG d’OpenAI, a promis un contrôle accru pour les détenteurs de droits sur l’utilisation de leurs personnages et explore des modèles de partage de revenus. Il a également indiqué que les studios pouvaient désormais « accepter » l’utilisation de leurs personnages dans des recréations par IA.
Alors que l’avenir de la création de contenu personnalisé se dessine, potentiellement à l’échelle individuelle, Altman évoque une « explosion cambrienne de la créativité », où la qualité de l’art et du divertissement pourrait s’accroître considérablement, qualifiant cet engagement de « fan fiction interactive ». Parallèlement, les héritiers de célébrités décédées s’activent pour protéger leur image. CMG Worldwide, représentant plusieurs d’entre eux, s’est associée à Loti AI, une société spécialisée dans la détection de deepfakes, pour surveiller et prévenir toute utilisation numérique non autorisée. Loti AI suit ainsi plus de 20 personnalités, dont Burt Reynolds, Christopher Reeve, Mark Twain et Rosa Parks.
« Depuis le lancement de Sora 2, par exemple, nos inscriptions ont été multipliées par 30, car les gens cherchent des moyens de reprendre le contrôle de leur image numérique », indique Luke Arrigoni, co-fondateur et PDG de Loti AI. La société affirme avoir supprimé des milliers d’instances de contenu non autorisé depuis janvier, facilitées par la démocratisation des outils d’IA.
Suite à plusieurs « représentations irrespectueuses » de Martin Luther King Jr., OpenAI a suspendu la génération de vidéos à son effigie sur Sora, à la demande de la propriété intellectuelle du Dr. King. OpenAI a précisé que, bien que la liberté d’expression soit un facteur important, les personnalités publiques et leurs familles devraient avoir le dernier mot sur l’utilisation de leur image. Désormais, les représentants autorisés ou les propriétaires de droits peuvent demander le blocage de leur image dans les « Cameos » Sora.
Sous la pression juridique croissante, Sora se montre plus stricte quant à la recréation de personnages protégés par le droit d’auteur, émettant de plus en plus d’avis de violation de sa politique de contenu. La création de personnages Disney, par exemple, déclenche désormais un avertissement. Les utilisateurs mécontents de ces restrictions ont commencé à créer des mèmes vidéo dénonçant ces notifications, dans ce qui est surnommé le « AI slop » (déchet de l’IA).
Ces derniers temps, des images de caméras de surveillance montrant une grand-mère poursuivant un crocodile à sa porte ont circulé, tout comme une série de vidéos d' »olympiades des gros » où des personnes en surpoids participent à des épreuves sportives. Ces contenus, qualifiés de « Cocomelon pour adultes » par un commentateur tech, sont générés en masse par des « usines à déchets » et constituent une source de revenus, bien que leur vision soit difficile à détourner.
Malgré les mesures de protection accrues pour les ressemblances de célébrités, les critiques soulignent que l’appropriation d’images de personnes ordinaires ou de situations banales peut semer la confusion, accroître la désinformation et éroder la confiance du public. Sam Gregory de WITNESS s’inquiète : « Je suis préoccupé par la possibilité de fabriquer des images de manifestations, de mettre en scène de fausses atrocités ou d’insérer de vraies personnes dans des scénarios compromettants avec des mots qui ne sont pas les leurs. »