Au cœur des discussions du Paris AI Forum, un message fort s’est dégagé en 2025 : les acteurs des médias ne sont pas de simples spectateurs face à la révolution de l’intelligence artificielle. Loin d’être impuissants, ils peuvent et doivent maîtriser cet outil pour redéfinir le journalisme.
Des représentants de médias internationaux de renom, tels que Reuters, The Independent, Les Échos, la BBC, et d’autres, ont partagé leurs stratégies pour intégrer l’IA. L’objectif commun : optimiser les opérations, accroître l’autonomie des journalistes et renforcer la confiance du public. Cinq thématiques centrales ont émergé de ces échanges, esquissant l’état actuel des relations entre l’IA et l’industrie médiatique.
La maîtrise de l’IA par les éditeurs : un impératif stratégique
L’idée prédominante est que les professionnels des médias conservent une marge de manœuvre significative. Christian Broughton, PDG de The Independent, a encouragé ses pairs à considérer l’IA non pas comme une menace, mais comme un levier créatif. « La meilleure façon d’aborder l’avenir de l’IA dans le journalisme est d’en utiliser davantage, et de ne pas se considérer comme passif dans ce processus. Ne pas simplement découvrir ce que le secteur technologique pense que vous devriez faire, ou ce que le gouvernement pense que vous devriez faire, ou comment vous pouvez jouer en défense. »
The Independent a ainsi développé Bulletin, un produit d’information alimenté par l’IA, utilisant exclusivement son propre contenu et impliquant systématiquement des humains. Ce projet, fruit d’une collaboration étroite avec les journalistes, a paradoxalement créé de nouveaux emplois en formant une équipe dédiée à sa gestion.
Une démarche similaire a été adoptée par iTromsø en Norvège. Lars Adrian Giske, responsable IA de la publication, a expliqué comment leur rédaction a conçu des outils d’automatisation pour l’analyse de données. Cette initiative leur a permis de consacrer davantage de temps à des reportages et des enquêtes approfondies, face à la concurrence locale. « Le journalisme est une mission humaine de transparence, d’accès à l’information et de narration d’histoires importantes », a souligné Giske. « Aucun système d’agents ne peut faire cela, même s’il peut produire des choses qui ressemblent à du journalisme. »
Construire une IA fiable, au service de l’humain
Si l’automatisation et l’efficacité ont été des leitmotivs, l’importance du facteur humain a été constamment réaffirmée. Tant dans le processus de création que dans la perception du public, l’IA doit rester centrée sur l’humain.
En France, Les Échos et Le Parisien ont illustré comment la transparence éditoriale guide leurs expérimentations avec la vidéo et la traduction générées par l’IA. Le Parisien intègre des avertissements clairs dans ses contenus augmentés par l’IA, et utilise un style visuel cartoon pour ses reconstitutions vidéo, afin d’éviter toute confusion avec des images réelles.
Olle Zachrison, responsable IA de l’information à la BBC, a insisté sur la transparence, qu’il considère comme non négociable. La BBC utilise un modèle de langage adapté à des tâches spécifiques pour reformuler des articles de journalistes locaux, en respectant le style et le format maison. « Bien sûr, un rédacteur vérifie et révise tout avant publication », a-t-il précisé, ajoutant que les articles sont publiés avec une clause de non-responsabilité relative à l’IA. L’objectif est de construire la confiance par une utilisation visible, responsable et assumée éditorialement de la technologie.
La collaboration : un rempart face aux bouleversements de l’IA
Au-delà des cas d’usage individuels, les éditeurs ont souligné la nécessité d’une défense collective face aux perturbations causées par l’IA, notamment en matière de protection de la propriété intellectuelle face aux grandes plateformes technologiques.
David Buttle, de DJB Strategies, a alerté sur les risques pour les éditeurs de signer des accords de licence individuels, qui pourraient complexifier la mise en place de normes collectives pour la licence de contenu. Bien que des accords aient déjà été conclus, il anticipe leur évolution. « Je pense toujours qu’il y a beaucoup à jouer, mais le jeu s’éloigne rapidement de nous en tant qu’industrie », a-t-il prévenu.
Arnaud Aubron, responsable du développement commercial au Monde, et Martin Schori, rédacteur en chef adjoint et éditeur associé chez Aftonbladet, ont partagé les retours d’expérience de leurs premières collaborations avec OpenAI. Ils ont particulièrement mis en avant l’avantage d’un accès direct aux ingénieurs des entreprises d’IA lors du développement de nouveaux produits.
Chance Gunasekara, de Miso.ai, a plaidé pour une « OTAN de l’information », une approche coordonnée pour lutter contre le scraping de contenu et l’utilisation non autorisée de données. Josh Freeman, de ProRata.ai, a quant à lui présenté des systèmes de licence et d’attribution partagés, visant à garantir une rémunération équitable.
L’IA, catalyseur de transformations culturelles profondes
Les intervenants ont également mis en exergue l’influence de la culture interne sur l’adoption réussie de l’IA. Tina Rogers, responsable de la prestation – IA éditoriale et automatisation chez Better Collective au Danemark, a décrit un processus de deux ans, marqué par des essais, des erreurs et des itérations au sein de son groupe de médias sportifs. Son équipe a expérimenté la couverture sportive assistée par IA pour accélérer la protection de contenu, en apprenant à intégrer l’automatisation de manière sécurisée.
« Si vous n’expérimentez pas déjà, commencez petit et évoluez intelligemment », a-t-elle conseillé. « Donnez la priorité aux personnes et à la communication plutôt qu’à la technologie. »
Chez Reuters, un processus similaire est en cours, mais à plus grande échelle. Jeanne Barrett, responsable de la stratégie IA, a indiqué que le succès de l’IA est mesuré par la vitesse, la précision et la productivité, mais aussi, et surtout, par la « sécurité psychologique », c’est-à-dire la création d’environnements où les employés peuvent expérimenter librement de nouveaux outils. « Nous voulons qu’ils échouent », a déclaré Barrett. « Cela signifie que nous avons essayé quelque chose. Cela n’a pas fonctionné. Alors essayons à nouveau, résolvons-le. C’est ainsi que nous développons le muscle de flexibilité. »
Redéfinir les formats et les modes de découverte de l’information
Enfin, de nombreux intervenants ont abordé la manière dont l’IA remodèle l’apparence du journalisme et les modes de découverte par le public.
Violaine Degas, des Échos, a décrit le passage d’un modèle « centré sur l’article » à un modèle plus « centré sur le service », utilisant l’IA pour les traductions et les playlists audio. Sophie Cassam Chenaï, du Parisien, a détaillé l’utilisation de l’IA pour les suggestions et les insertions vidéo.
À La Provence, l’IA produit désormais des versions audio des articles, des résumés des titres principaux et des bulletins d’actualité personnalisés, le tout narré par des voix synthétiques clonées à partir de celles d’acteurs.
Romain Damery, directeur principal du référencement technique chez Amsive, a quant à lui évoqué l’évolution constante de la découverte par les moteurs de recherche. Les aperçus générés par IA dans Google ayant déjà un impact sur les taux de clics, il estime que la visibilité dépendra de plus en plus de contenus optimisés par l’IA : clairement structurés, particulièrement perspicaces et crédiblement attribués.
Alors que les éditeurs s’adaptent à un paysage technologique en mutation rapide, leur volonté d’expérimenter, de collaborer et d’investir dans leurs équipes sera cruciale pour façonner le rôle de l’IA dans le journalisme. Comme le suggère Broughton de The Independent, en ces temps incertains, les acteurs des médias feraient bien de « concentrer tous nos efforts pour être maîtres de notre propre destin, en utilisant nos propres termes ».