Publié le 25 février 2026 à 02:00. Google Labs s’enrichit de ProducerAI, un outil de création musicale basé sur l’intelligence artificielle, promettant de nouvelles perspectives aux artistes et aux amateurs de musique.
La plateforme ProducerAI, soutenue par le duo de musique électronique The Chainsmokers, rejoint officiellement Google Labs. Cette acquisition, annoncée mardi, vise à intégrer les capacités de création musicale assistée par IA de ProducerAI dans la suite d’outils de Google, offrant ainsi aux utilisateurs un nouveau moyen d’explorer leur créativité musicale.
ProducerAI se distingue par sa capacité à transformer des requêtes en langage naturel en compositions musicales. Les utilisateurs peuvent, par exemple, demander la création d’un « rythme lofi », et l’outil génère une piste audio correspondante. Il s’appuie sur le modèle de génération de musique Lyria 3 de Google DeepMind, capable de convertir des textes et des images en sons. Lyria 3 est présenté comme un modèle de pointe dans le domaine de la génération musicale.
Bien que Google ait déjà intégré les capacités de Lyria 3 dans son application phare Gemini la semaine dernière, ProducerAI offre une approche plus collaborative. Selon Elias Roman, directeur principal de la gestion des produits chez Google Labs, l’outil permet aux utilisateurs d’interagir avec l’IA comme avec un véritable partenaire créatif.
« ProducerAI m’a permis de créer de nouvelles manières. J’ai expérimenté de nouveaux mélanges de genres, exprimé ce que je ressens avec des chansons d’anniversaire personnalisées pour mes proches et créé des bandes sonores d’entraînement personnalisées pour moi et mes amis. »
Elias Roman, directeur principal de la gestion des produits, Google Labs
L’intégration de ProducerAI s’inscrit dans un contexte plus large d’exploration de l’IA dans l’industrie musicale. Le rappeur Wyclef Jean a déjà utilisé le modèle Lyria 3 et l’environnement Music AI Sandbox de Google pour enrichir sa récente chanson « De retour d’Abou Dhabi« .
Jeff Chang, directeur de la gestion des produits chez Google DeepMind, souligne l’importance de la curation humaine dans ce processus :
« Il ne s’agit pas simplement d’une machine dans laquelle vous cliquez cent fois sur un bouton, puis vous avez terminé. Il s’agit d’une sorte de curation minutieuse dans laquelle vous procédez en disant : « Oh, je pense que c’est quelque chose que nous pouvons utiliser ». »
Jeff Chang, directeur de la gestion des produits, Google DeepMind
Cette annonce intervient alors que l’utilisation de l’IA dans la création musicale suscite des débats. Certains artistes, comme Billie Eilish, Katy Perry et Jon Bon Jovi, se sont opposés à l’utilisation d’outils d’IA, craignant une violation des droits d’auteur et une dévalorisation de la créativité humaine. Des éditeurs de musique ont également poursuivi la société d’IA Anthropic pour utilisation non autorisée d’œuvres protégées par le droit d’auteur.
Cependant, d’autres artistes explorent le potentiel de l’IA pour améliorer la qualité audio et faciliter le processus créatif. Paul McCartney a par exemple utilisé des systèmes de réduction du bruit alimentés par l’IA pour restaurer une démo de John Lennon, donnant naissance à la chanson des Beatles « De temps en temps« , récompensée par un Grammy en 2025. Des artistes émergents, comme Telisha Jones, ont également réussi à percer grâce à la musique générée par l’IA, signant des contrats d’enregistrement à plusieurs millions de dollars.
La question de la légalité de l’utilisation d’œuvres protégées par le droit d’auteur pour l’entraînement des modèles d’IA reste en suspens, un juge fédéral ayant statué que la formation sur des données protégées par le droit d’auteur est légale, mais que le piratage ne l’est pas.