Publié le 13 février 2026. LinkedIn utilise désormais les données de ses membres européens pour entraîner ses systèmes d’intelligence artificielle, une pratique activée par défaut qui soulève des questions sur la protection de la vie privée et le contrôle des données personnelles.
- LinkedIn collecte et utilise les données de profil, les publications, les informations de candidature et les activités de groupe de ses utilisateurs européens pour alimenter ses modèles d’IA.
- Les utilisateurs doivent activement désactiver cette fonction dans les paramètres de leur compte pour empêcher l’utilisation de leurs données.
- Cette pratique s’inscrit dans une tendance plus large des grandes plateformes technologiques à exploiter les données des utilisateurs pour le développement de l’IA, avec des approches variables en matière de consentement et de transparence.
Depuis le 3 novembre 2025, LinkedIn traite les données de profil de ses membres situés dans l’Union européenne, l’Espace économique européen et en Suisse pour la formation de ses intelligences artificielles. Cette utilisation des données, qui inclut des informations remontant jusqu’en 2003, est basée sur un « intérêt légitime » selon le Règlement Général sur la Protection des Données (RGPD), sans nécessiter de consentement explicite des utilisateurs. Il incombe donc aux membres de désactiver manuellement cette fonctionnalité dans les paramètres de confidentialité de leur compte.
Les informations collectées sont vastes et comprennent le nom, la photo de profil, les expériences professionnelles, la formation, les recommandations, les publications, les candidatures, les interactions dans les groupes et les commentaires. Selon LinkedIn, les messages directs privés, les informations de connexion et les données de paiement sont exclus de cette collecte. Cependant, l’étendue des données traitées suscite des inquiétudes quant à la protection de la vie privée et à l’utilisation potentielle de ces informations.
Pour désactiver le partage de données, LinkedIn propose une procédure spécifique : se connecter au compte, cliquer sur la photo de profil, accéder aux paramètres, puis à la section « Données et protection des données », sélectionner « Données pour l’amélioration de l’IA générative » et désactiver l’option « Utiliser mes données pour entraîner des modèles d’IA à la création de contenu ». Bien que cette désactivation empêche l’utilisation future des données, les informations déjà traitées restent intégrées aux ensembles de données d’entraînement. Les utilisateurs peuvent également exercer leur droit d’opposition en remplissant un formulaire dédié.
Cette initiative de LinkedIn s’inscrit dans un contexte plus large. En novembre 2024, l’entreprise avait déjà commencé à utiliser les données des utilisateurs situés en dehors de l’Europe pour la formation de ses IA. Le site d’information 404 Media a révélé que LinkedIn n’avait pas initialement mis à jour sa politique de confidentialité avant de lancer cette collecte de données, avant d’annoncer une modification des conditions d’utilisation.
D’autres plateformes, comme Meta, ont également tenté d’utiliser les données de leurs utilisateurs européens pour l’entraînement de leurs IA, mais ont rencontré une résistance initiale. Aux États-Unis, où la législation en matière de protection des données est moins stricte, Meta utilise déjà ces informations sans offrir aux utilisateurs la possibilité de s’y opposer. Google, de son côté, traite également les données des utilisateurs pour son chatbot Gemini, et un incident a révélé un accès non autorisé à des informations de boîtes de réception Gmail.
Ces pratiques soulignent l’évolution du modèle économique des entreprises technologiques, qui, traditionnellement financées par la publicité ciblée grâce aux données des utilisateurs, étendent désormais l’utilisation de ces informations au développement de l’intelligence artificielle. La monétisation des données personnelles reste au cœur de la stratégie de ces entreprises, et les développements actuels témoignent d’une utilisation accrue de ces données pour l’entraînement et l’amélioration des systèmes d’IA.
Pour les utilisateurs soucieux de leur vie privée, il existe des alternatives axées sur la protection des données, telles que les services de messagerie cryptés comme Tuta Mail ou les applications de messagerie sécurisées comme Signal. Un choix éclairé nécessite une compréhension approfondie des politiques de confidentialité et des conditions d’utilisation des différentes plateformes.
