Publié le 12 février 2024 10:23:00. OpenAI, la société à l’origine de ChatGPT, utilise une version spécifique de son intelligence artificielle pour identifier les fuites d’informations internes, révélant une stratégie de surveillance sophistiquée au sein de l’entreprise.
- OpenAI a mis en place un système basé sur ChatGPT pour traquer l’origine des fuites d’informations vers la presse.
- Ce système analyse les documents internes, les messages Slack et les courriels des employés pour identifier les sources potentielles des divulgations.
- L’entreprise a récemment développé un agent IA interne capable d’analyser d’énormes quantités de données, ce qui pourrait faciliter cette surveillance.
Pour contrer les fuites d’informations sensibles, OpenAI s’appuie sur une version personnalisée de ChatGPT. Selon un rapport du site d’information The Decoder, lorsqu’un article de presse révèle des détails sur les opérations internes de l’entreprise, l’équipe de sécurité d’OpenAI soumet le texte à cette IA spécialisée. Celle-ci a accès à un vaste ensemble de données, incluant les documents internes, les conversations sur Slack et les courriels des employés.
Le système est ensuite capable de suggérer les sources possibles de la fuite en croisant les informations publiées avec les fichiers et les canaux de communication auxquels les employés ont eu accès. Il permet ainsi d’identifier les personnes qui auraient pu être à l’origine de la divulgation. Pour l’heure, il n’a pas été confirmé si cette méthode a permis à OpenAI de démasquer des responsables.
Les détails précis de cette version spéciale de ChatGPT restent flous. Cependant, un indice pourrait résider dans le récent développement par les ingénieurs d’OpenAI d’un agent IA interne. Cet agent, conçu pour aider les employés à analyser des données complexes en langage naturel, a accès aux connaissances institutionnelles stockées dans divers outils de communication et de collaboration, tels que Slack et Google Docs. Il est capable de traiter un volume colossal de données, estimé à 600 pétaoctets (600 000 000 000 000 000 octets).
Cette initiative témoigne de la volonté d’OpenAI de protéger ses informations confidentielles dans un contexte de concurrence accrue et d’intérêt public croissant pour l’intelligence artificielle.