Meta se concentre sur l’IA générative et dissout son équipe d’IA responsable
Dans une publication interne, Meta a annoncé qu’elle dissoudrait son équipe d’Intelligence Artificielle Responsable (RAI) pour se concentrer sur l’IA générative, selon un rapport de The Information. La plupart des membres de l’équipe RAI rejoindront l’équipe de produit d’IA générative de Meta, tandis que d’autres travailleront sur l’infrastructure d’IA de l’entreprise.
Meta a toujours mis l’accent sur le développement responsable de l’IA et a même une page dédiée à cette promesse, où elle énumère ses “piliers de l’IA responsable” tels que la responsabilité, la transparence, la sécurité et la confidentialité.
Jon Carvill, représentant de Meta, a déclaré que l’entreprise continuerait à prioriser et à investir dans le développement sûr et responsable de l’IA. Il a également souligné que les membres de l’équipe dissoute continueraient à soutenir les efforts transversaux de Meta en matière de développement et d’utilisation responsable de l’IA.
L’équipe RAI avait déjà fait l’objet d’une restructuration cette année, avec des licenciements qui avaient laissé l’équipe “comme une coquille vide”, selon Business Insider. Le rapport indiquait également que l’équipe RAI manquait d’autonomie et que meta-se-concentre-sur-lia-generative-en-cassant-son-equipe-dintelligence-artificielle-responsable/” title=”Meta se concentre sur l'IA générative en cassant son équipe d'Intelligence Artificielle Responsable”>ses initiatives devaient passer par de longues négociations avant d’être mises en œuvre.
L’équipe RAI avait été créée pour identifier les problèmes liés aux approches de formation en IA de Meta, notamment en ce qui concerne la diversité des informations utilisées pour former les modèles de l’entreprise. Les systèmes automatisés des plateformes sociales de Meta ont déjà causé des problèmes, tels qu’un problème de traduction sur Facebook qui a entraîné une fausse arrestation, la génération de stickers WhatsApp par l’IA produisant des images biaisées, et les algorithmes d’Instagram qui aident à trouver du contenu de maltraitance sexuelle sur des enfants.
Meta n’a pas encore répondu à une demande de commentaire.
C’est tout pour aujourd’hui, restez à l’affût des dernières actualités technologiques !
1 comment
Cela semble être une décision surprenante, j’espère que cela n’aura pas de conséquences négatives sur l’éthique et la responsabilité de l’IA.