L’entreprise Tools for Humanity, fondée en partie par Sam Altman, pourrait bien voir son projet de vérification d’identité numérique, l’Orb, perdre de son importance face à l’essor rapide des agents d’intelligence artificielle. Alors qu’un réseau social dédié à ces agents est devenu viral, l’intérêt pour la solution de l’Orb semble paradoxalement stagner.
L’Orb est un dispositif matériel conçu pour distinguer les humains des intelligences artificielles sur internet. Après un scan de l’iris, il fournit un code servant de « preuve d’humanité ». Cependant, l’entreprise, qui a également exploré l’idée d’un revenu de base universel, peine à expliquer clairement l’utilité de son produit, même à ses propres équipes.
Selon Trevor Traina, directeur commercial de Tools for Humanity, la popularité soudaine du réseau Moltbook a suscité un regain d’intérêt de la part d’entreprises cherchant des solutions pour identifier les robots en ligne. « Les gens qui nous prenaient pour des fous commencent maintenant à nous écouter », a-t-il déclaré. Ces entreprises voient dans l’Orb un moyen potentiel de résoudre le problème de l’identification des agents autonomes.
Toutefois, l’entreprise n’a pas fourni de données concrètes pour étayer l’affirmation d’une augmentation significative de ses activités au moment de la publication de cet article. Par ailleurs, la question de savoir si Moltbook représente une véritable avancée vers des agents d’IA autonomes ou simplement une démonstration de leurs limites actuelles reste ouverte.
Tools for Humanity reconnaît les défis auxquels elle est confrontée. « Nous avons un problème », a admis Traina, « nous avons été limités par l’Orb ». L’entreprise avait initialement prévu de lancer l’Orb aux États-Unis avec 7 500 unités disponibles d’ici mai dernier, mais son impact culturel reste minime. Convaincre le public de partager ses données oculaires s’avère plus difficile que prévu.
Face à ces difficultés, Tools for Humanity explore désormais des alternatives à l’Orb. « Nous allons parler d’autres méthodes, de haut en bas de la pile, pour prouver la vivacité et l’identité, en plus des personnes vérifiées par Orb », a précisé Traina, sans pour autant donner de détails précis.
Dans un autre registre, John Coogan, animateur de l’émission de talk-show TBPN de la Silicon Valley, a ironiquement lancé une version de Claude, l’IA d’Anthropic, financée par la publicité, en réponse à la campagne publicitaire d’Anthropic mettant en avant l’absence de publicité dans Claude. « Je voulais que Claude ait un niveau pris en charge par la publicité depuis des années. Aujourd’hui, grâce à l’API Opus 4.6, Claude avec publicités est là. Profitez d’une intelligence trop bon marché pour être mesurée », a-t-il déclaré sur X.
Enfin, Sam Altman, PDG d’OpenAI, a annoncé vendredi aux employés de l’entreprise que ChatGPT connaissait une croissance mensuelle de plus de 10 %. Si cette tendance se maintient, OpenAI pourrait dépasser le milliard d’utilisateurs hebdomadaires de ChatGPT dans un avenir proche. Une nouvelle version du modèle est également prévue cette semaine.
Une nouvelle insulte est apparue sur internet : accuser quelqu’un d’utiliser l’IA pour écrire. « Se faire dire que vous ressemblez à une IA peut alors sembler étrangement déshumanisant », explique Angela Haupt dans un article publié dans TIME. « Ce n’est pas une question de qualité. C’est une question d’identité. Cela suggère que votre voix est générique ou interchangeable et cela fait mal. »