Home Économie Des chercheurs explorent comment l’IA peut renforcer, et non remplacer, la collaboration humaine – Actualités

Des chercheurs explorent comment l’IA peut renforcer, et non remplacer, la collaboration humaine – Actualités

0 comments 143 views

Publié le 2025-10-31 15:38:00. Des chercheurs de l’Université Carnegie Mellon explorent comment l’intelligence artificielle (IA) peut devenir un véritable partenaire au travail, renforçant les équipes plutôt qu’en les remplaçant. Une nouvelle approche, baptisée COHUMAIN, vise à intégrer l’IA tout en préservant les fondements de l’intelligence collective humaine.

  • L’IA peut agir comme un « ciment » pour les équipes, améliorant la collaboration et les relations interpersonnelles, selon Anita Williams Woolley.
  • Le cadre COHUMAIN préconise de considérer l’IA comme un assistant sous contrôle humain, capable d’accroître les capacités existantes.
  • La transparence de l’IA n’est pas toujours souhaitable ; dans certains cas, une « boîte noire » peut paradoxalement susciter plus de confiance et une meilleure performance.

Au sein de l’École de commerce Tepper de l’Université Carnegie Mellon, Anita Williams Woolley, professeure en comportement organisationnel, mène des recherches sur l’intelligence collective – la manière dont les équipes fonctionnent ensemble. Son objectif est de comprendre comment l’intelligence artificielle peut transformer la dynamique de la main-d’œuvre de manière positive. « Je suis toujours intéressée par la technologie qui peut nous aider à devenir une meilleure version de nous-mêmes individuellement », explique-t-elle, « mais aussi collectivement, comment pouvons-nous changer notre façon de penser et de structurer le travail pour être plus efficace ? »

En collaboration avec des experts en technologie et d’autres spécialistes, Woolley a développé un cadre théorique intitulé INtelligence Collective HOMME-MACHINE (COHUMAIN). Cette approche cherche à définir la place de l’IA dans les domaines établis de la psychologie sociale organisationnelle. Les chercheurs insistent sur le fait que l’IA ne doit pas être traitée comme un membre d’équipe ordinaire. Elle est envisagée comme un partenaire opérant sous supervision humaine, susceptible d’augmenter les compétences ou de renforcer les liens existants. « Les agents d’IA pourraient créer le ciment qui manque en raison de l’évolution de nos environnements de travail et, à terme, améliorer nos relations les uns avec les autres », avance Anita Woolley.

Les recherches à la base de COHUMAIN soulignent qu’en dépit des formes inédites que pourrait prendre l’intégration de l’IA, les principes fondamentaux de l’intelligence organisationnelle resteront intacts. L’IA ne pourra pas non plus se substituer entièrement aux rôles humains. Par exemple, si l’IA peut synthétiser le contenu d’une réunion, il incombe toujours aux participants de saisir l’ambiance générale ou le contexte élargi des discussions.

Les besoins des organisations demeurent les mêmes, notamment la nécessité d’une structure permettant d’exploiter l’expertise unique de chaque membre humain. Selon Woolley, les systèmes d’IA seraient plus utiles dans des rôles de « partenariat » ou de facilitation, plutôt que de gestion. Ils pourraient par exemple inciter les collaborateurs à échanger ou offrir une perspective alternative à l’utilisateur.

Sécurité et prise de risque

Dans un contexte de collaboration de plus en plus virtuelle, les outils d’IA pourraient contribuer à renforcer les liens entre collègues. Cependant, ces mêmes outils soulèvent des questions quant à ce qui est enregistré et dans quel but. « Les gens sont très sensibles, à juste titre, à la question de la vie privée. Souvent, il faut renoncer à quelque chose pour obtenir quelque chose, et c’est vrai ici », constate Woolley.

Le niveau de risque perçu par les utilisateurs, tant sur le plan social que professionnel, peut varier en fonction de leur interaction avec l’IA. C’est ce qu’explore Allen Brun, doctorant travaillant en étroite collaboration avec Woolley. Ses recherches portent sur la mesure dans laquelle les individus se sentent à l’aise pour prendre des risques ou s’exprimer en groupe. « Dans le meilleur des cas, l’IA pourrait aider les gens à se sentir plus à l’aise pour s’exprimer et partager de nouvelles idées qui autrement ne seraient pas entendues », explique Brun. Il illustre avec un exemple de classe : « On peut imaginer quelqu’un dire : « Oh, je suis un peu inquiet. Je n’en sais pas assez pour mon professeur, ni comment mes pairs vont juger ma question », ou « Je pense que c’est une bonne idée, mais ce n’est peut-être pas le cas ». Nous ne le saurons pas tant que nous ne l’aurons pas publié. »

Étant donné que l’IA repose sur un enregistrement numérique qui peut ou non être conservé indéfiniment, une préoccupation majeure est qu’un humain puisse ignorer quelles interactions avec une IA seront utilisées à des fins d’évaluation. « Dans nos espaces de travail de plus en plus numérisés, une grande partie de ce que nous faisons est suivie et documentée », souligne Brun. « Il existe un enregistrement numérique des choses, et si je prends conscience que : ‘Oh, tout d’un coup, notre conversation pourrait être utilisée à des fins d’évaluation’, nous constatons réellement cette différence significative dans l’interaction. »

Même lorsqu’ils pensaient que leurs commentaires pourraient être surveillés ou jugés par des professionnels, les individus se sentaient relativement en sécurité pour parler à un autre être humain. « Nous parlons ensemble. Nous travaillons sur quelque chose ensemble, mais nous sommes tous les deux des personnes. Il y a une sorte de prise de risque mutuelle », détaille-t-il.

L’étude révèle que les gens se sentent plus vulnérables lorsqu’ils perçoivent qu’un système d’IA les évalue. Allen Brun cherche à comprendre comment l’IA peut être utilisée pour obtenir l’effet inverse, celui qui renforce la confiance. « Quels sont les contextes dans lesquels l’IA pourrait être un partenaire, pourrait faire partie de cette pratique de communication conversationnelle au sein d’une paire d’individus au travail, comme une relation superviseur-supervisé, ou peut-être au sein d’une équipe où ils travaillent sur un sujet qui pourrait entraîner un conflit de tâches ou un conflit relationnel ? » questionne Brun. « Comment l’IA aide-t-elle à résoudre le processus décisionnel ou à améliorer la résolution afin que les gens ressentent réellement une sécurité psychologique accrue ? »

Vers une IA plus fiable

Sur le plan individuel, les chercheurs de Tepper étudient également comment la manière dont l’IA explique son raisonnement influence son utilisation et la confiance qu’on lui accorde. Zhaohui (Zoey) Jiang et Linda Argote analysent les réactions des individus face à différents types de systèmes d’IA, notamment ceux qui explicitent leur raisonnement (IA transparente) et ceux qui ne détaillent pas leurs processus décisionnels (IA boîte noire).

« Nous voyons beaucoup de gens plaider en faveur d’une IA transparente », observe Jiang, « mais nos recherches révèlent un avantage à garder l’IA comme une boîte noire, en particulier pour un participant de haut niveau. » L’une des raisons avancées est l’excès de confiance et la méfiance envers les décideurs compétents. « Pour un participant qui fait déjà du bon travail de manière indépendante dans la tâche, il est plus enclin à la tendance bien documentée de l’aversion pour l’IA. Il pénalisera l’erreur de l’IA bien plus que les humains qui commettent la même erreur, y compris eux-mêmes », explique Jiang. « Nous constatons que cette tendance est plus marquée si vous leur expliquez le fonctionnement interne de l’IA, comme sa logique ou ses règles de décision. »

Les personnes qui rencontrent des difficultés dans leur prise de décision voient leurs résultats s’améliorer lorsqu’elles utilisent des modèles d’IA transparents qui mettent en évidence une complexité modérée dans leur processus décisionnel. « Nous constatons qu’il est en fait préférable pour les utilisateurs moins qualifiés de leur expliquer comment l’IA réfléchit à ce problème, car ils peuvent apprendre des règles de prise de décision de l’IA pour les aider à améliorer leur propre prise de décision indépendante future. »

Bien que la transparence présente ses propres cas d’usage et avantages, les découvertes les plus surprenantes de Jiang concernent la perception des modèles boîte noire. « Lorsque nous ne disons pas à ces participants comment le modèle est arrivé à sa réponse, ils jugent le modèle comme le plus complexe. L’opacité semble gonfler le sentiment de sophistication, alors que la transparence peut rendre le même système plus simple et moins « magique » », détaille-t-elle.

Les deux types de modèles présentent des cas d’utilisation variés. Bien qu’il ne soit pas encore économiquement viable d’adapter une IA à chaque partenaire humain, les futurs systèmes pourraient être capables d’auto-adapter leur représentation pour aider les individus à prendre de meilleures décisions. « Il peut être dynamique dans le sens où il peut reconnaître les inefficacités décisionnelles de la personne particulière avec laquelle il est chargé de collaborer, et peut-être s’adapter afin de pouvoir aider à compléter et compenser certaines des inefficacités décisionnelles », conclut-elle.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.