IA, remettre le facteur humain au cœur

Cette réflexion est issue d’une intervention lors du webinaire de la communauté Essaim, à laquelle a participé Maxime Barbier, aux côtés de Sébastien Allain et Caroline Loisel, avec l’animation de Sandrine Bélier.

Pour découvrir le replay de ce webinaire : lien

 

Qu’entendez-vous par « remettre le facteur humain au cœur » ?

 

« Remettre le facteur humain au cœur », c’est avant tout : s’interroger, débattre, délibérer sur ce que l’IA et les IA génératives (IAG) révèlent de nous, nous apprennent de nous. Dans nos forces comme dans nos faiblesses.

Ce qui est intéressant, c’est de voir en quoi :

  • Elles révèlent ce que l’humain fait de mieux, à savoir les qualités individuelles et collectives qui sont mises en valeur : notre créativité, notre capacité de réflexion, notre recherche permanente de solution et de progrès, la capacité à prendre des décisions….
  • Elle révèlent aussi nos imperfections, nos faiblesses, nos émotions négatives, nos mauvaises réactions, nos travers, nos petites dissimulations…

Il faut voir le phénomène comme un grand miroir de ce que l’on est, un miroir grossissant et parfois déformant du positif et du négatif.

En somme, remettre le facteur humain au cœur, c’est décrypter cette interaction entre IA et humain, et ses effets (positifs comme négatifs), à la fois pour les individus, les collectifs (équipes, organisations, communautés…), et la société au sens large.

 

Qu’est-ce que l’IA peut apporter de meilleur aux humains ?

 

J’aimerais insister sur deux aspects que je peux observer dans le cadre de notre activité chez bluenove. Dans le cadre des grandes consultations massives que nous organisons, nous recueillons l’expression libre des participants (verbatims, conversations…) que l’on doit ensuite analyser. C’est par exemple le cas pour des consultations citoyennes (Grand débat national, Conseil national de la Refondation, États généraux de la Justice) ou pour des consultations en entreprises (EDF, Veolia, Axa, Crédit Mutuel…).

Le premier point, c’est que l’IA permet la réhabilitation de certaines “tâches” réalisées par l’humain. Je note que certaines tâches d’analyse réalisées par des humains, qui étaient souvent cachées, dissimulées, occultées sont désormais fortement valorisées. C’est le cas de tout le travail de supervision, d’éditorialisation, d’interprétation humaine faite par nos consultants, en complément des analyses sémantiques issues de l’IA (traitement automatisé du langage). Ce qui passait presque inaperçu ou était invisible est désormais explicite. Pourquoi ? Parce que l’on sait que l’IA ne peut pas tout faire. Il y a une prise de conscience d’où est la valeur ajoutée de l’IA, et aussi là où elle s’arrête, et où l’humain a de la valeur et doit prendre le relai.

Le second point, c’est la révélation de notre intelligence humaine. L’IA identifie ce que l’on était pas facilement capable d’identifier, de synthétiser, à savoir l’intelligence collective. Chez bluenove, nous développe des algorithmes qui permettent d’analyser des dizaines de milliers de verbatims ou de messages vocaux… Nous nous appuyons notamment sur un algo qui permet d’identifier des « pépites », des idées rares, souvent exprimées par un seul participation. Par exemple, lors des États généraux de la justice, nous avons pu faire ressortir, par le million de contributions, les 400 idées « pépites » des citoyens. L’IA joue le rôle de sublimation de la diversité et de la richesse de la parole citoyenne.

En résumé, l’IA joue un rôle positif en remettant en visibilité des actions ou des idées jusqu’alors invisibles. (pour en savoir plus sur les analyses)

 

Au contraire, quels sont les impacts négatifs de l’IA ou en d’autres mots, et en reprenant une expression du philosophe allemand Harmut Rosa, « que perdons-nous à gagner du temps » (via l’IA) ?

On observe aussi, que les usages de l’IA et des IAG révèlent certains comportements ou créént certaines situations qui génèrent du négatif, voire certaines déviances.

En premier lieu, je trouve que l’IA nous enlève une part du plaisir. Certaines actions ou tâches que l’on adorait faire peuvent disparaitre d’un coup, parce que remplacées par l’IA. Par exemple, dans le cadre de notre activité, nous devons élaborer un questionnaire. C’est un moment important où l’on doit identifier les bons sujets, les bons questionnements. C’est le moment du projet où l’on itère au sein de l’équipe. C’est l’art de la questiologie. Avec Chat Gpt, en moins de 2 secondes, il est possible d’avoir une (bonne) proposition dont on a beaucoup de mal à se sortir…

L’usage de l’IA peut également être générateur de honte et de violence. D’une forme de déclassement professionnel. Ce pourquoi j’avais l’impression d’être bon, ce pourquoi j’étais reconnu par mes collègues, ou par mes clients (par exemple réaliser un questionnaire), ce pourquoi j’avais l’impression d’avoir une compétence clé, tout cela m’est enlevé de manière violente et quasi instantanée par la machine. On se retrouve dépossédé d’une compétence. Ce qui est difficile, c’est que l’on en est pas forcément conscient tout de suite.

Et parfois, (souvent même), on ne l’assume pas… On le cache, on le dissimule… C’est parfois tabou d’utiliser des IA génératives. Dans les organisations, on perd en transparence, en confiance…

Le stade d’après, c’est le risque de basculer dans une forme d’addiction ou de frénésie dans l’utilisation de l’IA. Quand on souhaite écrire un article par exemple ou des posts sur les réseaux sociaux, on peut devenir dépendant du recours aux IAG. Et privilégier du quantitatif à du qualitatif.

C’est pourquoi, il faut accompagner les usages de l’IA, les organisations ne peuvent pas laisser leurs collaborateurs seuls face à ce mouvement.

 

J’aimerais vous entendre sur l’impact de l’IA sur nos compétences, nos capacités relationnelles, sur le contrat social, la culture d’entreprise et la culture de notre singularité.

 

L’IA nous permet indéniablement de développer de nouvelles capacités, mais pas forcément de nouvelles compétences.

A court terme, il existe un risque de perte de compétences, si l’on ne met pas le cadre autour : perte de créativité et en réflexion critique, déficit dans les capacités d’argumentation et de modélisation, risques liés à la recherche de réponses simples à des problématiques complexes…

Au début, le recours aux IAG est très pratique, mais à mesure que l’on délègue encore et encore, sans s’en rendre compte, on perd des compétences, ses compétences…

Je pense qu’il y un enjeu « culturel » au niveau de chacune des organisation et à fortiori à l’échelle de la société, d’une appropriation collective des technologies d’IA, indispensable pour les mettre au service d’un projet de développement business, ou d’un projet de société positif. Un enjeu de diffusion auprès de plus grand nombre demeure. Il s’agit de sensibiliser, former, intéresser en masse les professionnels, les dirigeants, les citoyens, les élus, les étudiants…via des formations, des projets culturels, des décryptages par les médias, des débats dans les entreprises, des consultations publiques, des conventions citoyennes…

Le risque est de créer un nouveau clivage dans les organisations et dans la société : entre les sachants et les non sachants vis-à-vis de l’IA.

 

A quoi faut-il être particulièrement vigilant pour que l’humain reste au cœur de l’IA ? Et qui doit poser le cadre et superviser cette utilisation et son impact ?

 

J’aimerais faire le parallèle avec l’injonction que l’on entend souvent dans le milieu professionnel : « il faut donner du sens au travail« . Mais la réalité, c’est qu’il n’y a pas de sens au travail à proprement parler. En revanche, c’est en échangeant, en se questionnant, en expérimentant autour de la notion de travail qu’on donne du sens ! C’est nous qui décidons ce que l’on en fait au quotidien. La problématique est la même sur l’IA et les IAG. Il ne faut pas chercher “à donner du sens à l’IA”. Il faut se questionner ensemble sur le sens à donner autour de l’IA.

Pour cela, j’ai une conviction : il faut remettre du débat, de la délibération dans les organisations sur l’intelligence artificielle. Il est possible de débattre de la technique, de l’IA, des compétences qui sont créées, celles qui sont détruites, des comportements qui sont engendrés, du cadre et de la gouvernance à mettre en place… Je préconise de co-construire le « cadre de coopération » entre l’IA et les humains, dans les organisations.

La réalité est la suivante : nous avons tous été attaqués individuellement par la « déferlante » des IAG. Chacun a tenté d’apporter une réponse individuelle, de mettre son propre cadre d’utilisation. Mais, à mon sens, on s’est très (trop) peu interrogés sur ce que l’on avait envie d’en faire collectivement.

Il est nécessaire de prendre du recul régulièrement, de faire de l’introspection, de retrouver du débat, de l’esprit critique…au regard de la vitesse de déferlante. Par exemple, tous les 6 mois, les organisations devraient lancer un sanity check. Est-ce qu’on est en train de tomber malades ? Devenir dépendants ? Perdre notre âme ? Perdre le rapport de force ?

L’organisation de bootcamp internes permettraient de faire le point sur les usages, sur les compétences développées, sur l’évaluation des impacts…

 

Nous avons également entre nos mains la capacité à remettre de la convivialité autour de l’IA et des IAG. Le combat ne doit pas être de vouloir rendre Chat GPT convivial, car c’est un combat perdu d’avance. Mais apprendre de Chat GPT pour créer des bulles de convivialité,  d’anti-violence, de dialogue peut nous être très vertueux.

Puisqu’il y a beaucoup d’incertitudes sur quels seront les métiers du Futur, notamment avec l’impact de l’IA dans la transformation des métiers, dans quoi l’humain doit-il investir en priorité en termes de compétences à développer ?

L’imagination est clé. Nous devons créer un récit positif et une culture commune autour de l’IA, anticipant ainsi les futurs possibles. C’est en imaginant et en participant activement à la conception de ces futurs que nous pourrons influencer positivement le rôle de l’IA dans notre société. Il ne s’agit pas simplement de subir les changements, mais de les modeler activement.

Je partage, pour terminer cet entretien, deux initiatives qui vont dans ce sens.

Bright Mirror est un mouvement lancé par bluenove il y a 5 ans pour imaginer et co-écrire des récits fictionnels, positifs, optimistes sur notre société. Le design fiction est une méthode très efficace pour produire ce nouveau récit sur l’IA.

Youth Talks est une initiative de mobilisation des jeunesses, à l’échelle internationale, lancée par la Higher Education for Good, avec de très nombreux partenaires du monde de l’éducation. Un débat « Youth talks on AI » est lancé auprès de milliers de jeunes sur 3 thèmes en lien avec l’IA : éducation, bien-être, planète. Pour découvrir l’initiative https://youth-talks.org/fr/

 

_______________________

Essaim est un projet pédagogique collaboratif, sur 3 ans, intégré au plan de relance d’Etat – France 2030.
Son objectif ? Répondre de manière novatrice aux évolutions des métiers de demain en intégrant le modèle de la capacité d’agir pour développer les soft skills dans tous les dispositifs de formation. Pour cela, le modèle Essaim se développe et s’adapte aux évolutions par les projets et la mutualisation des pratiques pédagogiques.

En cours de déploiement, le modèle fait déjà l’objet d’expérimentations au sein de divers écosystèmes dans l’univers de la formation, chacun présentant des caractéristiques uniques et ciblant des publics distincts (demandeurs d’emploi, salariés, étudiants, etc.). C’est par son approche collaborative et de co-construction qu’Essaim vise à devenir le label qui garantit à tous et à tous les âges l’efficacité de l’action de formation sur leur employabilité durable.

Pour en savoir plus, visitez notre site web et suivez nos actualités sur LinkedIn !