L’intelligence artificielle révolutionne l’éducation, mais à quel prix ?
Le récent débat international Youth Talks on AI commandé par la Fondation Higher Education For Good a mis en lumière les préoccupations des jeunes quant à l’utilisation de l’IA dans leur parcours académique.
Le 29 Août j’ai eu l’opportunité de présenter les grands enseignements sur le sujet de l’éthique de l’IA tels que posés par les jeunesses lors de la conférence InnovateED à l’université de Stanford. Voici les interrogations et interpellations que j’ai partagé avec l’audience …
1. La vie privée des étudiants : un sanctuaire menacé ?
Les jeunes expriment une inquiétude palpable face à la collecte massive de données personnelles par les systèmes d’IA éducatifs. Ils redoutent non seulement les violations de confidentialité, mais aussi une surveillance omniprésente qui pourrait entraver leur liberté académique et professionnelle.
Un participant nommé Floribert résume cette préoccupation : « L’émergence de l’IA soulève deux préoccupations majeures concernant la vie privée : les informations privées peuvent être compromises par une attaque contre un système d’IA par un tiers et un système de sécurité. L’IA elle-même peut être utilisée comme un outil pour collecter des données privées sur les individus.«
Cette inquiétude est renforcée par Geo, qui ajoute : « Les systèmes d’IA peuvent potentiellement recueillir des données étendues sur les étudiants. Par exemple, la reconnaissance faciale par IA pourrait suivre la présence et l’engagement en classe, mais ces mêmes données peuvent être utilisées pour surveiller les interactions sociales des étudiants.«
Responsables éducatifs, avez-vous mis en place des garde-fous suffisants pour protéger la vie privée de vos étudiants ? Ou l’efficacité académique prime-t-elle sur leur droit fondamental à la confidentialité ?
La protection de la vie privée est l’un des principes fondamentaux de l’éthique de l’IA. Comme le souligne l’UNESCO dans sa Recommandation sur l’éthique de l’intelligence artificielle adoptée en 2021, il est crucial de « garantir la sécurité et la confidentialité des données personnelles« . Les institutions éducatives doivent donc mettre en place des mécanismes robustes pour protéger les informations sensibles des étudiants.
Bangel, un autre participant, exprime avec force cette nécessité : « Je crois que la vie privée est un droit, et tout le monde mérite une vie ‘sans souci’. Dans le monde d’aujourd’hui, la vie privée est une blague. Peu importe les options de confidentialité que vous choisissez dans vos paramètres, nous savons tous qu’ils écoutent. C’est la triste réalité, et il n’y a rien que nous puissions faire à ce sujet. À l’avenir, je crois que la vie privée sera une blague, et tout le monde aura accès aux fichiers de confidentialité de tout le monde. Nous devrions garder notre vie privée en sécurité et protégée. »
2. L’éthique au cœur du développement de l’IA éducative
Les participants appellent à l’établissement de lignes directrices éthiques strictes pour encadrer le déploiement de l’IA dans l’éducation. Ils soulignent l’importance cruciale de préserver l’interaction humaine et le rôle central des enseignants.
RickyBobby98 exprime cette préoccupation : « Je crois que les étudiants auront toujours besoin d’interaction humaine pour pouvoir voir comment certaines méthodes peuvent être appliquées. De plus, les enseignements fournis par l’IA peuvent être contraires à l’éthique et ne pas répondre aux besoins de tous les étudiants de manière égale, car certains étudiants nécessitent une attention supplémentaire. »
Cette réflexion soulève la question de l’équité et de la non-discrimination, un autre principe fondamental de l’éthique de l’IA. Comment s’assurer que les systèmes d’IA ne perpétuent pas ou n’amplifient pas les biais existants dans l’éducation ?
Gabriel apporte une nuance importante : « Je crois que nous pouvons exploiter tout le potentiel de l’IA sans causer de préjudice ou d’atteinte à la vie privée des gens. Tout se résume à avoir des lignes directrices éthiques appropriées et des considérations accompagnant son utilisation. »
Cette réflexion rejoint les efforts de l’Union européenne avec l’AI Act, une proposition de législation visant à promouvoir une IA éthique et responsable. Dans le domaine de l’éducation, cela pourrait se traduire par des règles strictes sur la collecte et l’utilisation des données des étudiants, ainsi que par des exigences de transparence sur les algorithmes utilisés pour personnaliser l’apprentissage.
Développeurs d’EdTech, votre IA est-elle conçue pour compléter l’expertise humaine ou pour la remplacer ? Avez-vous intégré des considérations éthiques dès la phase de conception de vos solutions ?
Candelaxnkng souligne l’importance de l‘éducation à l’IA : « Il est très important, maintenant que l’IA est un sujet tendance, que nous soyons correctement informés à ce sujet. C’est l’utilisation irresponsable de l’IA qui pourrait vraiment nous nuire, et c’est uniquement fait par les humains pour l’instant. »
Cette réflexion met en lumière la nécessité d’une formation approfondie sur les enjeux éthiques de l’IA, tant pour les développeurs que pour les utilisateurs. Les organisations peuvent mettre en place des programmes de formation pour sensibiliser leurs équipes à ces questions cruciales.
3. Intégrité académique : l’IA, alliée ou menace ?
L’utilisation de l’IA dans les travaux académiques soulève des questions épineuses sur l’intégrité et l’authenticité. Les jeunes reconnaissent son potentiel d’aide précieuse, mais s’inquiètent des risques de plagiat et de dépendance excessive.
Rasheed Jr exprime cette dualité : « Les devoirs réalisés par l’IA soulèvent des considérations éthiques et des questions sur l’intégrité académique. Bien que l’IA puisse aider les étudiants à réaliser leurs devoirs en fournissant des ressources, des explications et des conseils, s’appuyer trop fortement sur l’IA pour réaliser les devoirs pourrait être considéré comme de la triche. »
Cette réflexion soulève la question de la responsabilité, un autre principe clé de l’éthique de l’IA. Comment attribuer la responsabilité des travaux réalisés avec l’aide de l’IA ? Comment établir des mécanismes clairs pour garantir l’intégrité académique dans un monde où l’IA est omniprésente ?
Felicia partage une expérience troublante : « J’ai eu une expérience avec l’un de mes nouveaux collègues ; ils avaient obtenu des distinctions dans leur bulletin scolaire, c’est pourquoi ils ont été embauchés. Nous pensions qu’ils avaient des connaissances sur le travail que nous faisons. Malheureusement, nous avons découvert qu’ils avaient obtenu leurs distinctions grâce à l’IA au fil du temps. Aujourd’hui, l’entreprise a perdu quelques milliers à cause du manque de connaissances de l’entreprise et de faux rapports. L’IA devrait être utilisée avec modération et s’il vous plaît pas pour les étudiants. »
Cette anecdote souligne l’importance de la transparence et de l’explicabilité dans l’utilisation de l’IA. Les décisions et le fonctionnement des systèmes d’IA doivent être compréhensibles, en particulier dans un contexte éducatif où l’apprentissage et le développement des compétences sont cruciaux.
Eric Shi résume bien la dualité de l’IA dans l’éducation : « Une pièce a deux faces. L’IA est utile de nombreuses façons, mais elle a aussi des inconvénients. Par exemple, certains étudiants universitaires utilisent l’IA pour écrire des articles. Cependant, certains professeurs pensent que c’est de la triche. »
Institutions académiques, vos politiques d’intégrité sont-elles adaptées à l’ère de l’IA ? Comment comptez-vous redéfinir la notion de travail original dans ce nouveau paradigme ?
Christine propose une approche nuancée : « Les devoirs faits par l’IA : triche ou progrès ? Cela dépend toujours de la quantité d’IA utilisée. Parfois, lorsqu’il y a épuisement des étudiants, l’IA peut être une bouée de sauvetage. Cela aide à accélérer le processus de création de la formule pour ce que nous faisons, la partie technique du travail, par exemple, la formulation correcte des propositions bibliographiques lors de la recherche d’inspiration. D’autre part, dans la recherche, il est toujours nécessaire de vérifier les informations avant de les utiliser. Il faut toujours savoir utiliser l’IA et ne pas se laisser utiliser par l’IA. »
Cette réflexion souligne la nécessité d’une approche équilibrée, où l’IA est utilisée comme un outil d’assistance plutôt que comme un substitut à la réflexion critique et à la créativité des étudiants.
4. Vers une IA éducative éthique et responsable
L’appel à l’action est clair : nous devons collectivement repenser l’intégration de l’IA dans l’éducation en plaçant l’éthique et le respect des droits des étudiants au premier plan.
Pour y parvenir, nous devons nous appuyer sur les principes fondamentaux de l’éthique de l’IA :
- Équité et non-discrimination : les solutions d’IA éducatives doivent être conçues pour offrir des opportunités égales à tous les étudiants, indépendamment de leur origine, de leur genre ou de leur statut socio-économique.
- Transparence et explicabilité : les institutions éducatives doivent être capables d’expliquer comment l’IA est utilisée dans leurs programmes, et les étudiants doivent comprendre comment l’IA influence leur parcours d’apprentissage.
- Responsabilité : des mécanismes clairs doivent être mis en place pour attribuer la responsabilité des décisions prises par l’IA dans le contexte éducatif, qu’il s’agisse d’évaluations, de recommandations de parcours ou de personnalisation de l’apprentissage.
- Protection de la vie privée : les données des étudiants doivent être protégées avec la plus grande rigueur, et leur utilisation doit être strictement limitée à des fins éducatives explicitement approuvées.
- Sécurité et fiabilité : les systèmes d’IA utilisés dans l’éducation doivent être robustes, fiables et résistants aux manipulations ou aux erreurs qui pourraient avoir un impact négatif sur l’apprentissage des étudiants.
- Bénéfice pour l’humanité : l’IA dans l’éducation doit être développée dans le but d’améliorer l’expérience d’apprentissage et les résultats pour tous les étudiants, contribuant ainsi au bien commun.
Pour mettre en pratique ces principes, les institutions éducatives et les développeurs d’EdTech peuvent :
- Auditer régulièrement leurs algorithmes pour détecter les biais : il est crucial d’examiner comment les systèmes d’IA prennent des décisions et de s’assurer qu’ils ne perpétuent pas de discrimination involontaire.
- Développer des modèles d’IA explicables : les décisions prises par l’IA dans le contexte éducatif doivent pouvoir être comprises et expliquées aux étudiants, aux enseignants et aux parents.
- Mettre en place des mécanismes de gouvernance et de surveillance : des comités d’éthique incluant des représentants des étudiants, des enseignants et des experts en IA pourraient superviser l’utilisation de l’IA dans les institutions éducatives.
- Former leurs équipes aux enjeux éthiques de l’IA : tous les acteurs du secteur éducatif, des développeurs aux enseignants, doivent être sensibilisés aux implications éthiques de l’IA.
- Collaborer avec les organismes de réglementation : le secteur éducatif doit travailler en étroite collaboration avec les autorités pour développer des cadres réglementaires adaptés à l’utilisation de l’IA dans l’éducation.
- Impliquer les étudiants dans le processus : comme le montre le débat « Youth Talks on AI », les jeunes ont des idées précieuses sur l’utilisation éthique de l’IA. Leur voix doit être entendue et prise en compte dans le développement des politiques et des pratiques.
L’avenir de l’IA dans l’éducation est prometteur, mais il nécessite une vigilance constante et une réflexion éthique continue. À mesure que la technologie progresse, de nouveaux défis éthiques émergent.
Il est crucial de maintenir un dialogue ouvert entre les développeurs, les utilisateurs, les régulateurs et la société civile pour s’assurer que l’IA reste alignée avec les valeurs humaines et contribue positivement au bien-être des individus et communautés.
Décideurs, développeurs, enseignants, responsables pédagogiques …Voici quelques questions pour stimuler la réflexion et l’action :
- Votre institution a-t-elle une charte éthique spécifique pour l’utilisation de l’IA dans l’éducation ? Si non, quand comptez-vous en développer une ?
- Comment impliquez-vous les étudiants dans les décisions concernant l’utilisation de l’IA dans leur parcours éducatif ?
- Quels mécanismes avez-vous mis en place pour détecter et corriger les biais potentiels dans vos systèmes d’IA éducative ?
- Comment formez-vous vos enseignants et votre personnel administratif aux enjeux éthiques de l’IA ?
- Quelle est votre stratégie pour garantir que l’IA améliore l’expérience d’apprentissage sans compromettre l’intégrité académique ?
- Comment collaborez-vous avec d’autres institutions et organismes de réglementation pour établir des normes éthiques communes pour l’IA dans l’éducation ?
- Quel est votre plan pour rendre vos systèmes d’IA éducative plus transparents et explicables pour les étudiants et leurs parents ?
Ainsi, le débat « Youth Talks on AI » nous a révélé une vérité fondamentale : les jeunes ne sont pas seulement les bénéficiaires de l’éducation assistée par l’IA, ils en sont aussi les architectes potentiels. Leur empowerment dans ce domaine est non seulement souhaitable, mais crucial pour l’avenir de l’éducation éthique à l’ère de l’IA.
L’éducation à l’éthique de l’IA n’est pas un simple ajout au programme, c’est un vecteur d’autonomisation pour les jeunes. En leur donnant les outils pour comprendre, questionner et façonner les systèmes d’IA qui influencent leur éducation, nous les préparons à devenir des citoyens actifs et éclairés dans un monde de plus en plus façonné par l’IA.
Imaginez une génération de jeunes capables non seulement d’utiliser l’IA, mais aussi de l’interroger de façon éthique, de la développer de manière responsable et de l’orienter vers le bien commun. C’est ce que nous pouvons accomplir en intégrant l’éthique de l’IA au cœur de notre système éducatif.
Cette approche a un double avantage :
- Elle prépare les jeunes à naviguer dans un monde où l’IA sera omniprésente, en leur donnant les compétences critiques nécessaires pour évaluer et utiliser ces technologies de manière éthique.
- Elle les positionne comme des acteurs du changement, capables de façonner l’avenir de l’IA dans l’éducation et au-delà, en accord avec leurs valeurs et leurs aspirations.
L’empowerment des jeunes dans ce domaine n’est pas une option, c’est une nécessité. Comme l’a si bien exprimé un participant au débat : « Nous ne devrions pas laisser l’IA prendre le contrôle, mais la garder en laisse, la libérant là où nous avons besoin de l’utiliser. » Cette posture illustre que les jeunes sont prêts à prendre les rênes de leur avenir technologique et non plus se comporter comme de dociles consommateurs.
Décideurs, votre rôle est crucial. Vous devez créer les espaces et les opportunités pour que les jeunes s’engagent activement dans la conception et la gouvernance des systèmes d’IA éducatifs et citoyens. Cela peut prendre la forme de :
- Comités d’éthique de l’IA dirigés par des étudiants dans les établissements d’enseignement
- Hackathons éthiques pour développer des solutions d’IA éducative responsables
- Programmes de mentorat reliant les étudiants aux experts en éthique de l’IA
- Intégration de l’éthique de l’IA dans les programmes scolaires dès le plus jeune âge
En donnant aux jeunes les moyens de comprendre, de questionner et de façonner l’IA dans leur éducation, nous ne faisons pas que préparer l’avenir – nous leur donnons les moyens de le créer. Un avenir où la technologie et l’éthique vont de pair, où l’innovation est guidée par des valeurs humaines, et où chaque apprenant a les outils pour naviguer dans un monde en constante évolution.
Alors, décideurs, êtes-vous prêts à passer le flambeau ? Êtes-vous prêts à faire confiance à la prochaine génération pour co-créer un avenir éducatif éthique et centré sur l’humain ? Le moment est venu de transformer l’éducation à l’éthique de l’IA en un puissant outil d’empowerment pour les jeunes.
Ensemble, construisons un système éducatif où l’IA est un catalyseur d’émancipation, guidé par une éthique façonnée par ceux qu’elle sert. C’est ainsi que nous préparerons vraiment nos jeunes à être les leaders éthiques et technologiques dont notre monde a besoin.
Pour aller plus loin :
Les slides de la conférence sont disponibles ici
Les résultats du débat sont disponibles ici.
Articles :
Vers une éthique de l’intelligence artificielle, Audrey Azoulay, Chroniques ONU, Nations Unies.