Société
Entretien

Intelligence artificielle : comment préparer les élèves à un monde où elle sera généralisée ?

Le robot éducatif iPal dans une classe de maternelle du Shunhu Kindergarten à Suzhou, dans la province chinoise du Jiangsu, le 6 décembre 2017. (Source : Sixth Tone)
Le robot éducatif iPal dans une classe de maternelle du Shunhu Kindergarten à Suzhou, dans la province chinoise du Jiangsu, le 6 décembre 2017. (Source : Sixth Tone)
Reconnaissance faciale, aide au diagnostic médical, profilage des consommateurs, analyse des réseaux sociaux… L’intelligence artificielle promet de révolutionner de nombreux domaines et transforme déjà notre quotidien. Elle pose également de nombreuses questions philosophiques car elle touche à des notions fondamentales comme l’éthique, la raison ou encore la conscience. Comment adapter l’éducation des jeunes générations à un monde où l’IA sera généralisée ? Asialyst à poser ce questions au philosophe thaïlandais Soraj Hongladarom et au neuro-cardiologue Christophe Habas.

Entretien croisé

Soraj Hongladarom est professeur de philosophie et directeur du centre d’éthique de la science et de la technologie à l’université Chulalongkorn de Bangkok. Il a publié de nombreux livres et articles sur des sujets aussi variés que la bioéthique, l’éthique des ordinateurs et les rôles de la science et de la technologie dans la culture des pays développés. Sa réflexion se concentre sur la manière dont l science et la technologie peuvent être intégrées dans la vie des populations des pays dits du Tiers-Monde, et sur les considérations éthiques qui en découlent. Il co-dirige la revue Information Technology Ethics: Cultural Perspectives, publiée par IGI Global.

Le Thaïlandais Soraj Hongladarom, professeur de philosophie. (Crédit : DR)
Le Thaïlandais Soraj Hongladarom, professeur de philosophie. (Crédit : DR)

Christophe Habas est neuro-radiologue, docteur en sciences Cognitives et ancien Grand Maître du Grand Orient de France.

Le neuro-radiologue français Christophe Habas. (Crédit : DR)
Le neuro-radiologue français Christophe Habas. (Crédit : DR)
Dans votre tradition philosophique respective, comment analyser le développement de l’intelligence artificielle et quels sont les concepts clés qu’elle bouscule ?
Soraj Hongladarom : Dans une perspective bouddhiste, l’éthique et les principes moraux ont pour rôle de permettre aux individus d’atteindre le véritable but de la vie humaine, à savoir le bonheur. Toute action qui permet d’atteindre cet objectif est en définitive bonne et inversement, ce qui nous en éloigne est mauvais. Je parle ici de bonheur véritable qu’il ne faut pas confondre avec un plaisir ou une joie temporaire comme par exemple le fait de regarder un film qui vous plaît. Dans cette perspective, il faut donc que l’IA se développe en s’alignant sur la nature humaine puisque le bonheur véritable n’est atteignable qu’en ayant compris profondément ce qu’est la nature humaine. D’un point de vue plus pratique, cela veut dire que l’IA doit se développer sans engendrer de conflit avec la dignité et l’individualité humaines. La reconnaissance faciale, bien qu’elle puisse être très utile, peut également devenir un instrument de pouvoir ultra- puissant sur la population pour ceux qui contrôlent cette technologie. Sans encadrement, cette technologie ne garantit aucunement d’accéder à un bonheur durable pour les individus à long terme. Il faut donc mettre en place un système d’évaluation et de contrôle sur les entités privées ou étatiques qui la mettent en place.
Christophe Habas : La question primordiale que pose l’IA est : « Qu’est-ce que l’esprit humain ? Comment fonctionne-t-il ? » En effet l’idée centrale de l’IA suppose que l’ensemble des activités intellectuelles et des mécanismes mentaux peuvent être assimilés en définitive à des calculs et seraient donc, suivant la démonstration d’Alan Turing, totalement mécanisables et artificialisables. L’IA constitue ainsi une philosophie de déconstruction de l’humain où la robotique reconstruit un corps artificiel et l’IA les processus mentaux. Dans cette vision assez extrême de l’IA, se produisent à la fois une naturalisation et une mécanisation totale du corps et de l’esprit. L’IA propose deux réponses assez différentes à la question de ce qu’est l’esprit humain. Une première assimile le fonctionnement intellectuel à du calcul symbolique et logique sur des représentations mentales, courant qui a abouti à l’informatique, et une autre à du calcul biophysique et arithmétique complexe, courant qui a débouché cette fois sur le développement de réseaux de neurones artificiels et aux applications basées sur le deep learning comme la reconnaissance faciale. En étant très schématique, soit vous vous placez au niveau cellulaire, au niveau des neurones, et vous essayez de comprendre comment ils fonctionnent en réseaux et génèrent des comportements collectifs structurés sous-tendant des taches mentales complexes ; soit vous êtes à un niveau beaucoup psychologique et « introspectif » et vous essayez d’analyser en quelque sorte le comportement psychologique d’un individu qui accomplit une tache intellectuelle. Si vous demandez à un médecin de faire de l’introspection et de décrire la manière dont il effectue un diagnostic, vous obtenez un ensemble de règles, quelque chose qui ressemble assez à un programme informatique. Evidemment, qu’en est-il de l’intuition ? L’IA est aujourd’hui construite autour de ces deux pôles et toute la question est de voir si ces deux visions très différentes peuvent se rejoindre. Notons qu’un dimension qui échappe à l’IA correspond à la conscience et au vécu.
Pensez-vous que l’IA reflète d’une certaine manière la quintessence du cartésianisme et d’une manière très spécifique, très occidentale, de voir la connaissance, l’intelligence ou la conscience ?
Soraj Hongladarom : Pour moi la question n’est pas là. Je ne pense pas que l’approche rationaliste et la logique binaire qui est à la base de l’informatique soit à proprement parler occidentale. S’il existe bien différents courants philosophiques, ils ne sont pas divisés en fonction de la géographie. Pour revenir à l’IA, les tâches que l’on veut faire exécuter à des machines – conduire, parler, reconnaître – n’ont finalement pas beaucoup de lien avec la logique binaire. A un certain niveau, peu importe que ce soit un cerveau humain qui réagisse à sa manière ou un ordinateur qui utilise la computation pour y arriver, ce qui compte c’est le résultat et sa qualité. Les mécanismes sous-jacents, que ce soit de la computation binaire ou autre, disparaissent en quelque sorte lorsqu’on se place à des niveaux d’interactions quotidiennes comme le langage ou la conduite d’un véhicule.
L’éducation est un secteur où l’IA devrait avoir un impact très significatif avec le potentiel de changer radicalement la manière dont on accède à la connaissance. Quel sens donner à l’apprentissage et la compréhension si des machines peuvent trouver des solutions nettement plus vite et aussi bien, voire mieux que des humains ?
Soraj Hongladarom :Il est vrai que l’IA peut avoir un effet très important dans le domaine de l’éducation. On voit déjà au Japon et en Corée du Sud des robots dans les classes qui aident les enseignants à intéresser les élèves et qui sont même dépositaires du savoir en étant capable de répondre à des questions via la reconnaissance vocale. L’IA est déjà aujourd’hui au coeur de la recherche d’information via des moteurs comme Google. Mais rechercher de l’information n’est pas apprendre et pour pouvoir parler d’éducation, il faut qu’il existe une interaction entre élève et enseignants et qu’on puisse percevoir l’émergence d’une pensée critique de la part de l’apprenant. Rien de cela n’est possible encore avec les outils de Google. Google n’apprend rien de nos recherches par lui-même et il ne peut donc rien nous apprendre en retour.
Christophe Habas : Le développement de l’IA engendre un fort risque que l’humain délègue de plus en plus à la machine et se retrouve peu à peu dépossédé à la fois de l’organisation de sa vie, et de tâches intellectuelles et décisionnelles. Dans notre monde qui favorise la rentabilité économique et l’efficience, l’IA ne peut qu’être plébiscitée. Elle va donc se développer et son usage se propager très rapidement. Dans le même temps, c’est une technologie opaque pour les utilisateurs. Vous ne comprenez pas les algorithmes, vous ne savez pas où ils sont ni qui les manipulent alors que l’IA est de plus en plus présente autour de vous. Son usage est addictif et vous n’avez finalement aucun moyen de contrôle dessus. Tout cela entraîne l’avénement d’une vie par procuration et un risque d’appauvrissement intellectuel, émotionnel – virtualisation des relations sociales et isolement virtuel des individus – et culturel important. Si l’éducation peut se résumer à former des individus aptes à trouver des solutions les plus efficaces possibles face à des problèmes, on pourrait imaginer que l’IA puisse y devenir rapidement prépondérante. En revanche, si l’on envisage l’éducation comme un instrument pour faire émerger une capacité de raisonnement propre et d’autonomie, un esprit critique, et in fine la capacité de créer une vision globale du monde, l’IA ne peut être qu’un assistant pour les enseignants et les élèves.
Comment les différents systèmes éducatifs peuvent-ils intégrer l’IA dans la formation des jeunes générations ? Quels sont les enjeux de cette intégration ?
Soraj Hongladarom : On voit déjà l’émergence de robots assistant les enseignants et on peut imaginer qu’ils puissent rapidement devenir également des tuteurs compétents pour aider les étudiants à faire leurs devoirs, voire des modérateurs durant des discussions et débats entre élèves. Reste que cela pose aussi de nombreuses questions et notamment de savoir si un robot peut totalement remplacer un enseignant humain. Tant que l’IA ne sera pas capable d’être pleinement « consciente », capable d’empathie et d’émotion pour communiquer complètement avec nous, elle sera incapable de remplacer un enseignant humain. Cela pourrait cependant ne pas empêcher certaines administrations de chercher à remplacer les humains par des intelligences artificielles certes limitées mais qui sont, pour le moment, incapables de monter des syndicats ou de réclamer de meilleures conditions de travail. On peut également se demander si l’IA ne servira pas à surveiller en permanence les étudiants en recueillant illégalement des données durant les enseignements. C’est quelque chose de techniquement assez facile et de potentiellement très préoccupant. Enfin, on a tendance à penser que des robots dotés d’IA seront forcément justes puisqu’ils n’auront pas de présupposés culturels ou autres – racisme, distinction de genre. Ce n’est pourtant pas totalement vrai et tout dépend du fonctionnement des algorithmes qui les gouvernent. Si une IA est programmée pour repérer les meilleurs élèves via certaines caractéristiques, elle risque d’être discriminante envers ceux qui ne les auraient pas en délaissant leur éducation.
Christophe Habas : Il faut bien sûr aider les jeunes à comprendre technologiquement et philosophiquement ce qu’est l’IA, à comprendre ce qu’elle n’est pas et à en comprendre les limites. Il faut absolument qu’ils saisissent que l’IA ne doit pas « penser » et décider à leur place. L’IA doit demeurer un outil éducatif pour aider comme l’est une calculatrice, mais elle ne dispense pas de raisonner par soi-même. L’humain n’apprend pas comme un ordinateur un certain nombre de fait qu’il va ensuite restituer et la connaissance humaine s’intègre à une culture générale.
Y aura-t-il encore une place pour un rapport enseignant-élève dans un monde où l’IA sera généralisée et quel sera le rôle des professeurs dans ce cadre ? Comment former les enseignants à la fois aux avantages de l’IA mais aussi à ses dangers pour qu’ils puissent former correctement les futures générations ?
Soraj Hongladarom : Il faut absolument que les enseignants puissent être correctement formés aux technologies de l’IA et puissent être à l’aise. Cela veut dire qu’ils soient au niveau techniquement, du moins autant que les élèves. Il faut aussi que les futurs enseignants soient un minimum formés aux questions éthiques que posent l’IA et les robots. C’est une véritable nécessité.
Christophe Habas : Comme je l’ai dit, l’humain n’apprend pas comme un ordinateur : il a besoin de développer un esprit d’analyse critique et une vision signifiante du monde à travers une culture générale. Or, c’est la pédagogie et la culture qui va justement permettre cela. C’est dans un rapport interhumain que l’on va comprendre l’importance du dialogue, de l’argumentation, de l’écoute ou du respect. Le savoir suppose une socialisation, une confrontation pacifique avec d’autres points de vue voire, avec une altérité et non simplement une accumulation de connaissances sans lien. De même, l’IA est une recherche d’efficience maximale et immédiate, il n’y a pas de place pour un temps long, celui de la méditation, qui permet d’interconnecter les connaissances. Et pourtant, on sait que l’esprit humain a besoin de cette maturation pour se développer. Enfin, la pédagogie humaine permet aussi d’apprendre les codes sociaux, le « vivre ensemble ». Autant de points où la machine n’est pas capable de remplacer les hommes. En définitive, je dirais que l’enseignant ne peut pas être vu comme un distributeur automatique de connaissance et l’élève comme une simple mémoire visant à la stocker et à la restituer telle quelle. Cela ne fonctionne pas pour apprendre et comprendre correctement.
L’éducation et en particulier l’école permettent aujourd’hui d’accéder à la connaissance mais également d’intégrer les règles sociales. On y apprend le « vivre ensemble », la citoyenneté ou encore les codes du monde du travail. Comment former les futurs citoyens et les futurs actifs dans un monde où l’IA sera omniprésente ?
Soraj Hongladarom : Tout d’abord, il faut qu’une discussion s’engage dans la société pour définir les valeurs que l’on veut défendre et quelles peuvent être les rôles de l’IA et des robots dans ce système de valeurs. Par exemple en Chine, la mise en application de l’IA dépasse largement ce qui se fait dans d’autres pays. Il s’agit d’un choix délibéré des autorités qui voient dans l’IA un moyen de se positionner favorablement au niveau mondial à l’avenir. Il faut alors noter que ce coté pionnier de l’IA en Chine intervient dans un contexte culturel où la population locale fait beaucoup plus confiance au pouvoir qu’en Occident. Cette confiance a cependant un prix car les autorités l’utilisent d’une manière qui ne reflète pas forcément le respect qu’elles devraient avoir pour la population qu’elles sont censées servir. Le respect est donc à sens unique et on peut se demander si ce n’est pas plutôt la peur du pouvoir qui fait que les individus acceptent ces mesures très invasives.
La Chine est donc un cas très intéressant de déploiement de l’IA dans une société et il faudra y porter attention dans les mois et les années qui viennent. Cela dit, il faut éduquer les jeunes générations à se sentir à l’aise avec les nouvelles technologies et l’IA car sinon, si elles sont vues comme incompréhensibles, étrangères ou dangereuses, ce sera une catastrophe. Cela ne veut pas dire qu’il faut tout accepter de la part de ceux qui poussent au développement de l’IA. Par exemple, en Thaïlande où la population est beaucoup plus critique par rapport au gouvernement qu’en Chine, il faut d’abord faire en sorte que les individus fassent confiance à l’IA. Et la seule manière d’y parvenir est que chacun soit assuré que cette technologie ne viendra pas heurter son propre système de valeurs.
Christophe Habas : En effet, même si l’IA pourra dialoguer et simuler des émotions (robot, prosodie) pour faciliter l’apprentissage et la transmission, cela s’effectuera dans un rapport malgré tout froid et désincarné. Il existera alors un risque majeur de désocialisation car la gestion algorithmique de la vie (domotique, travail, santé, ville intelligente…) aménagera l’environnement de l’individu et l’enfermera ainsi dans une bulle certes confortable mais formatée et normée au service de son narcissisme, de l’efficacité économique et d’un isolement croissant. A mesure que l’individu délègue de plus en plus la gestion de sa vie à l’IA, il va acquérir un sentiment de toute puissance autant que de difficulté à gérer l’aléatoire et la frustration. Loin d’émanciper l’individu, l’usage généralisé, intrusif et opaque d’une part croissante de la vie de l’individu aboutira à son aliénation. Je suis assez pessimiste : nous allons vers une atomisation sociale exacerbée de nos sociétés mue par un hyperindividualisme, un ultra-libéralisme et une gestion algorithmique du lien social avec profilage psychologique, prédiction comportementale, suivi physiologique, géolocalisation… D’autant que les responsables politiques semblent aujourd’hui à la fois insouciants et paralysés par de simples considérations économiques sur l’IA. Les débats d’aujourd’hui en Europe autour de l’IA et de l’éthique ne remettent absolument pas en cause en profondeur l’usage social de l’IA. Il n’y a pas de questionnement sur les enjeux politiques fondamentaux de ces technologies. On scrute des conséquences qui sont certes importantes comme de savoir comment régira une voiture autonome lors d’un accident potentiel, mais nul ne remet en cause le système global d’une société algorithmiquement administrée et gouvernée au profit des grandes multinationales, d’États autoritaires et du marché anonyme, consacrant la fin du politique. L’IA constitue un outil fabuleux qui apportera beaucoup à l’humanité, si du moins cette dernière en conserve un usage raisonné, critique et sous contrôle.
Propos recueillis par Nicolas Sridi

Soutenez-nous !

Asialyst est conçu par une équipe composée à 100 % de bénévoles et grâce à un réseau de contributeurs en Asie ou ailleurs, journalistes, experts, universitaires, consultants ou anciens diplomates... Notre seul but : partager la connaissance de l'Asie au plus large public.

Faire un don
A propos de l'auteur
Co-fondateur de Asia Focus Production, journaliste accrédité à Pékin pour Sciences et Avenir depuis 2007, Nicolas a collaboré avec de nombreux média presse écrite et web français, notamment le groupe Test (01Net), lemonde.fr,… Il est également co-rédacteur en chef de l’ouvrage collectif « Le temps de la Chine » aux éditions Félix Torres (2013) en partenariat avec la CCIFC. Nicolas est par ailleurs cameraman et preneur de son et collabore à divers postes avec de nombreuses chaines comme Arte, ARD, France2, RCN,… ainsi que sur des productions corporate et institutionnelles.