Intelligence artificielle bonjour, intelligence naturelle, adieu !

Intelligence artificielle bonjour, intelligence naturelle, adieu !

PUBLIÉ LE 

Intelligence artificielle bonjour, intelligence naturelle, adieu !
© Rolf van Root - Unsplash

L’Intelligence artificielle est désormais de plus en plus présente, peut-être trop. Va-t-elle aider ou enterrer l’intelligence dite naturelle ? 

C’est peut-être trop tard.

Au risque de passer pour un ringard, je persiste à ne pas voir d’un très bon œil la consécration de l’Intelligence Artificielle (abrégée sous la forme du joli sigle d’IA) dont la numérisation galopante fait les beaux jours. Je ne conteste pas son apport devenu incontournable dans le traitement des flots gigantesques de données dont sont inondés de plus en plus de métiers (car nous sommes à l’ère de l’information, donc des données). Mais chaque médaille ayant son revers, je m’étais alarmé des dangers de l’IA dans deux billets de ce blog : "Le chemin long, mais sûr, vers la décérébration" paru en mai 2021 et "Numérisation, intelligence artificielle et maintenant… Metaverse !!!" paru en août 21. 

Deux ans plus tard, force est de constater que l’IA n’a pas perdu son temps. Deux anecdotes viennent illustrer mon propos (et mon inquiétude…).

En janvier 2023, une vingtaine d'étudiants de l'Université de Strasbourg ont fait la une : ils avaient réussi leur examen en se faisant aider, pour remplir un QCM sur l'histoire du Japon, par le robot en ligne gratuit ChatGPT (développé par la société américaine OpenAI et censé pouvoir répondre à n'importe quelle question en quelques secondes). 

La supercherie a été mise au jour par un enseignant qui avait trouvé des similitudes frappantes dans les réponses : « Mêmes constructions grammaticales, argumentation déclinée de manière similaire et appuyée par des exemples tous tirés d’un grand-père ou d’une grand-mère » (sic)… 

L’une des copies avait obtenu la note de 11,75 sur 20 : pas mal, ChatGPT ! Et un zéro pointé pour l’effort intellectuel fourni par ces étudiants, qui ont dû repasser leur examen. Il est rassurant de voir que les enseignants savent encore faire preuve d’intelligence naturelle.

En septembre 2022, la Chine, très en pointe dans le domaine de l’IA, déclarait qu’une femme robot pilotée par une IA avait été nommée PDG (après en avoir été le numéro 2) d'une entreprise de plusieurs milliers de salariés. 

L’idée viendrait d’un des leaders du jeu vidéo NetDragon Websoft qui a décidé de faire diriger sa filiale Fujian NetDragon Websoft par l’IA. Bien sûr, le robot est programmé par des humains (il y en a donc encore, apparemment ?) qui peuvent à tout moment le débrancher (je me permets de rajouter : pour le moment du moins…). Une fois le programme lancé, la PDG-IA travaille de façon qualifiée de « presque normale » (on aimerait savoir ce que cache ce « presque »). 

Je cite : elle peut non seulement approuver et signer des documents, mais aussi gérer des projets, évaluer les performances du personnel, et décider éventuellement de sanctions. Et l’entreprise de vanter trois avantages majeurs par rapport à un PDG « humain » : elle travaille 24 heures sur 24, elle n’est pas payée, et (tenez-vous bien) elle n’a pas de sentiments. Elle porte un nom (Tang Yu) et peut s’exprimer, son minois apparaissant alors sur les ordinateurs sous forme d’humanoïde.

Au-delà du rire (gêné) que peuvent déclencher ces anecdotes, elles révèlent tout de même une menace sur notre intégrité intellectuelle, qui conduit les gens sensés à se poser des questions et à tenter de faire barrage aux dérives auxquelles l’IA sera inéluctablement sujette si l’on n’y prend garde. Malheureusement, nos processus administratifs et juridiques sont devenus excessivement lourds, et l’on peut redouter que les promoteurs obsessionnels de l’IA sachent contourner les barrières que l’on mettra en place. Je citerai deux exemples.

La Commission Européenne, qui cherche à encadrer l’IA, a récemment proposé une directive pour faciliter la réparation des dommages causés par exemple par un drone. Elle comporte deux principes, dont je cite des extraits :
• La charge de la preuve : « Le texte introduit une présomption réfragable de causalité : les juridictions nationales présument le lien de causalité entre la faute du défendeur et le résultat produit par le système d'IA ou l'incapacité de celui-ci à en produire un. Charge au défendeur de prouver que ce lien n'existe pas ». Non juristes s’abstenir.
• L’aide aux victimes pour accéder aux éléments de preuve : « Elles pourront demander à la juridiction d'ordonner la divulgation d'informations concernant les systèmes d'IA dits à ’’haut risque’’ (biométrie, reconnaissance faciale…) ». Bon courage aux victimes.

En janvier dernier, Christian Goglin, professeur en IA de l’ICD Business School, publiait un article (remarquable) intitulé « Deepfake, racisme, armes autonomes : comment donner une éthique à l’IA », suite au projet de recommandation sur l’éthique de l’IA adopté par l’UNESCO en novembre dernier. Il est difficile de résumer en peu de mots un article aussi riche, où il qualifie l’IA de « science sans conscience d’elle-même » mais on peut noter qu’il met en évidence la complexité de la démarche et s’interroge sur le poids des recommandations émises du fait du « contexte international de compétition économique exacerbée et de tensions entre grandes puissances ».

En attendant, en l’absence de garde-fous, l’IA continuera sa marche inexorable, ne serait-ce que pour compenser la bêtise naturelle qu’elle aura contribué à développer et à généraliser auprès des adorateurs du dieu informatique. IA, phonétiquement, vous ne trouvez pas que ça sonne un peu comme hi-han ?

Commentaires