Signe des temps, l’évènement de trois jours Computers, Privacy and Data Protection (CPDP) qui réunit chaque année à Bruxelles la communauté impliquée dans les relations entre informatique, vie privée et protection des données[1] avait choisi pour thème en 2020 : « Data Protection and Artificial Intelligence ». Lors de cette 13e édition, qui s’est tenue fin janvier et à laquelle l’équipe académique de la Chaire participait comme à l’accoutumé, les débats, mêlant à chaque fois monde universitaire, entrepreneurial et politique, comportaient pour le tiers d’entre eux le mot « Intelligence Artificielle » dans leur titre ; dans la salle principale du congrès, c’est la moitié des échanges qui reprenait ce terme.
Il est vrai que le mot est désormais partout : l’Union européenne a mandaté un groupe d’experts de haut niveau en 2018 qui a rendu des lignes directrices en avril 2019 (« Ethics Guidelines for trustworthy AI»[2]) depuis février et jusqu’à fin mai, un livre blanc de la Commission fait l’objet d’une consultation publique sous le titre « Intelligence Artificielle : une approche européenne axée sur l’excellence et la confiance »[3].
Un mot valise, fait pour attirer, notamment des fonds
Utiliser ce mot est passer un peu vite sur son histoire. Au plan des idées, la notion de machine apprenante apparaît entre 1949 et 1950 respectivement dans deux articles de Waren Weaver et d’Alan Turing, le premier sur les systèmes de traduction automatiques et le second, intitulé « Systèmes de calcul et intelligence »[4], sur la question des machines pensantes et qui a donné lieu au très fameux test de Turing. Celui-ci y défend l’idée que, quand bien même la manière dont se forme l’intelligence chez l’Homme est difficile à définir, si une machine pouvait conduire une conversation sans que l’on puisse la différencier d’une conversation avec un être humain, alors cette machine serait intelligente. C’est en 1956, lors d’une conférence à l’université de Dartmouth aux États-Unis, que l’appellation « Artificial Intelligence », proposée un an plus tôt en particulier par John McCarthy, est retenue, notamment dans l’idée que celle-ci permettra d’attirer les financements (largement issus des ministères de la défense américains et britanniques jusqu’en 1973 où ils sont arrêtés).
40 ans après, avec la victoire de Deep Blue d’IBM sur le champion du monde d’échec en 1997, une étape est franchie. Elle sera suivie de beaucoup d’autres. Depuis le développement des réseaux numériques avec toutes les informations qui y circulent et l’accroissement de la puissance des processeurs informatiques, le terme d’intelligence artificielle est maintenant omniprésent et fait l’objet d’investissements massifs de la part des entreprises, recouvrant notamment les techniques d’apprentissage ou d’apprentissage profond des machines.
Un concept plus que discuté et trompeur
Or, l’idée même d’intelligence artificielle est plus que discutée et se révèle trompeuse. Dès les années 1980, le philosophe américain John Searle propose l’expérience de la chambre chinoise pour contrer l’argument de Turing : une personne ne parlant pas le chinois est placée dans une chambre fermée avec un catalogue de règles lui permettant de répondre à des phrases en chinois et parvient ainsi à communiquer avec un chinois à l’extérieur ; si cette personne satisfait bien au test de Turing, elle n’a en revanche rien compris à l’échange et n’a eu aucune intention de communication liée au contenu de cet échange[5]. Bref, maîtriser une syntaxe et même savoir la faire évoluer, ce que font les ordinateurs, ne signifie en rien maîtriser un sens (une sémantique) et n’inclut aucune forme d’intentionnalité et de conscience.
On a vu en réponse se développer les termes d’IA forte (à laquelle les machines ne pourraient pas prétendre) et d’IA faible (à laquelle elles pourraient prétendre), mais le plus simple serait de reconnaître, comme le fait le physicien Marc Mézard, que l’usage du mot intelligence dans IA est « bien malheureux »[6]. De fait, ceux qui défendent au plan philosophique l’idée d’une intelligence artificielle ont une vision fonctionnaliste ou connexionniste de l’esprit humain (à savoir pour les premiers qu’il fonctionne comme un système de traitement calculatoire de l’information et pour les seconds qu’il établit des connexions entre des informations). Mais c’est là mettre de côté l’intentionnalité dans le fonctionnement du cerveau humain ou encore sa capacité à répondre à des faits imprévus, telle qu’elles se traduisent notamment dans ses propriétés émergentes et dans la grande diversité des configurations neuronales individuelles[7]. C’est aussi mettre de côté tout l’arrière-plan, la toile de fond sur laquelle les activités humaines reposent, et qui n’est pas fixe mais fluide[8].
Une mythologie contemporaine mal à propos
Dans ses Mythologies parues en 1957, Roland Barthes consacrait un article aux Martiens, concluant que, puisque nous avions trouvé la planète Mars à proximité, il nous avait fallu la peupler à notre image. On peut faire le parallèle avec ce qui se produit aujourd’hui autour de ce que l’on dénomme l’Intelligence Artificielle : puisque nous avons conçu des programmes informatiques capables de faire des connexions, alors ils ont les mêmes propriétés que notre cerveau humain et sont donc intelligents.
Nous espérons avoir donné quelques éléments à même de contrer cette idée trompeuse, tout comme, si nous n’excluons pas l’existence de formes de vie sur d’autres planètes, nous ne les imaginons pas calquées sur celle des êtres humains. En l’espèce, il serait bon de songer sérieusement à réviser notre vocabulaire. Car le terme d’ « intelligence artificielle » a des effets dévastateurs, de part et d’autre : d’abord, pour ceux qui le manient, pouvant se comparer à des démiurges d’un nouveau temps, à même de rivaliser avec ce que le vivant a produit de plus complexe, et nous promettant un « Homme augmenté » ou un « transhumanisme » où l’Homme et la machine se combineraient ; mais aussi pour ceux qui reçoivent le terme sans connaître ce qui se passe réellement derrière la machine, pour qui l’effet est immédiatement anxiogène, charrie la peur de la perte de l’identité humaine et s’avère répulsif.
Bref, ce terme apparaît fort mal à propos. Pourquoi ne pas accepter un vocabulaire plus en phase avec ce dont les machines, y compris apprenantes, sont capables ? Pourquoi ne pas se contenter de mots correspondant à la réalité de ce que les ordinateurs font, à savoir, pour le formuler dans la lingua universalis de l’informatique, des « artificial decision making systems » (systèmes de décision automatisés) et du « complex information processing » (traitement d’informations complexes) ? Ces formulations sont sans aucun doute moins attirantes mais plus justes, et ce simple changement de vocabulaire pourrait peut-être nous éviter de céder à un malin génie.
Valérie Charolles, Chercheure en philosophie à l’Institut Mines-Télécom Business School, Membre de la Chaire Valeurs et Politiques des Informations personnelles, Chercheure associée à l’Institut Interdisciplinaire d’Anthropologie du Contemporain (EHESS/CNRS)
[1] Computers, Privacy and Data Protection (CPDP) : https://www.cpdpconferences.org/
[2] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Le groupe d’experts met l’accent sur trois points : le respect de la loi, l’éthique et la robustesse des systèmes.
[3] https://ec.europa.eu/info/files/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en
[4] Turing, A. M. (1950) Computing Machinery and Intelligence. Mind 49: 433-460.
[5] Searle, J. R. (1985) Du cerveau au savoir, Paris, Hermann.
[6] Mézard, M. (2019) « L’intelligence artificielle et la démarche scientifique », Le Débat, n°207, p.156.
[7] Charolles, V. (2016) Les qualités de l’homme, Paris, Fayard.
[8] Wittgenstein, L. (1975) De la certitude, Paris, Gallimard.
Pingback : Veille Sécurité IA – N108 – Veille Sécurité – Intelligence Artificielle
Pingback : Veille Cyber N281 – 04 mai 2020 |
Pingback : La lettre de la Chaire n°17 – Avril 2020 | Chaire Valeurs et Politiques des Informations Personnelles