Les algorithmes peuvent-ils être transparents ?

Les algorithmes sont à l’œuvre dans bien des domaines, qu’il s’agisse classiquement d’afficher les résultats de requêtes via un moteur de recherche ou de sélectionner des contenus et des informations pertinents, de calculer un score pour octroyer une prestation sociale ou une place à l’université, voire de "prédire" un évènement ou un risque pour guider une voiture « autonome ».

Ainsi, ces derniers temps la question des algorithmes a fait couler beaucoup d’encre. Après les NBIC (Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives), le web 2.0, les « big data », les plateformes, on peut certainement voir ici un effet de mode. Il n’en reste pas moins que les algorithmes et l’automatisation qu’ils Induisent constituent un véritable enjeu, comme le montrent par exemple les travaux de Rouvroy et Berns sur les conséquences sociétales de la « gouvernementalité algorithmique ».

Le débat dépasse aujourd’hui le cadre universitaire. Ainsi, le 15 décembre 2016, le Conseil général de l’économie a présenté au ministre de l'économie et des finances son rapport sur les modalités de régulation des algorithmes de traitement des contenus (1). Parmi les personnes auditionnées, on compte deux membres de la Chaire : Claire Levallois-Barth et Patrick Waelbroeck. Ce rapport a le mérite de contribuer à la prise de conscience quant au fait que les algorithmes recouvrent une réalité multiforme et difficile à saisir. Il ne se prononce pas en faveur d’une nouvelle régulation sectorielle mais souligne qu’il convient « de développer la capacité à tester et contrôler les algorithmes eux-mêmes, tout en préservant l’innovation ». A cette fin, cinq pistes d’action sont proposées afin « de développer les compétences et l’expertise des pouvoirs publics et d’appeler au développement de bonnes pratiques dans les différents secteurs économiques ».

Cependant, certaines de ces propositions ne nous semblent pas aller au bout de la démarche annoncée. Par exemple, si l’idée de nommer des « Chief Algorithm Officers » (définis dans le rapport comme « l’équipe ou une personne responsable du fonctionnement de l’algorithme ») peut sembler séduisante, on peine à concevoir la façon dont pourrait s’instaurer le dialogue avec leurs homologues notamment les « Chief Data Officers » (CDO) déjà en place, les Correspondants Informatique et Libertés (CIL) et autres futurs « Data Protection Officers » (DPO) dans le cadre du règlement général (UE) sur la protection des données. En revanche, on entrevoit les complications procédurales et leurs retombées sur les processus de décision, sans parler de la dilution de la responsabilité éventuelle.

Comme les informaticiens le savent très bien, les entités opérantes que sont les programmes reposent sur l’interdépendance entre les algorithmes et les données, comme l’évoque déjà la fameuse formule donnée par Wirth en 1975 : « algorithms + data structures = programs ». Depuis, cette interdépendance s’est sans doute renforcée, comme c’est le cas dans l’apprentissage machine (machine learning) où le résultat de traitement algorithmique est dépendant du jeu des données mis à disposition et à partir duquel l’apprentissage a été effectué. L’inverse, à savoir l’influence des algorithmes sur les données à traiter, est également vrai : dans certains cas, les données elles-mêmes sont re-échantillonnées, voire « simulées » par d’autres algorithmes « intermédiaires ». Comme le note le Conseil général de l’économie dans son rapport, « on fait croître de tels algorithmes, plus qu’on ne les écrit ».

De surcroit, ainsi que le montre très bien Paul Dourish (2), des effets peu connus mais pas pour autant moins opérants s’y ajoutent : les résultats du traitement dépendent du code utilisé, de l’architecture éventuellement distribuée, des supports matériels de l’exécution, etc. L’opacité des algorithmes ne relève donc pas du simple secret des affaires ou du code fermé et/ou propriétaire. Netflix, par exemple, décompose son moteur en 12 algorithmes – ce qui est sans doute aussi une « approximation » de la complexité sous-jacente à la génération des recommandations qui en sont issues. Il y a ici à n'en pas douter une opacité fondamentale. Le concepteur lui-même est parfois surpris par le résultat obtenu suite à l’exécution de l’algorithme. A ce titre, on pourrait nourrir le débat sur la « maitrise » ou la transparence avec des éléments conceptuels en provenance d’un domaine malheureusement trop peu connu, celui du « computational creativity » où les « algorithmes » sont par exemple employés dans un robot dont l'objet est de peindre ou de composer de la musique.

Les algorithmes sont donc dans une large mesure « inscrutables » en eux-mêmes, et il convient sans doute d’en prendre la juste mesure : comme le souligne Armen Khatchatourov (3), la simple transparence des algorithmes, si l’on entend par là un audit formel, risque de se révéler un leurre qui passe sous silence ce que l’on cherche justement à saisir : les effets de ces « programmes » sur la société  et les choix de société appliqués dans ces mêmes algorithmes.

Ainsi, conformément à sa nouvelle mission de réflexion sur l’éthique et le numérique, la CNIL a lancé le 23 janvier 2017 un cycle de débats publics sur les algorithmes à l’heure de l’intelligence artificielle (4). Parmi les questions posées par la Commission, on compte :

  • Les algorithmes sont-ils les nouveaux décideurs ?
  • Ont-ils pour effet de nous enfermer dans une bulle informationnelle, mettant en danger ouverture culturelle et pluralisme démocratique ? Sont-ils au contraire un moyen d’accéder à des idées, contenus, données ou personnes inaccessibles ou invisibles jusqu’alors ?
  • Faut-il repenser, face aux progrès de l’intelligence artificielle, la responsabilité des acteurs publics et privés ?
  • Comment construire le libre-arbitre dans un monde « algorithmé » ?

La Chaire participera à cette réflexion et tentera d’y apporter une contribution,  notamment à l’occasion de sa conférence internationale The many dimensions of data, les 22 et 23 juin 2017.

Claire Levallois-Barth, Coordinatrice de la Chaire, Maître de conférences en droit à Télécom ParisTech

Armen Khatchatourov, Ingénieur de recherche à Télécom Ecole de Management, membre de la Chaire


Notes

  1. Modalités de régulation des algorithmes de traitement des contenus, Rapport à Madame la Secrétaire d’Etat chargée du numérique, consulter le rapport

    2. Dourish, P., Algorithms and their others: Algorithmic culture in context. Big Data & Society, Vol 3, Issue 2, 2016

    3. Khatchatourov, A., Peut-on mettre la main sur les algorithmes ? Note sur la « culture algorithmique » de Dourish, Etudes Digitales, Vol 2, Classiques Garnier, 2017

    4. www.cnil.fr/fr/ethique-et-numerique-les-algorithmes-en-debat-0

Commentaires Clos.