> Voir la vidéo de la rencontre
Jeudi 25 juin s’est tenue la 19e Rencontre de la Chaire VP-IP. La précédente Rencontre, en octobre 2019, avait été l’occasion de dévoiler les résultats de l’étude menée par la Chaire en partenariat avec Médiamétrie sur la manière dont les Français gèrent leurs données personnelles et l’évolution des perceptions et usages après la mise en œuvre du RGPD[1]. Celle de juin 2020 a porté sur un sujet on ne peut plus d’actualité : « Ce que les données massives et les algorithmes font à la confiance dans la société numérique »[2].
Ce fût, circonstances obligent, la première rencontre en ligne organisée par la Chaire. Et grâce aux technologies numériques, des sondages ont pu être réalisés avec les participants et l’interactivité avec les intervenants lors du débat ainsi assurée.
Une 19e Rencontre sous le sceau de l’interdisciplinarité
Pour traiter de la question des données massives et des algorithmes, et de leurs conséquences sur la confiance dans la société numérique, l’organisatrice de la Rencontre, Valérie Charolles, chercheure en philosophie à IMT-BS et membre de la Chaire, avait réuni des intervenants en provenance de disciplines variées, sceau de la Chaire depuis son origine. Ainsi, pour chacune des deux sessions de discussion, ce furent à la fois chercheur(e)s en sciences informatiques, en sciences de l’information et de la communication, en philosophie et en physique qui échangèrent. Les voici par ordre d’apparition.
Pablo Jensen, tout d’abord, directeur de recherche au CNRS, membre du laboratoire de physique de l'ENS de Lyon, est un physicien qui, après avoir modélisé la matière, se consacre à l’étude des systèmes sociaux, en collaboration avec des informaticiens et des chercheurs en sciences sociales. Il a notamment publié aux éditions du Seuil en 2018 Pourquoi la société ne se laisse pas mettre en équations[3].
Maryline Laurent, ensuite, bien connue des interlocuteurs de la Chaire puisqu’elle en est l’une des cofondatrices, est professeure en science informatique à Télécom SudParis au sein de l’Institut Polytechnique de Paris. Elle est impliquée dans la direction de nombreux projets concernant la sécurité et protection des données personnelles appliquées à la gestion des identités, l’Internet des objets ou encore le cloud[4].
Eric Guichard, membre du laboratoire Triangle et de l’Institut Rhônalpin des Systèmes Complexes (CNRS/ENS de Lyon), maître de conférences HDR à l’Enssib, ancien directeur de programme au Collège international de philosophie, est un chercheur en sciences de l’information et des techniques. Il a longtemps animé l’Atelier Internet de l’ENS d’Ulm et notamment dirigé l’ouvrage Ecritures : Sur les traces de Jack Goody[5].
Valérie Charolles, chercheure en philosophie à Institut Mines-Télécom Business School, membre de la Chaire VP-IP chercheure associée à l’Institut Interdisciplinaire d’Anthropologie du Contemporain (CNRS/EHESS) et enseignante à l’EHESS, travaille sur la manière dont la technique, la quantification et l’économie construisent le monde et le sujet contemporains. Elle a notamment publié chez Fayard en 2013 Philosophie de l’écran[6].
L’assistance était également diverse, composée à la fois d’enseignants ou de chercheurs du domaine, en France ou à l’étranger, de praticiens dans le monde de l’entreprise, notamment parmi les mécènes de la Chaire, et d’étudiants, doctorants ou post-doctorants. Romain Galesne-Fontaine, Président du Comité de pilotage de la Chaire, et Francis Jutand, Directeur général adjoint de l’IMT ont ouvert la Rencontre, insistant à la fois sur l’historique de la Chaire, créée en 2013, son ancrage dans l’actualité et l’acuité du sujet à l’ordre du jour de cette 19e Rencontre. Ivan Meseguer, co-fondateur de la Chaire, et Anne-Catherine Aye, assistante de la Chaire, ont d’ailleurs relayé sur le fil de discussion de la Rencontre un ensemble d’éléments de référence.
Qu’est-ce que le big data et l’utilisation des algorithmes changent en particulier pour le traitement des informations personnelles ?
La première session visait à déterminer si l’arrivée des données massives et l’usage des algorithmes, y compris apprenants, représentait un changement de surface, d’échelle ou plus profond pour l’univers numérique, et en particulier pour le traitement des informations personnelles.
Maryline Laurent a d’abord développé l’exemple des systèmes de recommandation et mis en avant deux formes d’impact altérant la confiance des utilisateurs, d’une part, à travers la collecte massive, parfois abusive, de leurs données personnelles, et d’autre part à travers la construction même des algorithmes. Que ce soit la manière dont les entreprises développent ces derniers ou bien la présence d’exemples tendancieux pouvant biaiser l’apprentissage-machine, les décisions algorithmiques ne sont pas neutres, donnant sens au sentiment des individus d’être manipulés.
Eric Guichard a ensuite exposé en quoi les données sont devenues massives depuis les débuts de la statistique et insisté sur le fait que les nombres calculables maniés par les systèmes automatisés étaient une petite partie des nombres existant. Plaidant qu’il n’existe pas de déterminisme technique, mais des liens entre technique et social, il a insisté sur le fait que des valeurs morales sont toujours inscrites dans la technique, ainsi que le relève le philosophe américain de la technique Andrew Feenberg, ceci supposant de faire en sorte qu’il n’y ait pas d’abus liés au pouvoir et aux compétences.
S’appuyant sur La Société ouverte et ses ennemis de Karl Popper, Valérie Charolles a développé en quoi l’évolution contemporaine représentait un changement d’échelle, mais aussi de forme (avec les réseaux les informations communiquent entre elles et se réfléchissent) et de nature, la personne n’étant pas maître de son destin sur les réseaux, ni de ses données personnelles. Elle a insisté sur deux risques majeurs : le premier sur la scientificité des modèles utilisés pour mettre en relation les données, le second sur la conception de la personne qui en est le soubassement.
Enfin, pour Pablo Jensen, « construire une explication en physique, c’est comme transformer un tigre sauvage, sautant dans la jungle, en un tigre dompté (…). On sélectionne et stabilise une partie des sauts potentiels par un investissement lourd en équipements et institutions », mais « le tigre rêve souvent de retourner dans la jungle ». S’il y a des usages, y compris anciens, pour les données et algorithmes, la machine économique ne peut traiter les humains sur le mode de la matière artificielle de laboratoire et prétendre à la scientificité et à la maîtrise de son objet.
Dans le prolongement d’un article publié dans la précédente lettre de la Chaire[7], il a également été question de savoir si le mot décrivant le mieux les modèles de mise en relation des informations utilisés aujourd’hui était celui d’« Intelligence artificielle » ou si d’autres termes seraient plus adaptés, comme ceux de « Traitement d’informations complexes » (complex information processing) ou de « Systèmes de décision automatisés » (artificial decision making systems). Plus de la moitié des 45 personnes ayant répondu au sondage ont opté pour le dernier terme (« Systèmes de décision automatisés »), un tiers pour le second et seulement 13% pour celui d’« Intelligence artificielle ». La discussion entre intervenants est venue confirmer ce diagnostic et pourrait mériter d’être poursuivie afin de veiller à utiliser des termes adaptés, et non pas promotionnels, pour rendre compte des modes de fonctionnement des réseaux, des algorithmes et des systèmes de reconnaissance utilisés, y compris les plus sophistiqués.
Le sondage réalisé auprès des participants à l’issue de cette session a été particulièrement éclairant et rejoint le diagnostic des intervenants. À la question « selon vous, l’existence de données massives et les possibilités de traitement dont elles sont l’objet représentent :
a) Un changement non significatif dans le traitement des données ;
b) Un changement uniquement d’échelle ;
c) Un changement d’échelle qui modifie le modèle de mise en relation des données et de traitement des informations personnelles »,
91% des répondants ont opté pour la troisième option (changement de modèle), 9% pour la deuxième option (changement uniquement d’échelle) et aucun pour la première option (changement non significatif).
Face à ces risques pour la confiance dans le numérique, quels types de réponses ?
La deuxième session visait à savoir quels types de réponses pouvaient être apportées à ces nouveaux risques pour la confiance dans le numérique. Les éléments apportés par les intervenants ont été de nature différente et complémentaire.
Pablo Jensen a insisté sur ce que pouvait apporter la technique, citant par exemple l’application StopCovid et demandant aux autres intervenants ce qui les avait fait exprimer des réserves sur son usage, en termes d’efficacité ou encore de protection des données personnelles. Valérie Charolles a insisté sur deux points : être vigilant sur les failles et biais que peuvent contenir les algorithmes et ne pas se tromper de définition de l’homme dans leur usage, ceci ayant des conséquences très pratiques (respect de la Déclaration Universelle des droits de l’homme, facilitation pour les personnes de l’usage de leurs droits numériques etc.). Eric Guichard a invité, pour sa part, à multiplier les initiatives de type RGPD, à traiter le numérique comme objet politique, investi par la puissance publique, dans un contexte actuel marqué par la prééminence des GAFAM, et enfin à favoriser la maîtrise de la culture numérique. Maryline Laurent a enfin donné des pistes concrètes pour la mise en place d’un univers numérique plus respectueux de la personne évoquant des technologies de préservation de la vie privée comme gage de confiance : bruitage de données pour tromper les algorithmes sur lequel travaille Télécom SudParis, usage de données chiffrées, transparence des algorithmes soumis à l’approbation de la communauté scientifique en particulier.
Le dernier sondage visait à proposer une première forme de conclusion de cette Rencontre, sollicitant l’avis du public sur le fait que « l’usage des données massives et des traitements algorithmiques :
a) Améliore la protection des informations personnelles,
b) Est neutre sur la protection des informations personnelles,
c) Rend plus difficile la protection des informations personnelles,
d) Met en péril la protection des informations personnelles et transforme la notion "d’informations personnelles".
Si les deux premières options n’ont recueilli que respectivement 2 et 5% des suffrages, la dernière option a été retenue par 41% des participants, la troisième étant la plus représentée avec 51% de réponses positives. L’idée que la masse des informations circulant et leurs nouvelles modalités de mise en relation rend plus difficile la protection des informations personnelles, voire pourrait la mettre en péril, est un point qui retient fortement l’attention de la Chaire, comme en témoigne l’organisation de cette Rencontre mais aussi la programmation de ses travaux.
Les intervenants ont, chacun dans leur registre, confirmé que l’on se trouvait aujourd’hui dans une situation qui méritait vigilance, mais aussi des actions concrètes. Deux questions ont été particulièrement mises en avant à cet égard. La première concerne la notion de confiance : la confiance dans le numérique est-elle la bonne terminologie, ne peut-elle être définie que par son contraire (la défiance et la méfiance), le terme de loyauté ne serait-il pas tout aussi bien adapté ? La seconde concerne le problème de souveraineté actuellement rencontré par la France et l’Union européenne, avec l’idée de la constitution d’acteurs européens à même de rivaliser avec les GAFAM en termes de puissance mais sur la base du standard de protection européen et en minimisant l’usage des données personnelles.
> Voir la vidéo de la rencontre
Valérie Charolles, Chercheure en philosophie à l’Institut Mines-Télécom Business School, Membre de la Chaire VP-IP, Chercheure associée à l’Institut Interdisciplinaire d’Anthropologie du Contemporain (EHESS/CNRS)
[1] Lien pour télécharger le rapport de synthèse de cette enquête et demander les résultats complets de l’enquête : https://cvpip.wp.imt.fr/2019/09/26/31-octobre-2019-18e-rencontre-deuxieme-enquete-cvpip-mediametrie/
[2] Programme détaillé de la Rencontre : https://cvpip.wp.imt.fr/25-06-2020-ce-que-les-donnees-massives-et-les-algorithmes-font-a-la-confiance-dans-la-societe-numerique/
[3] Liens vers le livre et le site de Pablo Jensen ; Twitter : @pablojensenlyon.
[4] Lien pour télécharger l’ouvrage Personnalisation de services : quelles technologies pour la préservation de la vie privée ? et vers la page de présentation de Maryline Laurent ; Twitter : @TelecomSudParis.
[5] Lien vers la page de présentation d’Eric Guichard et le site de l’Atelier Internet http://barthes.enssib.fr/actu/.
[6] Lien vers le livre et les publications de Valérie Charolles. Twitter : @imt_bs.
[7] https://cvpip.wp.imt.fr/2020/04/09/intelligence-artificielle-de-quoi-parlons-nous-au-juste/.