Formation Professionnelle

Intelligence artificielle : le droit 1, Big Brother 0

1 Étoile2 Étoiles3 Étoiles4 Étoiles5 Étoiles (10 vote(s), note: 4,60 / 5)
Loading...

Elle est sur toutes les lèvres. Elle est partout et nulle part à la fois. La légende veut que ses performances soient telles, qu’elle rendrait l’homme obsolète, caduc. Dans tous les cas, elle a déjà fait son entrée dans le monde de la formation et des ressources humaines. A l’intelligence artificielle, nous consacrons une série d’articles dont voici le premier qui doit poser le cadre : IA et droit. Il est signé Catherine Prébissy-Schnall, prof de droit à l’université de Paris Ouest Nanterre, qui a eu l’extrême élégance de rendre le sujet passionnant et compréhensible par le plus grand nombre.

Depuis le mois de mars 2020, la crise sanitaire a accéléré de façon considérable la numérisation de nos activités. Elle nous a conduit à acheter en ligne nos produits de première nécessité, suivre les cours en vidéo ou consulter son médecin à distance. Même si cette transformation s’est faite à « marche forcée », sans toujours tenir compte des inégalités entre les usagers et de la fracture numérique, elle marque le basculement de la société vers une culture algorithmique plus ancrée grâce aux progrès de l’intelligence artificielle (IA).

En effet, depuis que la France s’est lancée dans la construction d’une stratégie nationale sur l’intelligence artificielle (fin 2017), le terme IA est à la mode : technologie essentielle au fonctionnement des voitures autonomes, à l’optimisation de nos factures d’énergie avec le compteur Linky, à la protection de nos soldats grâce à l’intervention de robots et de drones, elle permet également de traduire des langues en temps réel, d’utiliser la parole pour commander des appareils comme Alexa ou Siri sur les iPhone, de répondre aux questions des clients à travers le chatbot (agent virtuel conversationnel dont l’application s’est distinguée pour gérer la crise du Covid-19) ou encore de personnaliser nos contenus sur Netflix. Mais la discipline de l’IA est aussi le thème de nombreuses œuvres de science-fiction avec la création de machines réellement intelligentes et la perspective de l’homme augmenté.

Entre la crainte du règne des robots et les espoirs du transhumanisme, l’IA est aujourd’hui un enjeu de suprématie opérationnelle technologique qui fait l’objet d’une course aux talents planétaires. Pour répondre aux besoins de transparence et d’éthique, beaucoup réclament des instruments juridiques capables d’appréhender l’IA. Pourtant les algorithmes sont encadrés depuis plus de quarante ans par la loi Informatique et Libertés de 1978 qui énonce le principe fondamental selon lequel « l’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». Modernisée depuis l’entrée en vigueur du Règlement général sur la protection des données (RGPD) en mai 2018, la loi Informatique et libertés encadre également l’utilisation des données personnelles nécessaires au fonctionnement des algorithmes et interdit qu’une machine puisse prendre seule (sans intervention humaine) des décisions emportant des conséquences cruciales pour les personnes (décision judiciaire, décision d’octroi de crédit, par exemple). Enfin, la loi prévoit le droit pour les personnes d’obtenir, auprès de celui qui en est responsable, des informations sur la logique de fonctionnement de l’algorithme. Si le droit n’est donc pas dépourvu d’instruments, la crainte exprimée est la perte de contrôle de l’humain là où « l’évolution technologique déplace la limite entre le possible et l’impossible et nécessite de redéfinir la limite entre le souhaitable et le non souhaitable » (CNIL).

La loi Informatique et Libertés de 1978 régit aussi l’IA. L’un de ses principes est : « l’informatique doit être au service de chaque citoyen […]. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».

Qu’est-ce que l’IA ?

On ne peut pas comprendre l’étendue des changements opérés par l’IA dans nos vies si on ne comprend pas ce qu’est précisément une intelligence artificielle. Or, dans la mesure où ce terme est très vendeur et qu’il est actuellement utilisé partout dans le débat public, les définitions données restent souvent imprécises. L’IA est une technologie dont le but est de faire accomplir par une machine des tâches qui requièrent traditionnellement l’intelligence humaine. La définition publiée au Journal officiel de la République française est juridiquement plus précise : il s’agit d’un « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines ».

On attribue souvent la paternité de cette discipline au mathématicien Alan Turing car il a écrit en 1950 des articles sur l’intelligence des machines et créé un test d’IA fondé sur la faculté d’une machine à imiter la conversation humaine (le Test de Turing). Pourtant ce n’est pas lui qui a inventé, en 1956, le mot intelligence artificielle ou artificial intelligence mais deux jeunes chercheurs américains, John McCarthy et Marvin Minsky. La traduction en français du vocable anglais intelligence signifie « renseignement » tandis qu’artificial renvoie à l’artifice, à un procédé visant à nous faire croire que l’ordinateur est intelligent mais il n’en est rien. L’IA connue raisonne uniquement en problèmes mathématiques et arithmétiques, c’est-à-dire sur la base d’algorithmes et donc de méthodes d’apprentissage. Parmi ces méthodes, on distingue le machine learning (apprentissage automatique) qui est un processus par lequel l’algorithme va évaluer et améliorer ses performances sans l’intervention d’un programmeur, en répétant son exécution sur des jeux de données jusqu’à obtenir de manière régulière des résultats pertinents.

La traduction en français du vocable anglais intelligence signifie « renseignement » tandis qu’artificial renvoie à l’artifice, à un procédé visant à nous faire croire que l’ordinateur est intelligent mais il n’en est rien.

Lorsque le réseau de neurones artificiels est composé de couches de plus en plus complexes, on parle de deep learning (apprentissage profond qui est un sous-ensemble du machine learning). Ainsi, plus le nombre de données va augmenter, plus il y aura d’informations différentes à corréler augmentant ainsi considérablement le « champ des possibles ». Le perfectionnement de la technique du deep learning a permis différentes réalisations comme la victoire des machines sur les champions de jeux d’échecs et de Go. Mais un des exemples les plus remarquables est celui de Watson créé par IBM en 2011, capable de traiter des données massives issues de millions de dossiers médicaux pour réaliser des diagnostics et proposer des prescriptions aux médecins. Pour reprendre la formule de Lawrence Lessig en 2000, « Code is Law » : les instructions informatiques inscrites dans le code informatique font loi. Mais est-ce que « Law is Code » ?

L’IA saisie par le droit

Vous l’avez compris : l’IA est un terme générique. Il existe donc différentes formes d’IA au gré des progrès scientifiques et de la perception humaine des « tâches intelligentes ».  Cette technologie a vocation à aller plus loin dans le futur. Certains craignent donc qu’elle s’affranchisse de la tutelle humaine et se déploie de façon totalement autonome au risque de mettre en péril l’avenir de l’humanité. Ce mythe est celui de la « singularité technologique » ou encore de « l’IA dite forte » (par opposition à l’IA connue qui est dite faible). En physique, une singularité correspond à un changement brusque de comportement (liquéfaction par exemple). Si l’IA continue à se développer, il pourrait alors y avoir une transition de phase vers une superintelligence plus puissante que nous qui pourrait permettre à l’humain de devenir un organisme cybernétique et de ne plus être concerné par la mort biologique (courant transhumaniste relatif à l’homme augmenté).

Ce mythe se nourrit d’exemples visibles comme l’humanoïde Sophia capable de mimer des expressions humaines et qui a reçu la citoyenneté saoudienne en octobre 2017 ou encore les robots tueurs, véritables Terminators capables de sélectionner et de combattre des cibles sans intervention humaine. Pour fixer l’avènement de l’IA forte en 2030, la singularité technologique se réfère à la loi de Moore, du nom d’un des fondateurs d’Intel, qui constate en 1965, que les capacités de stockage d’information et la vitesse de calcul des processeurs doublent à un rythme exponentiel. En effet entre 1965 et 2017, le nombre de transistors par puce de silicium a doublé à peu près tous les 18 mois à coût constant. Si l’essor du deep learning est certes facilité par les vitesses de calcul des processeurs, la loi de Moore est en réalité un mode d’organisation industrielle, une feuille de route permettant de coordonner les efforts de toutes les parties prenantes de l’industrie.

Elle a ses limites techniques (industrialisation d’une alternative au silicium) et économiques (coût de la miniaturisation des circuits, baisse de la durée d’amortissements des équipements informatiques, augmentation des déchets). La loi de Moore n’est qu’une supposition relative aux capacités de calcul et de stockage des données informatiques. Or, comme le souligne le professeur d’informatique Jean-Gabriel Ganascia, la rapidité de calcul ne fait pas l’intelligence : « rien en l’état actuel des technologies d’intelligence artificielle n’autorise à affirmer que les ordinateurs seront bientôt en mesure de se perfectionner indéfiniment sans le concours des hommes, jusqu’à s’emballer, nous dépasser et acquérir leur autonomie ». Les machines restent soumises aux modalités et à la finalité de la technique d’apprentissage de l’algorithme configuré par l’homme.

« Rien, en l’état actuel des technologies d’intelligence artificielle, n’autorise à affirmer que les ordinateurs seront bientôt en mesure de se perfectionner indéfiniment sans le concours des hommes, jusqu’à s’emballer, nous dépasser et acquérir leur autonomie ».


Jean-Gabriel Ganascia, Professeur d’informatique à la faculté des sciences de Sorbonne Université et président du comité d’Ethique du CNRS

Il reste cependant que la robotisation devient un défi pour le droit, en ce sens que les règles actuellement en vigueur peuvent se révéler inadaptées ou insuffisantes pour encadrer cette nouvelle réalité. Malgré la pression européenne appelant à proposer la création d’une personnalité juridique spécifique aux robots, le législateur français n’a pas créé un régime de responsabilité spécial. Si une machine cause un dommage, il conviendra de déterminer quel humain est responsable (le fabricant pour les défectuosités ainsi que le « gardien » (responsabilité du fait des choses), pour les dommages causés par un robot fonctionnant de façon satisfaisante).

Mais il ne faudrait pas que les interrogations relatives à l’avènement hypothétique d’une IA forte viennent éluder les vraies questions juridiques et éthiques posées actuellement par l’IA connue. Les algorithmes sont capables d’une surveillance de masse à travers notamment la reconnaissance faciale. Ils sont également capables d’extrapoler l’orientation sexuelle et les préférences politiques ou religieuses à partir des informations de l’utilisateur. Ils peuvent, aussi, être utilisés pour créer des logiciels malveillants et lancer des cyber-attaques. De la même façon, ils peuvent générer des discriminations. En effet, il se révèle difficile pour une IA de rester neutre lorsque sa configuration reflète un système de valeurs et de choix de la société. On peut citer l’exemple d’une IA conçue pour trier automatiquement les CV et qui était nourrie de données récoltées entre 2004 et 2014. L’algorithme rejetait systématiquement les candidatures de femmes pour les métiers de développeurs web au motif que sur cette période, l’entreprise n’avait embauchait que des hommes. L’IA ne faisait que reproduire ce qui se faisait. Ces conséquences négatives de l’IA réclament un encadrement juridique combiné à une réflexion éthique. Pour le moment, l’approche du droit pour encadrer l’IA est avant tout sectorielle. Ainsi dans le domaine de la santé, un règlement européen 2017/745/UE modifie la définition du champ des dispositifs médicaux en introduisant les notions de prédiction et de pronostic qui doivent répondre aux promesses de l’intelligence artificielle. Ce règlement est d’application obligatoire et directe depuis le 26 mai 2020 dans tous les États membres.

L’ IA peut générer des discriminations, car sa configuration reflète un système de valeurs et de choix de la société.

Pour encadrer l’IA sans pour autant la freiner, la communauté internationale a proclamé la nécessité d’une éthique de l’IA au sein de différents guides, directives, codes de conduite et déclarations. La Conférence de janvier 2017 (Asilomar, 2017) a notamment abouti à l’adoption de 23 principes, baptisés les 23 principes d’Asilomar dont l’objectif est d’encadrer le développement de l’IA. En avril 2019, l’Union européenne suivie par l’OCDE (mai 2019) a publié des lignes directrices en matière d’éthique pour le développement de l’IA tandis que l’Unesco (novembre 2019) a été mandaté pour élaborer « un instrument normatif mondial ». De la prolifération de ces textes, il ressort toujours les mêmes idées forces : L’IA doit être au service de l’humain pour son bien-être, pour l’aider dans sa décision, pour le soulager de tâches répétitives qui peuvent être automatisées, pour lui permettre de gagner du temps et donc de l’argent. Cela doit être une IA responsable c’est-à-dire qui suscite de la robustesse qui va de pair avec la sécurité et la confiance. C’est ainsi que conformément au RGPD, toute technologie en cours de conception doit intégrer un outil dans son sein pour assurer, par défaut, la plus haute protection en matière de protection de la vie privée (privacy by design).

Boîte noire et contentieux

En plus d’être privacy by design, la technologie doit être aussi security by design et ethics by design : l’algorithme doit être intègre pour lutter contre les biais, transparent et, dans la mesure du possible, explicable et intelligible. Dans la mesure du possible car il y a le fameux problème de la « boîte noire » du deep learning : on fournit des données en entrée, il y a des données en sortie et au milieu, l’algorithme qui est conçu de sorte que son fonctionnement évolue dans le temps, en fonction des données qui lui sont fournies. Or, on se méfie du résultat algorithmique issu de la boîte noire car on ne comprend pas le raisonnement qui conduit à ce résultat en raison de l’opacité du traitement. Dans son rapport de 2018 intitulé Donner du sens à l’IA, Cédric Villani avait appelé à « ouvrir la boîte noire » afin de permettre à toute personne concernée par la décision automatisée de contester des erreurs ou des données erronées. « L’explicabilité des systèmes à base d’apprentissage constitue un véritable défi scientifique, qui met en tension notre besoin d’explication et notre souci d’efficacité. » N’est-il pas en effet normal de comprendre la logique de fonctionnement d’un algorithme à la base de la décision automatisée de refus d’un prêt ou de refus d’admission à l’Université ? On peut citer l’exemple de l’usage de Parcoursup qui constitue la porte d’entrée obligatoire pour accéder à la très grande majorité de l’offre d’enseignement supérieur en France. Configuré pour opérer au service de l’intérêt général, cet algorithme public a fait l’objet d’un contentieux important.

« L’explicabilité des systèmes à base d’apprentissage constitue un véritable défi scientifique, qui met en tension notre besoin d’explication et notre souci d’efficacité. »

Cédric Villani dans le rapport Donner du sens à l’IA de 2018

Dans une décision du 3 avril 2020,  le Conseil constitutionnel s’est en effet prononcé sur la constitutionnalité de la communication des algorithmes mis en œuvre par les universités pour l’examen des demandes d’inscription en premier cycle dans le cadre de Parcoursup. Il rappelle que les candidats peuvent obtenir la communication des informations relatives aux critères et modalités d’examen mis en œuvre par les établissements ainsi que des motifs pédagogiques qui justifient la décision prise à leur égard, une fois cette décision prise. En revanche, ni les candidats – avant qu’une décision ait été prise à leur sujet – ni les tiers ne peuvent demander à l’administration de leur communiquer les règles définissant le traitement algorithmique utilisé lors de cette procédure et les principales caractéristiques de sa mise en œuvre. Pourquoi ? Pour protéger le secret des délibérations des équipes pédagogiques au sein des universités, et ainsi assurer leur indépendance et l’autorité de leurs décisions. Cet exemple illustre le fait qu’il peut y avoir des limites posées par la loi et qu’il n’y a pas,  par principe, de droit à tout savoir.

Le droit saisi par l’IA

L’accès au droit et à la justice a été notamment bouleversé par la mise en place de nouvelles modalités de saisine électronique des juridictions et par la création de plateformes de résolutions à l’amiable des litiges. L’IA a aussi permis le développement de logiciels spécifiques pour la pratique juridique afin de favoriser « la smart justice », au sens de justice intelligente mais aussi de justice astucieuse. Ces applications qualifiées de legaltechs permettent notamment d’aider à la rédaction des jugements, d’évaluer les risques contentieux en réduisant l’aléa judiciaire, d’analyser les contrats, de prédire l’issue d’un litige en se basant sur une grande quantité de décisions de justice déjà rendues.

L’ouverture des données jurisprudentielles a été prévue par la loi du 7 octobre 2016 pour une République numérique (dite « Loi Lemaire »). Le décret relatif à la mise à la disposition du public des décisions des juridictions judiciaires et administratives n’a été adopté que le 29 juin 2020. Ce texte prévoit une ouverture massive de la jurisprudence portée à la connaissance du public  permettant ainsi une meilleure appréhension de la réalité contentieuse. Mais ces données sont aussi le carburant indispensable à la justice dite prédictive. Cette justice algorithmique est d’ailleurs appelée à tort « justice prédictive » car il s’agit, en vérité, d’une justice analytique qui détermine les conséquences chiffrées des décisions à venir ou les arguments pertinents retenus par les juges. Les statistiques viennent ainsi faciliter la compréhension des professionnels du droit pour orienter une stratégie. Afin de maintenir une « justice indépendante, impartiale, transparente, humaine et équilibrée », la loi n°2019-222 de programmation 2018-2022 et de réforme pour la justice prévoit une anonymisation des personnes mentionnées dans la décision de justice s’il existe un risque d’atteinte « à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage ». Cette même loi interdit de réutiliser les données d’identité des magistrats et des membres du greffe en vue « d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées ». L’objectif est d’éviter tout profilage du juge qui pourrait conduire à l’établissement de stratégies de choix de juridiction. À titre d’exemple, l’algorithme prédictif Supra Legem analysait les décisions de justice administrative permettant ainsi de connaître le taux de rejet, par magistrat identifié, des demandes d’annulation d’obligations de quitter le territoire français (OQTF : mesures prononcées par les autorités administratives à l’encontre d’étrangers en situation irrégulière). Suite à l’émotion provoquée par la publication des noms des magistrats ayant le taux de rejet le plus haut et le plus bas, l’application a cessé de fonctionner en 2018.

L’IA, sous sa forme actuelle, présente effectivement des risques d’atteintes aux libertés. Pourtant, elle est utilisée de façon massive dans la vie de tous les jours pour prendre des décisions sensibles (comme des décisions judiciaires) voire vitales (comme les diagnostics médicaux). L’adaptation continue du droit combiné à l’éthique est donc nécessaire pour permettre à l’homme de garder la main sur l’IA qui ne peut raisonnablement constituer qu’un outil d’aide à la décision sans déresponsabilisation de la personne humaine.

Catherine Prébissy-Schnall

Catherine Prébissy-Schnall

Catherine Prébissy-Schnall est Maître de conférences en droit public, habilitée à diriger les recherches à l’Université Paris-Nanterre.

Docteur en droit, titulaire d’un DEA de droit public et privé de l’économie et d’un D. U. en droit allemand, elle a écrit de nombreux articles en droit public des activités économiques et particulièrement en droit de la commande publique. Elle dirige le Master de droit du numérique à Nanterre où elle y explore les enjeux juridiques de technologies en plein essor, notamment en matière de santé et d’e-procurement.

A lire, notre série d’articles sur la l’intelligence artificielle et les soft skills

Intelligence artificielle, pédagogie et neurosciences par Aurélie Van Dijk et Frédéric Oru


Pourquoi l’intelligence artificielle a besoin des soft skills par Aurélie Van Dijk et Frédéric Oru

icone commentaire Commenter cet article

obligatoire

obligatoire (ne sera pas publié)