Alexandre Stepanov – Vers l’émergence de nouveaux droits fondamentaux contre l’administration algorithmique

Alexandre Stepanov,
Docteur en droit public de l’Université de Lorraine

Résumé : Le recours aux techniques d’intelligence artificielle pour améliorer le fonctionnement des administrations est une démarche assez récente par rapport au secteur privé, mais elle prend de l’ampleur chaque année. La République numérique promet une administration plus efficace, plus juste, plus réactive, voire proactive. Cependant, elle limite inévitablement les libertés publiques et contraint les citoyens à l’autocensure. Dans ce contexte, de nouveaux droits fondamentaux s’imposent afin que le respect de l’être humain subissant un traitement automatique puisse être garanti. Trois droits émergents sont mis en lumière dans cet article : le droit à la transparence et à l’intelligibilité, le droit à la minimisation et à la traçabilité des données et le droit à l’intervention humaine dans les décisions automatisées. Les trois sont aujourd’hui juridiquement consacrés pour s’opposer à l’opacité et à l’arbitraire de l’administration algorithmique.

« Comme tous les hommes de Babylone, j’ai été proconsul ; comme eux tous, esclave ; j’ai connu comme eux tous l’omnipotence, l’opprobre, les prisons ». Dans une nouvelle de Jorge Luis Borges intitulée La loterie à Babylone1, la vie publique et privée des membres d’une société fictive est déterminée par un jeu de hasard. Cette loterie, gratuite et obligatoire pour tous, est organisée par la Compagnie détenant la totalité du pouvoir, ce qui lui permet de jouer les numéros tels que les fonctions publiques et les décisions favorables ou encore les sanctions comme l’emprisonnement et la peine de mort. Les règles du jeu et son déroulement demeurent secrets, mais ses résultats semblent personnalisés à l’aide de la magie et de l’espionnage. En outre, chaque jeu implique des jeux secondaires : pour exécuter celui condamné à mort par la loterie, il faut désigner le bourreau, etc. Ainsi, chaque citoyen vit dans l’incertitude permanente ; il ne connaît pas les conséquences, largement juridiques, auxquelles il va devoir faire face ni les événements de sa vie, susceptibles de les provoquer. Cette situation ne va pas sans rappeler celle pouvant découler d’un usage massif de l’intelligence artificielle.

Une fois mis en œuvre dans l’activité administrative, les algorithmes publics, surtout ceux basés sur l’intelligence artificielle autoapprenante, créent une forme d’incertitude comparable à celle connue des habitants de la Babylone de Borges. D’une part, les citoyens peuvent ne connaître ni les aspects de leur vie qui sont concernés par les traitements automatiques ni les décisions publiques auxquelles ces traitements peuvent aboutir. D’autre part, le grand public n’a pas de connaissances suffisantes en informatique pour comprendre comment les algorithmes fonctionnent. En particulier, les réseaux de neurones produisant des images ou dialoguant de façon convaincante reposent sur une technologie si avancée qu’elle semble indiscernable de la magie2.

Cette apparence mystérieuse est couplée avec l’usage de prérogatives de puissance publique que les algorithmes employés par l’administration mettent en œuvre. Les décisions ainsi prises peuvent imposer aux administrés des contraintes parfois néfastes. En conséquence, est susceptible d’émerger dans l’esprit des gens l’idée que chacune de leurs actions, dans le monde réel ou virtuel, peut être analysée et évaluée de façon discrète par une machine pour restreindre ensuite leur liberté. Inévitablement, cela va conduire à une sorte d’autolimitation de la liberté, voire une autocensure exercée par les citoyens. Dans une société sous surveillance massive, il serait plus sage de ne pas agir que de subir les conséquences de ses actions.

La situation décrite trouve un écho particulier en Chine, où opèrent 500 millions de caméras sur la voie publique et un système de crédit social3. Cependant, les pays démocratiques recourent de plus en plus à la récolte et à la réutilisation massive des données. Les villes intelligentes, la police prédictive, l’administration proactive sont devenues des mots à la mode ces dernières années et toutes impliquent des traitements de données.

En France, les pouvoirs publics ont mis en œuvre des applications d’intelligence artificielle tant bénéfiques pour les administrés, comme l’administration proactive déjà évoquée, que restrictives relevant de la police prédictive. La première permet de lutter contre le non-recours aux droits en attribuant certaines allocations sans demande de l’usager4. La seconde vise à garantir la sécurité publique et l’ordonnancement juridique en utilisant des modèles prédictifs et des techniques de profilage. Deux exemples assez parlants permettent d’illustrer cette situation. D’une part, un algorithme de lutte contre la fraude fiscale a été élaboré par la Direction générale des finances publiques, pour collecter et traiter les données susceptibles de caractériser certaines activités professionnelles si elles sont librement accessibles sur les sites internet comme les réseaux sociaux ou les sites de petites annonces5 : d’autre part, une intervention algorithmique a été prévue, à titre expérimental, dans le cadre de la Loi relative aux Jeux olympiques et paralympiques de 2024 permettant la vidéosurveillance automatique de la voie publique pour identifier les comportements et les objets suspects6. Tous deux affectent les droits fondamentaux. Nonobstant, ils ne présentent qu’une petite partie de la démarche générale vers l’algorithmisation de l’administration française. Consacrée notamment par la loi du 7 octobre 2016 pour une République numérique, la prise de décision administrative individuelle sur le fondement exclusif d’un traitement algorithmique y est autorisée. Même si la démarche semble être bénéfique dans son aspect global, elle nécessite toutefois une consécration de nouvelles garanties juridiques afin de pallier les limitations, y compris les autolimitations, des libertés ainsi produites.

S’agissant des citoyens administrés, on peut distinguer trois nouveaux droits fondamentaux dont l’apparition est une réponse à l’utilisation des algorithmes dans la prise de décision administrative individuelle. Ces droits représentent les prolongements de droits existants et ont été consacrés par le législateur français. Doivent ainsi être évoqués le droit à la transparence et à l’intelligibilité de l’algorithme public (I), la minimisation et la traçabilité des données utilisées par l’administration (II), et le droit à une intervention « humaine » pour examiner les situations individuelles (III).

I. Le droit à la transparence et à l’intelligibilité de l’algorithme public

En France, le droit de demander des comptes à tout agent public de son administration est inscrit à l’article 15 de la Déclaration des droits de l’homme et du citoyen de 1789, ce qui lui octroie une valeur constitutionnelle. En pratique, deux mécanismes de concrétisation de ce droit sont garantis par la loi, notamment par le Code des relations entre le public et l’administration (CRPA). Les deux ont pour but de rendre compréhensible la prise de la décision administrative par des êtres humains, et donc d’éviter l’arbitraire. Certes, le cerveau humain est la boîte noire la plus opaque qui soit, mais c’est pour cette raison que l’État de droit exige la possibilité d’accéder au raisonnement de l’agent public qui a pris la décision7.

Ainsi, le premier mécanisme a été créé pour assurer l’accès des administrés aux décisions les concernant, ainsi qu’aux actes, tels que les règlements, les circulaires et les lignes directrices, qui ont fondé la décision finale. Le droit d’accès aux documents administratifs et à leur communication impose une règle générale selon laquelle l’administration est obligée de publier et de communiquer les documents administratifs8. Le second mécanisme est le droit à des décisions motivées. L’administré doit comprendre pourquoi telle ou telle décision a été prise à son égard, notamment quand il s’agit d’une décision défavorable. La motivation montre que les circonstances d’espèce ont été bien appréciées et que le droit a été correctement interprété et appliqué.

Dans le contexte de l’algorithmisation de l’action administrative, les deux droits subissent une évolution pour s’adapter à la spécificité du traitement algorithmique. Les nouvelles garanties sont fixées par la Loi pour une République numérique. L’algorithme public, et plus précisément son code source, est un document administratif susceptible de fonder les décisions individuelles et qui doit, dans ce cas, être publié en ligne (art. L. 300-2 et L. 312-1-3 du CRPA). La décision individuelle adoptée à l’aide d’un algorithme doit en porter une mention explicite et, en cas de demande de l’administré, l’administration est obligée de communiquer les règles définissant le traitement algorithmique ainsi que les principales caractéristiques de sa mise en œuvre (art. L. 311-3-1 du CRPA).

De cette manière, le droit de communication fait naître un droit à la transparence de l’administration algorithmique, tandis que le droit à des décisions motivées implique un droit à l’intelligibilité de la décision algorithmique9. Ces deux droits « numériques » sont très proches, quant à leur sens et à leur raison d’être, puisqu’ils trouvent leur fondement dans la même disposition constitutionnelle. Cependant, ils ne sont pas identiques et leur portée comme leur finalité peuvent parfois être contradictoires.

L’expression la plus pure du droit à la transparence consiste en la divulgation du code source de l’algorithme public. Étant une suite d’instructions en langage informatique définissant le fonctionnement de l’algorithme, le code source est le seul document qui permet de le concevoir de façon exhaustive. Sa disponibilité permet d’examiner la conformité de ses règles algorithmiques aux règles légales qu’elles sont censées mettre en application. De la sorte, le code source permet d’auditer l’algorithme pour identifier ses biais éventuels, voire les discriminations implicites qu’il emporte. C’est pourquoi les administrations sont tenues de le publier et, quand cela est possible, elles le rendent ouvert et réutilisable10.

Cependant, le droit à la transparence connaît une limitation importante car la divulgation de la totalité ou d’une partie du code source est souvent impossible ou indésirable11. Tout d’abord, un nombre important d’algorithmes utilisés par l’administration pour la prise de décision est conçu ou fourni par des personnes privées et ils bénéficient donc de la protection de la propriété intellectuelle de leurs auteurs. Ainsi, de tels algorithmes ne représentent pas des informations publiques qui sont a priori ouvertes. Bien au contraire, cette hypothèse exclut la possibilité de communication du code source (art. L. 321-2 du CRPA)12. De la même manière sont exclus les secrets juridiquement protégés, ainsi que le prévoit l’article L. 311-5 du CRPA. Le Conseil constitutionnel a d’ailleurs confirmé que la restriction de l’accès aux codes source des algorithmes « locaux » de Parcoursup poursuivait un objectif d’intérêt général, celui de la protection du secret des délibérations des équipes pédagogiques, et qu’elle était donc justifiée jusqu’à la fin de la procédure nationale de préinscription13.

Au-delà de ces considérations juridiques, la publication du code source peut conduire à des abus de l’algorithme public14. Outre les considérations évidentes de cybersécurité, il faut mentionner le fait que les usagers ayant des connaissances en informatique sont susceptibles de manipuler les résultats du traitement algorithmique, créant ainsi une inégalité dans leur traitement15. Toutefois, les manipulations sont parfois possibles, même sans publication du code source. Dans certains cas, il suffit de comprendre les règles principales du traitement. À titre d’illustration, on peut citer le cas de l’algorithme Admission post-bac, prédécesseur de Parcoursup, qui a contraint les candidats souhaitant postuler en licence à développer une stratégie lors de l’établissement de leur liste de vœux. Il était en effet préférable de la composer selon leurs probabilités d’être admis tout en faisant abstraction de leurs préférences réelles16. L’ouverture du code source accroît ce risque, ce qui ne va pas sans poser de questions, notamment dans les domaines les plus sensibles comme celui des aides sociales, dans lesquels les détournements des algorithmes peuvent susciter des restrictions supplémentaires d’autres droits fondamentaux.

Enfin, la publication du code source ne garantit pas la transparence de l’algorithme, notamment en ce qui concerne les algorithmes autoapprenants qui peuvent être évolutifs, et donc changer de règles au cours de leur fonctionnement, et non déterministes lorsque les données de sortie peuvent varier avec les mêmes données d’entrée. En outre, les règles induites par un tel algorithme présentent une abstraction de très haut niveau qui est souvent inaccessible même aux spécialistes. Cela fait apparaître un paradoxe : le degré maximal de transparence de l’intelligence artificielle dans l’administration publique, à savoir la divulgation du code source définissant son fonctionnement, ne sert guère l’intelligibilité du traitement algorithmique.

Il ressort de cette situation que le droit à la transparence et celui à l’intelligibilité peuvent poursuivre des finalités différentes17. Si le premier vise à fournir les outils nécessaires pour pouvoir examiner les rouages – ou plutôt les puces – de l’administration algorithmique, le second impose à l’administration d’expliquer comment la décision individuelle algorithmique a été prise et de le faire d’une manière que les citoyens soient en mesure de comprendre. Alors que le code source le plus simple sera peu compréhensible pour une personne n’ayant pas de compétences en informatique et ne clarifiera donc pas la décision prise à son encontre, on peut se demander en quoi consiste une explication intelligible.

La réponse donnée par la loi inclut, tout d’abord, une mention explicite informant l’administré qu’un traitement algorithmique est appliqué lors de la prise de décision le concernant. Cette mention est cruciale pour l’avertir de l’existence d’un tel traitement. Par conséquent, le législateur l’a rendue obligatoire à peine de nullité de l’acte algorithmique (art. R. 311-3-1-1 du CRPA, art. 47 de la Loi informatique et libertés18) et, même en l’absence de décision individuelle, la nécessité d’informer le public de l’emploi de traitements algorithmiques a été soulignée par le Conseil constitutionnel dans sa décision récente concernant le dispositif de vidéosurveillance automatique pendant les Jeux olympiques de 202419.

Ensuite, à titre facultatif, sur demande de l’intéressé, l’administration est tenue de communiquer, sous forme intelligible, de nombreuses informations : le degré et le mode de contribution du traitement algorithmique à la prise de décision, les données traitées et leurs sources, les paramètres du traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé ainsi que les opérations effectuées par le traitement. Si la plupart de ces informations peuvent être retrouvées dans le code source, l’exigence d’une forme intelligible dans leur communication est considérée comme l’objectif prioritaire pour satisfaire le droit examiné, notamment dans la jurisprudence du Conseil constitutionnel. L’examen des dispositions de l’article 21 de la loi relative à la protection des données personnelles20 témoigne de ce qu’il a accentué l’obligation de maîtriser tant le traitement algorithmique que ses évolutions éventuelles, afin de pouvoir l’expliquer en détail et sous une forme intelligible. Pour cette raison, il a ainsi prohibé le recours aux algorithmes autoapprenants évolutifs21 comme fondement exclusif d’une décision administrative individuelle car le responsable du traitement ne serait pas capable de l’expliquer22. Ainsi, le défi d’expliquer le traitement algorithmique de façon intelligible devient une tâche non pas seulement d’ordre juridique, mais bien technique et psychologique.

Le respect du droit à l’intelligibilité impose à l’administration l’utilisation de méthodes de « design thinking »23. Au niveau de base, elle peut communiquer une synthèse du cahier de charges de cet algorithme, comme c’est le cas pour Parcoursup. Ce document textuel peut fournir une idée générale sur le fonctionnement de l’algorithme : quelles caractéristiques variables sont prises en compte, d’où viennent les données nécessaires, etc. Une approche plus sophistiquée consiste en la composition d’un logigramme graphique, un arbre de décisions, représentant le cheminement du traitement algorithmique. Par exemple, deux logigrammes ont été publiés par Nantes Métropole pour expliquer ses algorithmes de tarification des transports et de l’eau24. Cette approche semble être un gage de l’intelligibilité des informations données et de leur caractère réellement informatif dès lors que l’algorithme est expliqué en action.

Cependant, les deux formes partagent les mêmes carences. Dans les deux cas, il s’agit seulement d’une représentation générale de l’algorithme. Ainsi, elle n’explique pas spécifiquement les décisions, éventuellement négatives pour les individus, qui peuvent en découler. C’est l’intéressé qui doit en déduire le critère à cause duquel il n’a pas été éligible. En outre, ces approches ne sont pas applicables aux algorithmes complexes qui peuvent avoir des milliers de variables, souvent pondérées. La schématisation devient alors trop complexe et trop peu intelligible pour les citoyens. À titre d’illustration, le fait que le paramètre « revenu » est 2,30041 fois plus important que le paramètre « statut marital » dans un algorithme a une valeur explicative très limitée pour comprendre les décisions prises concrètement. Alternativement, des approches plus personnalisées peuvent être essayées. Outre l’explication générale de l’algorithme, l’administration peut indiquer quels critères n’étaient pas satisfaits ou fournir des exemples fictifs qui auraient pu aboutir à un autre résultat.

Malgré ces difficultés, et alors que le droit à la transparence de l’administration algorithmique est limité par la nécessité de sa mise en balance avec les autres droits et intérêts protégés, le droit à l’intelligibilité apparaît comme une exigence minimale pour éviter un État kafkaïen, inaccessible et opaque.

II. Le droit à la minimisation et à la traçabilité des données

Il est aujourd’hui bien connu que l’État, ainsi que les collectivités locales, accumulent d’abondantes quantités de données dans le cadre de leurs missions d’intérêt général. Il s’agit des données fournies par les usagers du service public, celles recueillies à des fins de statistique, celles récoltées par les services de police ou encore celles produites au sein de l’administration… Depuis une décennie, toutes les informations sont traduites en données, susceptibles d’être utilisées, stockées, transmises et réutilisées sans perdre leur valeur25.

En retour, ceci soulève une crainte du fichage généralisé des individus. Celle-ci s’est manifestée pour la première fois en raison du projet de fichage baptisé SAFARI dans les années 1970. Accusé de vouloir mettre en œuvre une « chasse aux Français »26, le projet a été suspendu et, en réaction, la Loi informatique et libertés a été adoptée. Depuis, la capacité de fichage s’est considérablement accrue, tant du point de vue de la collecte de données que de leur traitement. Pour pallier les risques associés, deux droits subjectifs ont progressivement émergé.

Le droit principal est le droit à la minimisation des données, découlant du principe énoncé à l’article 5 du RGPD27. Dans le domaine administratif, l’exigence de minimisation des données suppose, tout d’abord, la limitation de leur accumulation et donc la restriction des données à disposition28. Pour éviter le fichage généralisé, il est nécessaire de ne pas stocker toutes les données relatives à un individu dans une seule base de données et de ne pas confier leur gestion à une seule autorité. Inversement, il est préférable de construire un État « en réseau29 » dans lequel chaque administration collecte les informations relevant de sa compétence et, en cas de besoin, en sollicite une autre pour obtenir les données manquantes. Pour ce faire, le principe « Dites-le nous une fois » est imposé par l’article L. 113-12 du CRPA, selon lequel l’administré a le droit de ne pas fournir à nouveau des données qu’il a déjà transmises à une autre administration participant au même système d’échange de données. Certes, l’échange de données entre les administrations doit aussi être limité pour respecter le principe de minimisation. Il n’est pas admissible de mettre en œuvre un flux permanent de données du même type ; chaque sollicitation doit être justifiée et effectuée au cas par cas. En outre, après autorisation, l’administration source ne transmet pas la donnée, elle fournit seulement l’accès à cette donnée pour une opération ou une période déterminée. Ces mesures maintiennent l’équilibre général du système en réseau.

Ensuite, un élément de la minimisation de données est la restriction des données utilisées pour la prise de décision. L’administration doit prendre en compte uniquement l’information prévue par la loi ou strictement nécessaire pour qualifier le fait juridique recherché (art. L114-8 du CRPA)30. C’est le cas notamment des catégories de données susceptibles de produire des discriminations telles que le genre, la religion, la nationalité ou l’âge. Un exemple assez parlant de ce type de minimisation est l’application officielle France Identité qui, entre autres fonctions, permet de justifier la majorité sans divulguer l’identité ou la date de naissance31. En effet, l’adoption de nombreux actes juridiques, y compris ceux administratifs, ne nécessite pas l’identification de l’âge spécifique de l’intéressé, le seul fait recherché étant la majorité de la personne.

Le second droit est auxiliaire au premier car il sert à garantir la minimisation de données et à protéger les individus contre l’utilisation abusive de ces dernières. Il s’agit en effet du droit à la traçabilité de données : le citoyen doit avoir la possibilité de savoir quelle autorité, quand et pour quelle raison, a obtenu l’accès à ses données personnelles lorsqu’elles sont fournies par le système d’échange de données (art. R. 115-9-5 du CRPA). À titre d’exemple, tous ces mécanismes sont mis en œuvre en Estonie dans le cadre de leur système national d’interopérabilité de données dénommé X-Road32.

III. Le droit à l’intervention humaine

Le recours actif à l’intelligence artificielle pour automatiser certaines tâches ou décisions administratives, traditionnellement examinées et adoptées par les agents humains, est une source de préoccupation pour les destinataires de telles décisions. En s’adressant à l’administration, la personne présume le caractère équitable de la procédure, notamment l’examen individuel de sa situation et la prise en compte de ses particularités pour prendre une décision adaptée. Dans ce contexte, la perspective de voir son cas traité par un « robot » impersonnel paraît dévalorisante. Le respect de la dignité humaine implique la participation obligatoire d’un agent humain compétent dans le processus décisionnel, même si cette participation peut être directe ou indirecte.

Ainsi, deux hypothèses peuvent être envisagées en fonction de la complexité de la décision. En ce qui concerne la complexité, on suppose que la structure de la décision administrative dépend de trois éléments dans une proportion différente : le calculable, l’incertain et l’axiologique33. Le premier englobe l’établissement des faits certains et univoques tels que le revenu, l’adresse personnelle, la citoyenneté, etc. Il ne s’agit pas seulement des données en chiffres, toute donnée qui ne nécessite pas une évaluation entre dans cette catégorie et peut sans problème être traitée par un algorithme. À l’inverse, les éléments incertains et axiologiques imposent au décideur un jugement d’opportunité et de valeur avant d’adopter l’acte administratif. Traditionnellement rattachés au pouvoir discrétionnaire de l’administration, ces jugements ne peuvent pas ou, à tout le moins, ne doivent pas être effectués par un algorithme. L’intelligence artificielle « classique », basée sur des règles prédéterminées, n’est pas capable de les traiter, tandis que les algorithmes autoapprenants pourraient le faire, mais l’État ne peut pas confier une telle décision à un système produisant des connaissances probabilistes. La présence d’un pouvoir discrétionnaire ou d’une marge d’appréciation dans la décision constitue un critère assez répandu pour interdire son automatisation intégrale34. Dans ces situations, au moins la décision définitive doit être prise par un humain. Autrement dit, le droit à l’intervention humaine s’exprime par la présence de l’homme dans la boucle décisionnelle (human-in-the-loop35).

En l’absence d’éléments incertains et axiologiques, la décision se réduit à un simple test d’éligibilité : le rôle du décideur est limité par une vérification du respect des conditions établies par la loi. Si les données nécessaires sont accessibles, ces décisions sont parfaitement calculables. Cette catégorie inclut un grand nombre d’actes adoptés en masse, comme la délivrance des permis de conduire ou l’attribution des aides sociales. Par conséquent, l’automatisation de telles décisions est prioritaire pour réduire le fardeau administratif et elles peuvent être prises sans participation humaine directe. Nonobstant, même dans le cas de ces actes adoptés automatiquement, le droit à l’intervention humaine doit être respecté36. Le moyen principal est de faire intervenir un agent dans la boucle décisionnelle (human-on-the-loop) pour surveiller et superviser la procédure. Ainsi, les individus ont la possibilité de contester l’acte algorithmique devant un agent humain lors d’un recours administratif. L’article 47 de la Loi informatique et libertés interdit en effet à l’administration de se prononcer sur un recours administratif hiérarchique ou gracieux sur le seul fondement d’un traitement automatisé des données.

La supervision humaine est également nécessaire dans le cas de la mise en œuvre des algorithmes qui n’adoptent pas eux-mêmes la décision, mais procèdent à un signalement d’attention, même sans traiter des données personnelles. Ceci concerne notamment les algorithmes d’apprentissage automatique dont les évolutions doivent être, selon le Conseil constitutionnel, en permanence contrôlées et maîtrisées par des personnes humaines37.


Dans le fond, les droits abordés dans le cadre du présent article émergent comme une réaction à l’avènement de la gouvernementalité algorithmique38 dans laquelle l’exercice des prérogatives de puissance publique par l’intelligence artificielle se normalise, et pourrait devenir majoritaire dans les années à venir. Les citoyens font face à un système opaque et incompréhensible par l’esprit humain ainsi qu’à une incertitude juridique grandissante qui en découle. Dès lors, les garanties juridiques examinées apparaissent comme un socle minimum nécessaire pour pouvoir garder la main sur la République numérique en devenir. Toutefois, les contacts de l’individu avec l’administration algorithmique ne sont pas seulement subis par le premier, il peut également en tirer profit. Les nouveaux droits fondamentaux dont la naissance est provoquée par la mise en œuvre de l’intelligence artificielle dans l’activité administrative ne se limitent pas à ceux examinés. On pourrait également parler des droits-créances découlant de l’administration proactive ou bien d’un droit à l’identité numérique régalienne, lesquels méritent une étude à part entière.


1 J.-L. Borges, Fictions, Gallimard, 1974.

2 Par cette paraphrase de la fameuse troisième loi de Clarke, on veut souligner que même si deux tiers des Français disent savoir « très bien » ou « plutôt bien » ce qu’est l’intelligence artificielle, le nombre de personnes capables de comprendre un code source ou d’expliquer comment ChatGPT donne ses réponses sera beaucoup moins élevé. En ce sens, voir A. C. Clarke, Profiles of the Future: An Inquiry into the Limits of the Possible, Popular Library, 1973 ; G. Mercier, « Menace ou progrès ? Les Français face à l’intelligence artificielle » Le Point, 18 avril 2023.

3 I. Qian et al., « Four Takeaways From a Times Investigation Into China’s Expanding Surveillance State », The New York Times, 21 juin 2022.

4 Pour le moment, on peut citer l’attribution automatique de l’indemnité inflation aux salariés et des repas à 1 € aux étudiants boursiers. En ce sens, voir Gouvernement français, Rapport sur la mise en œuvre des engagements du CITP, mai 2022, p. 98 et s.

5 Décret n° 2021-148 du 11 février 2021 portant modalités de mise en œuvre par la direction générale des finances publiques et la direction générale des douanes et droits indirects de traitements informatisés et automatisés permettant la collecte et l’exploitation de données rendues publiques sur les sites internet des opérateurs de plateforme en ligne.

6 Ces traitements ont pour unique objet de détecter, en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler les risques d’actes de terrorisme ou d’atteinte grave à la sécurité des personnes et de les signaler en vue de la mise en œuvre des mesures nécessaires, par les services de la police et de la gendarmerie nationales, les services d’incendie et de secours, les services de police municipale et les services internes de sécurité de la SNCF (article 7 du projet de loi précité).

7 A. J. Casey, A. Niblett, « A Framework for the New Personalization of Law », University of Chicago Law Review, vol. 86, 2019, p. 355 et s.

8 La procédure de communication ainsi que le rôle de la Commission d’accès aux documents administratifs sont énoncés dans le Livre 3 du CRPA, entièrement consacré à la réalisation de ce droit.

9 Dans ce sens, voir G. De Minico, « Towards an “Algorithm Constitutional by Design” », BioLaw, iss. 1, 2021, p. 393-398.

10 À titre d’exemple, c’est le cas de l’algorithme « national » de Parcoursup (https://framagit.org/parcoursup/algorithmes-de-parcoursup) et ceux de calcul de certaines taxes comme des taxes foncières (https://www.data.gouv.fr/fr/datasets/code-source-des-taxes-foncieres-tf/)

11 A. Boix-Palop, « Algorithms as Regulations: Considering Algorithms, when Used by the Public Administration for Decision-making, as Legal Norms in order to Guarantee the proper adoption of Administrative Decisions », European review of digital administration & law, vol. 1, n° 1-2, 2020, p. 93-96.

12 Voir aussi l’avis de la CADA sur la communication du code source du logiciel simulant le calcul de l’impôt sur le revenu des personnes physiques : CADA, avis n° 20144578 du 8 janvier 2015.

13 CC, décision n° 2020-834 QPC du 3 avril 2020, Union nationale des étudiants de France [Communicabilité et publicité des algorithmes mis en œuvre par les établissements d’enseignement supérieur pour l’examen des demandes d’inscription en premier cycle]. Sur cette décision et les implications de l’article 15 de la Déclaration des droits de l’homme et du citoyen pour l’administration numérique, voir notamment A. Bachert-Peretti, « Le numérique comme révélateur des droits et libertés constitutionnellement garantis : vers un droit constitutionnel à la redevabilité ? », Blog droit administratif, 22 avril 2020.

14 S. Desmoulin-Canselier, D. le Métayer, Décider avec les algorithmes : quelle place pour l’Homme, quelle place pour le droit ?, Dalloz, 2020, p. 102.

15 T. Scantamburlo, A. Charlesworth, N. Cristianini, « Machine Decisions and Human Consequences », in K. Yeung, M. Lodge (eds), Algorithmic Regulation, Oxford University Press, 2019, p. 72 et s.

16 Cour des comptes, Rapport public thématique Admission post-bac et accès à l’enseignement supérieur : un dispositif contesté à reformer, 2017, p. 57-59.

17 J.-B. Duclercq, « L’automatisation algorithmique des décisions administratives individuelles », RDP, 2019, n° 2, p. 301 et s.

18 Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

19 CC, décision n° 2023-850 DC du 17 mai 2023, Loi relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions, § 26 et s.

20 Loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles.

21 Il s’agit du type d’intelligence artificielle le plus connu par le grand public et qui crée sa perception comme un outil tout-puissant. Effectivement, il comprend les algorithmes les plus sophistiqués à ce jour comme ChatGPT et Midjourney.

22 CC, décision n° 2018-765 DC du 12 juin 2018, Loi relative à la protection des données personnelles, § 65-72.

23 Un éventail de techniques utilisées pour obtenir une explication intelligible du traitement algorithmique peut être découvert dans deux méta-analyses suivantes : A. Adadi, M. Berrada, « Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI) », IEEE Access, vol. 6, 2018, p. 52138-52160 ; R. Guidotti et al., « A Survey of Methods for Explaining Black Box Models », ACM Computing Surveys, vol. 51, iss. 5, 2019, art. 93, p. 1-42

24 Voir les données ouvertes de Nantes Métropole.

25 Pour cette raison, la mission Bothorel a qualifié les données comme un bien non-rival dont l’utilisation par un nouvel utilisateur ne limite pas l’utilisation qui est faite par les autres utilisateurs : voir Mission Bothorel, Pour une politique publique de la donnée, 2020, p. 39.

26 P. Boucher, « Safari ou la chasse aux Français », Le Monde, 21 mars 1974, p. 9.

27 Art. 5(c) du Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).

28 J. Cobbe, « Administrative law and the machines of government: Judicial review of automated public-sector decision-making », Legal Studies, vol. 39, iss. 4, 2019, p. 651 et s.

29 E. Degrave, « Les organismes publics et la numérisation des processus décisionnels », L’action publique et le numérique, Société de législation comparée, coll. Colloques, 2021, vol. 47, p. 51 et s.

30 Déjà dans le rapport Tricot publié en 1975, la CNIL a déclaré que : « Il nous paraît donc nécessaire de veiller à ce que les informations diffusées dans les services soient toutes celles, mais seulement celles, qui peuvent légitimement concourir à l’exercice de la mission propre à chacun de ces services » – A. Tricot, Rapport de la Commission Informatique et libertés, La Documentation française, coll. « Rapports officiels », 1975, p. 17.

31 À partir de données disponibles sur https://france-identite.gouv.fr/.

32 V. Champetier de Ribes, J. Spiri, Demain, tous Estoniens ? : l’Estonie, une réponse aux GAFA, Cent mille milliards, 2018, p. 74-76.

33 D. Bourcier, La décision artificielle : le droit, la machine et l’humain, PUF, 1995, p. 37.

34 Par exemple, l’article 35a de la loi allemande sur la procédure administrative non contentieuse (Verwaltungsverfahrensgesetz ou VwVfG) mentionne qu’« Un acte administratif peut être entièrement édicté par installations automatiques, dans la mesure où une règle de droit l’autorise, et dans le cas où il n’existe ni un pouvoir discrétionnaire ni une marge d’appréciation » – traduit en français par P. Cossalter, G. Mancosu, « L’impact du numérique dans la théorie de l’acte administratif, entre adaptations et ruptures. Regards croisés Allemagne, France, Italie », in L. Belli et G.J. Guglielmi (dir.), L’État digital. Numérisation de l’administration publique et administration publique du numérique, Berger-Levrault, 2022, p. 101 et s.

35 R. Binns, « Human Judgment in Algorithmic Loops : Individual Justice and Automated Decision‐Making », Regulation & Governance, 2020.

36 M. Almada, « Human intervention in automated decision-making: Toward the construction of contestable systems », in Proceedings of the Seventeenth International Conference on Artificial Intelligence and Law, ACM, 2019, p. 2-11.

37 CC, décision n° 2023-850 DC du 17 mai 2023, précitée, § 42-45.

38 A. Rouvroy, T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013, vol. 177, n° 1, p. 163-196.


Alexandre Stepanov, « Vers l’émergence de nouveaux droits fondamentaux contre l’administration algorithmique», La régulation internationale de l’IA [Dossier], Confluence des droits_La revue [En ligne], 12 | 2024, mis en ligne le 20 décembre 2024. URL : https://confluencedesdroits-larevue.com/?p=3677.

Related Posts

Begin typing your search term above and press enter to search. Press ESC to cancel.

Back To Top