{"id":3678,"date":"2024-12-20T15:53:10","date_gmt":"2024-12-20T14:53:10","guid":{"rendered":"https:\/\/confluencedesdroits-larevue.com\/?p=3678"},"modified":"2025-05-22T14:37:50","modified_gmt":"2025-05-22T12:37:50","slug":"nathan-cambien-david-newton-la-regulation-de-lintelligence-artificielle-approches-internationales-et-britannique","status":"publish","type":"post","link":"https:\/\/confluencedesdroits-larevue.com\/?p=3678","title":{"rendered":"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique"},"content":{"rendered":"\n<div class=\"wp-block-group alignwide is-layout-constrained wp-block-group-is-layout-constrained\"><div class=\"wp-block-group__inner-container\">\n<div class=\"wp-block-media-text alignwide has-background\" style=\"background-color:#edf7fb;grid-template-columns:18% auto\"><figure class=\"wp-block-media-text__media\"><img decoding=\"async\" loading=\"lazy\" width=\"1024\" height=\"1024\" src=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Nathan-Cambien-1024x1024.png\" alt=\"\" class=\"wp-image-3705 size-full\" srcset=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Nathan-Cambien-1024x1024.png 1024w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Nathan-Cambien-300x300.png 300w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Nathan-Cambien-150x150.png 150w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Nathan-Cambien-768x768.png 768w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Nathan-Cambien-600x600.png 600w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Nathan-Cambien.png 1206w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure><div class=\"wp-block-media-text__content\">\n<p class=\"has-text-align-center has-white-color has-text-color has-background\" style=\"background-color:#008cb4;font-size:14px\">Nathan Cambien<br><em>Professeur, Universit\u00e9 d\u2019Anvers et membre du Service Juridique, Commission europ\u00e9enne<\/em><\/p>\n<\/div><\/div>\n\n\n\n<div class=\"wp-block-media-text alignwide has-background\" style=\"background-color:#edf7fb;grid-template-columns:18% auto\"><figure class=\"wp-block-media-text__media\"><img decoding=\"async\" loading=\"lazy\" width=\"854\" height=\"854\" src=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/David-Newton.png\" alt=\"\" class=\"wp-image-3704 size-full\" srcset=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/David-Newton.png 854w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/David-Newton-300x300.png 300w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/David-Newton-150x150.png 150w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/David-Newton-768x768.png 768w, https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/David-Newton-600x600.png 600w\" sizes=\"(max-width: 854px) 100vw, 854px\" \/><\/figure><div class=\"wp-block-media-text__content\">\n<p class=\"has-text-align-center has-white-color has-text-color has-background\" style=\"background-color:#008cb4;font-size:14px\">David Newton<br><em>Anciennement r\u00e9f\u00e9rendaire \u00e0 la Cour de Justice de l\u2019Union europ\u00e9enne, actuellement membre du Service Juridique de la Cour des comptes europ\u00e9enne<\/em><\/p>\n<\/div><\/div>\n\n\n\n<div style=\"height:5px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#ededed\"><strong>R\u00e9sum\u00e9&nbsp;:<\/strong> L\u2019intelligence artificielle (IA) a connu r\u00e9cemment des \u00e9volutions rapides, notamment gr\u00e2ce \u00e0 de nouveaux algorithmes capables de traiter de vastes quantit\u00e9s de donn\u00e9es (<em>Big Data<\/em>) et \u00e0 l\u2019essor de l\u2019apprentissage profond (<em>deep learning<\/em>) reposant sur les grands mod\u00e8les de langage. Ces d\u00e9veloppements entra\u00eenent tant de nouvelles opportunit\u00e9s que des risques significatifs. Pour faire face \u00e0 ce ph\u00e9nom\u00e8ne, diverses initiatives de r\u00e9glementation ont \u00e9merg\u00e9. \u00c0 l\u2019\u00e9chelle internationale, des organismes comme l\u2019Organisation de coop\u00e9ration et de d\u00e9veloppement \u00e9conomiques, le Conseil de l\u2019Europe et l\u2019Union europ\u00e9enne jouent un r\u00f4le de premier plan dans l\u2019\u00e9laboration de cadres normatifs. Parall\u00e8lement, certains \u00c9tats, tels que le Royaume-Uni, d\u00e9veloppent leurs propres r\u00e9gulations nationales. Le pr\u00e9sent article examine plusieurs initiatives de r\u00e9glementation de l\u2019IA, en particulier celles du Royaume-Uni et de l\u2019Union europ\u00e9enne, et compare leurs approches pour en d\u00e9gager des enseignements dans une perspective de gouvernance mondiale de l\u2019IA.<\/p>\n\n\n\n<div style=\"height:10px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<div class=\"wp-block-file\"><a id=\"wp-block-file--media-aaa299ac-d3cc-4ec2-983f-0da8c0641616\" href=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Regulation-intelligence-artificielle_approches-internationales-et-britannique_N.-Cambien-D.-Newton_12-24.pdf\">Regulation-intelligence-artificielle_approches-internationales-et-britannique_N.-Cambien-D.-Newton_12-24<\/a><a href=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Regulation-intelligence-artificielle_approches-internationales-et-britannique_N.-Cambien-D.-Newton_12-24.pdf\" class=\"wp-block-file__button wp-element-button\" download aria-describedby=\"wp-block-file--media-aaa299ac-d3cc-4ec2-983f-0da8c0641616\"><\/a><\/div>\n\n\n\n<div style=\"height:16px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n<\/div><\/div>\n\n\n<div class=\"taxonomy-post_tag wp-block-post-terms\"><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=ai-act\" rel=\"tag\">AI Act<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=autorites-de-regulation-sectorielles\" rel=\"tag\">autorit\u00e9s de r\u00e9gulation sectorielles<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=autorites-de-surveillance-du-marche\" rel=\"tag\">autorit\u00e9s de surveillance du march\u00e9<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=definition\" rel=\"tag\">d\u00e9finition<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=initiative-britannique\" rel=\"tag\">initiative britannique<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=intelligence-artificielle\" rel=\"tag\">intelligence artificielle<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=organisation-de-cooperation-et-de-developpement-economiques-ocde\" rel=\"tag\">organisation de coop\u00e9ration et de d\u00e9veloppement \u00e9conomiques (OCDE)<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=principes\" rel=\"tag\">principes<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=regulation\" rel=\"tag\">r\u00e9gulation<\/a><span class=\"wp-block-post-terms__separator\">, <\/span><a href=\"https:\/\/confluencedesdroits-larevue.com\/?tag=union-europeenne\" rel=\"tag\">Union europ\u00e9enne<\/a><\/div>\n\n\n<div style=\"height:30px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-text-align-justify has-small-font-size\"><em>Nathan Cambien tient \u00e0 remercier les organisateurs et les participants de la conf\u00e9rence \u00ab&nbsp;La r\u00e9gulation internationale de l\u2019intelligence artificielle\u2009: enjeux et perspectives\u202f\u00bb (25\u202fnovembre 2022, Universit\u00e9 de Lorraine). Les propos exprim\u00e9s par les auteurs&nbsp;sont strictement personnels.<\/em><\/p>\n\n\n\n<div style=\"height:30px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#edf7fb\">Il est incontestable que l\u2019IA va avoir un impact consid\u00e9rable dans divers domaines de nos vies professionnelles et quotidiennes. Que ce soit pour l\u2019assistance aux m\u00e9decins dans l\u2019\u00e9tablissement de diagnostics, l\u2019identification des meilleurs candidats pour un emploi, ou la d\u00e9termination des prix de vente de biens ou de services, le volume d\u2019informations que l\u2019IA propose de traiter de fa\u00e7on automatis\u00e9e promet des gains de productivit\u00e9 dans de nombreux domaines. Dans le contexte de la profession juridique<sup><a href=\"#sdfootnote1sym\">1<\/a><\/sup>, les syst\u00e8mes d\u2019IA peuvent \u00eatre utilis\u00e9s pour aider les avocats \u00e0 r\u00e9diger des conclusions \u2013&nbsp;si ce n\u2019est pour les r\u00e9diger \u00e0 leur place<a id=\"sdfootnote4anc\" href=\"#sdfootnote4sym\"><sup>2<\/sup><\/a>&nbsp;\u2013 et pour aider les cours et les tribunaux \u00e0 trancher certains points, tels que la d\u00e9termination, en droit des marques, de l\u2019existence d\u2019un risque de confusion<a id=\"sdfootnote5anc\" href=\"#sdfootnote5sym\"><sup>3<\/sup><\/a>.<br><br>L\u2019intelligence artificielle (IA) n\u2019est pas un nouveau ph\u00e9nom\u00e8ne. Les recherches dans cette discipline ont d\u00e9but\u00e9 d\u00e8s 1956, lors d\u2019un colloque organis\u00e9 \u00e0 Dartmouth College aux \u00c9tats-Unis. Le domaine a ensuite connu des d\u00e9veloppements importants dans la seconde moiti\u00e9 du xx<sup>e<\/sup>&nbsp;si\u00e8cle. \u00c0 titre d\u2019exemple, rappelons la fameuse victoire du superordinateur <em>Deep Blue<\/em> contre le champion du monde du jeu d\u2019\u00e9checs, Gary&nbsp;Kasparov, en 1997. Toutefois, ce ph\u00e9nom\u00e8ne a connu r\u00e9cemment des \u00e9volutions rapides, surtout au regard des nouveaux algorithmes capables d\u2019analyser de vastes quantit\u00e9s de donn\u00e9es (<em>Big Data<\/em>) et du d\u00e9veloppement des possibilit\u00e9s d\u2019apprentissage profond (<em>deep learning<\/em>) fond\u00e9 sur les grands mod\u00e8les de langage<a id=\"sdfootnote6anc\" href=\"#sdfootnote6sym\"><sup>4<\/sup><\/a>.<br><br>Il est \u00e0 noter que certains syst\u00e8mes d\u2019IA g\u00e9n\u00e9rative, notamment les grands mod\u00e8les de langage, parviennent, de mani\u00e8re autonome, \u00e0 ex\u00e9cuter des t\u00e2ches complexes, sans que leurs concepteurs ne comprennent eux-m\u00eames encore parfaitement le fonctionnement de la \u00ab&nbsp;\u202fbo\u00eete noire\u202f&nbsp;\u00bb des r\u00e9seaux neuronaux de l\u2019apprentissage profond<a id=\"sdfootnote7anc\" href=\"#sdfootnote7sym\"><sup>5<\/sup><\/a>. L\u2019utilisation des syst\u00e8mes d\u2019IA pr\u00e9sente ainsi des risques significatifs<a id=\"sdfootnote8anc\" href=\"#sdfootnote8sym\"><sup>6<\/sup><\/a>. En l\u2019absence de m\u00e9canismes de surveillance appropri\u00e9s, ces syst\u00e8mes pourraient commencer \u00e0 prendre des d\u00e9cisions autonomes aux cons\u00e9quences graves<a id=\"sdfootnote9anc\" href=\"#sdfootnote9sym\"><sup>7<\/sup><\/a>. Ainsi, r\u00e9cemment, certains acteurs du monde de l\u2019IA ont d\u00e9clar\u00e9 qu\u2019\u00eatre en mesure de r\u00e9pondre aux risques pos\u00e9s par l\u2019intelligence artificielle devrait \u00eatre \u00ab&nbsp;\u202fune priorit\u00e9 mondiale, au m\u00eame titre que d\u2019autres risques pour nos soci\u00e9t\u00e9s, tels que les pand\u00e9mies et la guerre nucl\u00e9aire<a id=\"sdfootnote10anc\" href=\"#sdfootnote10sym\"><sup>8<\/sup><\/a>&nbsp;\u00bb. Afin d\u2019\u00e9viter un d\u00e9veloppement incontr\u00f4l\u00e9 des syst\u00e8mes d\u2019IA, des entrepreneurs et des chercheurs ont m\u00eame demand\u00e9 une pause dans la cr\u00e9ation de tout syst\u00e8me d\u2019IA qui serait plus puissant que le GPT-4 d\u2019OpenAI<a id=\"sdfootnote11anc\" href=\"#sdfootnote11sym\"><sup>9<\/sup><\/a>.<br><br>En r\u00e9ponse, de nombreuses initiatives se sont d\u00e9velopp\u00e9es afin de r\u00e9guler l\u2019IA, m\u00eame si elles ne vont pas sans difficult\u00e9. D\u2019abord, tout r\u00e9gime juridique doit d\u00e9finir clairement l\u2019objet auquel il s\u2019applique. Or, il n\u2019est pas simple d\u2019appr\u00e9hender ce qu\u2019est l\u2019intelligence, et encore moins l\u2019intelligence artificielle. Selon le math\u00e9maticien am\u00e9ricain John McCarthy, le concept d\u2019intelligence peut se d\u00e9finir, de mani\u00e8re g\u00e9n\u00e9rique, comme la partie computationnelle de la capacit\u00e9 \u00e0 atteindre des objectifs dans le monde. Toutefois, du fait de la relation entre cette d\u00e9finition g\u00e9n\u00e9rale de l\u2019intelligence et l\u2019intelligence humaine elle-m\u00eame, il nous est difficile de parvenir \u00e0 une d\u00e9termination des processus computationnels qu\u2019il convient de qualifier d\u2019intelligence<a id=\"sdfootnote12anc\" href=\"#sdfootnote12sym\"><sup>10<\/sup><\/a>. En effet, les d\u00e9finitions de l\u2019intelligence sont variables et reposent sur des caract\u00e9ristiques humaines elles-m\u00eames difficiles \u00e0 d\u00e9finir, telles que la conscience et l\u2019usage du langage, ainsi que les capacit\u00e9s d\u2019apprentissage, d\u2019adaptation, d\u2019abstraction et de raisonnement<a id=\"sdfootnote13anc\" href=\"#sdfootnote13sym\"><sup>11<\/sup><\/a>.<br><br>Selon la soci\u00e9t\u00e9 am\u00e9ricaine IBM, l\u2019intelligence artificielle, dans sa forme la plus simple, est un domaine qui combine l\u2019informatique et des ensembles de donn\u00e9es pour permettre la r\u00e9solution de probl\u00e8mes. Elle englobe les sous-domaines de l\u2019apprentissage automatique et de l\u2019apprentissage profond. Elle s\u2019int\u00e9resse aux algorithmes d\u2019IA qui cherchent \u00e0 cr\u00e9er des syst\u00e8mes experts qui ex\u00e9cutent des pr\u00e9visions ou des classifications sur la base de donn\u00e9es d\u2019entr\u00e9e<a id=\"sdfootnote14anc\" href=\"#sdfootnote14sym\"><sup>12<\/sup><\/a>. De fa\u00e7on plus synth\u00e9tique, l\u2019IA peut encore se d\u00e9finir comme la capacit\u00e9 d\u2019une machine \u00e0 percevoir en continu un contexte, \u00e0 en extraire un sens et \u00e0 r\u00e9agir \u00e0 ce contexte<a id=\"sdfootnote15anc\" href=\"#sdfootnote15sym\"><sup>13<\/sup><\/a>.<br><br>S\u2019il est ainsi possible de d\u00e9finir les contours de la notion d\u2019intelligence artificielle, il n\u2019est pas pour autant ais\u00e9 d\u2019appr\u00e9hender ses caract\u00e9ristiques d\u2019un point de vue r\u00e8glementaire. En effet, une forme de r\u00e9glementation visant \u00e0 r\u00e9gir <em>ex ante<\/em> le d\u00e9veloppement de syst\u00e8mes d\u2019IA semble difficile \u00e0 mettre en \u0153uvre pour plusieurs raisons. D\u2019une part, de tels syst\u00e8mes peuvent faire l\u2019objet d\u2019une \u00e9laboration discr\u00e8te, sans publicit\u00e9 particuli\u00e8re, et diffuse, en ce que plusieurs personnes peuvent travailler de fa\u00e7on s\u00e9par\u00e9e et non coordonn\u00e9e avant que leurs travaux ne soient \u00e9ventuellement mis en rapport par un tiers. D\u2019autre part, le fonctionnement de l\u2019IA peut \u00eatre opaque, puisque son mode de fonctionnement peut demeurer myst\u00e9rieux m\u00eame pour les personnes charg\u00e9es de sa mise en \u0153uvre, en raison du fait que les r\u00e9sultats auxquels parviennent les grands mod\u00e8les de langage varient en fonction notamment des donn\u00e9es qui leur sont soumises lors de leur apprentissage<a id=\"sdfootnote16anc\" href=\"#sdfootnote16sym\"><sup>14<\/sup><\/a>. \u00c0 l\u2019inverse, la nature autonome des syst\u00e8mes d\u2019IA pose des questions quant \u00e0 la pr\u00e9visibilit\u00e9 du dommage caus\u00e9 et \u00e0 l\u2019imputation de la responsabilit\u00e9 pour ce m\u00eame dommage, suscitant alors des doutes quant \u00e0 la pertinence des syst\u00e8mes de r\u00e8glementation <em>ex post<\/em>.<br><br>C\u2019est dans ce contexte aux contours aussi mouvants qu\u2019il convient d\u2019\u00e9tudier certains mod\u00e8les de r\u00e9gulation des syst\u00e8mes d\u2019IA qui ont \u00e9t\u00e9 mises en \u0153uvre au niveau international, et notamment en droit de l\u2019Union (I), avant d\u2019examiner plus en d\u00e9tail l\u2019initiative britannique en la mati\u00e8re, aux fins de mettre en parall\u00e8le deux&nbsp;approches r\u00e8glementaires diff\u00e9rentes (II). En conclusion, nous chercherons \u00e0 tirer les le\u00e7ons des divers mod\u00e8les r\u00e9glementaires examin\u00e9s dans une perspective de r\u00e8glementation globale de l\u2019IA (III).<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-medium-font-size\">I. Les propositions internationales<\/h1>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#edf7fb\">S\u2019agissant des initiatives prises au niveau international et supranational, nous nous focaliserons sur les trois organisations qui ont \u00e9t\u00e9 particuli\u00e8rement actives dans le domaine de la r\u00e8glementation de l\u2019IA&nbsp;: l\u2019Organisation de coop\u00e9ration et de d\u00e9veloppement \u00e9conomiques (OCDE), le Conseil de l\u2019Europe et l\u2019Union europ\u00e9enne.<br><br>En premier lieu, s\u2019agissant de l\u2019OCDE, il convient de rappeler que celle-ci a, parmi ses diff\u00e9rentes missions, pour objectif d\u2019aider les gouvernements en mettant \u00e0 leur disposition des mesures et analyses des incidences, \u00e9conomiques et sociales, des technologies et des applications li\u00e9es \u00e0 l\u2019IA<a id=\"sdfootnote17anc\" href=\"#sdfootnote17sym\"><sup>15<\/sup><\/a>. \u00c0 cet effet, elle a mis en place l\u2019Observatoire des politiques relatives \u00e0 l\u2019IA qui vise \u00e0 faciliter le dialogue entre les pays et \u00e0 fournir une analyse multidisciplinaire et factuelle des donn\u00e9es sur les principaux domaines dans lesquels l\u2019IA peut avoir des r\u00e9percussions<a id=\"sdfootnote18anc\" href=\"#sdfootnote18sym\"><sup>16<\/sup><\/a>.<br><br>L\u2019OCDE a cherch\u00e9 \u00e0 clarifier la d\u00e9finition des syst\u00e8mes d\u2019IA. Ainsi, un syst\u00e8me d\u2019IA est d\u00e9fini par l\u2019OCDE comme un syst\u00e8me bas\u00e9 sur une machine qui peut, pour des objectifs explicites ou implicites, d\u00e9duire, \u00e0 partir des entr\u00e9es qu\u2019il re\u00e7oit, comment g\u00e9n\u00e9rer des sorties telles que des pr\u00e9dictions, du contenu, des recommandations ou des d\u00e9cisions qui peuvent influencer les environnements physiques ou virtuels. Les diff\u00e9rents syst\u00e8mes d\u2019IA varient dans leurs niveaux d\u2019autonomie et d\u2019adaptabilit\u00e9 apr\u00e8s d\u00e9ploiement<a id=\"sdfootnote19anc\" href=\"#sdfootnote19sym\"><sup>17<\/sup><\/a>. Cette d\u00e9finition aborde ainsi la question des objectifs explicites ou implicites (\u00e0 savoir d\u00e9riv\u00e9 des r\u00e8gles auxquels le syst\u00e8me est soumis) influant sur le fonctionnement du syst\u00e8me, l\u2019importance des entr\u00e9es \u2013&nbsp;provenant d\u2019humains ou de la machine elle-m\u00eame&nbsp;\u2013 conditionnant les sorties, l\u2019influence mutuelle entre la machine et son environnement, ainsi que la facult\u00e9 d\u2019adaptation continue des syst\u00e8mes d\u2019IA.<br><br>En guise de r\u00e8gles \u00e9thiques entourant l\u2019usage de l\u2019IA, l\u2019OCDE a adopt\u00e9 les&nbsp;<em>Principes sur l\u2019intelligence artificielle<\/em> qui visent \u00e0 \u00e9tablir que les utilisations de l\u2019IA doivent \u00eatre innovantes et dignes de confiance mais aussi qu\u2019elles respectent les droits de l\u2019homme et les valeurs d\u00e9mocratiques<a id=\"sdfootnote20anc\" href=\"#sdfootnote20sym\"><sup>18<\/sup><\/a><a id=\"sdfootnote21anc\" href=\"#sdfootnote21sym\"><sup>19<\/sup><\/a>.<\/p>\n\n\n\n<figure class=\"wp-block-table is-style-stripes\"><table class=\"has-background has-fixed-layout\" style=\"background-color:#a1a3b53b\"><tbody><tr><td><strong>Principes d\u2019une approche responsable \u00e0&nbsp;l\u2019appui d\u2019une IA digne de confiance<\/strong><\/td><td><strong>Politiques nationales et coop\u00e9ration internationale \u00e0&nbsp;l\u2019appui d\u2019une IA digne de confiance<\/strong><\/td><\/tr><tr><td>Croissance inclusive, d\u00e9veloppement durable et bien-\u00eatre<\/td><td>Investir dans la recherche et le d\u00e9veloppement en mati\u00e8re d\u2019IA<\/td><\/tr><tr><td>Valeurs centr\u00e9es sur l\u2019humain et \u00e9quit\u00e9<\/td><td>Favoriser l\u2019instauration d\u2019un \u00e9cosyst\u00e8me num\u00e9rique pour&nbsp;l\u2019IA<\/td><\/tr><tr><td>Transparence et explicabilit\u00e9<\/td><td>Fa\u00e7onner un cadre d\u2019action favorable \u00e0 l\u2019IA<\/td><\/tr><tr><td>Robustesse, s\u00fbret\u00e9 et s\u00e9curit\u00e9<\/td><td>Renforcer les capacit\u00e9s humaines et pr\u00e9parer la&nbsp;transformation du&nbsp;march\u00e9 du travail<\/td><\/tr><tr><td>Responsabilit\u00e9<\/td><td>Favoriser la coop\u00e9ration internationale au service d\u2019une&nbsp;IA digne de&nbsp;confiance<\/td><\/tr><\/tbody><\/table><figcaption class=\"wp-element-caption\"><strong>Les Principes de l\u2019OCDE sur l\u2019IA, 2019<\/strong><\/figcaption><\/figure>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#edf7fb\">Bien que ces principes soient non contraignants, ils constituent, depuis leur \u00e9laboration en 2019, une r\u00e9f\u00e9rence mondiale et la premi\u00e8re norme intergouvernementale servant \u00e0 r\u00e9guler l\u2019utilisation de l\u2019IA.<br><br>L\u2019on retiendra donc du travail de l\u2019OCDE, notamment, l\u2019\u00e9laboration d\u2019une d\u00e9finition des syst\u00e8mes d\u2019IA, ainsi que de normes tendant vers l\u2019usage responsable de ceux-ci.<br><br>En deuxi\u00e8me lieu, s\u2019agissant du Conseil de l\u2019Europe, il convient de rappeler que les initiatives de cette organisation internationale visent \u00e0 assurer la promotion des valeurs fondamentales, telles que la protection des droits de l\u2019homme, l\u2019\u00e9tat de droit et la d\u00e9mocratie<a id=\"sdfootnote22anc\" href=\"#sdfootnote22sym\"><sup>20<\/sup><\/a>. Ainsi, en avril\u202f2022, le Conseil de l\u2019Europe a cr\u00e9\u00e9 le Comit\u00e9 sur l\u2019intelligence artificielle (CAI), charg\u00e9 d\u2019\u00e9tablir un processus de n\u00e9gociation internationale pour \u00e9laborer un cadre juridique sur le d\u00e9veloppement, la conception et l\u2019application de l\u2019IA, lequel se fonde sur les normes du Conseil de l\u2019Europe en mati\u00e8re de droits de l\u2019homme, de d\u00e9mocratie et d\u2019\u00c9tat de droit, et qui se veut propice \u00e0 l\u2019innovation<a id=\"sdfootnote23anc\" href=\"#sdfootnote23sym\"><sup>21<\/sup><\/a>.<br><br>Les travaux du CAI ont d\u00e9bouch\u00e9 sur la Convention-cadre du Conseil de l\u2019Europe sur l\u2019intelligence artificielle et les droits de l\u2019homme, la d\u00e9mocratie et l\u2019\u00c9tat de droit, adopt\u00e9e le 17\u202fmai 2024. Ce texte couvre l\u2019utilisation des syst\u00e8mes d\u2019IA par les pouvoirs publics \u2013&nbsp;y compris les acteurs priv\u00e9s qui agissent pour leur compte&nbsp;\u2013 et les acteurs priv\u00e9s. La d\u00e9finition des syst\u00e8mes d\u2019IA<a id=\"sdfootnote24anc\" href=\"#sdfootnote24sym\"><sup>22<\/sup><\/a> y est substantiellement similaire \u00e0 celle mise en avant par l\u2019OCDE. La convention pose en outre une s\u00e9rie de principes fondamentaux auxquels doivent se conformer les activit\u00e9s men\u00e9es dans le cadre du cycle de vie des syst\u00e8mes d\u2019IA<a id=\"sdfootnote25anc\" href=\"#sdfootnote25sym\"><sup>23<\/sup><\/a>. Elle exige que les parties \u00e0 la convention veillent \u00e0 ce que, lorsqu\u2019un syst\u00e8me d\u2019IA a un impact significatif sur la jouissance des droits de l\u2019homme, les personnes affect\u00e9es par celui-ci disposent de garanties, de protections et de droits proc\u00e9duraux effectifs<a id=\"sdfootnote26anc\" href=\"#sdfootnote26sym\"><sup>24<\/sup><\/a>. Cette convention instaure un m\u00e9canisme de suivi, la Conf\u00e9rence des Parties, compos\u00e9 de repr\u00e9sentants officiels des Parties \u00e0 la Convention et destin\u00e9 \u00e0 d\u00e9terminer dans quelle mesure ses dispositions sont appliqu\u00e9es. Leurs analyses et suggestions aident \u00e0 assurer le respect de la Convention-cadre par les \u00c9tats afin de garantir son efficacit\u00e9 \u00e0 long terme<a id=\"sdfootnote27anc\" href=\"#sdfootnote27sym\"><sup>25<\/sup><\/a>.<br><br>Il est \u00e0 noter toutefois que, bien que contraignante, la Convention-cadre ne pr\u00e9voit pas de sanctions. L\u2019examen de conformit\u00e9 aux dispositions de la convention provient de m\u00e9canismes de contr\u00f4le effectif<a id=\"sdfootnote28anc\" href=\"#sdfootnote28sym\"><sup>26<\/sup><\/a>, qui assurent un simple \u00ab&nbsp;\u202fmonitoring\u202f&nbsp;\u00bb du respect des dispositions de celle-ci, sans pouvoir de fixer des amendes. Il appara\u00eet donc que le caract\u00e8re contraignant des m\u00e9canismes d\u2019ex\u00e9cution de la convention est peu \u00e9lev\u00e9.<br><br>En dernier lieu, l\u2019organisation internationale ayant pris les initiatives les plus ambitieuses afin de r\u00e9glementer l\u2019IA est sans doute l\u2019Union europ\u00e9enne. En 2018, elle a adopt\u00e9 la strat\u00e9gie europ\u00e9enne en mati\u00e8re d\u2019IA<a id=\"sdfootnote29anc\" href=\"#sdfootnote29sym\"><sup>27<\/sup><\/a> qui vise \u00e0 faire de l\u2019UE une \u00ab&nbsp;\u202fplaque tournante de classe mondiale pour l\u2019IA\u202f&nbsp;\u00bb et \u00e0 veiller \u00e0 ce que l\u2019IA soit centr\u00e9e sur l\u2019humain et digne de confiance. En avril\u202f2021, la Commission a pr\u00e9sent\u00e9 son train de mesures sur l\u2019IA (<em>AI Package<\/em>), comprenant une communication sur la promotion d\u2019une approche europ\u00e9enne de l\u2019intelligence artificielle<a id=\"sdfootnote30anc\" href=\"#sdfootnote30sym\"><sup>28<\/sup><\/a>, une mise \u00e0 jour du plan coordonn\u00e9 sur l\u2019intelligence artificielle<a id=\"sdfootnote31anc\" href=\"#sdfootnote31sym\"><sup>29<\/sup><\/a> et une proposition de r\u00e8glement \u00e9tablissant des r\u00e8gles harmonis\u00e9es en mati\u00e8re d\u2019IA (AI Act)<a id=\"sdfootnote32anc\" href=\"#sdfootnote32sym\"><sup>30<\/sup><\/a>.<br><br>Il est probable que l\u2019AI Act<a id=\"sdfootnote33anc\" href=\"#sdfootnote33sym\"><sup>31<\/sup><\/a>, maintenant pass\u00e9 \u00e0 l\u2019\u00e9tat de loi \u00e0 la suite de son adoption le 13\u202fjuin 2024, aura un effet consid\u00e9rable sur le d\u00e9veloppement de l\u2019IA et sa r\u00e9glementation. Comme le R\u00e8glement g\u00e9n\u00e9ral sur la protection des donn\u00e9es (RGPD)<a id=\"sdfootnote34anc\" href=\"#sdfootnote34sym\"><sup>32<\/sup><\/a>, l\u2019AI Actpourrait devenir un standard mondial<a id=\"sdfootnote35anc\" href=\"#sdfootnote35sym\"><sup>33<\/sup><\/a>.<br><br>L\u2019AI Actest bas\u00e9 sur les articles&nbsp;16 et 114 TFUE, relatifs \u00e0 la protection des donn\u00e9es et au rapprochement des l\u00e9gislations des \u00c9tats membres de l\u2019Union respectivement. Sur le fond, il combine une r\u00e9duction des obstacles au commerce avec des pr\u00e9occupations se rapportant aux droits fondamentaux. Bien qu\u2019en apparence novatrice, l\u2019\u00e9conomie g\u00e9n\u00e9rale du r\u00e8glement est tir\u00e9e d\u2019une d\u00e9cision de 2008 \u00e9tablissant un cadre commun de r\u00e9glementation concernant la s\u00e9curit\u00e9 des produits<a id=\"sdfootnote36anc\" href=\"#sdfootnote36sym\"><sup>34<\/sup><\/a>. Les principales autorit\u00e9s charg\u00e9es de l\u2019ex\u00e9cution de l\u2019AI Actsont des autorit\u00e9s de surveillance du march\u00e9, dont le fonctionnement est r\u00e9gi par le r\u00e8glement&nbsp;2019\/1020 sur la surveillance du march\u00e9 et la conformit\u00e9 des produits<a id=\"sdfootnote37anc\" href=\"#sdfootnote37sym\"><sup>35<\/sup><\/a>.<br><br>S\u2019agissant de la d\u00e9finition des syst\u00e8mes d\u2019IA, l\u2019AI Actles d\u00e9finit comme des syst\u00e8mes automatis\u00e9s con\u00e7us pour fonctionner \u00e0 diff\u00e9rents niveaux d\u2019autonomie et pouvant faire preuve d\u2019une capacit\u00e9 d\u2019adaptation apr\u00e8s leur d\u00e9ploiement, et qui, pour des objectifs explicites ou implicites, d\u00e9duisent, \u00e0 partir des entr\u00e9es qu\u2019ils re\u00e7oivent, la mani\u00e8re de g\u00e9n\u00e9rer des sorties telles que des pr\u00e9dictions, du contenu, des recommandations ou des d\u00e9cisions qui peuvent influencer les environnements physiques ou virtuels<a id=\"sdfootnote38anc\" href=\"#sdfootnote38sym\"><sup>36<\/sup><\/a>. L\u2019on per\u00e7oit que cette d\u00e9finition des syst\u00e8mes d\u2019IA vise \u00e0 prendre en compte les syst\u00e8mes d\u2019IA plus traditionnels, ou pr\u00e9dictifs<a id=\"sdfootnote39anc\" href=\"#sdfootnote39sym\"><sup>37<\/sup><\/a>, ainsi que les nouveaux syst\u00e8mes d\u2019IA g\u00e9n\u00e9ratives<a id=\"sdfootnote40anc\" href=\"#sdfootnote40sym\"><sup>38<\/sup><\/a>.<br><br>Le r\u00e8glement suit une approche reposant sur une diff\u00e9renciation des types de risques associ\u00e9s aux syst\u00e8mes d\u2019IA et distingue ainsi les pratiques interdites en mati\u00e8re d\u2019IA, les syst\u00e8mes d\u2019IA \u00e0 haut risque et les risques faibles ou minimaux.<br><br>S\u2019agissant des pratiques interdites en mati\u00e8re d\u2019IA, cette interdiction se fonde sur les utilisations de l\u2019IA consid\u00e9r\u00e9es comme contraires aux valeurs de l\u2019UE, en raison des violations des droits fondamentaux qu\u2019elles entra\u00eenent. Il s\u2019agit notamment de syst\u00e8mes fond\u00e9s sur la manipulation et l\u2019exploitation des personnes, la reconnaissance des \u00e9motions, l\u2019extraction non cibl\u00e9e d\u2019images faciales sur l\u2019Internet, la notation sociale<a id=\"sdfootnote41anc\" href=\"#sdfootnote41sym\"><sup>39<\/sup><\/a>, certaines applications de police pr\u00e9dictive, et les syst\u00e8mes d\u2019identification biom\u00e9trique \u00ab&nbsp;\u202fen temps r\u00e9el\u202f&nbsp;\u00bb et \u00ab&nbsp;\u202f\u00e0 distance\u202f&nbsp;\u00bb, interdits, dans ce dernier cas, sauf \u00e0 des fins r\u00e9pressives sp\u00e9cifiques autoris\u00e9es de fa\u00e7on ind\u00e9pendante.<br><br>La r\u00e8glementation la plus d\u00e9taill\u00e9e concerne les syst\u00e8mes d\u2019IA consid\u00e9r\u00e9 comme \u00e0 haut risque, comprenant deux cat\u00e9gories de syst\u00e8me (article&nbsp;6). Tout d\u2019abord, cette cat\u00e9gorie comprend tout syst\u00e8me (autonome ou entrant dans la composition d\u2019un produit) couvert par une des l\u00e9gislations harmonis\u00e9es de l\u2019UE list\u00e9es en annexe\u202fI et qui est soumis \u00e0 une \u00e9valuation de conformit\u00e9 en vertu de ces m\u00eames textes<a id=\"sdfootnote42anc\" href=\"#sdfootnote42sym\"><sup>40<\/sup><\/a>. Ensuite, cette cat\u00e9gorie comprend \u00e9galement des syst\u00e8mes qualifi\u00e9s automatiquement de haut risque en raison des domaines qu\u2019ils touchent<a id=\"sdfootnote43anc\" href=\"#sdfootnote43sym\"><sup>41<\/sup><\/a>&nbsp;: sont ainsi consid\u00e9r\u00e9s comme syst\u00e8mes \u00e0 haut risque les syst\u00e8mes d\u2019IA comprenant des secteurs tels que les infrastructures critiques, l\u2019\u00e9ducation, les services publics ou priv\u00e9s essentiels, l\u2019emploi, l\u2019administration de la justice<a id=\"sdfootnote44anc\" href=\"#sdfootnote44sym\"><sup>42<\/sup><\/a>.<br><br>Les syst\u00e8mes d\u2019IA \u00e0 haut risque sont autoris\u00e9s sur le march\u00e9 europ\u00e9en, sous r\u00e9serve que leurs fournisseurs veillent \u00e0 ce qu\u2019ils soient soumis, avant leur mise sur le march\u00e9 ou leur mise en service, \u00e0 une proc\u00e9dure d\u2019\u00e9valuation de leur conformit\u00e9<a id=\"sdfootnote45anc\" href=\"#sdfootnote45sym\"><sup>43<\/sup><\/a>, devant d\u00e9boucher sur l\u2019apposition d\u2019une d\u00e9claration UE de conformit\u00e9<a id=\"sdfootnote46anc\" href=\"#sdfootnote46sym\"><sup>44<\/sup><\/a>. Pour les syst\u00e8mes ainsi mis sur le march\u00e9, le r\u00e8glement pr\u00e9voit notamment la mise en \u0153uvre d\u2019une proc\u00e9dure continue de gestion des risques (article&nbsp;9), une politique contraignante de gouvernance des donn\u00e9es utilis\u00e9es pour l\u2019entra\u00eenement afin d\u2019assurer leur qualit\u00e9 et \u00e9viter les biais (article&nbsp;10), l\u2019\u00e9tablissement d\u2019une documentation technique<a id=\"sdfootnote47anc\" href=\"#sdfootnote47sym\"><sup>45<\/sup><\/a> (article&nbsp;11), la tenue de journaux permettant de garantir un degr\u00e9 de tra\u00e7abilit\u00e9 du fonctionnement d\u2019un syst\u00e8me d\u2019IA (article&nbsp;12), une obligation de transparence et d\u2019information \u00e0 l\u2019attention des utilisateurs (article&nbsp;13), un contr\u00f4le humain du syst\u00e8me visant \u00e0 pr\u00e9venir ou minimiser les risques (article&nbsp;14), ainsi que la mise en \u0153uvre d\u2019obligations g\u00e9n\u00e9rales d\u2019exactitude, de robustesse et de cybers\u00e9curit\u00e9 (article&nbsp;15).<br><br>Les autorit\u00e9s de surveillance du march\u00e9<a id=\"sdfootnote48anc\" href=\"#sdfootnote48sym\"><sup>46<\/sup><\/a> auront le pouvoir de mener des inspections des syst\u00e8mes d\u2019IA \u00e0 haut risque et auront acc\u00e8s \u00e0 toutes les donn\u00e9es utilis\u00e9es par les fournisseurs dans le cadre de l\u2019entra\u00eenement des syst\u00e8mes d\u2019IA<a id=\"sdfootnote49anc\" href=\"#sdfootnote49sym\"><sup>47<\/sup><\/a>. En cas de doutes quant aux risques pour la sant\u00e9, la s\u00e9curit\u00e9 ou la protection des droits fondamentaux des personnes, l\u2019autorit\u00e9 de surveillance du march\u00e9 proc\u00e8dera \u00e0 une \u00e9valuation de la conformit\u00e9 du syst\u00e8me d\u2019IA concern\u00e9. Si elle constate que le syst\u00e8me d\u2019IA ne respecte pas les exigences et obligations \u00e9nonc\u00e9es dans le r\u00e8glement, elle invitera sans tarder l\u2019op\u00e9rateur concern\u00e9 \u00e0 prendre toutes les mesures correctives appropri\u00e9es pour mettre le syst\u00e8me d\u2019IA en conformit\u00e9, le retirer du march\u00e9 ou le rappeler dans un d\u00e9lai raisonnable et proportionn\u00e9 \u00e0 la nature du risque<a id=\"sdfootnote50anc\" href=\"#sdfootnote50sym\"><sup>48<\/sup><\/a>.<br><br>Il est \u00e0 noter ici que si l\u2019AI Actpr\u00e9voit la possibilit\u00e9 pour les personnes int\u00e9ress\u00e9es d\u2019introduire une r\u00e9clamation aupr\u00e8s d\u2019une autorit\u00e9 de surveillance du march\u00e9<a id=\"sdfootnote51anc\" href=\"#sdfootnote51sym\"><sup>49<\/sup><\/a>, il ne pr\u00e9voit en revanche pas de m\u00e9canisme pour que les particuliers puissent contester les d\u00e9cisions de ces autorit\u00e9s. Or les m\u00e9canismes de plainte ont traditionnellement \u00e9t\u00e9 les vecteurs les plus efficaces du d\u00e9veloppement de la jurisprudence de la Cour de justice de l\u2019Union europ\u00e9enne, lorsque les autorit\u00e9s \u00e9taient r\u00e9ticentes \u00e0 s\u2019opposer aux pratiques des entreprises technologiques<a id=\"sdfootnote52anc\" href=\"#sdfootnote52sym\"><sup>50<\/sup><\/a>.<br><br>Par ailleurs, pour les syst\u00e8mes \u00e0 faible risque, une obligation de transparence vis-\u00e0-vis des utilisateurs (article&nbsp;50) est impos\u00e9e, notamment lorsque les syst\u00e8mes d\u2019IA sont destin\u00e9s \u00e0 interagir avec une personne (<em>chatbots<\/em>), lorsqu\u2019ils g\u00e9n\u00e8rent ou manipulent des contenus (<em>deep fakes<\/em>) et lorsqu\u2019ils ont pour finalit\u00e9 la reconnaissance d\u2019\u00e9motion ou la cat\u00e9gorisation biom\u00e9trique. Les utilisateurs doivent \u00eatre inform\u00e9s de l\u2019implication d\u2019un syst\u00e8me d\u2019IA dans la communication, l\u2019objectif \u00e9tant de limiter les manipulations possibles.<br><br>En dernier lieu se trouve la cat\u00e9gorie des syst\u00e8mes d\u2019IA pr\u00e9sentant un risque minime. Cette cat\u00e9gorie n\u2019existe que par d\u00e9faut et les usages en cause ne seront d\u00e8s lors pas r\u00e9gul\u00e9s par l\u2019AI Act. Cet \u00e9tat de fait n\u2019emp\u00eache naturellement pas ces utilisations d\u2019\u00eatre r\u00e9gul\u00e9es par d\u2019autres r\u00e8glementations, telles que celles sur la s\u00e9curit\u00e9 des produits ou les donn\u00e9es \u00e0 caract\u00e8re personnel<a id=\"sdfootnote53anc\" href=\"#sdfootnote53sym\"><sup>51<\/sup><\/a>.<br><br>S\u2019agissant des sanctions, les \u00c9tats membres doivent \u00e9tablir, en vertu de l\u2019article&nbsp;99 de l\u2019AI Act, les r\u00e8gles applicables pour tout manquement aux r\u00e8gles li\u00e9es \u00e0 l\u2019IA contenues dans le r\u00e8glement. Une vari\u00e9t\u00e9 de sanctions est pr\u00e9vue pour tout manquement persistant aux exigences du r\u00e8glement, impliquant des amendes administratives d\u2019un montant pouvant aller jusqu\u2019\u00e0 35&nbsp;000&nbsp;000,00\u202f\u20ac ou 7\u202f&nbsp;% du chiffre d\u2019affaires mondial de l\u2019entreprise en cause.<br><br>Un certain nombre de critiques a d\u00e9j\u00e0 \u00e9t\u00e9 \u00e9mis \u00e0 l\u2019encontre de l\u2019AI Act, non des moindres \u00e9tant la question de savoir comment les autorit\u00e9s de surveillance du march\u00e9, habitu\u00e9es \u00e0 statuer sur des questions de s\u00e9curit\u00e9 de produits physiques, tels que des dispositifs m\u00e9dicaux, sauront, conform\u00e9ment \u00e0 l\u2019exigence de l\u2019article&nbsp;79 de l\u2019AI Act, trancher des questions ayant trait aux droits fondamentaux<a id=\"sdfootnote54anc\" href=\"#sdfootnote54sym\"><sup>52<\/sup><\/a>. Se pose \u00e9galement la question de l\u2019interaction de l\u2019AI Act avec les autres textes l\u00e9gislatifs en vigueur dans le domaine du num\u00e9rique<a id=\"sdfootnote55anc\" href=\"#sdfootnote55sym\"><sup>53<\/sup><\/a>, ainsi que le poids r\u00e8glementaire issu de ce corpus l\u00e9gislatif pesant sur les op\u00e9rateurs \u00e9conomiques dans un domaine aux contours encore incertains.<br><br>En parall\u00e8le \u00e0 l\u2019aboutissement du mod\u00e8le europ\u00e9en de r\u00e8glementation de l\u2019IA \u00e9merge un autre mod\u00e8le, moins prescriptif que celui de l\u2019Union europ\u00e9enne. Il s\u2019agit de l\u2019initiative britannique, d\u00e9crite dans un <em>White Paper <\/em>sur une approche pro-innovation de la r\u00e9gulation<a id=\"sdfootnote56anc\" href=\"#sdfootnote56sym\"><sup>54<\/sup><\/a>.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-medium-font-size\">II. L\u2019initiative britannique<\/h1>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#edf7fb\">\u00c0 la diff\u00e9rence du cadre normatif d\u00e9taill\u00e9 caract\u00e9risant l\u2019approche europ\u00e9enne, l\u2019approche britannique se caract\u00e9risera, dans un premier temps \u00e0 tout le moins, par des orientations, \u00e0 l\u2019attention des autorit\u00e9s nationales de r\u00e9gulation sectorielles, sur la mise en \u0153uvre g\u00e9n\u00e9ralis\u00e9e de principes transversaux. En effet, si le gouvernement britannique part du postulat que l\u2019usage de l\u2019IA va quasi in\u00e9luctablement engendrer des externalit\u00e9s n\u00e9gatives, qu\u2019il sera n\u00e9cessaire de surveiller et de contr\u00f4ler, il souhaite ancrer toute r\u00e9glementation contraignante dans une approche empirique de l\u2019usage de l\u2019IA et des besoins de r\u00e9glementation y associ\u00e9s.<br><br>L\u2019approche r\u00e8glementaire propos\u00e9e se dessine autour de quatre grands principes&nbsp;: une d\u00e9finition de l\u2019IA fond\u00e9e sur les caract\u00e9ristiques du syst\u00e8me en cause&nbsp;; une approche qui se veut sp\u00e9cifique au contexte du d\u00e9ploiement de l\u2019IA&nbsp;; la fourniture d\u2019un ensemble de principes transversaux devant \u00eatre mis en \u0153uvre par les diverses autorit\u00e9s de r\u00e9gulation dans le secteur dont elles ont la responsabilit\u00e9 de fa\u00e7on \u00e0 contrer les risques li\u00e9s \u00e0&nbsp;l\u2019IA&nbsp;; et la fourniture de nouvelles fonctions centrales pour aider les r\u00e9gulateurs \u00e0 fournir le cadre r\u00e9glementaire de l\u2019IA<a id=\"sdfootnote57anc\" href=\"#sdfootnote57sym\"><sup>55<\/sup><\/a>.<br><br>En premier lieu, la d\u00e9finition de l\u2019IA par le <em>White Paper<\/em> se fait par r\u00e9f\u00e9rence \u00e0 deux caract\u00e9ristiques qui g\u00e9n\u00e8rent, selon le gouvernement britannique, le besoin d\u2019une r\u00e9ponse r\u00e8glementaire sur mesure<a id=\"sdfootnote58anc\" href=\"#sdfootnote58sym\"><sup>56<\/sup><\/a>. La premi\u00e8re de ces caract\u00e9ristiques est l\u2019adaptabilit\u00e9 des syst\u00e8mes d\u2019IA, du fait de leur alimentation permanente en donn\u00e9es, ce qui leur permet de d\u00e9velopper de nouvelles formes de raisonnement inductif non directement envisag\u00e9es par leurs programmateurs. La deuxi\u00e8me caract\u00e9ristique est l\u2019autonomie des syst\u00e8mes d\u2019IA en raison de leur potentiel \u00e0 prendre des d\u00e9cisions sans l\u2019intention expresse ou le contr\u00f4le continu d\u2019un humain. La souplesse dont t\u00e9moigne cette approche doit permettre de p\u00e9renniser le cadre r\u00e8glementaire mis en \u0153uvre, et ce malgr\u00e9 la mise en service de nouvelles technologies non envisag\u00e9es au moment de son entr\u00e9e en vigueur.<br><br>En deuxi\u00e8me lieu, l\u2019approche britannique envisage avant tout les usages d\u2019une technologie, et non pas la technologie elle-m\u00eame. Dans son <em>White Paper<\/em>, le gouvernement britannique met l\u2019accent sur une approche sp\u00e9cifique au contexte, permettant aux autorit\u00e9s de r\u00e9gulation sectorielles d\u2019\u00e9valuer les risques li\u00e9s \u00e0 l\u2019utilisation&nbsp;ou non de l\u2019IA. Cette \u00e9valuation des risques inclut d\u00e8s lors le d\u00e9faut d\u2019exploitation des capacit\u00e9s des syst\u00e8mes d\u2019IA<a id=\"sdfootnote59anc\" href=\"#sdfootnote59sym\"><sup>57<\/sup><\/a>. Cette approche sp\u00e9cifique au contexte se veut une r\u00e9ponse proportionn\u00e9e au risque et cherche \u00e0 \u00e9viter d\u2019\u00e9touffer l\u2019innovation ou de manquer des occasions de tirer parti des b\u00e9n\u00e9fices offerts par l\u2019IA.<br><br>En troisi\u00e8me lieu, les autorit\u00e9s de r\u00e9gulation sectorielles devront mettre en \u0153uvre les principes transversaux \u00e9voqu\u00e9s pr\u00e9c\u00e9demment, qui s\u2019appuient sur les principes de l\u2019OCDE sur l\u2019intelligence artificielle et qui sont au nombre de cinq. Premi\u00e8rement, il convient d\u2019assurer la <em>s\u00fbret\u00e9, la s\u00e9curit\u00e9 et la robustesse&nbsp;des syst\u00e8mes d\u2019IA<\/em>. Ainsi, ces syst\u00e8mes doivent fonctionner de mani\u00e8re robuste, s\u00e9curis\u00e9e et s\u00fbre tout au long du cycle de vie de l\u2019IA et les risques li\u00e9s \u00e0 son utilisation doivent \u00eatre continuellement identifi\u00e9s, \u00e9valu\u00e9s et g\u00e9r\u00e9s. Deuxi\u00e8mement, il convient d\u2019assurer un degr\u00e9 de <em>transparence et explicabilit\u00e9<\/em> <em>appropri\u00e9<\/em>. La transparence fait r\u00e9f\u00e9rence \u00e0 la communication des informations relatives \u00e0 un syst\u00e8me d\u2019IA aux personnes concern\u00e9es, par exemple aux fins de savoir comment, quand et pour quelles raisons un syst\u00e8me d\u2019IA est utilis\u00e9. L\u2019explicabilit\u00e9 fait r\u00e9f\u00e9rence \u00e0 la possibilit\u00e9 d\u2019acc\u00e9der, d\u2019interpr\u00e9ter et de comprendre les processus d\u00e9cisionnels d\u2019un syst\u00e8me d\u2019IA. Un niveau appropri\u00e9 de transparence et d\u2019explicabilit\u00e9 signifie que les r\u00e9gulateurs disposent de suffisamment d\u2019informations sur les syst\u00e8mes d\u2019IA pour mettre en \u0153uvre les autres principes de l\u2019OCDE. Troisi\u00e8mement, les syst\u00e8mes d\u2019IA doivent <em>respecter le principe d\u2019\u00e9quit\u00e9<\/em>. Ainsi, ils ne doivent pas porter atteinte aux droits des individus ou des organisations, ni discriminer de fa\u00e7on injustifi\u00e9e entre les individus, ni cr\u00e9er des r\u00e9sultats de march\u00e9 injustes. Quatri\u00e8mement, des mesures de <em>gouvernance<\/em> doivent \u00eatre mises en place pour assurer une surveillance efficace de la fourniture et de l\u2019utilisation des syst\u00e8mes d\u2019IA avec des cha\u00eenes de <em>responsabilit\u00e9<\/em> clairement \u00e9tablies tout au long du cycle de vie de l\u2019IA. Cinqui\u00e8mement, il doit exister une <em>possibilit\u00e9 de recours et de r\u00e9paration<\/em>. Ainsi, les utilisateurs, les tiers et les acteurs du cycle de vie de l\u2019IA doivent pouvoir contester une d\u00e9cision ou une cons\u00e9quence de l\u2019utilisation d\u2019un syst\u00e8me d\u2019IA qui leur est pr\u00e9judiciable ou qui cr\u00e9e un risque mat\u00e9riel de pr\u00e9judice.<br><br>Les principes transversaux qui structurent l\u2019approche britannique seront mis en \u0153uvre dans le cadre des r\u00e9gimes r\u00e9glementaires d\u00e9j\u00e0 existants<a id=\"sdfootnote60anc\" href=\"#sdfootnote60sym\"><sup>58<\/sup><\/a>. Dans un premier temps, l\u2019application de ces principes ne sera pas contraignante, permettant ainsi de veiller au cours de cette p\u00e9riode \u00e0 leur effectivit\u00e9. Par la suite<a id=\"sdfootnote61anc\" href=\"#sdfootnote61sym\"><sup>59<\/sup><\/a>, il est pr\u00e9vu de renforcer et de clarifier les obligations des autorit\u00e9s de r\u00e9gulation par la cr\u00e9ation d\u2019un devoir de ces derni\u00e8res de tenir d\u00fbment compte de ces principes. L\u2019institution d\u2019un devoir plut\u00f4t que d\u2019une obligation vise \u00e0 permettre \u00e0 ces autorit\u00e9s d\u2019exercer leur pouvoir discr\u00e9tionnaire concernant la pertinence, \u00e0 tout instant, des diff\u00e9rents principes dans leurs domaines respectifs. Ainsi, le gouvernement britannique attend des autorit\u00e9s de r\u00e9gulation qu\u2019elles \u00e9valuent les principes transversaux et les appliquent aux cas d\u2019utilisation de l\u2019IA qui rel\u00e8vent de leur mandat, qu\u2019elles publient des lignes directrices sur la mani\u00e8re dont les principes interagissent avec la l\u00e9gislation existante pour aider l\u2019industrie \u00e0 appliquer ces principes, et qu\u2019elles soutiennent les entreprises op\u00e9rant dans le domaine d\u2019activit\u00e9 de plusieurs r\u00e9gulateurs en collaborant et en produisant des orientations claires et coh\u00e9rentes, y compris conjointes le cas \u00e9ch\u00e9ant.<br><br>En dernier lieu, le gouvernement britannique propose de soutenir les autorit\u00e9s sectorielles dans leur mission de r\u00e9gulation des syst\u00e8mes d\u2019IA en participant \u00e0 l\u2019\u00e9laboration de lignes directrices qui les aideront \u00e0 mettre en \u0153uvre les principes transversaux<a id=\"sdfootnote62anc\" href=\"#sdfootnote62sym\"><sup>60<\/sup><\/a>. Ainsi, le <em>White Paper <\/em>identifie certaines fonctions que le gouvernement pourra utilement remplir \u00e0 cet \u00e9gard. Premi\u00e8rement, le gouvernement central devra mettre en \u0153uvre la surveillance, l\u2019\u00e9valuation et le retour d\u2019information (<em>feedback<\/em>)&nbsp;: il s\u2019agit ici principalement d\u2019\u00e9laborer et maintenir un cadre central de suivi et d\u2019\u00e9valuation pour \u00e9valuer les impacts intersectoriels et sectoriels du nouveau r\u00e9gime, afin de permettre au gouvernement de s\u2019assurer que la cadre r\u00e8glementaire fonctionne comme pr\u00e9vu. Deuxi\u00e8mement, il devra soutenir la mise en \u0153uvre coh\u00e9rente des principes, en \u00e9laborant des lignes directrices centrales pour aider les r\u00e9gulateurs \u00e0 les mettre en \u0153uvre. Troisi\u00e8mement, il appartiendra au gouvernement de mener une \u00e9valuation transversale des risques, de fa\u00e7on \u00e0 garantir que tout nouveau risque puisse \u00eatre trait\u00e9 et ne tombe pas dans les interstices entre les domaines de comp\u00e9tence des autorit\u00e9s sectorielles. Quatri\u00e8mement, il conviendra qu\u2019il pr\u00eate une assistance aux innovateurs en identifiant les probl\u00e8mes r\u00e9glementaires transversaux qui ont des impacts n\u00e9fastes sur l\u2019innovation, notamment par la mise en place de bacs \u00e0 sable r\u00e8glementaires pour tester la pertinence des modalit\u00e9s r\u00e8glementaires envisag\u00e9es. Cinqui\u00e8mement, il devra mener des actions de sensibilisation des entreprises et du grand public sur la r\u00e9glementation et les risques li\u00e9s \u00e0 l\u2019IA. Sixi\u00e8mement, le gouvernement central devra op\u00e9rer un balayage d\u2019horizon, notamment par une \u00e9valuation des risques nouveaux et \u00e9mergents li\u00e9s \u00e0 l\u2019IA ou \u00e0 sa non-utilisation, en collaboration avec les acteurs de l\u2019industrie, les universit\u00e9s, les autorit\u00e9s de r\u00e9gulation et les partenaires au niveau mondial. Enfin, le <em>White Paper <\/em>envisage que le gouvernement central assure l\u2019interop\u00e9rabilit\u00e9 du cadre national avec les cadres r\u00e9glementaires internationaux.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#edf7fb\">La comparaison entre l\u2019approche en droit de l\u2019Union et l\u2019approche britannique de la r\u00e9glementation de l\u2019IA laisse poindre deux approches r\u00e8glementaires contrast\u00e9es&nbsp;: la gouvernance en amont par opposition \u00e0 \u00ab&nbsp;\u202fl\u2019innovation sans permission\u202f&nbsp;\u00bb<a id=\"sdfootnote63anc\" href=\"#sdfootnote63sym\"><sup>61<\/sup><\/a>. Ainsi, tandis que le cadre europ\u00e9en introduit des exigences, pour les syst\u00e8mes d\u2019IA jug\u00e9es \u00e0 haut risque, de se soumettre \u00e0 une proc\u00e9dure d\u2019\u00e9valuation de conformit\u00e9 (<em>ex ante<\/em>), le mod\u00e8le britannique privil\u00e9gie un redressement des torts \u00e9ventuels dus \u00e0 l\u2019usage des syst\u00e8mes d\u2019IA (<em>ex post<\/em>). Pour r\u00e9sumer la diff\u00e9rence d\u2019approche avec un aphorisme, l\u2019approche britannique vise \u00e0 permettre de corriger toute erreur rapidement, tandis que l\u2019approche en droit de l\u2019Union vise \u00e0 rendre l\u2019erreur impossible. Il est l\u00e9gitime d\u00e8s lors de s\u2019interroger sur le poids r\u00e8glementaire que fait peser sur les op\u00e9rateurs \u00e9conomiques le mod\u00e8le europ\u00e9en, et ce malgr\u00e9 la volont\u00e9 de certitude juridique pour la protection des droits fondamentaux que ce mod\u00e8le offre.<br><br>L\u2019on retiendra par ailleurs la place importante r\u00e9serv\u00e9e, dans les deux cas, aux autorit\u00e9s de r\u00e9gulation sectorielles. En effet, du fait de la flexibilit\u00e9 institutionnelle qui leur est accord\u00e9e, ces autorit\u00e9s peuvent combiner des fonctions l\u00e9gislatives, judiciaires et ex\u00e9cutives. En effet, elles peuvent, le cas \u00e9ch\u00e9ant, \u00e0 la fois d\u00e9finir les orientations r\u00e8glementaires dans un domaine pr\u00e9cis, trancher certains litiges \u00e0 l\u2019instar d\u2019un tribunal et faire ex\u00e9cuter certaines d\u00e9cisions et orientations. En outre, elles peuvent exercer une influence plus subtile sur la conduite des acteurs du march\u00e9, en collectant et en publiant des informations sur les risques pour la s\u00fbret\u00e9 et la s\u00e9curit\u00e9 provenant de la conduite des acteurs d\u2019un march\u00e9 ou de leurs produits. Les autorit\u00e9s de r\u00e9gulation et de surveillance ont donc un avantage institutionnel comparatif important par rapport au pouvoir judiciaire ou aux organes l\u00e9gislatifs dans l\u2019application de r\u00e8gles et de principes<a id=\"sdfootnote64anc\" href=\"#sdfootnote64sym\"><sup>62<\/sup><\/a>. Toutefois, dans le mod\u00e8le britannique, cette combinaison de comp\u00e9tences est per\u00e7ue comme permettant de faire \u00e9merger les informations n\u00e9cessaires \u00e0 l\u2019\u00e9laboration, \u00e0 titre ult\u00e9rieur, d\u2019un cadre l\u00e9gislatif se rapportant \u00e0 l\u2019usage des syst\u00e8mes d\u2019IA.<br><br>La souplesse du mod\u00e8le britannique, fond\u00e9 sur l\u2019\u00e9mergence \u00ab&nbsp;\u202forganique\u202f&nbsp;\u00bb d\u2019un cadre l\u00e9gislatif contraignant tir\u00e9 d\u2019une accumulation d\u2019exp\u00e9riences concr\u00e8tes, alli\u00e9 \u00e0 un r\u00e9gime d\u2019innovation sans permission&nbsp;pr\u00e9alable, permettra sans doute aux entreprises de d\u00e9veloppement de syst\u00e8mes d\u2019IA install\u00e9es au Royaume-Uni d\u2019\u00e9voluer dans un contexte r\u00e8glementaire plus favorable qu\u2019au sein de l\u2019Union<a id=\"sdfootnote65anc\" href=\"#sdfootnote65sym\"><sup>63<\/sup><\/a>. Alli\u00e9e \u00e0 la grande disponibilit\u00e9 de donn\u00e9es en langue anglaise, cette situation pourrait permettre au Royaume-Uni de d\u00e9velopper un avantage de nature \u00e0 inciter l\u2019implantation d\u2019entreprises de d\u00e9veloppement de syst\u00e8mes d\u2019IA. En outre, de par son encouragement \u00e0 faire usage des syst\u00e8mes d\u2019IA lorsque les circonstances le justifient, le syst\u00e8me anglais encourage l\u2019adoption de m\u00e9thodes de travail ancr\u00e9es dans la technologie, et pourrait \u00e9galement repr\u00e9senter un avantage comp\u00e9titif pour les entreprises offrant leurs services au Royaume-Uni.<br><br>Il convient encore d\u2019observer que, \u00e0 la diff\u00e9rence de l\u2019AI Act, le <em>White Paper<\/em> ne pr\u00e9voit pas explicitement de sanctions pour des torts qui pourraient \u00eatre caus\u00e9s par les syst\u00e8mes d\u2019IA. Cela laisse penser que le gouvernement britannique estime que les autorit\u00e9s de r\u00e9gulation britanniques disposent actuellement de suffisamment de pouvoirs pour sanctionner les manquements aux principes transversaux explicit\u00e9s ci-dessus. \u00c0 cet \u00e9gard, il convient en outre de rappeler que, dans les deux syst\u00e8mes, tout dommage d\u00fb \u00e0 l\u2019utilisation d\u2019un syst\u00e8me d\u2019IA (tel que la d\u00e9termination par le syst\u00e8me d\u2019IA d\u2019un r\u00e9sultat discriminatoire faisant l\u2019objet d\u2019un contr\u00f4le humain inad\u00e9quat) pourra \u00e9ventuellement faire l\u2019objet d\u2019une action en responsabilit\u00e9 d\u00e9lictuelle. Cette alternative pr\u00e9sente l\u2019avantage de responsabiliser les fournisseurs des syst\u00e8mes d\u2019IA en faisant planer sur eux, pareille \u00e0 une \u00e9p\u00e9e de Damocl\u00e8s, la menace de dommages et int\u00e9r\u00eats devant \u00eatre vers\u00e9s pour toute infraction aux droits individuels et collectifs dus \u00e0 l\u2019usage de syst\u00e8mes d\u2019IA qu\u2019ils mettent sur le march\u00e9. Cela \u00e9tant, il est possible d\u2019estimer qu\u2019un m\u00e9canisme de certification de conformit\u00e9 du syst\u00e8me d\u2019IA mis sur le march\u00e9, \u00e0 tout le moins d\u2019ordre facultatif, fait d\u00e9faut dans le syst\u00e8me britannique. Une telle certification offrirait une marge de s\u00e9curit\u00e9 juridique aux entreprises voulant faire preuve de bonne foi en obtenant une certification du syst\u00e8me d\u00e9velopp\u00e9 par elles. On pourrait ainsi imaginer, sur la base de cette certification facultative, le plafonnement des dommages et int\u00e9r\u00eats dus au titre d\u2019une action en r\u00e9paration pour des infractions aux droits individuels<a id=\"sdfootnote66anc\" href=\"#sdfootnote66sym\"><sup>64<\/sup><\/a>. Un tel m\u00e9canisme offrirait en m\u00eame temps une assurance aux utilisateurs, tiers et acteurs du cycle de vie de l\u2019IA que certains syst\u00e8mes mis sur le march\u00e9 ont fait l\u2019objet d\u2019un examen en aval par une autorit\u00e9 de r\u00e9gulation. L\u2019apposition d\u2019une telle marque de certification serait sans doute apte \u00e0 encourager les entreprises \u00e0 la rechercher spontan\u00e9ment.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-medium-font-size\">III. Vers une r\u00e8glementation globale de l\u2019IA&nbsp;?<\/h1>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#edf7fb\">Il ressort de ce qui pr\u00e9c\u00e8de que plusieurs organisations internationales \u2013&nbsp;chacune \u00e0 partir de ses propres comp\u00e9tences et objectifs \u2013 et diff\u00e9rents pays, dont le Royaume-Uni, ont pris des initiatives importantes afin de soumettre l\u2019IA \u00e0 un cadre r\u00e9glementaire. Quelles le\u00e7ons peut-on tirer de cette br\u00e8ve analyse de certaines de ces initiatives&nbsp;?<br><br>Premi\u00e8rement, il est imp\u00e9ratif d\u2019encadrer l\u2019usage de l\u2019intelligence artificielle, vu les risques de d\u00e9rapage. Les initiatives r\u00e9centes \u00e0 cet \u00e9gard sont donc les bienvenues. Toutefois, force est de constater, d\u2019une part, que les probl\u00e8mes li\u00e9s \u00e0 l\u2019usage de l\u2019IA sont av\u00e9r\u00e9s depuis un moment<a id=\"sdfootnote67anc\" href=\"#sdfootnote67sym\"><sup>65<\/sup><\/a>. D\u2019autre part, des normes juridiques contraignantes visant \u00e0 adresser ces probl\u00e8mes ont longtemps fait d\u00e9faut. Sans vouloir douter de l\u2019importance du <em>soft law <\/em>(recommandations, r\u00e9solutions, etc.), la mise en \u0153uvre de certaines r\u00e8gles s\u2019av\u00e8re utile. L\u2019AI Act et la Convention-cadre du Conseil de l\u2019Europe sur l\u2019intelligence artificielle et les droits de l\u2019homme, la d\u00e9mocratie et l\u2019\u00c9tat de droit comblent en partie cette lacune.<br><br>Deuxi\u00e8mement, le mod\u00e8le de r\u00e9gulation britannique enseigne qu\u2019il ne convient pas simplement de proscrire l\u2019utilisation des syst\u00e8mes d\u2019IA dans certains domaines, tels que la notation sociale, \u00e0 l\u2019instar de la r\u00e8glementation propos\u00e9e en droit de l\u2019Union. Il convient \u00e9galement de tirer parti des nouvelles fonctionnalit\u00e9s de l\u2019IA, de fa\u00e7on \u00e0 optimiser certains processus, notamment les processus m\u00e9dicaux. Or cela n\u2019est pas sans \u00e9voquer de nouvelles questions, notamment celles de savoir comment tirer parti de ces syst\u00e8mes tout en maintenant la qualification et l\u2019autonomie des professionnels charg\u00e9s de les mettre en \u0153uvre, et pour lesquels la tentation de se fier enti\u00e8rement au diagnostic ou \u00e0 la solution propos\u00e9e par le syst\u00e8me d\u2019IA sera forte, que ce soit dans le domaine m\u00e9dical, dans la d\u00e9cision d\u2019allouer un cr\u00e9dit ou dans la d\u00e9termination de la tarification commerciale \u00e0 appliquer. Comment \u00e9viter, dans un tel contexte, une perte de comp\u00e9tences (<em>deskilling<\/em>) des professionnels concern\u00e9s&nbsp;?<br><br>Troisi\u00e8mement, il ne suffit pas d\u2019adopter des actes sp\u00e9cifiques destin\u00e9s \u00e0 r\u00e9glementer de mani\u00e8re globale et exhaustive l\u2019intelligence artificielle. Une telle approche ne pourrait pas confronter tous les enjeux de l\u2019IA. En effet, il va falloir prendre l\u2019IA en compte dans tous les domaines juridiques et tous les secteurs \u00e9conomiques et sociaux. Prenons l\u2019exemple du droit de la concurrence. Traditionnellement, la notion d\u2019entente couvre certains types de concertation entre diff\u00e9rentes entreprises, ce qui pr\u00e9suppose un aspect \u00ab&nbsp;\u202fhumain\u202f&nbsp;\u00bb, \u00e0 savoir une volont\u00e9 de coordonner les prix de vente par exemple. La question qui se pose maintenant est de savoir comment il convient d\u2019appliquer l\u2019interdiction sur les ententes quand les prix sont d\u00e9termin\u00e9s par des algorithmes qui ont appris de mani\u00e8re autonome \u00e0 fixer les prix \u00e0 un niveau id\u00e9al pour les entreprises concern\u00e9es. Si \u00e0 travers des algorithmes, diff\u00e9rentes entreprises parviennent \u00e0 fixer les prix, convient-il de consid\u00e9rer que c\u2019est le cr\u00e9ateur de l\u2019algorithme qui est responsable&nbsp;? Un tel point de vue n\u2019est pas \u00e9vident lorsque le cr\u00e9ateur n\u2019a pas instruit l\u2019algorithme sur la mise en \u0153uvre d\u2019ententes, mais que l\u2019algorithme lui-m\u00eame est arriv\u00e9 au r\u00e9sultat que cela est la meilleure solution pour les entreprises concern\u00e9es. Cet exemple illustre parfaitement qu\u2019il convient d\u2019adapter le droit ou l\u2019interpr\u00e9tation des r\u00e8gles pour tenir d\u00fbment compte du ph\u00e9nom\u00e8ne de l\u2019IA<a id=\"sdfootnote68anc\" href=\"#sdfootnote68sym\"><sup>66<\/sup><\/a>.<br><br>Quatri\u00e8mement, vu le caract\u00e8re mondial de l\u2019IA, une coordination internationale appara\u00eet indispensable. En effet, il est \u00e9vident que les cons\u00e9quences de l\u2019utilisation de l\u2019IA ne s\u2019arr\u00eatent pas aux fronti\u00e8res des diff\u00e9rents pays. Ainsi, la d\u00e9termination par l\u2019IA des prix de vente sur les plateformes de commerce international peut avoir pour cons\u00e9quence que des commer\u00e7ants locaux font faillite. Pareillement, un syst\u00e8me d\u2019IA d\u00e9velopp\u00e9 dans un pays peut avoir des cons\u00e9quences d\u00e9terminantes sur le r\u00e9sultat des \u00e9lections dans un autre pays, sans m\u00eame mentionner la possibilit\u00e9 d\u2019utiliser l\u2019IA pour diriger des armes telles que des drones pilot\u00e9s \u00e0 distance.<br><br>Il s\u2019ensuit qu\u2019il est souhaitable et m\u00eame imp\u00e9ratif d\u2019avoir une coordination internationale entre diff\u00e9rents pays et diff\u00e9rentes organisations internationales ayant un caract\u00e8re r\u00e9gional telle que l\u2019Union europ\u00e9enne. Cette n\u00e9cessit\u00e9 est reconnue par diverses organisations internationales<a id=\"sdfootnote69anc\" href=\"#sdfootnote69sym\"><sup>69<\/sup><\/a>. Nous renvoyons \u00e9galement au principe&nbsp;2.5 des principes sur l\u2019intelligence artificielle de l\u2019OCDE qui est intitul\u00e9 \u00ab&nbsp;\u202fFavoriser la coop\u00e9ration internationale au service d\u2019une IA digne de confiance<a id=\"sdfootnote70anc\" href=\"#sdfootnote70sym\"><sup>68<\/sup><\/a>\u202f&nbsp;\u00bb.<br><br>La question essentielle qui se pose est de savoir comment parvenir \u00e0 une telle coordination internationale<a id=\"sdfootnote71anc\" href=\"#sdfootnote71sym\"><sup>69<\/sup><\/a>. Il existe plusieurs forums bilat\u00e9raux, tels que le TTC Joint Roadmap for Trustworthy AI and Risk Management<a id=\"sdfootnote72anc\" href=\"#sdfootnote72sym\"><sup>70<\/sup><\/a>, et multilat\u00e9raux, tels que le Global Partnership on Artificial Intelligence<a id=\"sdfootnote73anc\" href=\"#sdfootnote73sym\"><sup>71<\/sup><\/a>, dans le cadre desquels la r\u00e9gulation de l\u2019IA est abord\u00e9e. Par ailleurs, la Convention-cadre du Conseil de l\u2019Europe sur l\u2019intelligence artificielle et les droits de l\u2019homme, la d\u00e9mocratie et l\u2019\u00c9tat de droit est ouverte \u00e0 la signature \u00e0 tous les pays ayant particip\u00e9 \u00e0 son \u00e9laboration<a id=\"sdfootnote74anc\" href=\"#sdfootnote74sym\"><sup>72<\/sup><\/a>, notamment l\u2019Argentine, Isra\u00ebl, le Japon et les \u00c9tats-Unis. Cependant, d\u00e8s lors, notamment, que la Chine n\u2019est pas impliqu\u00e9e, il est difficile de qualifier ces initiatives de v\u00e9ritablement globales.<br><br>Les lignes bougent toutefois \u00e0 cet \u00e9gard, ainsi qu\u2019il ressort de la d\u00e9claration de Bletchley Park<a id=\"sdfootnote75anc\" href=\"#sdfootnote75sym\"><sup>73<\/sup><\/a> ayant trait \u00e0 la s\u00e9curit\u00e9 associ\u00e9e \u00e0 l\u2019usage de l\u2019intelligence artificielle, et \u00e0 laquelle la Chine est signataire. Il convient par ailleurs de noter la r\u00e9solution vot\u00e9e par les Nations Unies intitul\u00e9e \u00ab&nbsp;\u202fSaisir les possibilit\u00e9s offertes par des syst\u00e8mes d\u2019intelligence artificielle s\u00fbrs, s\u00e9curis\u00e9s et dignes de confiance pour le d\u00e9veloppement durable\u202f&nbsp;\u00bb<a id=\"sdfootnote76anc\" href=\"#sdfootnote76sym\"><sup>74<\/sup><\/a>. Cette r\u00e9solution vise \u00e0 encourager les pays \u00e0 prot\u00e9ger les droits de l\u2019homme, \u00e0 prot\u00e9ger les donn\u00e9es personnelles et \u00e0 surveiller les risques li\u00e9s \u00e0 l\u2019IA sur une base, toutefois, non juridiquement contraignante.<br><br>Une solution \u00e9ventuelle au probl\u00e8me de la coordination internationale consisterait en l\u2019organisation d\u2019une Conf\u00e9rence des Parties (COP) sur l\u2019intelligence artificielle, inspir\u00e9e par les COP sur le climat. En effet, certaines COP sur le climat ont abouti \u00e0 la conclusion d\u2019accords globaux contenant des normes contraignantes, tels que le Protocole de Kyoto<a id=\"sdfootnote77anc\" href=\"#sdfootnote77sym\"><sup>75<\/sup><\/a> ou encore l\u2019Accord de Paris<a id=\"sdfootnote78anc\" href=\"#sdfootnote78sym\"><sup>76<\/sup><\/a>. Il n\u2019en reste pas moins que la mise en \u0153uvre d\u2019\u00e9ventuels accords contraignants r\u00e9gissant l\u2019IA d\u00e9pendra en large partie de la volont\u00e9 et de la d\u00e9termination des autorit\u00e9s nationales comp\u00e9tentes, notamment les autorit\u00e9s de l\u2019\u00e9tat o\u00f9 les syst\u00e8mes d\u2019IA sont localis\u00e9s.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p class=\"has-text-align-justify\"><a href=\"#sdfootnote1anc\">1<\/a> Voir, de mani\u00e8re plus g\u00e9n\u00e9rale, N.&nbsp;Waisberg et A.&nbsp;Hudek, <em>AI for Lawyers: How Artificial Intelligence Is Adding Value, Amplifying Expertise, and Transforming Careers<\/em>, John Wiley &amp; Sons, 2021.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote4sym\" href=\"#sdfootnote4anc\">2<\/a> Voir \u00ab\u202fUn avocat am\u00e9ricain s\u2019excuse apr\u00e8s avoir utilis\u00e9 ChatGPT\u2009: \u201cJe pensais que c\u2019\u00e9tait un moteur de recherche fiable\u201d\u202f\u00bb, <em>Le<\/em> <em>Soir<\/em>, 8\u202fjuin 2023.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote5sym\" href=\"#sdfootnote5anc\">3<\/a> Voir S.&nbsp;Dahan, R.&nbsp;Bhambhoria, S.&nbsp;Townsend et X.&nbsp;Zhu, \u00ab\u202fAnalytics and EU Courts: The Case of Trademark Disputes\u202f\u00bb, in T.&nbsp;Capeta, I.&nbsp;Goldner Lang et T.&nbsp;Peri\u0161in (dir.), <em>The Changing European Union: A Critical View on the Role of the Courts, <\/em>Hart Publishing, 2022.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote6sym\" href=\"#sdfootnote6anc\">4<\/a> Les grands mod\u00e8les de langage sont des r\u00e9seaux de neurones profonds entra\u00een\u00e9s sur de grandes quantit\u00e9s de texte non \u00e9tiquet\u00e9 utilisant l\u2019apprentissage auto-supervis\u00e9 ou l\u2019apprentissage semi-supervis\u00e9 afin de pr\u00e9dire une suite probable \u00e0 une entr\u00e9e donn\u00e9e\u2009: voir <a href=\"https:\/\/fr.wikipedia.org\/wiki\/Grand_mod%C3%A8le_de_langage\">\u00ab\u202fGrand mod\u00e8le de langage\u202f\u00bb<\/a>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote7sym\" href=\"#sdfootnote7anc\">5<\/a> Voir, \u00e0 cet \u00e9gard, W.&nbsp;Douglas Haven, \u00ab\u202fLarge language models can do jaw-dropping things. But nobody knows exactly why.\u202f\u00bb, <em>MIT Tech Rev<\/em>, 4\u202fmars 2024.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote8sym\" href=\"#sdfootnote8anc\">6<\/a> Nous pensons ainsi aux risques li\u00e9s \u00e0 l\u2019usage d\u2019algorithmes devant d\u00e9cider des demandes de carte de cr\u00e9dit, accus\u00e9 de discrimination \u00e0 l\u2019\u00e9gard des demandes introduites par les femmes, ou aux algorithmes de publicit\u00e9 en ligne, qui peuvent cibler les usagers en fonction de leur race, de leur religion ou de leur sexe, ou encore aux filtres de CV automatis\u00e9s, qui \u00e9liminent les candidatures f\u00e9minines. Une \u00e9tude r\u00e9cente publi\u00e9e dans <em>Science<\/em> a montr\u00e9 que les outils de pr\u00e9diction des risques utilis\u00e9s dans les soins de sant\u00e9, qui touchent des millions de personnes aux \u00c9tats-Unis chaque ann\u00e9e, pr\u00e9sentent des biais raciaux importants\u2009: Z.&nbsp;Obermeyer, B.&nbsp;Powers, C.&nbsp;Vogeli, and S.&nbsp;Mullainathan, \u00ab\u202fDissecting Racial Bias in an Algorithm Used to Manage the Health of Populations&nbsp;\u00bb, <em>Science<\/em>, 25\u202foctobre 2019, vol.&nbsp;366, n\u00b0\u202f6464, p.\u202f447-453. Une autre \u00e9tude a r\u00e9v\u00e9l\u00e9 que le logiciel utilis\u00e9 par les principaux h\u00f4pitaux pour classer par ordre de priorit\u00e9 les b\u00e9n\u00e9ficiaires de greffes de rein \u00e9tait discriminatoire \u00e0 l\u2019\u00e9gard des patients noirs\u2009: S.&nbsp;Ahmed, C.T.&nbsp;Nutt, N.D.&nbsp;Eneanya <em>et al.<\/em>, \u00ab\u202fExamining the Potential Impact of Race Multiplier Utilization in Estimated Glomerular Filtration Rate Calculation on African-American Care Outcomes\u202f\u00bb, <em>J.&nbsp;Gen. Intern. Med.<\/em>, 2021, vol. 36, p. 464\u2013471.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote9sym\" href=\"#sdfootnote9anc\">7<\/a> L\u2019on pense notamment \u00e0 l\u2019intelligence artificielle g\u00e9n\u00e9rale, \u00e9galement appel\u00e9e mod\u00e8le de fondation. Ainsi, Sam Altman, PDG de la soci\u00e9t\u00e9 OpenAI, dans une <a href=\"https:\/\/www.lesswrong.com\/posts\/PTzsEQXkCfig9A6AS\/transcript-of-sam-altman-s-interview-touching-on-ai-safety\">interview<\/a> de 2023, entrevoit la possibilit\u00e9 d\u2019une extinction de l\u2019esp\u00e8ce humain du fait de l\u2019intelligence artificielle g\u00e9n\u00e9rale hors de contr\u00f4le.<\/p>\n\n\n\n<p><a id=\"sdfootnote10sym\" href=\"#sdfootnote10anc\">8<\/a> Center for AI Safety, <a href=\"https:\/\/www.safe.ai\/work\/statement-on-ai-risk\">Statement on AI Risk<\/a>.<\/p>\n\n\n\n<p><a id=\"sdfootnote11sym\" href=\"#sdfootnote11anc\">9<\/a> Future of Life Institute, <a href=\"https:\/\/futureoflife.org\/open-letter\/pause-giant-ai-experiments\/\">Pause Giant AI Experiments: An Open Letter<\/a>, 23\u202fmars 2023.<\/p>\n\n\n\n<p><a id=\"sdfootnote12sym\" href=\"#sdfootnote12anc\">10<\/a> J.&nbsp;McCarthy, \u00ab\u202f<a href=\"http:\/\/jmc.stanford.edu\/artificial-intelligence\/what-is-ai\/index.html\">What Is IA? Basic Questions<\/a>&nbsp;\u00bb.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote13sym\" href=\"#sdfootnote13anc\">11<\/a> M.&nbsp;U.&nbsp;Scherer, \u00ab\u202fRegulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies&nbsp;\u00bb, <em>Harv. J.&nbsp;L.&nbsp;&amp; Tech.<\/em>, 2016, vol. 29, p. 353.<\/p>\n\n\n\n<p><a id=\"sdfootnote14sym\" href=\"#sdfootnote14anc\">12<\/a> IBM, \u00ab&nbsp;<a href=\"https:\/\/www.ibm.com\/fr-fr\/topics\/artificial-intelligence?mhsrc=ibmsearch_a&amp;mhq=intelligence%20artificielle\">Qu\u2019est-ce que l\u2019intelligence artificielle\u2009?<\/a>&nbsp;\u00bb<em>.<\/em><\/p>\n\n\n\n<p><a id=\"sdfootnote15sym\" href=\"#sdfootnote15anc\">13<\/a> Twisthink, \u00ab&nbsp;<a href=\"https:\/\/twisthink.com\/defining-ai\/\">Defining IA<\/a>&nbsp;\u00bb.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote16sym\" href=\"#sdfootnote16anc\">14<\/a> M.&nbsp;U.&nbsp;Scherer, \u00ab\u202fRegulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies\u202f\u00bb art.&nbsp;cit., p.&nbsp;356.<\/p>\n\n\n\n<p><a id=\"sdfootnote17sym\" href=\"#sdfootnote17anc\">15<\/a> &nbsp;OCDE, \u00ab&nbsp;<a href=\"https:\/\/www.oecd.org\/fr\/numerique\/intelligence-artificielle\/\">Comment faire en sorte que l\u2019IA profite \u00e0 l\u2019ensemble de la soci\u00e9t\u00e9\u2009?<\/a>&nbsp;\u00bb.<\/p>\n\n\n\n<p><a id=\"sdfootnote18sym\" href=\"#sdfootnote18anc\">16<\/a> Voir le <a href=\"https:\/\/oecd.ai\/fr\/\">site web<\/a> de l\u2019Observatoire OCDE des politiques de l\u2019IA.<\/p>\n\n\n\n<p><a id=\"sdfootnote19sym\" href=\"#sdfootnote19anc\">17<\/a> [<a href=\"https:\/\/oecd.ai\/en\/wonk\/ai-system-definition-update\">https:\/\/oecd.ai\/en\/wonk\/ai-system-definition-update<\/a>].<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote20sym\" href=\"#sdfootnote20anc\">18<\/a> OECD, R\u00e9union du Conseil au niveau des ministres, 22-23 mai 2019, <em>Recommandation du Conseil sur l\u2019Intelligence Artificielle<\/em>, C\/MIN(2019)3\/FINAL, tel qu\u2019amend\u00e9 le 3 mai 2024.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote21sym\" href=\"#sdfootnote21anc\">19<\/a> En outre, en 2022, l\u2019OCDE a lanc\u00e9 le Cadre pour la classification des syst\u00e8mes d\u2019IA, qui vise \u00e0 permettre de distinguer les applications d\u2019IA en fonction de leur impact potentiel sur les individus, la soci\u00e9t\u00e9 et la plan\u00e8te (\u00ab\u202f<a href=\"https:\/\/doi.org\/10.1787\/cb6d9eca-en\">OECD Framework for the Classification of AI Systems\u2009<\/a>\u202f\u00bb, <em>Documents de travail de l\u2019OCDE sur l\u2019\u00e9conomie num\u00e9rique<\/em>, 2022, n\u00b0\u202f323, 80 p.). Le cadre est destin\u00e9 \u00e0 permettre aux utilisateurs de se concentrer sur des risques sp\u00e9cifiques typiques de l\u2019IA, tels que les biais, l\u2019explicabilit\u00e9 et la robustesse, et \u00e0 aider \u00e0 l\u2019\u00e9laboration des politiques et des r\u00e9glementations, dans la mesure o\u00f9 les caract\u00e9ristiques des syst\u00e8mes d\u2019IA influencent les mesures techniques et proc\u00e9durales n\u00e9cessaires \u00e0 leur mise en \u0153uvre. Pour un exemple plus r\u00e9cent, voir OCDE, \u00ab\u202f<a href=\"https:\/\/doi.org\/10.1787\/2448f04b-en\">Advancing Accountability in AI: Governing and Managing Risks Throughout the Lifecycle for Trustworthy AI<\/a>&nbsp;\u00bb, <em>Documents de travail de l\u2019OCDE sur l\u2019\u00e9conomie num\u00e9rique<\/em>, 2023, n\u00b0\u202f349, p.\u202f69.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote22sym\" href=\"#sdfootnote22anc\">20<\/a> C\u2019est dans ce contexte que s\u2019inscrivent diff\u00e9rentes recommandations et r\u00e9solutions, \u00e0 l\u2019instar de la Recommandation n\u00b0\u202f2102(2017) sur la convergence technologique, l\u2019intelligence artificielle et les droits de l\u2019homme, qui pr\u00e9conise une coop\u00e9ration \u00e9troite avec les institutions de l\u2019Union europ\u00e9enne et l\u2019Organisation des Nations Unies pour l\u2019\u00e9ducation, la science et la culture (Unesco) afin de garantir un cadre juridique coh\u00e9rent et des m\u00e9canismes de supervision efficaces au niveau international.<\/p>\n\n\n\n<p><a id=\"sdfootnote23sym\" href=\"#sdfootnote23anc\">21<\/a> Voir le <a href=\"https:\/\/www.coe.int\/fr\/web\/artificial-intelligence\/cai\">site web<\/a> du Conseil de l\u2019Europe.<\/p>\n\n\n\n<p><a id=\"sdfootnote24sym\" href=\"#sdfootnote24anc\">22<\/a> Article\u202f2 de la convention.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote25sym\" href=\"#sdfootnote25anc\">23<\/a> Parmi lesquels dignit\u00e9 humaine et autonomie personnelle (article&nbsp;7), \u00e9galit\u00e9 et non-discrimination (article&nbsp;10), respect de la vie priv\u00e9e et protection des donn\u00e9es \u00e0 caract\u00e8re personnel (article&nbsp;11), transparence et contr\u00f4le (article&nbsp;8), obligation de rendre des comptes et responsabilit\u00e9 (article&nbsp;9), fiabilit\u00e9 (article&nbsp;12), et innovation s\u00fbre (article&nbsp;13).<\/p>\n\n\n\n<p><a id=\"sdfootnote26sym\" href=\"#sdfootnote26anc\">24<\/a> Voir l\u2019article&nbsp;15 de la Convention-cadre.<\/p>\n\n\n\n<p><a id=\"sdfootnote27sym\" href=\"#sdfootnote27anc\">25<\/a> Voir l\u2019article&nbsp;23 de la Convention-cadre.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote28sym\" href=\"#sdfootnote28anc\">26<\/a> D\u00e9crits \u00e0 l\u2019article&nbsp;26 de la Convention-cadre, qui pr\u00e9voit, \u00e0 son paragraphe\u202f2, que les Parties \u00e0 la Convention-cadre veillent \u00e0 ce que les m\u00e9canismes de contr\u00f4le effectifs exercent leurs fonctions de mani\u00e8re ind\u00e9pendante et impartiale, et \u00e0 ce qu\u2019ils disposent des comp\u00e9tences, de l&rsquo;expertise et des ressources n\u00e9cessaires pour s&rsquo;acquitter efficacement de leur mission de contr\u00f4le du respect des obligations n\u00e9es de la Convention.<\/p>\n\n\n\n<p><a id=\"sdfootnote29sym\" href=\"#sdfootnote29anc\">27<\/a> Communication de la Commission, <em>L\u2019intelligence artificielle pour l\u2019Europe<\/em>, COM(2018) 237 final.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote30sym\" href=\"#sdfootnote30anc\">28<\/a> Communication de la Commission au Parlement europ\u00e9en, au Conseil, au Comit\u00e9 \u00e9conomique et social europ\u00e9en et au Comit\u00e9 des R\u00e9gions, <em>Favoriser une approche europ\u00e9enne en mati\u00e8re d\u2019intelligence artificielle<\/em>, COM(2021) 205 final.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote31sym\" href=\"#sdfootnote31anc\">29<\/a> Communication de la Commission au Parlement europ\u00e9en, au Conseil, au Comit\u00e9 \u00e9conomique et social europ\u00e9en et au Comit\u00e9 des R\u00e9gions, <em>Un plan coordonn\u00e9 dans le domaine de l\u2019intelligence artificielle<\/em>, COM(2018) 795 final.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote32sym\" href=\"#sdfootnote32anc\">30<\/a> Proposition de R\u00e8glement du Parlement europ\u00e9en et du Conseil \u00e9tablissant des r\u00e8gles harmonis\u00e9es concernant l\u2019intelligence artificielle (L\u00e9gislation sur l\u2019intelligence artificielle), COM(2021) 206 final.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote33sym\" href=\"#sdfootnote33anc\">31<\/a> R\u00e8glement (UE) 2024\/1689 du Parlement europ\u00e9en et du Conseil du 13\u202fjuin 2024 \u00e9tablissant des r\u00e8gles harmonis\u00e9es concernant l\u2019intelligence artificielle et modifiant les r\u00e8glements (CE) n\u00b0\u202f300\/2008, (UE) n\u00b0\u202f167\/2013, (UE) n\u00b0\u202f168\/2013, (UE) 2018\/858, (UE) 2018\/1139 et (UE) 2019\/2144 et les directives 2014\/90\/UE, (UE) 2016\/797 et (UE) 2020\/1828 (r\u00e8glement sur l\u2019intelligence artificielle) (<em>JO L<\/em>, 2024\/1689, 12.7.2024).<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote34sym\" href=\"#sdfootnote34anc\">32<\/a> R\u00e8glement (UE) 2016\/679 du Parlement europ\u00e9en et du Conseil du 27\u202favril 2016 relatif \u00e0 la protection des personnes physiques \u00e0 l\u2019\u00e9gard du traitement des donn\u00e9es \u00e0 caract\u00e8re personnel et \u00e0 la libre circulation de ces donn\u00e9es, et abrogeant la directive 95\/46\/CE (R\u00e8glement g\u00e9n\u00e9ral sur la protection des donn\u00e9es)<em>.<\/em><\/p>\n\n\n\n<p><a id=\"sdfootnote35sym\" href=\"#sdfootnote35anc\">33<\/a> M.&nbsp;Heikkil\u00e4, \u00ab\u202f<a href=\"https:\/\/www.technologyreview.com\/2022\/05\/13\/1052\">A Quick Guide to the Most Important AI Law You\u2019ve Never Heard Of<\/a>&nbsp;\u00bb, <em>MIT&nbsp;Technology Review<\/em>, 13\u202fmai 2022.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote36sym\" href=\"#sdfootnote36anc\">34<\/a> D\u00e9cision n\u00b0\u202f768\/2008\/CE du Parlement europ\u00e9en et du Conseil du 9\u202fjuillet 2008 relative \u00e0 un cadre commun pour la commercialisation des produits et abrogeant la d\u00e9cision 93\/465\/CEE du Conseil<em>.<\/em><\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote37sym\" href=\"#sdfootnote37anc\">35<\/a> R\u00e8glement (UE) 2019\/1020 du Parlement europ\u00e9en et du Conseil du 20\u202fjuin 2019 sur la surveillance du march\u00e9 et la conformit\u00e9 des produits, et modifiant la directive 2004\/42\/CE et les r\u00e8glements (CE) n\u00b0\u202f765\/2008 et (UE) n\u00b0\u202f305\/2011.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote38sym\" href=\"#sdfootnote38anc\">36<\/a> L\u2019on retrouve ainsi les m\u00eames caract\u00e9ristiques de la d\u00e9finition de l\u2019IA que celles apparaissant dans la d\u00e9finition de l\u2019OCDE, notamment, l\u2019existence d\u2019objectifs tant explicites qu\u2019implicites influant sur le fonctionnement du syst\u00e8me, l\u2019importance des entr\u00e9es, provenant d\u2019humains ou de la machine elle-m\u00eame, conditionnant les sorties, l\u2019influence mutuelle de la machine sur son environnement, et la capacit\u00e9 d\u2019adaptation des syst\u00e8mes d\u2019IA.<\/p>\n\n\n\n<p><a id=\"sdfootnote39sym\" href=\"#sdfootnote39anc\">37<\/a> Tels que les algorithmes de recommandation de contenu.<\/p>\n\n\n\n<p><a id=\"sdfootnote40sym\" href=\"#sdfootnote40anc\">38<\/a> Et cela malgr\u00e9 la pr\u00e9sence d\u2019une d\u00e9finition des mod\u00e8les d\u2019IA \u00e0 usage g\u00e9n\u00e9ral \u00e9galement mise en avant dans le r\u00e8glement (article&nbsp;3, paragraphe\u202f63, du r\u00e8glement).<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote41sym\" href=\"#sdfootnote41anc\">39<\/a> Voir la liste figurant \u00e0 l\u2019article&nbsp;5 (Titre\u202fII) de l\u2019<em>IA Act<\/em>. S\u2019agissant de la question de notation sociale, voir plus sp\u00e9cifiquement la pr\u00e9sentation du <a href=\"https:\/\/joinhorizons.com\/fr\/introduction-au-systeme-de-credit-social-aux-entreprises-en-chine\/\">syst\u00e8me de cr\u00e9dit social allou\u00e9 aux entreprises et individus mis en \u0153uvre en Chine<\/a>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote42sym\" href=\"#sdfootnote42anc\">40<\/a> Le champ est particuli\u00e8rement large puisque sont vis\u00e9es les l\u00e9gislations sur les machines, les jouets, les navires de plaisance, les ascenseurs, les \u00e9quipements et syst\u00e8mes de protection destin\u00e9s \u00e0 \u00eatre utilis\u00e9s en atmosph\u00e8res explosibles, les installations \u00e0 c\u00e2bles, les dispositifs m\u00e9dicaux, la s\u00fbret\u00e9 de l\u2019aviation civile, la r\u00e9ception et la surveillance du march\u00e9 des v\u00e9hicules \u00e0 deux ou trois roues et des quadricycles, ainsi que des v\u00e9hicules agricoles et forestiers, les \u00e9quipements marins, l\u2019interop\u00e9rabilit\u00e9 du syst\u00e8me ferroviaire, etc.<\/p>\n\n\n\n<p><a id=\"sdfootnote43sym\" href=\"#sdfootnote43anc\">41<\/a> Et qui sont vis\u00e9s \u00e0 l\u2019annexe III du r\u00e8glement.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote44sym\" href=\"#sdfootnote44anc\">42<\/a> L\u2019article&nbsp;7 de l\u2019AI Act permet \u00e9galement \u00e0 la Commission de modifier le contenu de cette liste d\u00e8s lors que les syst\u00e8mes sont susceptibles de porter atteinte aux droits fondamentaux dans les domaines vis\u00e9s.<\/p>\n\n\n\n<p><a id=\"sdfootnote45sym\" href=\"#sdfootnote45anc\">43<\/a> Article\u202f8 du r\u00e8glement.<\/p>\n\n\n\n<p><a id=\"sdfootnote46sym\" href=\"#sdfootnote46anc\">44<\/a> Article\u202f47.<\/p>\n\n\n\n<p><a id=\"sdfootnote47sym\" href=\"#sdfootnote47anc\">45<\/a> Dont le contenu est pr\u00e9cis\u00e9 \u00e0 l\u2019annexe IV.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote48sym\" href=\"#sdfootnote48anc\">46<\/a> Pour une liste des autorit\u00e9s de surveillance du march\u00e9 par pays et par secteur, voir le site de la Commission sur <a href=\"https:\/\/single-market-economy.ec.europa.eu\/single-market\/goods\/building-blocks\/market-surveillance\/organisation_en?prefLang=fr\">la mise en \u0153uvre de la surveillance de march\u00e9 au sein de l\u2019UE<\/a>, section intitul\u00e9e \u00ab\u202fList of national market surveillance authorities&nbsp;\u00bb.<\/p>\n\n\n\n<p><a id=\"sdfootnote49sym\" href=\"#sdfootnote49anc\">47<\/a> Article\u202f74.<\/p>\n\n\n\n<p><a id=\"sdfootnote50sym\" href=\"#sdfootnote50anc\">48<\/a> Article\u202f79.<\/p>\n\n\n\n<p><a id=\"sdfootnote51sym\" href=\"#sdfootnote51anc\">49<\/a> Article\u202f85.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote52sym\" href=\"#sdfootnote52anc\">50<\/a> Voir, \u00e0 cet \u00e9gard, CJUE, 6\u202foctobre 2015, <em>Schrems<\/em>, aff. C\u2011362\/14\u2009; M.&nbsp;Veale et F.&nbsp;Zuiderveen Borgesius, \u00ab\u202fDemystifying the Draft EU Artificial Intelligence Act&nbsp;\u00bb, <em>Computer Law Review International<\/em>, 2021, vol. 22, n\u00b0 4, p.&nbsp;97-112, p. 111.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote53sym\" href=\"#sdfootnote53anc\">51<\/a> Voir, \u00e0 cet \u00e9gard, s\u2019agissant de l\u2019\u00e9tablissement automatis\u00e9 d\u2019une valeur de probabilit\u00e9 concernant la capacit\u00e9 d\u2019une personne \u00e0 honorer des engagements de paiement \u00e0 l\u2019avenir (\u00ab\u202fscoring&nbsp;\u00bb) et son acceptabilit\u00e9 au regard du r\u00e8glement g\u00e9n\u00e9ral sur la protection des donn\u00e9es (R\u00e8glement (UE) 2016\/679), arr\u00eat du 7 d\u00e9cembre 2013, SCHUFA Holding AG, C\u2011634\/21, ECLI:EU:C:2023:957.<\/p>\n\n\n\n<p><a id=\"sdfootnote54sym\" href=\"#sdfootnote54anc\">52<\/a> Voir M.&nbsp;Veale et F.&nbsp;Zuiderveen Borgesius, \u00ab\u202fDemystifying the Draft EU Artificial Intelligence Act&nbsp;\u00bb, art.&nbsp;cit. p. 105.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote55sym\" href=\"#sdfootnote55anc\">53<\/a> Le groupe de r\u00e9flexion <a href=\"https:\/\/www.bruegel.org\/dataset\/dataset-eu-legislation-digital-world\">Bruegel<\/a> a publi\u00e9 \u00e0 cet \u00e9gard un <a href=\"https:\/\/www.bruegel.org\/system\/files\/2024-06\/Bruegel_factsheet_2024_0.pdf\">recensement des textes l\u00e9gislatifs en vigueur dans le domaine du num\u00e9rique<\/a>, qu\u2019ils chiffrent au nombre de 116 (77 textes l\u00e9gislatifs, 29 projets de textes, et 10 initiatives pr\u00e9vues). Les actes en cause concernent principalement (1) la recherche et l&rsquo;innovation\u2009; (2) la politique industrielle\u2009; (3) la connectivit\u00e9\u2009; (4) les donn\u00e9es et la confidentialit\u00e9\u2009; (5) les droits de propri\u00e9t\u00e9 intellectuelle (DPI)\u2009; (6) la cybers\u00e9curit\u00e9\u2009; (7) le maintien de l\u2019ordre et de la s\u00e9curit\u00e9\u2009; (8) surveillance du march\u00e9\u2009; (9) le commerce \u00e9lectronique et la protection des consommateurs\u2009; (10)&nbsp;la&nbsp;concurrence, (11) les m\u00e9dias\u2009; et (12) les finances. Il est possible que tout ou partie de ces textes se recoupent avec les dispositions de l\u2019AI Act, ce qu\u2019il conviendra d\u2019examiner au cas par cas.<\/p>\n\n\n\n<p><a id=\"sdfootnote56sym\" href=\"#sdfootnote56anc\">54<\/a> \u00ab\u202f<a href=\"https:\/\/www.gov.uk\/government\/publications\/ai-regulation-a-pro-innovation-approach\/white-paper#executive-summary\">A pro-innovation approach to AI regulation&nbsp;<\/a>\u202f\u00bb, en date 29 mars 2023.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote57sym\" href=\"#sdfootnote57anc\">55<\/a> Les objectifs affich\u00e9s par le gouvernement britannique par le biais de ce nouveau cadre r\u00e8glementaire sont\u2009: la stimulation de la croissance en facilitant l\u2019innovation et en r\u00e9duisant l\u2019incertitude gr\u00e2ce \u00e0 l\u2019application d\u2019un cadre r\u00e9glementaire\u2009; l\u2019accroissement de la confiance du public dans l\u2019usage de l\u2019IA\u2009; la promotion des investissements au Royaume-Uni dans le domaine de l\u2019IA par une approche souple et capable d\u2019int\u00e9gration avec d\u2019autres cadres r\u00e8glementaires au niveau mondial. Il est permis de se demander dans quelle mesure cette initiative repr\u00e9sente une tentative du gouvernement britannique de tirer parti d\u2019un cadre r\u00e8glementaire plus souple que celui en d\u00e9veloppement au niveau de l\u2019Union europ\u00e9enne, pour \u00e9tablir un avantage comparatif en sa faveur.<\/p>\n\n\n\n<p><a id=\"sdfootnote58sym\" href=\"#sdfootnote58anc\">56<\/a> Voir la section\u202fIII.2.1 du <em>White Paper<\/em> intitul\u00e9e \u00ab\u202fDefining Artificial Intelligence&nbsp;\u00bb.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote59sym\" href=\"#sdfootnote59anc\">57<\/a> Par exemple, dans le domaine de la sant\u00e9, de fa\u00e7on \u00e0 \u00e9tablir un diagnostic plus pr\u00e9cis. Il peut par ailleurs y avoir un co\u00fbt d\u2019opportunit\u00e9 important li\u00e9 au fait de ne pas avoir acc\u00e8s \u00e0&nbsp;l\u2019IA&nbsp;dans les op\u00e9rations critiques pour la s\u00e9curit\u00e9, depuis l\u2019industrie lourde&nbsp;jusqu\u2019aux logiciels de reconnaissance faciale utilis\u00e9es par les forces de l\u2019ordre dans des contextes tels que les grandes rencontres sportives, qui peuvent \u00eatre aptes \u00e0 d\u00e9g\u00e9n\u00e9rer dans la violence.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote60sym\" href=\"#sdfootnote60anc\">58<\/a> \u00c0 titre d\u2019exemple, le <a href=\"https:\/\/www.gov.uk\/government\/publications\/establishing-a-pro-innovation-approach-to-regulating-ai\/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement\">Policy Paper<\/a> de juillet\u202f2022, intitul\u00e9 \u00ab\u202fEstablishing a pro-innovation approach to regulating AI&nbsp;\u00bb, rappelle que certaines autorit\u00e9s de r\u00e9gulation britanniques sont d\u00e9j\u00e0 actives dans le domaine de l\u2019IA.&nbsp;Ainsi, le Bureau du commissaire \u00e0 l&rsquo;information (Information Commissioner\u2019s Office) a publi\u00e9 plusieurs documents d&rsquo;orientation, tels que des lignes directrices sur l&rsquo;IA et la protection des donn\u00e9es\u2009; la Commission pour l&rsquo;\u00e9galit\u00e9 et les droits de l&rsquo;homme (Equality and Human Rights Commission) s&rsquo;est engag\u00e9e \u00e0 fournir des orientations sur la mani\u00e8re dont la loi sur l&rsquo;\u00e9galit\u00e9 s&rsquo;applique \u00e0 l&rsquo;utilisation des nouvelles technologies, telles que l&rsquo;IA, dans la prise de d\u00e9cision automatis\u00e9e\u2009; l&rsquo;Agence de r\u00e9glementation des m\u00e9dicaments et des produits de sant\u00e9 (Medicines and Healthcare products Regulatory Agency) a men\u00e9 des consultations sur d&rsquo;\u00e9ventuelles modifications du cadre r\u00e9glementaire pertinent pour garantir que les exigences de ce cadre fournissent un degr\u00e9 \u00e9lev\u00e9 d&rsquo;assurance que les dispositifs m\u00e9dicaux pr\u00e9sentent un degr\u00e9 de s\u00fbret\u00e9 acceptable\u2009; et l\u2019Agence responsable de la sant\u00e9 et de la s\u00e9curit\u00e9 (Health and Safety Executive) s&rsquo;est engag\u00e9e \u00e0 entamer des recherches collaboratives avec l&rsquo;industrie et le monde universitaire, afin d\u2019arriver \u00e0 une d\u00e9termination claire des implications de l&rsquo;IA sur la sant\u00e9 et la s\u00e9curit\u00e9 sur le lieu de travail. Il est \u00e0 noter que les diff\u00e9rentes autorit\u00e9s de r\u00e9gulation nationales britanniques sont recens\u00e9es plus largement sur <a href=\"https:\/\/en.wikipedia.org\/wiki\/List_of_regulators_in_the_United_Kingdom\">Wikip\u00e9dia<\/a>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote61sym\" href=\"#sdfootnote61anc\">59<\/a> C\u2019est-\u00e0-dire lorsque le calendrier l\u00e9gislatif le permettra \u2013 voir la section\u202fIII.2.4. du <em>White Paper<\/em>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote62sym\" href=\"#sdfootnote62anc\">60<\/a> Cette approche n\u2019est pas sans rappeler la cr\u00e9ation du Comit\u00e9 europ\u00e9en de l\u2019intelligence artificielle pr\u00e9vue dans l\u2019AI Actpropos\u00e9 par la Commission europ\u00e9enne.<\/p>\n\n\n\n<p><a id=\"sdfootnote63sym\" href=\"#sdfootnote63anc\">61<\/a> Voir, \u00e0 cet \u00e9gard, A.&nbsp;McAfee, \u00ab\u202f<a href=\"https:\/\/geekway.substack.com\/p\/european-competitiveness-and-how\">European Competitiveness, and How Not to Fix It&nbsp;<\/a>\u202f\u00bb.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote64sym\" href=\"#sdfootnote64anc\">62<\/a> Elles disposent en effet de comp\u00e9tences, g\u00e9n\u00e9ralement attribu\u00e9es aux organes l\u00e9gislatifs, puisqu\u2019elles peuvent proc\u00e9der \u00e0 des missions d\u2019enqu\u00eate et recueillir des donn\u00e9es, afin d\u2019exercer ensuite leurs fonctions r\u00e8glementaires, tout en ayant la possibilit\u00e9, classiquement octroy\u00e9e aux tribunaux, de r\u00e9gler de fa\u00e7on casuistique les difficult\u00e9s \u00e0 m\u00eame de surgir dans la mise en \u0153uvre concr\u00e8te des syst\u00e8mes d\u2019IA.&nbsp;Voir J.&nbsp;M.&nbsp;Landis, <em>The Administrative Process<\/em>, Yale University Press, 1938, p.\u202f22, cit\u00e9 in M.&nbsp;U.&nbsp;Scherer, \u00ab\u202fRegulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies&nbsp;\u00bb, art.&nbsp;cit., p.\u202f382.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote65sym\" href=\"#sdfootnote65anc\">63<\/a> \u00c0 cet \u00e9gard, il importe en outre de garder en t\u00eate que le nouvel AI Act fait partie d\u2019une panoplie de r\u00e8glementations europ\u00e9ennes affectant le domaine du num\u00e9rique. L\u2019on pensera ainsi au Digital Markets&nbsp;Act, au Digital Services Act, au Data Act et au Data Governance Act, parmi bien d\u2019autres initiatives affectant ce domaine.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote66sym\" href=\"#sdfootnote66anc\">64<\/a> M.&nbsp;U.&nbsp;Scherer, \u00ab\u202fRegulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies&nbsp;\u00bb, art.&nbsp;cit., p.\u202f393.<\/p>\n\n\n\n<p><a id=\"sdfootnote67sym\" href=\"#sdfootnote67anc\">65<\/a> Voir <em>supra<\/em> note 5.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote68sym\" href=\"#sdfootnote68anc\">66<\/a> Voir A.&nbsp;Ezrachi et M.E.&nbsp;Stucke, \u00ab\u202fArtificial Intelligence &amp; Collusion: When Computers Inhibit Competition&nbsp;\u00bb, <em>University of Illinois Law Review<\/em>, 2017, vol. 2017, p. 1775\u2009; A.&nbsp;Ezrachi et M.E.&nbsp;Stucke, <em>Virtual Competition: The Promises and Perils of the Algorithm-Driven Economy, <\/em>Harvard University Press, 2016.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote69sym\" href=\"#sdfootnote69anc\">67<\/a> Ainsi le Comit\u00e9 des ministres du Conseil de l\u2019Europe a pu invoquer \u00ab\u202fla n\u00e9cessit\u00e9 de maintenir une collaboration \u00e9troite avec les autres organisations internationales et d\u2019autres parties prenantes afin d\u2019\u00e9changer des bonnes pratiques et de faire en sorte que le cadre juridique international soit aussi coh\u00e9rent que possible&nbsp;\u00bb (Comit\u00e9 des ministres, <em>La convergence technologique, l\u2019intelligence artificielle et les droits de l\u2019homme<\/em>, adopt\u00e9e \u00e0 la 1\u2009297<sup>e<\/sup> r\u00e9union des D\u00e9l\u00e9gu\u00e9s des ministres, 17 octobre 2017).<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote70sym\" href=\"#sdfootnote70anc\">68<\/a> En vertu de ce principe, \u00ab\u202fles pouvoirs publics devraient coop\u00e9rer au niveau transnational et entre les diff\u00e9rents secteurs d\u2019activit\u00e9 afin de partager les connaissances, de d\u00e9velopper des standards techniques et de progresser vers une approche responsable en mati\u00e8re d\u2019IA&nbsp;\u00bb. OCDE, R\u00e9union du Conseil au niveau des ministres, 22-23 mai 2019, <em>Recommandation du Conseil sur l\u2019Intelligence Artificielle<\/em>, C\/MIN(2019)3\/FINAL.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote71sym\" href=\"#sdfootnote71anc\">69<\/a> Voir S.&nbsp;Chesterman, <em>We, the Robots? Regulating Artificial Intelligence and the Limits of the Law<\/em>, Cambridge University Press, 2022, spec. le chapitre 8, \u00ab\u202fNew Institutions\u202f\u00bb, p. 195-223.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote72sym\" href=\"#sdfootnote72anc\">70<\/a> <em>EU-US Trade and Technology Council Joint Roadmap on Evaluation and Measurement Tools for Trustworthy AI and Risk Management<\/em>, 1<sup>er<\/sup>&nbsp;d\u00e9cembre 2022.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote73sym\" href=\"#sdfootnote73anc\">71<\/a> Voir le <a href=\"https:\/\/gpai.ai\/\">site web<\/a> du GPIA et le <a href=\"https:\/\/www.diplomatie.gouv.fr\/IMG\/pdf\/joint_statement_on_launch_of_gpai_-_final_-_june.15_740am_ottawa_3__cle0bd63e.pdf\">Joint Statement from Founding Members of the Global Partnership on Artificial Intelligence<\/a>, 15 juin 2020.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote74sym\" href=\"#sdfootnote74anc\">72<\/a> Ainsi qu\u2019il ressort de son Article 30. L\u2019article&nbsp;31 pr\u00e9voit encore la possibilit\u00e9 pour d\u2019autres \u00e9tats d\u2019adh\u00e9rer ult\u00e9rieurement \u00e0 la convention.<\/p>\n\n\n\n<p><a id=\"sdfootnote75sym\" href=\"#sdfootnote75anc\">73<\/a> The <a href=\"https:\/\/www.gov.uk\/government\/publications\/ai-safety-summit-2023-the-bletchley-declaration\/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023\">Bletchley Declaration<\/a> by Countries Attending the AI Safety Summit, 1<sup>er<\/sup>-2 novembre 2023.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><a id=\"sdfootnote76sym\" href=\"#sdfootnote76anc\">74<\/a> Voir r\u00e9solution A\/78\/L.&nbsp;49 du 11 mars 2024, intitul\u00e9e \u00ab\u202f<a href=\"https:\/\/documents.un.org\/doc\/undoc\/ltd\/n24\/065\/93\/pdf\/n2406593.pdf\">Saisir les possibilit\u00e9s offertes par des syst\u00e8mes d\u2019intelligence artificielle s\u00fbrs, s\u00e9curis\u00e9s et dignes de confiance pour le d\u00e9veloppement durable<\/a>&nbsp;\u00bb.<\/p>\n\n\n\n<p><a id=\"sdfootnote77sym\" href=\"#sdfootnote77anc\">75<\/a> [<a href=\"https:\/\/unfccc.int\/sites\/default\/files\/resource\/docs\/french\/cop3\/kpfrench.pdf\">https:\/\/unfccc.int\/sites\/default\/files\/resource\/docs\/french\/cop3\/kpfrench.pdf<\/a>].<\/p>\n\n\n\n<p><a id=\"sdfootnote78sym\" href=\"#sdfootnote78anc\">76<\/a> [<a href=\"https:\/\/unfccc.int\/sites\/default\/files\/french_paris_agreement.pdf\">https:\/\/unfccc.int\/sites\/default\/files\/french_paris_agreement.pdf<\/a>].<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<div class=\"wp-block-file\"><a id=\"wp-block-file--media-3f4b24fa-8055-4db8-84aa-ebd3ce6c0240\" href=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Regulation-intelligence-artificielle_approches-internationales-et-britannique_N.-Cambien-D.-Newton_12-24.pdf\">Regulation-intelligence-artificielle_approches-internationales-et-britannique_N.-Cambien-D.-Newton_12-24<\/a><a href=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/Regulation-intelligence-artificielle_approches-internationales-et-britannique_N.-Cambien-D.-Newton_12-24.pdf\" class=\"wp-block-file__button wp-element-button\" download aria-describedby=\"wp-block-file--media-3f4b24fa-8055-4db8-84aa-ebd3ce6c0240\"><\/a><\/div>\n\n\n\n<p class=\"has-text-align-justify has-background\" style=\"background-color:#ededed\">Nathan Cambien et David Newton, \u00ab&nbsp;La r\u00e9gulation de l\u2019intelligence artificielle&nbsp;: approches internationales et britannique&nbsp;\u00bb, La r\u00e9gulation internationale de l\u2019IA [Dossier], <em>Confluence des droits_La&nbsp;revue<\/em> [En&nbsp;ligne], 12&nbsp;|&nbsp;2024, mis en ligne le 18 d\u00e9cembre 2024. URL&nbsp;: <a href=\"https:\/\/confluencedesdroits-larevue.com\/&nbsp;?p&nbsp;=3678\">https:\/\/confluencedesdroits-larevue.com\/&nbsp;?p&nbsp;=3678<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nathan Cambien, Professeur, Universit\u00e9 d\u2019Anvers et membre du Service Juridique, Commission europ\u00e9enne | David Newton, Anciennement r\u00e9f\u00e9rendaire \u00e0 la Cour de Justice de l\u2019Union europ\u00e9enne, actuellement membre du Service Juridique de la Cour des comptes europ\u00e9enne<\/p>\n","protected":false},"author":2,"featured_media":3740,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","footnotes":"[]"},"categories":[5,3,13],"tags":[172,177,171,173,175,166,176,170,174,103],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v21.0 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique - Confluence des droits_La revue<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/confluencedesdroits-larevue.com\/?p=3678\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique - Confluence des droits_La revue\" \/>\n<meta property=\"og:description\" content=\"Nathan Cambien, Professeur, Universit\u00e9 d\u2019Anvers et membre du Service Juridique, Commission europ\u00e9enne | David Newton, Anciennement r\u00e9f\u00e9rendaire \u00e0 la Cour de Justice de l\u2019Union europ\u00e9enne, actuellement membre du Service Juridique de la Cour des comptes europ\u00e9enne\" \/>\n<meta property=\"og:url\" content=\"https:\/\/confluencedesdroits-larevue.com\/?p=3678\" \/>\n<meta property=\"og:site_name\" content=\"Confluence des droits_La revue\" \/>\n<meta property=\"article:published_time\" content=\"2024-12-20T14:53:10+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-05-22T12:37:50+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/IA-03.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1080\" \/>\n\t<meta property=\"og:image:height\" content=\"791\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"DICE \u00c9ditions\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"DICE \u00c9ditions\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"47 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/?p=3678#article\",\"isPartOf\":{\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/?p=3678\"},\"author\":{\"name\":\"DICE \u00c9ditions\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/person\/5c2bef570684d183d7f5a81e4107304c\"},\"headline\":\"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique\",\"datePublished\":\"2024-12-20T14:53:10+00:00\",\"dateModified\":\"2025-05-22T12:37:50+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/?p=3678\"},\"wordCount\":10588,\"publisher\":{\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#organization\"},\"keywords\":[\"AI Act\",\"autorit\u00e9s de r\u00e9gulation sectorielles\",\"autorit\u00e9s de surveillance du march\u00e9\",\"d\u00e9finition\",\"initiative britannique\",\"intelligence artificielle\",\"organisation de coop\u00e9ration et de d\u00e9veloppement \u00e9conomiques (OCDE)\",\"principes\",\"r\u00e9gulation\",\"Union europ\u00e9enne\"],\"articleSection\":[\"Actu\",\"Articles\",\"Dossier\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/?p=3678\",\"url\":\"https:\/\/confluencedesdroits-larevue.com\/?p=3678\",\"name\":\"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique - Confluence des droits_La revue\",\"isPartOf\":{\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#website\"},\"datePublished\":\"2024-12-20T14:53:10+00:00\",\"dateModified\":\"2025-05-22T12:37:50+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/?p=3678#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/confluencedesdroits-larevue.com\/?p=3678\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/?p=3678#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/confluencedesdroits-larevue.com\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#website\",\"url\":\"https:\/\/confluencedesdroits-larevue.com\/\",\"name\":\"Confluence des droits_La revue\",\"description\":\"UMR 7318 Droits International, Compar\u00e9 et Europ\u00e9en\",\"publisher\":{\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/confluencedesdroits-larevue.com\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#organization\",\"name\":\"Confluence des droits_La revue\",\"url\":\"https:\/\/confluencedesdroits-larevue.com\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/05\/Confluence-des-droits_La-revue.png\",\"contentUrl\":\"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/05\/Confluence-des-droits_La-revue.png\",\"width\":3934,\"height\":613,\"caption\":\"Confluence des droits_La revue\"},\"image\":{\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/logo\/image\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/person\/5c2bef570684d183d7f5a81e4107304c\",\"name\":\"DICE \u00c9ditions\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/c7dfd2401bef8b8be87ab2a215ca0435?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/c7dfd2401bef8b8be87ab2a215ca0435?s=96&d=mm&r=g\",\"caption\":\"DICE \u00c9ditions\"},\"url\":\"https:\/\/confluencedesdroits-larevue.com\/?author=2\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique - Confluence des droits_La revue","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/confluencedesdroits-larevue.com\/?p=3678","og_locale":"fr_FR","og_type":"article","og_title":"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique - Confluence des droits_La revue","og_description":"Nathan Cambien, Professeur, Universit\u00e9 d\u2019Anvers et membre du Service Juridique, Commission europ\u00e9enne | David Newton, Anciennement r\u00e9f\u00e9rendaire \u00e0 la Cour de Justice de l\u2019Union europ\u00e9enne, actuellement membre du Service Juridique de la Cour des comptes europ\u00e9enne","og_url":"https:\/\/confluencedesdroits-larevue.com\/?p=3678","og_site_name":"Confluence des droits_La revue","article_published_time":"2024-12-20T14:53:10+00:00","article_modified_time":"2025-05-22T12:37:50+00:00","og_image":[{"width":1080,"height":791,"url":"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/12\/IA-03.jpg","type":"image\/jpeg"}],"author":"DICE \u00c9ditions","twitter_card":"summary_large_image","twitter_misc":{"\u00c9crit par":"DICE \u00c9ditions","Dur\u00e9e de lecture estim\u00e9e":"47 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/confluencedesdroits-larevue.com\/?p=3678#article","isPartOf":{"@id":"https:\/\/confluencedesdroits-larevue.com\/?p=3678"},"author":{"name":"DICE \u00c9ditions","@id":"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/person\/5c2bef570684d183d7f5a81e4107304c"},"headline":"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique","datePublished":"2024-12-20T14:53:10+00:00","dateModified":"2025-05-22T12:37:50+00:00","mainEntityOfPage":{"@id":"https:\/\/confluencedesdroits-larevue.com\/?p=3678"},"wordCount":10588,"publisher":{"@id":"https:\/\/confluencedesdroits-larevue.com\/#organization"},"keywords":["AI Act","autorit\u00e9s de r\u00e9gulation sectorielles","autorit\u00e9s de surveillance du march\u00e9","d\u00e9finition","initiative britannique","intelligence artificielle","organisation de coop\u00e9ration et de d\u00e9veloppement \u00e9conomiques (OCDE)","principes","r\u00e9gulation","Union europ\u00e9enne"],"articleSection":["Actu","Articles","Dossier"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/confluencedesdroits-larevue.com\/?p=3678","url":"https:\/\/confluencedesdroits-larevue.com\/?p=3678","name":"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique - Confluence des droits_La revue","isPartOf":{"@id":"https:\/\/confluencedesdroits-larevue.com\/#website"},"datePublished":"2024-12-20T14:53:10+00:00","dateModified":"2025-05-22T12:37:50+00:00","breadcrumb":{"@id":"https:\/\/confluencedesdroits-larevue.com\/?p=3678#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/confluencedesdroits-larevue.com\/?p=3678"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/confluencedesdroits-larevue.com\/?p=3678#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/confluencedesdroits-larevue.com\/"},{"@type":"ListItem","position":2,"name":"Nathan Cambien, David Newton \u2013 La r\u00e9gulation de\u00a0l\u2019intelligence artificielle\u00a0: approches internationales et\u00a0britannique"}]},{"@type":"WebSite","@id":"https:\/\/confluencedesdroits-larevue.com\/#website","url":"https:\/\/confluencedesdroits-larevue.com\/","name":"Confluence des droits_La revue","description":"UMR 7318 Droits International, Compar\u00e9 et Europ\u00e9en","publisher":{"@id":"https:\/\/confluencedesdroits-larevue.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/confluencedesdroits-larevue.com\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/confluencedesdroits-larevue.com\/#organization","name":"Confluence des droits_La revue","url":"https:\/\/confluencedesdroits-larevue.com\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/logo\/image\/","url":"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/05\/Confluence-des-droits_La-revue.png","contentUrl":"https:\/\/confluencedesdroits-larevue.com\/wp-content\/uploads\/2024\/05\/Confluence-des-droits_La-revue.png","width":3934,"height":613,"caption":"Confluence des droits_La revue"},"image":{"@id":"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/person\/5c2bef570684d183d7f5a81e4107304c","name":"DICE \u00c9ditions","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/confluencedesdroits-larevue.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/c7dfd2401bef8b8be87ab2a215ca0435?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/c7dfd2401bef8b8be87ab2a215ca0435?s=96&d=mm&r=g","caption":"DICE \u00c9ditions"},"url":"https:\/\/confluencedesdroits-larevue.com\/?author=2"}]}},"post_mailing_queue_ids":[],"_links":{"self":[{"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=\/wp\/v2\/posts\/3678"}],"collection":[{"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3678"}],"version-history":[{"count":26,"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=\/wp\/v2\/posts\/3678\/revisions"}],"predecessor-version":[{"id":4203,"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=\/wp\/v2\/posts\/3678\/revisions\/4203"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=\/wp\/v2\/media\/3740"}],"wp:attachment":[{"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3678"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3678"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/confluencedesdroits-larevue.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3678"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}