La Mouette déchainée
                             Réactions, enquêtes, déclarations...

                                 









Toutes les news
c'est ici




Contact


Vos réactions, vos commentaires


Abonner un(e) ami(e)

Vous abonner

Qui sommes nous
?


03.03.2024 - N° 1.558

AI Act : en Europe,
l’intelligence artificielle sera éthique

4 minutes de lecture
Derniers commentaires parus :
A lire ici
Vous aussi, faites nous part de vos commentaires, de vos
réactions, de vos témoignages... nous pourrons les publier.
cliquez ici

Par William Letrone

William Letrone est docteur en Droit spécialisé dans les questions juridiques liées aux menaces cyber, en particulier de la désinformation en ligne.
Il a étudié à la faculté de droit de l'Université Grenoble-Alpes et à la Graduate School of International Cooperation Studies de l'Université de Kobé, au Japon.



Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’UE est résolue à montrer l’exemple avec son AI Act.

Le vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’Union européenne est résolue à montrer l’exemple avec son AI Act. Le texte, dont certaines modalités de mise en œuvre restent encore à préciser, peut-il seulement s’imposer en tant que référence ?

L’intelligence artificielle, un enjeu économique, stratégique… et règlementaire

L’intelligence artificielle revêt un aspect stratégique de premier ordre. La technologie fait l’objet d’une compétition internationale effrénée dont les enjeux touchent aussi bien aux questions économiques que militaires et sociales, avec, bien sûr, des implications conséquentes en termes de puissance et de souveraineté. Dans un tel contexte, une nation qui passerait à côté de la révolution de l’IA se mettrait en grande difficulté.

Rapidement, la question de la réglementation de l’IA est devenue un sujet de préoccupation majeur pour les États. Et pour cause, les risques liés à l’IA, notamment en matière de vie privée, de pertes d’emplois, de concentration de la puissance de calcul et de captation de la recherche, sont considérables. Des inquiétudes dont les participants à l’édition 2024 du Forum économique mondial de Davos se sont d’ailleurs récemment fait l’écho.

En effet, bien que des régimes existants, comme les règles sur la protection des droits d’auteur, la protection des consommateurs, ou la sécurité des données personnelles concernent l’IA, il n’existe à ce jour pas de cadre juridique spécifique à la technologie en droit international. De plus, beaucoup de doutes subsistent quant à la façon dont les règles pertinentes déjà existantes s’appliqueraient en pratique. Face à l’urgence, plusieurs États se sont donc attelés à clarifier leurs propres réglementations, certains explorant la faisabilité d’un cadre réglementaire spécifiquement dédié à la technologie.

Dans la sphère domestique comme à l’international, les initiatives se succèdent pour dessiner les contours d’un cadre juridique pour l’IA. C’est dans ce contexte que l’Union européenne entend promouvoir sa vision de la règlementation articulée autour de règles contraignantes centrées sur la protection des droits fondamentaux.

Un risque de marginalisation potentiel

Le Plan coordonné dans le domaine de l’intelligence artificielle publié en 2018, et mis à jour en 2021, trace les grandes orientations de l’approche de l’Union européenne. Celui-ci vise à faire de l’Union européenne la pionnière des IA « légales », « éthiques » et « robustes » dans le monde, et introduit le concept d’« IA digne de confiance » ou trustworthy AI. Proposé en avril 2021 par la Commission européenne, le fameux AI Act est une étape décisive vers cet objectif.

L’IA Act classe les systèmes d’intelligence artificielle en fonction des risques associés à leur usage. Ainsi, l’étendue des obligations planant sur les fournisseurs de solutions d’IA est proportionnelle au risque d’atteinte aux droits fondamentaux. De par son caractère général, l’approche européenne se distingue de la plupart des approches existantes, qui, jusqu’alors, demeurent sectorielles.

Parmi les grands axes du texte figurent l’interdiction de certains usages comme l’utilisation de l’IA à des fins de manipulation de masse, et les systèmes d’IA permettant un crédit social. Les modèles dits « de fondation », des modèles particulièrement puissants pouvant servir une multitude d’applications, font l’objet d’une attention particulière. En fonction de leur taille, ces modèles pourraient être considérés à « haut risque, » une dénomination se traduisant par des obligations particulières en matière de transparence, de sécurité et de supervision humaine.

Certains États membres, dont la France, se sont montrés particulièrement réticents à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Il faut dire que l’Union européenne fait pâle figure à côté des deux géants que sont les États-Unis et la Chine. Ses deux plus gros investisseurs en IA, la France et l’Allemagne, ne rassemblent qu’un dixième des investissements chinois. Bien qu’un compromis ait été obtenu, il est clair que la phase d’implémentation sera décisive pour juger de la bonne volonté des signataires.

À première vue, le AI Act semble donc tomber comme un cheveu sur la soupe. Il convient néanmoins de ne pas réduire la conversation au poncif selon lequel la règlementation nuirait à l’innovation.

L’ambition d’incarner un modèle

Le projet de règlementer l’IA n’est pas une anomalie, en témoigne la flopée d’initiatives en cours. En revanche, l’IA Act se démarque par son ambition.

À l’instar du RGPD, le AI Act procède de la volonté de l’Union européenne de proposer une alternative aux modèles américains et chinois. Ainsi, à l’heure où les cultures technologiques et réglementaires chinoises et américaines sont régulièrement présentées comme des extrêmes, le modèle prôné par l’Union européenne fait figure de troisième voie. Plusieurs organismes de l’industrie créative avaient d’ailleurs appelé les États membres à approuver le texte la veille du vote, alors que la réticence de Paris faisait planer le doute quant à son adoption. Cet appel n’est pas anodin et rejoint les voix de nombreux juristes et organismes indépendants.

Compte tenu des inquiétudes, il est clair que l’idée d’une IA éthique et respectueuse des droits fondamentaux est vendeuse, et serait un moyen de gagner la loyauté des consommateurs. Notons d’ailleurs que huit multinationales du digital se sont récemment engagées à suivre les recommandations de l’UNESCO en matière d’IA éthique.

L’initiative se démarque aussi par sa portée. Juridiquement, le AI Act a vocation à s’appliquer aux 27 États membres sans besoin de transposition en droit interne. Le texte aura des effets extraterritoriaux, c’est-à-dire que certains fournisseurs étrangers pourront quand même être soumis aux dispositions du règlement si leurs solutions ont vocation à être utilisées dans l’Union.

Politiquement, le AI Act est aussi un indicateur d’unité européenne, à l’heure où le projet de Convention pour l’IA du Conseil de l’Europe (qui englobe un plus grand nombre d’États) peine à avancer. Mais peut-on seulement parler de référence ? Le choix de centrer la règlementation de l’IA sur la protection des droits de l’Homme est louable, et distingue l’Union des autres acteurs. Elle en poussera sans doute certains à légiférer dans ce sens. Néanmoins, des ambiguïtés subsistent sur son application.

Ainsi, pour que l’AI Act devienne une référence, l’Union européenne et ses membres doivent pleinement assumer la vision pour laquelle ils ont signé.
ela impliquera avant tout de ne pas céder trop de terrains aux industriels
lors de son implémentation.



Faites nous part de vos commentaires, de vos réactions,
de vos témoignages... nous pourrons les publier.

______________












Qui sommes-nous ?

Nous écoutons, nous lisons, nous regardons...

C'est parfois un peu ardu, et les news peuvent demander de l'attention.
Mais elle sont souvent remarquables !


Nous vous proposons cet article afin d'élargir votre champ de réflexion et nourrir celle-ci.
Cela ne signifie pas forcément que nous approuvions la vision développée ici.


Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs,
et encore moins par ceux qu'il pourrait tenir dans le futur.

Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur
qui pourrait nuire à sa réputation.


Bien sûr, vos commentaires sont très attendus.


   L'équipe de La Mouette déchaînée.