PandIA is now for sale. For inquiries, please contact us.

PandIA

L'Acte sur l'IA de l'UE cible les logiciels open source américains

L'Acte sur l'IA de l'UE cible les logiciels open source américains
L'Acte sur l'IA de l'UE cible les logiciels open source américains

Un coup dur pour les entreprises américaines

Dans une démarche audacieuse, l'Acte sur l'IA modifié de l'UE interdirait aux entreprises américaines comme OpenAI, Amazon, Google et IBM de fournir un accès API aux modèles d'IA génératifs. Cet acte modifié, adopté en commission jeudi dernier, sanctionnerait les développeurs open source et les distributeurs de logiciels américains, tels que GitHub, si des modèles génératifs non licenciés devenaient disponibles en Europe. Bien que l'acte prévoit des exceptions pour les modèles de machine learning traditionnels en open source, il interdit expressément les dispositions de refuge sûr pour les systèmes génératifs en open source.

Des sanctions financières massives en perspective

Tout modèle mis à disposition dans l'UE, sans avoir d'abord passé un processus de licence étendu et coûteux, exposerait les entreprises à de lourdes amendes allant jusqu'à 20 000 000 € ou 4% du chiffre d'affaires mondial. Les développeurs en open source et les services d'hébergement tels que GitHub - en tant qu'importateurs - seraient responsables de la mise à disposition de modèles non licenciés. L'UE ordonne, en somme, aux grandes entreprises technologiques américaines de mettre hors d'affaires les petites entreprises américaines - et menace de sanctionner des éléments importants de l'écosystème technologique américain.

Quelles conséquences pour les acteurs américains de l'IA ?

Si cette loi est promulguée, son application ne relèverait plus des États membres de l'UE. Selon l'Acte sur l'IA, des tiers pourraient poursuivre les gouvernements nationaux pour les contraindre à imposer des amendes. L'acte a une juridiction extraterritoriale. Un gouvernement européen pourrait être contraint par des tiers à chercher des conflits avec les développeurs et les entreprises américains.

Provisions principales de l'Acte sur l'IA

Juridiction très large : L'acte inclut les "fournisseurs et utilisateurs de systèmes d'IA qui ont leur siège ou sont situés dans un pays tiers, lorsque la loi d'un État membre s'applique en vertu du droit international public ou lorsque le résultat produit par le système est destiné à être utilisé dans l'Union." (pg 68-69).

Enregistrement obligatoire des projets d'IA "à haut risque" : Les projets devront enregistrer les fonctionnalités anticipées de leurs systèmes. Les systèmes qui dépassent ces fonctionnalités pourraient être sujets à un rappel. Ce sera un problème pour de nombreux projets open source plus anarchiques. L'enregistrement nécessitera également la divulgation des sources de données utilisées, des ressources informatiques (y compris le temps passé à la formation), des benchmarks de performance, et du red teaming. (pg 23-29).

Tests de risque coûteux requis : Apparemment, les différents États de l'UE effectueront des évaluations "tierces parties" dans chaque pays, avec des frais variables en fonction de la taille de l'entreprise demandeuse. Les tests doivent être des benchmarks qui n'ont pas encore été créés. Une surveillance après la mise sur le marché est requise (presumée par le gouvernement). Une recertification est nécessaire si les modèles montrent des capacités inattendues. Une recertification est également requise après toute formation substantielle. (pg 14-15, voir la provision 4 a pour plus de clarté sur le fait qu'il s'agit de tests gouvernementaux).

Risques très vaguement définis : La liste des risques inclut des risques pour des éléments tels que l'environnement, la démocratie et l'état de droit. Qu'est-ce qu'un risque pour la démocratie ? Cet acte lui-même pourrait-il représenter un risque pour la démocratie ? (pg 26).

Les modèles de langage de grande taille open source ne sont pas exemptés : Les modèles de langage de grande taille open source ne sont pas exemptés de l'acte. Les programmeurs et les distributeurs du logiciel ont une responsabilité juridique. Pour les autres formes de logiciels d'IA open source, la responsabilité se déplace vers le groupe qui emploie le logiciel ou qui le met sur le marché. (pg 70).

API essentiellement interdites : Les API permettent à des tiers de mettre en œuvre un modèle d'IA sans avoir à l'exécuter sur leur propre matériel. Certains exemples de mise en œuvre incluent AutoGPT et LangChain. Selon ces règles, si un tiers, en utilisant une API, trouve comment amener un modèle à faire quelque chose de nouveau, ce tiers doit alors faire certifier cette nouvelle fonctionnalité.

Les développeurs open source sont responsables : L'acte est mal formulé. Il ne couvre pas les composants d'IA gratuits et open source. Les modèles de langage de grande taille (LLMs) sont considérés comme distincts des composants. Cela semble signifier que l'on peut rendre open source des modèles de machine learning traditionnels, mais pas d'IA générative.

LoRA essentiellement interdit : LoRA est une technique pour ajouter lentement de nouvelles informations et capacités à un modèle à moindre coût. Les projets open source l'utilisent car ils ne peuvent pas se permettre une infrastructure informatique de plusieurs milliards de dollars. On murmure également que les principaux modèles d'IA l'utilisent, car la formation est à la fois moins chère et plus facile à vérifier en matière de sécurité que les nouvelles versions d'un modèle qui introduisent de nombreuses nouvelles fonctionnalités à la fois. (pg 14).

Licences de déploiement : Les déployeurs, personnes ou entités utilisant des systèmes d'IA, sont tenus de subir un examen rigoureux du projet avant le lancement. Les petites entreprises de l'UE sont exemptées de cette exigence. (pg 26).

Possibilité pour des tiers de plaider : Des tiers préoccupés ont le droit de plaider auprès du régulateur de l'IA d'un pays (établi par l'acte). Cela signifie que le déploiement d'un système d'IA peut être contesté individuellement dans plusieurs États membres. Les tiers peuvent plaider pour forcer un régulateur national de l'IA à imposer des amendes. (pg 71).

Des amendes très élevées : Les amendes pour non-conformité varient de 2% à 4% du revenu brut mondial d'une entreprise. Pour les particuliers, cela peut atteindre 20 000 000 €. Les PME et les startups basées en Europe bénéficient d'une réduction en ce qui concerne les amendes. (Pg 75).

Les systèmes de R&D et d'énergie propre dans l'UE sont exemptés : L'IA peut être utilisée pour des tâches de R&D ou de production d'énergie propre sans avoir à se conformer à ce système. (pg 64-65).

L'Acte d'IA et la loi américaine

L'attribution généreuse de compétence extraterritoriale va poser problème. L'Acte d'IA permettrait à n'importe quel individu ayant un problème avec l'IA - au moins s'ils sont citoyens de l'UE - de forcer les gouvernements de l'UE à prendre des mesures légales si des modèles non licenciés étaient disponibles dans l'UE. Cela va bien au-delà de la simple exigence pour les entreprises qui font des affaires dans l'UE de se conformer aux lois de l'UE.

Le principal problème concerne les restrictions de l'API. Actuellement, de nombreux fournisseurs de cloud américains n'imposent pas de restrictions à l'accès aux modèles API, à l'exception des listes d'attente que les fournisseurs s'empressent de remplir. Un programmeur à domicile ou un inventeur dans son garage peut accéder à la technologie la plus récente à un prix raisonnable. Sous les restrictions de l'Acte d'IA, l'accès à l'API devient suffisamment compliqué pour être limité aux clients de niveau entreprise.

Ce que l'UE veut est contraire à ce que demande la FTC. Pour qu'une entreprise américaine impose effectivement de telles restrictions aux États-Unis, cela soulèverait un ensemble de problèmes d'antitrust. Les coûts de formation des modèles limitent la disponibilité aux acteurs très capitalisés. La FTC a été très claire sur le fait qu'elle ne souhaite pas voir se reproduire la situation d'Amazon, où une entreprise plus grande utilise sa position pour sécuriser la majorité des profits pour elle-même - au détriment de partenaires plus petits. Agir de la manière recherchée par l'Acte d'IA, soulèverait de gros problèmes d'antitrust pour les entreprises américaines.

En dehors des dispositions anti-trust, le fait que l'Acte d'IA pénalise l'innovation représente un point de conflit. Pour les acteurs américains, trouver une nouvelle façon d'utiliser un logiciel pour gagner de l'argent est une bonne chose. En vertu de l'Acte d'IA, trouver une nouvelle façon d'utiliser un logiciel annule la certification de sécurité, nécessitant un nouveau processus de licence. Les désincitations à l''innovation risquent de provoquer des frictions compte tenu de la portée extraterritoriale de la loi.

Enfin, les dispositions relatives à l'open source représentent un problème majeur. L'Acte d'IA traite les développeurs open source travaillant sur ou avec des modèles fondamentaux comme des acteurs malveillants. Les développeurs et, apparemment, les distributeurs sont responsables de la diffusion de modèles de base non licenciés - ou apparemment de code améliorant les modèles de base. Pour toutes les autres formes de machine learning open source, la responsabilité de la licence revient à celui qui déploie le système.

Tenter de sanctionner des parties de l'écosystème technologique est une mauvaise idée. Les développeurs open source ne sont pas susceptibles de bien réagir à l'idée d'être interdits de programmer quelque chose par un gouvernement - surtout si ce gouvernement n'est pas le leur. De plus, qu'arrive-t-il si GitHub et les divers copilotes décident simplement que l'Europe est trop difficile à gérer et ferment l'accès ? Cela pourrait avoir des répercussions qui n'ont pas été suffisamment réfléchies.

Les défauts de l'Acte

Pour couronner le tout, l'Acte d'IA semble encourager une IA non sécurisée. Il cherche à encourager des systèmes étroitement ciblés. Nous savons par expérience - notamment avec les médias sociaux - que de tels systèmes peuvent être dangereux. De façon tristement célèbre, de nombreux algorithmes de médias sociaux ne regardent que la valeur d'engagement du contenu. Ils sont structurellement incapables de juger de l'effet du contenu. Les grands modèles linguistiques peuvent au moins être entraînés à considérer que la promotion de contenus violents est néfaste. D'un point de vue expérientiel, les modèles fondamentaux que l'UE craint sont plus sûrs que les modèles qu'elle promeut.

Il s'agit d'une législation profondément corrompue. Si vous avez peur des grands modèles linguistiques, alors vous devez en avoir peur dans toutes les circonstances. Donner un passe-droit aux modèles de R&D montre que vous ne prenez pas votre législation au sérieux. L'effet le plus probable d'une telle politique est de créer une société où l'élite a accès aux modèles de R&D, et personne d'autre - y compris les petits entrepreneurs - ne l'a.

Je soupçonne que cette loi va passer, et je soupçonne que l'UE va découvrir qu'elle a créé beaucoup plus de problèmes qu'elle ne l'anticipait. C'est regrettable car certaines des réglementations, en particulier celles relatives aux algorithmes utilisés par les grands réseaux sociaux, ont besoin d'être abordées.

Source : Europarl

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter