Quatre agences fédérales viennent de publier une déclaration commune sur l'IA et les technologies d'IA connexes

Les autorités américaines s'engagent à lutter contre la discrimination et les biais dans les systèmes automatisés et l'intelligence artificielle.

Déclaration conjointe des organismes de régulation concernés

Dans une déclaration conjointe, plusieurs organismes de régulation américains, dont la Consumer Financial Protection Bureau (CFPB), la Department of Justice’s Civil Rights Division (Division des Droits Civiques du Ministère de la Justice), la Equal Employment Opportunity Commission (EEOC) et la Federal Trade Commission (FTC) s'engagent à protéger les droits et les libertés du public contre les discriminations et les biais dans les systèmes automatisés et l'IA.

"Nous avons uni nos forces pour souligner que l'utilisation de technologies avancées, y compris l'intelligence artificielle, doit être conforme aux lois fédérales" - Charlotte A. Burrows, présidente de l'EEOC.

Enjeux de l'IA et des systèmes automatisés

Les systèmes automatisés et l'IA sont de plus en plus courants dans la vie quotidienne, affectant les droits et les opportunités des individus, notamment en termes d'emploi, de logement, de crédit et d'accès aux biens et services. Bien que ces outils puissent être utiles, ils ont aussi le potentiel de perpétuer des biais illégaux et de générer d'autres résultats néfastes.

Les organismes de régulation américains expriment leur détermination à surveiller le développement et l'utilisation des systèmes automatisés, ainsi qu'à promouvoir une innovation responsable. Ils s'engagent également à utiliser leurs autorités pour protéger les droits des individus indépendamment de la façon dont les violations légales sont commises, que ce soit via des méthodes traditionnelles ou des technologies avancées.

Problèmes potentiels avec les systèmes automatisés

La discrimination et les biais dans les systèmes automatisés peuvent provenir de différentes sources, notamment :

  1. Données et ensembles de données inadéquates : Les résultats des systèmes automatisés peuvent être biaisés par des ensembles de données non représentatifs, déséquilibrés, intégrant des biais historiques ou contenant d'autres erreurs. Les systèmes automatisés peuvent également corréler des données avec des catégories protégées, ce qui peut entraîner des résultats discriminatoires.
  2. Opacité des modèles et difficultés d'accès : De nombreux systèmes automatisés sont des "boîtes noires" dont le fonctionnement interne n'est pas clair pour la plupart des gens, voire même pour le développeur de l'outil. Ce manque de transparence complique la compréhension de la manière dont fonctionne réellement un système automatisé et s'il est équitable.
  3. Conception et utilisation : Les développeurs ne tiennent pas toujours compte des contextes dans lesquels les entités privées ou publiques utiliseront leurs systèmes automatisés. Ils peuvent concevoir un système sur la base d'hypothèses erronées concernant les utilisateurs, le contexte pertinent ou les pratiques et procédures qu'il peut remplacer.

Les autorités de régulation encouragent donc les entreprises et les développeurs à agir de manière responsable et à s'assurer que l'utilisation de l'IA et des systèmes automatisés est conforme aux lois fédérales.

Attention à ne pas tomber dans la censure

L'intelligence artificielle (IA) en elle-même est un outil neutre, dénué d'émotions, d'intentions ou de parti pris. La fonction principale d'une IA est d'analyser et de traiter des données pour réaliser des tâches spécifiques ou prendre des décisions selon la manière dont elle a été programmée. Cependant, elle ne possède pas de conscience ou de sens critique, et ne fait donc pas de choix en fonction de préférences ou d'opinions personnelles comme un humain.

Néanmoins, les biais et les discriminations peuvent survenir, non pas en raison de l'IA elle-même, mais plutôt en raison des données utilisées pour la développer ou des choix de programmation faits par les ingénieurs et les concepteurs de ces systèmes. Si les ensembles de données sur lesquels l'IA est entraînée contiennent des biais, des préjugés ou des discriminations, ceux-ci peuvent être reproduits, amplifiés ou perpétués par l'IA lorsqu'elle traite de nouvelles données ou prend des décisions.

Il est donc crucial de différencier la responsabilité de l'IA de celle des humains qui la conçoivent, l'entraînent et l'utilisent. Il est important de souligner que l'objectif devrait être d'éliminer les sources de biais et de discrimination pendant la phase de conception et d'entraînement d'une IA, plutôt que de censurer ou limiter ce que l'IA révèle. En effet, cela impliquerait d'ignorer ou de masquer des problèmes réels ou existants, ce qui pourrait être contre-productif.

En fin de compte, il est de la responsabilité des concepteurs et des utilisateurs d'IA de s'assurer que ces outils sont déployés de manière éthique, transparente et en accord avec les principes de justice et d'équité. La régulation et la législation peuvent également jouer un rôle dans la promotion de l'utilisation responsable de l'IA et la prévention des discriminations et des biais involontaires.