12/06/2023

IA responsable : 5 façons de préparer votre entreprise

Author: Kathryn Hughes - Principal, Legal & ERM Consulting, EPAM Continuum

ai HUMANOID AND ONLINE SAFETY

L’intelligence artificielle (IA) est sans aucun doute la plus grande avancée technologique depuis la découverte de l’électricité. Elle est appelée à transformer complètement tous les aspects de notre mode de vie et de notre travail, en s’enracinant profondément dans notre économie et notre société. Comme la plupart des technologies, l’IA présente à la fois des opportunités et des menaces. Elle nous offre d’innombrables possibilités de résoudre les problèmes du monde, de stimuler nos économies et, d’une manière générale, de nous faciliter la vie. Cependant, nous devons également nous méfier des aspects négatifs de l’IA et de la manière dont elle peut nuire aux droits de l’homme et au bien-être.

Mais comment gérer cette relation entre les humains et l’intelligence des machines ? Comment atténuer les effets négatifs potentiels de l’IA ? C’est là que l’IA responsable – également appelée IA éthique ou de confiance – entre en jeu.

Pourquoi l’IA responsable est-elle importante ?

Tous les deux ou trois mois, l’actualité montre le côté obscur de l’IA. Qu’il s’agisse d’applications de reconnaissance faciale entraînant des arrestations injustifiées ou d’algorithmes favorisant les préjugés sexistes ou raciaux, ces exemples révèlent que l’IA n’est pas digne de confiance. Il s’agit d’exemples d’applications ou de systèmes qui n’ont pas été conçus et exploités de manière légale, éthique et solide – selon la définition du Comité européen (CE).

Si la Commission européenne propose des orientations aux entreprises de l’UE, de nombreux autres organismes de réglementation dans le monde lui emboîtent le pas. En règle générale, ces principes clés sont formulés pour documenter et réglementer la manière dont les systèmes d’intelligence artificielle doivent être développés, déployés et gérés afin de respecter l’éthique et les lois. Ils demandent aux entreprises impliquées dans l’IA de couvrir des aspects tels que l’intervention et la surveillance humaines, la robustesse et la sécurité techniques, la protection de la vie privée et la gouvernance des données, la transparence, la diversité, la non-discrimination et l’équité, le bien-être sociétal et environnemental, et la responsabilité.

Les meilleures pratiques mondiales : où en sommes-nous ?

L’IA responsable devrait être une mission alignée à l’échelle mondiale, il est donc intéressant de noter ce qui s’est passé dans des territoires comme la Chine et les États-Unis. La Chine possède le plus fort écosystème de start-up d’IA, avec 19 licornes technologiques (évaluées à plus d’un milliard de dollars). En 2019, elle a déjà publié huit principes du Comité national de gouvernance de la nouvelle génération d’intelligence artificielle en Chine :

  • Harmonie et respect de l’humain
  • Équité et justice
  • Inclusion et partage
  • Respect de la vie privée
  • Sécurité et contrôlabilité
  • Responsabilité partagée
  • Ouverture et collaboration
  • Gouvernance agile

Elle a ensuite adopté une législation récente sur la protection de la vie privée, la PIPL (loi sur la protection des informations personnelles), ainsi qu’une loi sur la sécurité des données et la cybersécurité.

Aux États-Unis, des mesures ont été prises avec l’Algorithmic Accountability Act de 2021. Des États comme la Californie, la Virginie et le Colorado ont déjà créé leurs propres lois sur la protection de la vie privée, et des projets de loi similaires sont en cours d’élaboration dans d’autres pays.

Parallèlement, l’UE est l’une des premières juridictions à s’engager dans la voie d’une réglementation “conçue à des fins spécifiques”. Sa proposition de réglementation et d’harmonisation de l’IA entre les États membres apportera la sécurité juridique nécessaire pour motiver l’innovation tout en protégeant les droits des consommateurs. Comme le GDPR, la législation proposée concerne toute personne ou organisation (y compris celles basées en dehors de l’UE et gérant des données d’IPI de citoyens de l’UE). Toutefois, les responsabilités prévues par la loi sur l’IA vont plus loin que le GDPR en proposant de réglementer directement l’utilisation des systèmes d’IA. Les entreprises seront tenues de démontrer leur engagement en faveur de l’équilibre de l’IA en indiquant la méthode de validation littérale des logiciels qu’elles ont appliquée.

5 étapes pour limiter les risques dans votre entreprise

La législation sur l’IA est en constante évolution et il peut donc y avoir beaucoup d’incertitude sur la façon de faire une différence positive pour limiter les risques. Parmi les principales mesures pratiques à prendre, citons la familiarisation avec les entreprises de sécurité de l’IA auxquelles vous faites confiance, la détermination de la manière dont vous mesurerez le risque lié à l’IA dans votre organisation et la mise en place de procédures de test et de surveillance continues.

Pour obtenir la liste complète et une série d’exemples, consultez l’article original de l’EPAM ici.

gallery image