Hot AI Summer, Pt. 1 : Les États-Unis et le Royaume-Uni

18 juillet 2023

Par Abu Kamat

Il fait chaud en été.

Après des décennies de recherche fondamentale et de développement, l'intelligence artificielle (IA) a rapidement transformé, ces dernières années, notre façon de vivre, de travailler et d'interagir. Dans le même temps, les gouvernements, échaudés par le boom des médias sociaux au cours de la dernière décennie, ont appris qu'une avancée technologique aussi rapide pouvait avoir un côté sombre. Par conséquent, de nombreux pays, dont le Canada, élaborent des lois et des règlements pour régir l'utilisation des technologies de l'IA.

Jeudi dernier, les utilisateurs de l'UE ont eu accès à la technologie de l'assistant IA Bard de Google des mois après les utilisateurs des États-Unis, du Royaume-Uni et de nombreux autres pays, en raison de la loi GDPR de l'UE sur la protection de la vie privée et des règles sur l'IA (plus d'informations à ce sujet le mois prochain !), bien qu'avec une protection supplémentaire des données et de la vie privée. Le Canada est l'un des derniers pays à ne pas avoir accès - mais pour une fois, cela n'a rien à voir avec une approche légère ou lourde de la réglementation. Le gouvernement fédéral est engagé dans une lutte acharnée avec Google, Meta et d'autres géants du web sur la question du financement de l'information, et il choisit de riposter.

Le gouvernement fédéral canadien a récemment présenté la loi sur l'intelligence artificielle et les données (AIDA) dans le cadre du projet de loi C-27, la loi de mise en œuvre de la Charte numérique. Si elle est adoptée, la loi AIDA réglementera la conception, le développement et l'utilisation de systèmes d'IA "à fort impact" dans le secteur privé. D'autres pays ont déjà pris des mesures pour réglementer l'IA. Alors que le Parlement examine le projet de loi AIDA, les décideurs du gouvernement et de l'industrie devraient prendre en compte le contexte dans lequel d'autres juridictions ont abordé la réglementation de l'IA.

Aujourd'hui, nous commencerons par examiner la situation au Royaume-Uni et aux États-Unis, où les premières mesures disparates entre les juridictions et les secteurs cèdent la place à une approche plus concertée. Plus tard dans l'été, nous nous pencherons sur l'UE et son approche réglementaire plus rigide.

Royaume-Uni : Une approche sectorielle

Le gouvernement conservateur britannique, malgré les changements fréquents à la tête du pays depuis 2016, a toujours mis l'accent sur l'économie de la connaissance comme pierre angulaire d'un programme de prospérité post-Brexit. Par conséquent, il agit plus rapidement que la plupart des autres pour réglementer l'IA.

En 2021, le gouvernement britannique a publié sa stratégie nationale en matière d'IA, qui définit un plan pour l'adoption responsable des technologies de l'IA. Cette stratégie de haut niveau met l'accent sur l'éthique, la transparence et la responsabilité. Le Royaume-Uni a également créé un Conseil de l'IA en 2019 pour conseiller le gouvernement sur la politique et la réglementation de l'IA, ainsi que le Centre pour l'éthique et l'innovation des données, un organisme consultatif indépendant qui fournit des conseils sur l'utilisation responsable des technologies axées sur les données. Si l'approche du Royaume-Uni en matière de réglementation de l'IA a été bien accueillie par l'industrie, certains experts ont contesté l'absence de réglementations concrètes et de normes applicables.

Plus récemment, en mars 2023, le gouvernement britannique a publié un livre blanc définissant ce qu'il appelle "une approche pro-innovation de la réglementation de l'IA". Le livre blanc présente une approche "flexible" de la réglementation de l'IA qui vise à la fois à renforcer la confiance du public et à faciliter la croissance des entreprises. Plutôt que de créer un nouvel organisme de réglementation spécialisé ou un instrument juridique unique pour l'IA, le gouvernement britannique encourage les organismes de réglementation et les ministères à adapter leurs stratégies aux différents secteurs, dans le but de maintenir le soutien à l'innovation et à l'adaptabilité. Le livre blanc présente cinq principes que les régulateurs doivent prendre en compte pour faciliter l'utilisation sûre et innovante de l'IA dans leurs secteurs, notamment la transparence, l'équité et la responsabilité.

États-Unis : Une approche fragmentée

Aux États-Unis, les efforts visant à réglementer l'IA ont surtout été déployés au niveau des États - à ce jour, il n'existe pas de loi fédérale globale. La Californie et l'Illinois ont adopté des lois axées sur la confidentialité des données et l'utilisation de l'IA. Par exemple, la loi californienne sur la protection de la vie privée des consommateurs (CCPA) exige des entreprises qu'elles divulguent les informations personnelles qu'elles collectent et la manière dont elles seront utilisées, y compris si elles sont utilisées à des fins d'IA ou d'apprentissage automatique.

L'action fédérale commence toutefois à prendre forme. En 2019, la Maison Blanche a demandé aux agences fédérales de donner la priorité à la recherche et au développement en matière d'IA, d'établir des structures de gouvernance de l'IA et de promouvoir le développement de la main-d'œuvre afin de se préparer à l'impact de l'IA sur l'économie et la société. En outre, le National Institute of Standards and Technology (NIST) a élaboré un cadre pour l'éthique de l'IA, mettant l'accent sur la transparence, l'explicabilité et l'atténuation des préjugés. Si l'approche américaine en matière de réglementation de l'IA a été critiquée pour son manque de centralisation et d'applicabilité, certains experts estiment qu'une approche souple est nécessaire pour permettre l'innovation et la croissance dans le secteur de l'IA.

D'un point de vue politique, l'étape la plus notable pour le pays a eu lieu en décembre 2022 lorsque le Bureau de la politique scientifique et technologique de la Maison Blanche a publié un projet de charte des droits de l'IA visant à définir des principes pour le développement et le déploiement de l'IA aux États-Unis.

Ce document guidera la future politique fédérale américaine en matière d'IA et pourrait contribuer à relever certains des principaux défis liés au développement et au déploiement de l'IA. Toutefois, la déclaration des droits présente des lacunes et des limites évidentes, telles que la nécessité d'équilibrer les préoccupations en matière de protection de la vie privée et de transparence, et de veiller à ce que les systèmes d'IA ne perpétuent pas les préjugés et les inégalités existants.

Alignement et coopération émergents

Outre leurs efforts nationaux respectifs, les deux pays ont reconnu la nécessité d'une collaboration internationale pour relever les défis posés par l'IA. En juin 2023, le Royaume-Uni et les États-Unis ont annoncé conjointement la Déclaration de l'Atlantique, un vaste accord bilatéral qui comprend (parmi une longue liste) un engagement à coopérer plus étroitement en matière de réglementation de l'IA, de normes éthiques et de partage des meilleures pratiques.

Les dispositions de la Déclaration atlantique relatives à l'IA pourraient constituer une étape importante dans la politique mondiale en matière d'IA : deux des plus grandes économies de la connaissance au monde parviendraient à harmoniser les meilleures pratiques, l'alignement des approches réglementaires, les règles et lignes directrices éthiques et la gouvernance transfrontalière des données, ce qui établirait la norme pour le reste du monde. Même sans cela, en échangeant leurs connaissances et leur expérience, les États-Unis et le Royaume-Uni peuvent tirer des enseignements de leurs approches respectives et élaborer leurs propres cadres réglementaires plus efficaces. La réduction de la fragmentation contribuerait à créer des conditions de concurrence équitables pour les développeurs et les utilisateurs de l'IA. La collaboration sur les considérations éthiques garantit que les systèmes d'IA respectent les principes d'équité, de transparence et de droits individuels. En outre, la coopération sur la gouvernance transfrontalière des données facilite des flux de données sûrs et responsables pour l'innovation en matière d'IA, tout en préservant la vie privée et la sécurité.

Pour les décideurs politiques canadiens, le fait d'être laissés à l'écart d'un effort de coopération sérieux entre nos premier et troisième plus grands partenaires commerciaux, avec lesquels nous partageons des liens historiques, culturels et institutionnels, est un problème. La réglementation de l'IA n'est pas, et ne peut pas être, une question exclusivement nationale, en particulier pour les petits pays. Alors que nous continuons à affiner notre propre cadre réglementaire en matière d'IA avec l'ACRA, le Canada doit s'engager activement dans ces activités de coopération. En participant à des initiatives internationales, le Canada peut établir un leadership dans la gouvernance mondiale de l'IA, bénéficier d'une expertise partagée et s'assurer que son cadre réglementaire reste aligné sur les normes internationales en constante évolution. Le secteur de l'IA est robuste au Canada, mais si nous nous singularisons, nous risquons d'affaiblir nos leaders nationaux.

Le mois prochain, nous nous pencherons sur l'Union européenne, qui a été à l'avant-garde de la réglementation des technologies avancées. Nous évaluerons les leçons de politique publique que le Canada peut tirer du règlement général sur la protection des données (RGPD ) et de la loi sur l'intelligence artificielle qui l'accompagne et qui préconise un traitement plus rigoureux de l'IA que les États-Unis et le Royaume-Uni.

Vous pouvez lire quelques-uns de nos articles récents ici :

Mooseworks est la série sur les politiques d'innovation du Conseil canadien des innovateurs. Pour recevoir des articles comme celui-ci dans votre boîte de réception deux fois par mois, inscrivez-vous à la lettre d'information du CCI ici.

Membres de l'équipe de l'ICC

Les membres

Aucun élément n'a été trouvé.

REJOIGNEZ LE BULLETIN D'INFORMATION DE LA CCI

Obtenir les dernières mises à jour

En soumettant vos informations, vous acceptez notre politique de confidentialité.
Nous vous remercions ! Votre demande a bien été reçue !
Oups ! Un problème s'est produit lors de l'envoi du formulaire.