La régulation de l’intelligence artificielle dans le monde
Par Joane Siksous, chroniqueuse pour LES CONNECTEURS | Fondatrice et PDG de Graplix
En février dernier, plus de 60 pays, dont le Canada, la Chine, l’Union européenne et les États-Unis, se sont réunis à Paris pour un sommet inédit sur l’intelligence artificielle. L’objectif était ambitieux : poser les bases d’une gouvernance mondiale de l’IA, capable de concilier innovation technologique et respect des droits fondamentaux.
Le sommet a mis en lumière des visions très diverses et défini une approche inclusive, ouverte et multipartite, qui permettra à l’IA d’être éthique, sûre, sécurisée, digne de confiance et axée sur les droits de l’Homme et sur l’humain. Une déclaration commune sur l’intelligence artificielle a ainsi été signée et adoptée par la majorité des participants, à l’exception des États-Unis.
« La régulation n’est pas un frein au progrès, mais une boussole. »
Union européenne
En matière de régulation, l’Union européenne fait figure de pionnière. Son AI Act, adopté en 2024, constitue le premier cadre légal complet au monde en la matière. Juridiquement contraignant, ce texte repose sur une logique de gradation des risques : plus une technologie présente de dangers pour les droits ou la sécurité, plus elle est encadrée. Les applications jugées inacceptables, comme la surveillance de masse ou la manipulation cognitive, sont interdites. D’autres, liées à des domaines sensibles comme l’emploi ou la justice, sont strictement réglementées. L’Europe affirme ainsi sa volonté de placer l’humain au centre du développement technologique, même si cette régulation est parfois challengée pour sa complexité.
Les États-Unis
Pour leur part, les États-Unis adoptent une approche bien différente. Il n’existe pas de loi fédérale spécifique à l’IA. Le pays préfère une régulation souple, fondée sur des initiatives sectorielles ou locales. En 2023, un décret présidentiel de l’administration Biden a posé les premiers jalons d’un encadrement responsable. Une « Charte des droits face à l’IA » a été proposée, sans force obligatoire. Cette liberté réglementaire encourage l’innovation rapide, portée par les grandes entreprises technologiques, mais suscite aussi des questionnements. Entre autres, on évoque un manque de transparence, une absence de responsabilité claire en cas de préjudice, et une propension à laisser les grandes entreprises technologiques fixer leurs propres règles. Cette liberté favorise l’innovation, mais elle s’accompagne d’un affaiblissement des garde-fous nécessaires pour protéger les droits fondamentaux et encadrer les dérives. Le cadre juridique, encore fragmenté et principalement réactif, peine à anticiper les risques.
Chine
La Chine, de son côté, combine ambition technologique et contrôle étatique strict. Signataire de la Déclaration de Paris, elle a déjà mis en place une réglementation contraignante autour de l’usage des contenus générés par l’IA. Dès janvier 2023, la Chine a adopté un cadre spécifique — les « Provisions on the Administration of Deep Synthesis Internet Information Services » — visant notamment à encadrer strictement les deepfakes, qui doivent désormais être clairement signalés comme tels à l’aide de marquages visibles, afin d’éviter toute confusion avec des contenus réels. Ces règles interdisent l’utilisation de ces technologies pour usurper une identité, manipuler l’information ou porter atteinte à l’intérêt public. Les assistants conversationnels sont eux aussi soumis à des obligations de transparence, et les algorithmes génératifs doivent être déclarés et encadrés. Ces mesures visent à lutter contre la désinformation, protéger le public contre les manipulations, et garantir une utilisation conforme aux lignes directrices définies par l’État. Toute entreprise déployant de tels systèmes doit ainsi se conformer à des obligations strictes de transparence, de traçabilité et de conformité.
Canada
Le projet de Loi C-27, encore à l’étude après son dépôt en 2022, prévoit la création d’une Loi sur l’intelligence artificielle et les données (LIAD), au sein d’un cadre plus large visant à encadrer l’économie numérique. Ce texte constituerait la première tentative de régulation générale de l’IA au Canada. Moins contraignant que l’AI Act européen, il vise à prévenir les atteintes à la santé, à la sécurité et aux droits fondamentaux, en encadrant les systèmes automatisés présentant des risques. En l’état, ce futur cadre ne catégorise pas encore les niveaux de risque de façon précise et ne définit pas de sanctions claires en cas d’infraction. Malgré ces limites, la participation active du Canada au Sommet pour l’action sur l’intelligence artificielle témoigne de sa volonté de jouer un rôle constructif dans l’élaboration d’une gouvernance mondiale de l’intelligence artificielle, en équilibrant innovation responsable et protection des citoyens.
« Nous ne pouvons parler du Canada sans évoquer le travail déjà accompli par le Québec en matière de protection des données personnelles et, en ce qui a trait la régulation de l’IA au Québec. »
Nous ne pouvons parler du Canada sans évoquer le travail déjà accompli par le Québec en matière de protection des données personnelles et, en ce qui a trait la régulation de l’IA au Québec. En effet, bien que la Loi 25 ne traite pas explicitement de l’intelligence artificielle, elle encadre certaines de ses applications, notamment en matière de traitement automatisé des renseignements personnels. Cette loi oblige les entreprises à informer toute personne visée par une décision fondée exclusivement sur un traitement automatisé — comme un algorithme d’IA — des principales raisons qui ont mené à cette décision, ainsi que de son droit de faire rectifier les renseignements utilisés. La loi encadre également le profilage, c’est-à-dire le traitement automatisé pour évaluer certaines caractéristiques d’un individu, comme ses comportements ou préférences. La loi touche donc directement les systèmes d’IA déployés à des fins d’analyse ou de ciblage. Enfin, la Loi 25 impose la réalisation d’une évaluation des facteurs relatifs à la vie privée (EFVP) pour tout projet impliquant des technologies de surveillance, de prise de décision automatisée ou la communication de données à l’extérieur du Québec. Ainsi, sans nommer l’IA, le législateur québécois impose un cadre rigoureux pour en baliser les effets sur les droits et libertés des individus.
Vers une gouvernance mondiale
Au-delà des modèles nationaux, ce sommet a rappelé la nécessité d’une coopération internationale dans la régulation de l’IA dans le monde. Des organismes comme l’OCDE ou l’ONU tentent d’harmoniser les efforts, mais les divergences restent nombreuses. La déclaration adoptée à Paris trace une voie possible : celle d’une IA éthique, au service de l’humain, développée dans la transparence et le respect des droits. L’IA façonne déjà nos sociétés – reste à déterminer sous quelle forme nous souhaitons qu’elle le fasse. La régulation n’est pas un frein au progrès, mais une boussole. Elle rappelle que l’innovation n’a de sens que si elle s’accompagne de responsabilité.
Voici quelques événements importants à venir dans le domaine de la régulation de l’IA :
- 11-13 août 2025 : L’Ai4 2025, le plus grand événement nord-américain dédié à l’IA, se tiendra au MGM Grand de Las Vegas, réunissant plus de 8 000 participants et 600 intervenants pour discuter des innovations et des réglementations en matière d’IA.
- 16-19 septembre 2025 : La conférence IAPP AI Governance Global North America 2025 à Boston se concentrera sur les défis et les solutions liés à la gouvernance de l’IA, offrant des perspectives sur les meilleures pratiques et les législations à venir.
- 5-6 novembre 2025 : Le sommet Future of AI, organisé par le Financial Times à Londres, explorera les tendances émergentes en matière d’IA, y compris les aspects réglementaires et éthiques, avec la participation de leaders de l’industrie et de décideurs politiques.
À lire également :