
Dans une initiative importante remettant en question l'orientation actuelle de la réglementation canadienne de l'intelligence artificielle, une coalition de plus de 160 organisations de défense des droits humains, de groupes de défense des libertés civiles et d'experts universitaires a lancé une « Consultation populaire » indépendante. Cette initiative intervient en réaction directe à ce que les critiques décrivent comme un processus dirigé par le gouvernement fédéral fortement biaisé en faveur des intérêts du secteur technologique.
La consultation, annoncée le 25 janvier 2026, invite le public canadien à soumettre ses perspectives sur les impacts sociétaux de l'IA. Les conclusions doivent être remises au gouvernement fédéral pour influer sur la première stratégie nationale complète sur l'IA (national AI strategy) du pays. Ce processus parallèle souligne un fossé croissant entre les décideurs politiques gouvernementaux et la société civile concernant la vitesse et l'étendue de la réglementation de l'IA.
L'impulsion de cette enquête indépendante découle de l'insatisfaction face à l'approche récente du gouvernement fédéral en matière de gouvernance de l'IA. Dirigée par le ministre de l'IA Evan Solomon, l'administration fédérale a récemment mené une consultation « sprint » de 30 jours en octobre 2025. Les critiques soutiennent que ce délai était insuffisant pour une technologie aux implications aussi vastes.
Cynthia Khoo, avocate spécialisée en technologies et droits humains et chercheuse principale au Citizen Lab de l'University of Toronto, a souligné la nécessité de cette voie alternative. « Nous n'avons tout simplement pas senti que nous avions le choix », a déclaré Khoo, en faisant référence au calendrier accéléré du gouvernement. Elle a noté que les parties prenantes les plus susceptibles d'être négativement affectées par le déploiement de l'IA — les communautés marginalisées et les travailleurs — n'ont pas eu suffisamment de temps ni d'espace pour exprimer leurs préoccupations lors du processus officiel.
La coalition soutient que le groupe de travail fédéral sur l'IA manque de diversité, représentant de manière disproportionnée l'industrie technologique tout en sous-représentant les perspectives du monde du travail, de l'environnement et des droits humains. Cette « Consultation populaire » vise à rectifier ce déséquilibre en maintenant sa fenêtre de soumission ouverte jusqu'au 15 mars 2026, offrant un rythme plus délibéré pour le discours public.
Le cœur du différend réside dans les priorités contradictoires entre le maintien de la compétitivité mondiale et l'assurance de solides sauvegardes sociales. Alors que le gouvernement fédéral considère l'adoption rapide de l'IA comme essentielle pour la position économique du Canada, les groupes de la société civile avertissent que la rapidité ne doit pas se faire au détriment de la supervision démocratique.
Aislin Jackson, conseillère juridique en politiques à la B.C. Civil Liberties Association, a souligné des risques spécifiques que le groupe de travail fédéral aurait prétendument négligés. « Les domaines complexes doivent être compris dans toute leur complexité pour être bien et correctement réglementés », a déclaré Jackson. Elle a indiqué, parmi ces domaines critiques, l'utilisation d'outils algorithmiques (algorithmic tools) dans le recrutement, où l'efficacité est souvent privilégiée au détriment de l'équité, pouvant automatiser la discrimination à l'encontre des demandeurs d'emploi.
Le tableau ci-dessous présente les différences nettes entre l'approche du gouvernement et la nouvelle consultation indépendante :
Comparison of AI Consultation Approaches
| Feature | Federal Government Process | People's Consultation |
|---|---|---|
| Timeline | 30-day "sprint" (Concluded Oct 2025) | Extended window (Ends March 15, 2026) |
| Primary Focus | Economic growth, industry adoption, competitiveness | Human rights, labor protections, societal impact |
| Key Stakeholders | Tech industry leaders, AI proponents | Civil liberties groups, unions, academics, general public |
| Objective | Rapid development of national AI strategy | Creating "regulatory guardrails" and mitigating harm |
Au-delà du biais algorithmique (algorithmic bias), la « Consultation populaire » attire l'attention sur l'infrastructure physique et politique de l'IA. Les préoccupations environnementales sont au premier plan, en particulier en ce qui concerne la consommation énergétique des centres de données pour l'IA. Alors que le Canada se positionne comme un pôle pour l'infrastructure numérique, des critiques comme Khoo avertissent que les communautés locales pourraient supporter le fardeau de coûts énergétiques accrus et de l'épuisement des ressources.
De plus, la consultation soulève des questions de souveraineté numérique (digital sovereignty). Alors que le gouvernement fédéral met l'accent sur la « souveraineté numérique canadienne » face à la domination technologique des États-Unis et de la Chine, des défenseurs autochtones appellent à une reconnaissance distincte de la souveraineté numérique autochtone (Indigenous digital sovereignty). Ce débat nuancé interroge qui, au final, possède et bénéficie des données utilisées pour entraîner des modèles d'IA massifs.
En réponse au lancement de la consultation indépendante, le Ministère de l'IA et de l'innovation numérique a défendu sa méthodologie. Un porte-parole du ministère a déclaré que le questionnaire public d'octobre n'était qu'un composant d'une stratégie d'engagement plus large.
Le gouvernement affirme avoir sollicité des avis par divers canaux, y compris des tables rondes ciblées, des discussions informelles et un engagement continu avec la société civile et les représentants du monde du travail. Les responsables soutiennent que toutes les contributions, y compris celles issues de la nouvelle « Consultation populaire », seront soigneusement examinées à mesure que les travaux sur la stratégie nationale sur l'IA (national AI strategy) se poursuivent.
À l'approche de la date limite du 15 mars pour la « Consultation populaire », les conclusions devraient exercer une pression significative sur les décideurs fédéraux pour élargir la portée de la stratégie nationale sur l'IA. La coalition a l'intention de rendre publiques toutes les soumissions, créant ainsi un dossier transparent du sentiment public qui sera difficile à ignorer pour les législateurs.
Pour l'industrie de l'IA, ce développement signale un possible changement dans le paysage réglementaire. Si les recommandations de la coalition gagnent du terrain, la législation future pourrait inclure des exigences de conformité plus strictes en matière d'éthique des données (data ethics), d'évaluations d'impact environnemental (environmental impact assessments) et de transparence algorithmique (algorithmic transparency).
Le lancement de cette consultation marque un moment critique dans la conversation mondiale sur la gouvernance de l'IA, positionnant le Canada comme un terrain d'essai pour l'efficacité avec laquelle la société civile peut influencer la politique des hautes technologies face à une avancée industrielle rapide.