Ce guide de consultation avancé a été créé à l’intention des participants qui possèdent déjà un certain niveau d’expertise dans le domaine du droit, des politiques, de la réglementation et/ou de la gouvernance de l’intelligence artificielle (IA), ou dans un domaine connexe à l’IA, tel que les impacts environnementaux, le travail, la violence sexiste ou l’éducation, par exemple. Il ne s’agit pas tant d’un guide que d’une liste exhaustive de questions destinées à susciter une réflexion plus approfondie et à fournir de nombreux points d’entrée dans les questions abordées. Les questions ont été copiées, adaptées ou inspirées de procédures consultatives similaires menées dans d’autres juridictions, telles que celles énumérées au bas de cette page*.
Il n’y a aucune obligation ni attente quant au fait qu’une personne ou un groupe réponde à toutes les questions, et nous reconnaissons qu’il peut y avoir des chevauchements entre les questions ou les catégories. N’hésitez pas à répondre à autant de questions que vous le souhaitez. Vous pouvez choisir de concentrer vos commentaires exclusivement sur les questions relevant d’un seul domaine, ou ignorer complètement les questions si vous savez déjà ce que vous voulez dire. Le cas échéant, veuillez indiquer à quels sujets ou questions spécifiques chaque partie de votre réponse se rapporte, mais cela n’est pas obligatoire.
Nous vous encourageons à vous appuyer sur vos propres expériences avec les technologies basées sur l’IA ou sur la manière dont vous ou votre communauté avez été affectés par celles-ci, le cas échéant.
REMARQUE
pour plus de détails sur la manière dont vos commentaires seront utilisés et sur ce qu’il en adviendra, veuillez consulter la section « Que deviendront les commentaires soumis ? » ici [LIEN]. Les commentaires soumis seront publiés, veuillez donc ne partager que des informations que vous acceptez de voir publiées. Gardez cela à l’esprit si vous partagez des histoires ou des expériences qui ne vous concernent pas, et ne partagez pas d’informations permettant d’identifier quelqu’un d’autre sans son consentement.
Si vous n’êtes pas à l’aise avec les questions ci-dessous, vous pouvez utiliser le Guide de Consultation de Base + Modèle de Soumission, ou organiser une micro-consultation avec vos amis, votre famille ou vos collègues à l’aide du Guide de Facilitation Local.
Aux fins de la présente consultation, le terme « intelligence artificielle » (IA) désigne collectivement toute technologie ou tout système actuellement considéré comme relevant de l’IA ou toute technologie ou tout système fondé sur l’IA, ainsi que toute combinaison de ces technologies ou systèmes. Les participants sont vivement encouragés à éviter autant que possible d’utiliser le terme « IA » et à nommer le type spécifique de technologie ou la société de logiciels, le modèle ou l’outil concret dont il est question dans chaque réponse.
1. DÉFINITIONS
a. Comment définir l’« IA » ?
b. Comment définir les termes clés liés à l’IA, tels que « prise de décision algorithmique », « système à haut risque », « gestion automatisée » ou « discrimination algorithmique » ?
c. Quelles technologies relèvent de l’« IA » et lesquelles n’en relèvent pas, et pourquoi ?
d. Comment cette définition peut-elle être suffisamment précise pour être utile, tout en restant suffisamment souple pour s’appliquer à des technologies futures qui n’existent peut-être pas encore aujourd’hui ?
2. UTILISATIONS ACTUELLES ET POTENTIELLES DE L’IA
a. Quelles sont les applications les plus courantes de l’IA au Canada aujourd’hui ?
b. De quelle manière vous, votre organisation ou votre communauté utilisez-vous l’IA ?
c. De quelle manière et dans quels environnements l’utilisation de l’IA — par vous-même ou par d’autres — a-t-elle eu un impact sur vous, votre famille et vos amis, vos collègues, vos camarades de classe, vos étudiants, vos cercles sociaux ou votre communauté ?
d. Y a-t-il des cas où un outil ou une application d’IA vous a été bénéfique, à vous ou à votre communauté ? Si oui, lesquels et comment ?
e. Existe-t-il des types ou des cas d’utilisation de l’IA qui ont un coût, mais dont les avantages l’emportent clairement et de manière significative sur les coûts ? Quels sont-ils et pourquoi ?
f. Existe-t-il des types ou des cas d’utilisation de l’IA qui n’ont aucun coût ? Quels sont-ils ?
g. Voyez-vous une utilisation bénéfique d’une technologie particulière basée sur l’IA qui est tout à fait possible aujourd’hui (c’est-à-dire qui ne nécessite pas de progrès technologiques supplémentaires ou nouveaux pour être réalisée), mais qui, à votre connaissance, n’a pas encore été mise en œuvre ? De quoi s’agit-il, quels sont les avantages et quels sont les obstacles à sa mise en œuvre ?
h. Quels types de mesures de protection sont actuellement en place pour protéger les personnes contre les conséquences néfastes de l’utilisation ou du déploiement de l’IA ? Ces mesures de protection sont-elles efficaces, et pourquoi ?
3. MAIN-D’ŒUVRE
a. Comment l’IA a-t-elle influencé votre vie professionnelle et/ou comment pensez-vous qu’elle l’influencera à l’avenir ?
b. Quel est l’impact de l’IA sur les droits du travail ou d’autres questions liées au travail ?
c. Comment certains types de travail (par exemple, les emplois précaires, les entrepreneurs indépendants) ou certains secteurs d’activité (par exemple, l’industrie manufacturière, l’agriculture, les soins de santé, les arts créatifs) sont-ils particulièrement touchés par l’IA ?
d. Quel est l’impact de l’IA sur les relations entre employeurs et employés ?
4. IMPACTS ENVIRONNEMENTAUX ET CENTRES DE DONNÉES
a. Quels sont les enjeux et les implications de l’IA pour l’environnement et les changements climatiques ?
b. Quel est l’impact d’une mise à fond sur l’IA sur l’approche du Canada en matière de ressources naturelles, d’énergie, d’émissions de carbone et d’autres formes de pollution (air, eau, sol), tant au niveau des politiques locales que dans la vie quotidienne des individus ?
c. Quels sont vos enjeux et vos préoccupations concernant la construction de centres de données d’IA ?
d. Y a-t-il des enjeux ou des implications différents selon l’emplacement où un centre de données est construit (par exemple, dans une communauté rurale, sur une île, sur des territoires autochtones) ? Si oui, quels sont-ils ?
e. Quelles sont les préoccupations et les avantages liés au développement de centres de données au Canada ?
f. Quels dangers ou avantages les gouvernements fédéral, provinciaux, territoriaux et municipaux peuvent-ils attendre d’un investissement dans des centres de données ?
5. DROITS DES PEUPLES AUTOCHTONES
a. Comment les questions liées à l’IA influent-elles sur les systèmes juridiques autochtones, les connaissances traditionnelles, les droits fonciers et les titres fonciers, le droit à l’autonomie gouvernementale et la souveraineté numérique et des données des Autochtones (y compris les principes de propriété, de contrôle, d’accès et de possession [OCAP]) ?
b. Que faut-il faire pour garantir que toute « stratégie nationale en matière d’IA » du Canada respecte les obligations du pays en vertu des traités préexistants, adhère à la Déclaration des Nations Unies sur les droits des peuples autochtones (UNDRIP) et fasse progresser les 94 appels à l’action issus de la Commission de vérité et réconciliation ?
6. ÉGALITÉ RÉELLE, DISCRIMINATION ET OPPRESSION MOTIVÉE PAR LA HAINE
L’égalité réelle est l’idée selon laquelle différents groupes doivent être traités différemment afin de tenir compte du fait qu’ils ne partent pas tous du même point de départ. Ce concept a été établi par la Cour suprême du Canada dans le droit constitutionnel canadien, par opposition à l’égalité formelle, qui consiste à traiter tout le monde de la même manière même si les personnes concernées partent de situations différentes, perpétuant ainsi l’inégalité initiale. Dans le cadre de la présente consultation, le terme « égalité » désigne l’égalité réelle, également appelée équité, et les réponses doivent également traiter de l’égalité en tant qu’égalité réelle.
a. Quelle est la prévalence de la discrimination facilitée par l’IA ou algorithmique fondée sur des catégories protégées telles que la race, le sexe et l’âge ? Cette discrimination est-elle plus prononcée dans certains secteurs que dans d’autres ? Si oui, lesquels ?
b. Plus précisément, comment l’utilisation ou le déploiement de l’IA favorise-t-il ou compromet-il l’égalité des sexes, la justice raciale, l’égalité socio-économique, l’égalité en matière d’orientation sexuelle et d’identité de genre, les droits des personnes handicapées ou la justice pour les migrants et les réfugiés ?
c. Existe-t-il des cas de discrimination facilitée par l’IA ou algorithmique qui sont difficiles à identifier ou à mesurer lorsqu’ils se produisent ? Quels sont-ils et que peut-on faire pour y remédier et lutter contre leur invisibilité ?
d. Existe-t-il des moyens d’utiliser véritablement l’IA pour réduire les inégalités ou atténuer ou prévenir la discrimination abusive, qui ne présentent pas les écueils du technosolutionnisme et ne se heurtent à aucune des questions abordées dans les questions précédentes ?
e. Quels sont les exemples d’utilisations ou de déploiements de l’IA qui pourraient sembler faire progresser ou promouvoir l’égalité, mais qui, en réalité, appliquent une approche formelle de l’égalité, sapant ainsi l’égalité réelle ?
f. Comment l’IA est-elle utilisée pour victimiser, persécuter, harceler, maltraiter, exercer des violences et/ou diriger et inciter à la haine contre des personnes, en particulier les membres de communautés historiquement marginalisées ? Les exemples incluent les violences sexistes, les violences conjugales et autres formes de violences et d’abus fondés sur l’identité. Que faut-il faire pour atténuer ou prévenir ce phénomène ?
g. Quels types de recours juridiques et de réparations devraient être accordés aux personnes qui sont victimes de violences, d’abus et de harcèlement sexistes ou autres formes de violence oppressive fondée sur la haine, facilités par l’IA ?
7. BIEN-ÊTRE MENTAL, SOCIAL ET COGNITIF
a. Quels problèmes cognitifs, de santé mentale ou psychologiques découlent de certaines utilisations de l’IA ou de son utilisation par certains groupes vulnérables (par exemple, les enfants, les lycéens, les personnes âgées) dans certaines circonstances (par exemple, conversations quotidiennes prolongées avec un chatbot flagorneur tel que ChatGPT, externalisation de tâches cognitives de base et de la pensée critique) ?
b. Comment les personnes ou les entreprises déploient-elles l’IA de manière à manipuler les gens ou à compromettre ou déformer l’action humaine ? Que faut-il faire à ce sujet ?
c. De quelle manière l’utilisation de l’IA a-t-elle été bénéfique ou néfaste pour les communications et les relations interpersonnelles ?
8. MÉDECINE ET SOINS DE SANTÉ
a. Quels sont les avantages et les inconvénients liés à l’utilisation de certains types d’IA dans les soins médicaux, la recherche médicale, les dispositifs médicaux et les soins infirmiers ?
b. Comment atténuer ou prévenir les risques, les problèmes et les conséquences négatives liés à l’utilisation de l’IA dans les applications liées à la santé ?
9. ENFANTS ET JEUNES
a. Existe-t-il des utilisations ou des déploiements de l’IA auxquels les enfants ou les adolescents sont particulièrement vulnérables ou sensibles ? Quels sont-ils et pourquoi ?
b. Quels types d’utilisations de l’IA concernant les enfants et les adolescents, ainsi que la collecte, l’utilisation et la divulgation des données qui y sont associées, sont les plus préoccupants ? Que faut-il faire à leur sujet ?
c. Dans quelle mesure les règles de réglementation commerciale devraient-elles distinguer les différents groupes d’âge parmi les enfants (par exemple, les tout-petits, les préadolescents, les adolescents) ?
d. Quelles mesures de protection des enfants et des jeunes contre les préjudices facilités par l’IA recommanderiez-vous ou déconseilleriez-vous (par exemple, consentement ou contrôle parental, vérification de l’âge (et de quel type), interdictions ou prohibitions totales, conception des produits) ?
e. Le développement ou l’adoption de l’IA contribue-t-il à la prolifération du matériel pédopornographique (« CSAM ») ? Si oui, comment, et que faudrait-il faire pour remédier à ce problème ?
10. JUSTICE, APPLICATION DE LA LOI ET SÉCURITÉ NATIONALE
a. Quels sont les principaux enjeux et implications liés à l’utilisation de l’IA dans les domaines de l’application de la loi, de la justice pénale, du renseignement et de la sécurité nationale ?
b. Quels sont les principaux enjeux et implications liés à l’utilisation de l’IA dans d’autres domaines du système judiciaire, tels que le système de justice civile (par exemple, utilisation par des personnes se représentant elles-mêmes dans des affaires judiciaires, utilisation par des avocats pour conseiller leurs clients, examen de documents, dossiers judiciaires, prise de décision judiciaire) ?
11. SERVICES PUBLICS, AGENCES GOUVERNEMENTALES ET ORGANISMES ADMINISTRATIFS
a. Comment l’IA est-elle actuellement utilisée par les organismes gouvernementaux aux niveaux provincial, territorial ou fédéral ? Quels sont ses effets sur les citoyens ?
b. Quels sont les principaux enjeux et implications liés à l’utilisation de l’IA par les organismes gouvernementaux autres que ceux chargés de l’application de la loi et de la sécurité nationale, par exemple dans le contexte de la protection sociale, du logement social, de l’impôt sur le revenu, de l’éducation (primaire, secondaire, postsecondaire) et/ou d’autres services publics ou organismes administratifs ?
12. CONFIDENTIALITÉ ET PROTECTION DES DONNÉES
a. Quels sont les enjeux et les implications en matière de confidentialité, de protection des données et de surveillance liés à l’utilisation de l’IA par les particuliers, les gouvernements et/ou les entreprises ?
b. Comment ces risques peuvent-ils être atténués, ou peuvent-ils l’être ?
c. Quels sont les enjeux constitutionnels les plus préoccupants en matière de confidentialité et/ou les enjeux les plus préoccupants en matière de confidentialité des consommateurs ?
d. L’utilisation ou le déploiement de l’IA entraîne-t-il des risques pour la cybersécurité ou des vulnérabilités du système, et comment/pourquoi ?
13. CONSENTEMENT
a. Dans quelles circonstances, cas d’utilisation ou déploiements le consentement est-il une mesure efficace pour réglementer et prévenir les effets néfastes de l’IA ? Dans quelles circonstances, cas d’utilisation ou déploiements le consentement est-il moins efficace ou inefficace en tant que mesure ? Quels sont les facteurs qui déterminent l’efficacité ou non du consentement en tant que mécanisme ?
b. Existe-t-il des utilisations de l’IA qui devraient être interdites, que la ou les personnes concernées aient donné leur consentement ou non ? Si oui, lesquelles et pourquoi ?
c. Compte tenu de la nature des systèmes d’IA, les utilisateurs, les consommateurs ou les personnes concernées peuvent-ils retirer leur consentement une fois qu’il a été donné ? Pourquoi ou pourquoi pas, et comment cela devrait-il influencer la législation et l’élaboration des politiques en matière d’IA ?
d. Dans le contexte d’un système d’IA donné, que signifie le fait qu’une personne ait donné un consentement significatif, valide et éclairé ? Les exigences pour répondre à cette norme de consentement devraient-elles différer selon le groupe (par exemple, les enfants, les adolescents, les parents, les personnes âgées) ?
e. Une personne devrait-elle pouvoir se désinscrire complètement des systèmes d’IA si elle le souhaite, ou dans quelles circonstances ou cas d’utilisation ? Quels sont les avantages ou les inconvénients d’un système d’adhésion volontaire par rapport à un système de désinscription (tel que celui qui a été appliqué dans le contexte de la protection de la vie privée et des données) ? Que faudrait-il pour mettre en place un système d’adhésion ou de désengagement universel unique pour les consommateurs ou les personnes concernées par un système d’IA donné ? La loi devrait-elle exiger que cette option soit offerte aux personnes (par exemple, dans les appareils électroniques, dans les décisions concernant des intérêts juridiques ou similaires importants, dans les salles de classe) ?
14. DROITS CONSTITUTIONNELS, DROITS DE L’HOMME ET DÉMOCRATIE
a. Quelles sont les implications en matière de droits humains et de libertés civiles découlant de l’adoption, de la mise en œuvre et du déploiement à grande échelle de certains types d’IA ? Tenez compte des droits constitutionnels et humains tels que l’égalité, la vie privée, la liberté d’expression, la liberté d’association et de réunion pacifique, ainsi que la vie, la liberté et la sécurité de la personne.
b. Existe-t-il des cas d’utilisation ou des déploiements de l’IA qui soulèvent des questions constitutionnelles telles que la séparation des pouvoirs, les principes de justice fondamentale ou les valeurs de la Charte telles que la dignité et l’autonomie ? Quels sont-ils, et pourquoi/comment ?
c. Quels risques l’adoption, la mise en œuvre et le déploiement généralisés de l’IA font-ils peser sur la démocratie et les institutions démocratiques ? Ces risques peuvent-ils être atténués ou évités, et si oui, comment ?
15. ÉCOSYSTÈME MÉDIA ET INFORMATION
a. Quel a été l’impact de l’IA sur l’écosystème médiatique et l’environnement informationnel global en ligne et dans le monde en général ?
b. Comment l’utilisation de l’IA a-t-elle affecté les médias traditionnels, les médias en ligne et l’industrie du journalisme ?
c. Comment l’utilisation, l’adoption ou le déploiement de l’IA ont-ils eu un impact particulier sur les médias indépendants, les journalistes indépendants ou les médias d’information plus petits et plus locaux ?
d. Comment la santé, la résilience, l’intégrité et la fiabilité de l’environnement de l’information et des médias peuvent-elles être protégées et renforcées face à l’IA générative et aux autres systèmes d’IA ?
16. SCIENCE, RECHERCHE ET SYSTÈMES DE CONNAISSANCE
a. Quels sont les avantages et les inconvénients liés à l’utilisation de l’IA dans la recherche scientifique et ses applications ?
b. Les modèles d’apprentissage automatique (LLM) et autres techniques d’apprentissage automatique sont connus pour produire des erreurs inhérentes aux résultats générés statistiquement. Qu’est-ce que cela signifie pour la fiabilité des systèmes d’IA ? Dans quelles conditions peut-on leur faire confiance et dans quels domaines d’application potentiels ne sont-ils pas adaptés ?
17. IMPLICATIONS ÉCONOMIQUES
a. Y a-t-il lieu de s’inquiéter que le niveau actuel des investissements nationaux et mondiaux dans l’IA représente une « bulle IA » ? Si oui, pourquoi, et quelle est l’importance de cette préoccupation ?
b. De quoi le gouvernement devrait-il se préoccuper en ce qui concerne cette bulle IA et son impact potentiel sur l’économie, la société et les groupes vulnérables si ou quand la bulle éclatera ? À quoi ressemble le pire scénario possible ?
c. Que peut-on ou doit-on faire dès maintenant pour prévenir ou atténuer les effets négatifs de l’éclatement d’une bulle de l’IA ?
d. Comment l’IA affecte-t-elle ou affectera-t-elle le secteur financier (par exemple, les banques, les systèmes de paiement traditionnels et numériques, les valeurs mobilières, les assurances, les retraites) ?
e. Quels sont les différents modèles économiques liés à l’IA ? Comment fonctionnent-ils et sur quoi reposent-ils pour réussir ? Sont-ils durables, et pourquoi ? Ont-ils des externalités négatives ? Si oui, lesquelles ?
f. Quels sont les enjeux liés aux infrastructures soulevés ou influencés par l’intérêt et les investissements du Canada dans l’IA ? Comment une « stratégie nationale en matière d’IA » s’articulerait-elle avec les infrastructures existantes et les enjeux connexes ?
18. « SOUVERAINETÉ » NUMÉRIQUE ET IA
a. Une grande partie de la vague actuelle d’investissements exceptionnellement importants dans l’IA est le fait d’entreprises et de gouvernements de grands pays autres que le Canada, qui consolident ainsi leur propre pouvoir et acquièrent un plus grand contrôle sur l’avenir de l’IA dans leur juridiction. Quelles sont les implications pour les intérêts nationaux et la souveraineté du Canada ? Que devrait faire le gouvernement canadien à cet égard ?
b. Comment définiriez-vous la « souveraineté en matière d’IA » ou la « souveraineté numérique » ? S’agit-il d’un concept utile pour orienter la législation, les politiques, la réglementation et/ou la gouvernance canadiennes en matière d’IA, et pourquoi ?
c. Comment le concept de « souveraineté numérique canadienne » fonctionne-t-il en tant que cadre – ou peut-il fonctionner – lorsqu’il est associé à la réconciliation et à la souveraineté autochtone, y compris la souveraineté numérique autochtone ?
19. SYSTÈMES AUTOMATISÉS D’AIDE À LA DÉCISION
a. Quelle est la prévalence des erreurs algorithmiques ? Dans quelle mesure les erreurs algorithmiques sont-elles inévitables ? Si elles sont inévitables, quels sont les avantages et les coûts liés au fait d’autoriser les entreprises à utiliser des systèmes décisionnels automatisés dans des domaines critiques tels que le logement, le crédit et l’emploi ? Dans quelle mesure les entreprises peuvent-elles atténuer les erreurs algorithmiques en l’absence de nouvelles règles de réglementation commerciale ?
b. Quels sont les meilleurs moyens de mesurer les erreurs algorithmiques ? Sont-elles plus prononcées ou plus fréquentes dans certains secteurs que dans d’autres ?
c. Le poids accordé par les entreprises aux résultats des systèmes de prise de décision automatisés surestime-t-il leur fiabilité ? Si oui, cela peut-il entraîner un préjudice plus important pour les consommateurs en cas d’erreurs algorithmiques ?
d. Dans quelle mesure, le cas échéant, les nouvelles lois devraient-elles obliger les entreprises à prendre des mesures spécifiques pour prévenir les erreurs algorithmiques ? Si oui, quelles mesures ? Dans quelle mesure, le cas échéant, le gouvernement ou un organisme de réglementation indépendant devrait-il exiger des entreprises qu’elles évaluent et certifient que leur recours à la prise de décision automatisée répond à des normes claires en matière d’exactitude, de validité, de fiabilité ou d’erreur ? Si oui, comment ? Qui devrait fixer ces normes : le gouvernement, un organisme indépendant, les entreprises elles-mêmes ou quelqu’un d’autre ?
e. Dans quelle mesure, le cas échéant, les consommateurs tirent-ils profit des systèmes décisionnels automatisés ? Qui est le plus susceptible d’en bénéficier ? Qui est le plus susceptible d’être lésé ou désavantagé ? Dans quelle mesure ces pratiques enfreignent-elles la législation relative aux droits de l’homme, les lois sur la protection de la vie privée ou les normes de protection des consommateurs ?
f. De nouvelles lois ou réglementations pourraient-elles contribuer à garantir que les pratiques décisionnelles automatisées des entreprises protègent mieux les communautés non anglophones contre la fraude et les pratiques abusives en matière de données ? Si oui, comment ?
g. Si de nouvelles lois ou réglementations restreignent certaines pratiques de prise de décision automatisée, quelles alternatives, le cas échéant, pourraient les remplacer ? Ces techniques alternatives seraient-elles moins sujettes à l’erreur que la prise de décision automatisée qu’elles remplacent ?
h. Dans quelle mesure, le cas échéant, les nouvelles lois devraient-elles interdire ou limiter le développement, la conception et l’utilisation de systèmes de prise de décision automatisée qui génèrent ou facilitent des résultats violant les droits de l’homme ou d’autres lois canadiennes ? Ces lois devraient-elles s’appliquer à l’ensemble de l’économie ou seulement à certains secteurs ? Dans ce dernier cas, lesquels ? Ces règles devraient-elles être structurées différemment selon le secteur ? Si oui, comment ?
i. Quel serait l’effet des restrictions sur la prise de décision automatisée en matière d’accès aux produits, de caractéristiques des produits, de qualité des produits ou de tarification ? Vers quelles autres formes de tarification les entreprises se tourneraient-elles, le cas échéant ?
20. LUTTER CONTRE LA DISCRIMINATION ALGORITHMIQUE
a. Comment le gouvernement, les régulateurs, les développeurs de technologies ou les utilisateurs d’outils d’IA (par exemple, les employeurs, les propriétaires immobiliers, les banques) devraient-ils traiter cette discrimination algorithmique ? Comment la discrimination peut-elle ou doit-elle être identifiée ou gérée sur la base de critères indirects pour les catégories protégées ? Comment la discrimination doit-elle être analysée et prise en compte dans une perspective intersectionnelle, lorsque plusieurs catégories protégées sont impliquées pour un même individu ou une même communauté ?
b. Y a-t-il des considérations particulières, juridiques ou autres, à prendre en compte lors de l’analyse des préjudices subis par des groupes historiquement marginalisés qui ne sont pas nécessairement protégés par le droit relatif aux droits de l’homme (tels que les locataires à faibles revenus ou les personnes sans domicile) ?
c. Faut-il créer de nouvelles lois pour lutter contre la discrimination algorithmique, et comment ces lois interagiraient-elles avec les lois existantes qui traitent de la discrimination dans des domaines tels que le logement, l’emploi, le travail et l’éducation ? Faut-il adopter différentes lois traitant de la discrimination algorithmique au sein de secteurs spécifiques et adaptées à ceux-ci, ou faut-il adopter une législation globale qui s’applique à tous les secteurs ?
d. Devrait-il y avoir une exemption dans les lois sur la discrimination algorithmique pour les systèmes qui différencient et ciblent différents groupes afin d’atténuer la discrimination historique et systémique (par exemple, les programmes d’action positive) ? Comment une telle exemption fonctionnerait-elle et qu’est-ce qui l’empêcherait de permettre une discrimination interdite ?
21. RÉGLEMENTATION ET LÉGISLATION EN MATIÈRE D’IA
a. Quels enseignements le gouvernement fédéral devrait-il tirer des approches précédentes, des échecs et des leçons apprises lors des précédents changements sociétaux majeurs et cycles de hype technologique, qu’il s’agisse de l’Internet sans fil, du bug de l’an 2000, des smartphones, du « big data », des réseaux sociaux, des nouveaux médias ou des plateformes numériques ?
b. Existe-t-il des cadres législatifs appropriés pour soutenir une « stratégie nationale en matière d’IA » juste et significative ? Quelles lois canadiennes s’appliquent déjà à l’IA (et comment), et quelles nouvelles lois sont nécessaires, le cas échéant ?
c. Que peut-on apprendre des mesures déjà prises dans d’autres pays ou juridictions (par exemple, l’UE) en matière de réglementation globale de l’IA ? Y a-t-il des lois, des règlements ou des initiatives spécifiques (à tous les niveaux de gouvernement, du local au fédéral) que vous recommanderiez au Canada d’imiter ou d’éviter ?
d. Y a-t-il d’autres juridictions que les États-Unis, le Royaume-Uni ou l’UE vers lesquelles le Canada devrait se tourner pour trouver de bons exemples de lois, de politiques, de réglementations ou de gouvernance en matière d’IA, en particulier dans les pays du Sud ?
e. Y a-t-il des utilisations de l’IA qui devraient être purement et simplement interdites, et non simplement réglementées (à l’instar des « zones interdites » établies par le Commissariat à la protection de la vie privée du Canada ou des applications interdites par la loi européenne sur l’IA) ? Si oui, lesquelles et pourquoi ?
f. Y a-t-il des considérations liées à l’IA qui s’appliquent particulièrement aux communautés et aux environnements ruraux et isolés ?
g. Existe-t-il des approches en matière de réglementation de l’IA qui pourraient faire l’objet de contestations constitutionnelles ou juridiques ? Comment ces contestations pourraient-elles être traitées ou prises en compte ?
h. Dans quels contextes les exigences de transparence ou de divulgation sont-elles efficaces ? Dans quels contextes sont-elles moins efficaces ou inefficaces ?
i. Quels sont les organismes gouvernementaux qui devraient être chargés de superviser et d’appliquer les lois et les règlements relatifs à l’IA, ou aux différentes utilisations et déploiements de l’IA? Comment leurs rôles institutionnels, leur expertise et leurs pouvoirs respectifs peuvent-ils ou devraient-ils se compléter? On peut citer comme exemples Industrie Canada (ou Industrie, Sciences et Développement économique), Patrimoine Canada, le ministère de la Justice, le Commissariat à la protection de la vie privée du Canada, les commissaires à la protection de la vie privée des provinces et des territoires, la Commission canadienne des droits de la personne et le Tribunal canadien des droits de la personne, les commissions et tribunaux provinciaux des droits de la personne, ainsi que le Conseil de la radiodiffusion et des télécommunications canadiennes. Faut-il attribuer différentes fonctions à différents ministères ou organismes de réglementation, ou créer un groupe de travail interministériel conjoint ou un nouvel organisme ou organisme de réglementation autonome ?
j. Comment les législateurs et les organismes de réglementation devraient-ils tenir compte des progrès technologiques ou de l’émergence de nouveaux modèles commerciaux dans le domaine de l’IA afin de garantir la pérennité des lois, des politiques, de la réglementation et de la gouvernance en matière d’IA ?
22. RESPONSABILITÉ, RECOURS ET RECOURS
a. Quel régime de responsabilité devrait s’appliquer aux préjudices causés par l’utilisation et le déploiement de l’IA ? La sanction devrait-elle varier en fonction de l’âge de la victime ou de sa situation économique ou sociale ?
b. Quels recours juridiques devraient être mis à la disposition des personnes lésées par l’utilisation de l’IA ?
c. Comment les auteurs d’actes de violence, d’abus ou d’activités criminelles facilités par l’IA devraient-ils être tenus responsables des préjudices et des dommages causés par leurs actions ? Quelle est la sanction appropriée pour une personne qui se livre à de tels actes ? (Par exemple, des amendes, des peines de prison ou autre chose ?)
d. Les entreprises (par exemple OpenAI) qui développent, vendent ou mettent à disposition (par exemple Google Play ou Apple Store) ou hébergent des technologies d’IA spécifiques, ou leurs dirigeants, devraient-ils être tenus responsables des dommages, préjudices ou autres conséquences négatives causés par l’utilisation ou le déploiement de ces technologies ? Quels acteurs de la « chaîne d’approvisionnement de l’IA » devraient ou ne devraient pas être tenus responsables, et pourquoi ? À quoi devrait ressembler cette responsabilité ? (Par exemple, amendes, peines d’emprisonnement, restitution des profits, suppression des modèles algorithmiques ?)
Sources utilisées pour les questions (en anglais)
- Projet de charte des droits relatifs à l’IA (Bureau américain de la politique scientifique et technologique)
- Règlementation en matière de surveillance commerciale et de sécurité des données (Commission fédérale du commerce des États-Unis)
- Consultation publique sur les exigences de transparence pour certains systèmes d’IA (Commission européenne)
- Consultation ciblée sur l’intelligence artificielle dans le secteur financier (Commission européenne)