Passer au contenu principal
recherche

La forme d'intelligence artificielle (IA) la plus populaire aujourd'hui – l'apprentissage automatique – est souvent appelée boîte noire, car les humains ne peuvent pas voir à l'intérieur pour comprendre ses décisions. Selon une nouvelle audience devant le régulateur national des communications, les Canadiens pourraient être encore plus exclus, laissés dans l'ignorance en raison des règles de confidentialité proposées. Le résultat permettra de tester si les nouveaux systèmes d'IA peuvent être responsables devant un contrôle démocratique via les instruments traditionnels du droit public.

Le Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) est un organisme administratif quasi judiciaire qui s'appuie sur des instances publiques ouvertes pour constituer un dossier probatoire public sur la base duquel il prend ses décisions. Les décisions du CRTC sont fondées sur le dossier public qu'il a élaboré conformément à un avis de consultation et peuvent être portées en appel devant la Cour d'appel fédérale (CAF) et/ou le gouverneur en conseil (GC), selon le fondement de l'appel (c. erreur de droit vs. politique respectivement).

L'été dernier, Bell Canada a demandé d'utiliser un système d'apprentissage automatique confidentiel pour filtrer les appels téléphoniques frauduleux et frauduleux. Le CRTC a approuvé l'application d'essai du système et le mois dernier, Bell a demandé de mettre le système en place à perpétuité. Nous avons d'abord participé parce que nous voulions développer une meilleure surveillance publique de l'IA. Grâce au niveau inhabituel de secret de Bell et au défaut de répondre à nos demandes d'information dans le domaine public, nous sommes devenus de plus en plus préoccupés par les implications en matière de confidentialité et de sécurité du système de Bell pour les Canadiens.

La demande de Bell Canada a été fortement rédigée, fournissant peu d'informations sur le type d'informations qu'elle recueille auprès des Canadiens pour former son système d'IA et classer les appels. Un tel secret, selon Bell, est nécessaire pour éviter d'avertir les «mauvais acteurs». Nous objectons. L'affaire crée un précédent inquiétant pour le premier cas connu d'IA dans les systèmes de communication réglementés du Canada. L'IA est déjà difficile à expliquer sans le secret supplémentaire.

Maintenant, au lieu d'un débat public ouvert sur les avantages et les risques du système de Bell, l'audience du CRTC est devenue un débat sur l'avenir de la preuve publique et de la participation du public aux instances réglementaires publiques. Bell a présenté aux intervenants ce qu'elle appelle un « compromis », selon lequel les intervenants « légitimes » ont la possibilité de signer un accord de non-divulgation (NDA) avec Bell s'ils souhaitent voir des preuves secrètes qu'elle a fournies au CRTC.

Avec si peu d'informations sur les éléments de base du système dans les archives publiques, les intervenants qui ne signent pas l'accord de non-divulgation par principe n'auront aucune idée du fonctionnement du système, des types d'informations qu'il recueille, de son potentiel de bloquer des appels légitimes, et risques pour la vie privée des Canadiens. Le hic, c'est que signer la NDA de Bell pour nous limiterait la publicité d'une instance publique. Si nous signions la NDA de Bell pour voir les preuves qu'elle a présentées au CRTC, nous ne serions pas en mesure de discuter des risques potentiels dans le dossier public et d'informer le public comme nous le faisons ici. Du point de vue du processus juridique, il n'est pas clair comment les décisions fondées sur des informations secrètes en première instance par le CRTC peuvent être portées en appel plus tard en audience publique et/ou via les mécanismes d'appel ouverts du gouverneur en conseil (GC) que le Parlement a établis pour assurer la responsabilité des décisions réglementaires.

Nous avons récemment déposé notre opposition au système NDA proposé par Bell. Le CRTC est jusqu'à présent d'accord avec l'approche proposée par Bell, mais nous espérons qu'elle changera d'avis. Nous pensons que notre intervention contribue à révéler l'enjeu fondamental de cette instance. Il explique comment l'utilisation des accords de non-divulgation dans les procédures publiques est incompatible avec les objectifs fondamentaux du Parlement en exigeant des procédures publiques ouvertes et une prise de décision administrative fondée sur des preuves. Si les systèmes d'IA ne peuvent être discutés qu'en toute confiance, alors ils sont en décalage avec les principes de la gouvernance démocratique et deviendront de plus en plus irresponsables vis-à-vis des souhaits collectifs des humains, tels qu'ils sont reflétés dans nos lois et institutions publiques qui les appliquent.

Vouloir en savoir davantage? Voici la soumission du CRTC

Fenwick McKelvey est professeur agrégé en politique des technologies de l'information et de la communication au Département d'études en communication de l'Université Concordia. 

Reza Rajabiun (MA, LLM, PhD) est un expert en politique de la concurrence et en stratégie des télécommunications, avec des intérêts de recherche dans la fourniture d'infrastructures à large bande, l'évaluation de la qualité des réseaux à large bande et la connectivité rurale.

Ce blog rend compte des travaux réalisés pour un Projet financé par le CRSH, Media Goverance After AI, auquel l'ACLC participe.

À propos de l’association canadienne sur les libertés civiles

L’ACLC est un organisme indépendant à but non lucratif qui compte des sympathisant.e.s dans tout le pays. Fondé en 1964, c’est un organisme qui œuvre à l’échelle du Canada à la protection des droits et des libertés civiles de toute sa population.

Pour les médias

Pour d'autres commentaires, veuillez nous contacter à media@ccla.org.

Pour les mises à jour en direct

Veuillez continuer à vous référer à cette page et à nos plateformes de médias sociaux. On est dessus InstagramFacebook, et Twitter.

Fermer le menu
fr_CAFrançais du Canada