Skip to main content
search

L'ACLC et Privacy International ont collaboré pour soumettre une réponse conjointe à la consultation du Commissaire à la protection de la vie privée du Canada sur leur projet de lignes directrices pour l'utilisation par la police de la technologie de reconnaissance faciale.

Nos soumissions mettent en évidence nos préoccupations selon lesquelles en l'absence d'un cadre juridique qui protège adéquatement les personnes contre les atteintes à la vie privée et les impacts discriminatoires que la reconnaissance faciale facilite, et en l'absence d'un débat public approfondi sur non pas « comment », mais « si » cette technologie a un rôle à jouer dans les applications de sécurité publique, ces lignes directrices risquent de légitimer un outil très dangereux.

Comme nous le notons dans les soumissions :

Par conséquent, bien que nous répondions de manière constructive dans cette communication aux questions concernant le texte du projet de lignes directrices, nous souhaitons déclarer dès le départ que nous pensons qu'il devrait y avoir un moratoire sur les TRF à des fins policières en l'absence d'une législation complète et efficace qui

  • fournit un cadre juridique clair pour son utilisation,
  • comprend des dispositions rigoureuses en matière de responsabilité et de transparence,
  •  nécessite une surveillance indépendante, et
  • crée des moyens d'exécution efficaces en cas de non-respect.

Nous considérons en outre que l'utilisation du FRT à des fins de surveillance de masse, c'est-à-dire la reconnaissance faciale largement déployée dans des espaces publics ou accessibles au public pour identifier des individus, présente un potentiel élevé d'abus et crée un risque si grave pour les droits de l'homme. , qu'il n'existe aucun cadre, ni technique ni juridique, qui puisse éradiquer la menace.

Lectures complémentaires :

Comment la reconnaissance faciale est-elle utilisée au Canada? Lisez notre rapport.
Que disent les organisations de défense des droits du monde entier à propos de la reconnaissance faciale ?
Qu'est-ce que l'ACLC a fait d'autre sur le sujet de la reconnaissance faciale ?
Plus de Privacy International sur la reconnaissance faciale.

Téléchargez les soumissions complètes de la consultation ici.

 

Réponse à la consultation : Ébauche de lignes directrices sur la protection de la vie privée sur la reconnaissance faciale pour les services de police
21 octobre 2021

Brenda McPhail
doctorat Directeur de la confidentialité
Association canadienne des libertés civiles
90, avenue Eglinton Est, bureau 900 Toronto
SUR M4P 2Y3
Téléphone : 416-646-1406
www.ccla.org

Lucie Audibert
Juriste
Confidentialité Internationale
62, rue Britton
EC1M 5UY Londres
Royaume-Uni
www.privacyinternational.org

introduction

L'Association canadienne des libertés civiles (« ACLC ») et Privacy International (« PI ») se réjouissent de l'opportunité de fournir cette réponse à l'ébauche des directives sur la protection des renseignements personnels sur la reconnaissance faciale pour les services de police.

L'ACLC est une organisation nationale de défense des libertés civiles indépendante, non gouvernementale, non partisane et à but non lucratif. Fondée en 1964, l'ACLC et ses membres promeuvent le respect et la reconnaissance des droits humains fondamentaux et des libertés civiles. Pendant cinquante ans, l'ACLC a plaidé des affaires d'intérêt public devant les cours d'appel, aidé les gouvernements canadiens à élaborer des lois et publié des commentaires d'experts sur l'état du droit canadien. La technologie de reconnaissance faciale soulève des questions de confidentialité, de surveillance, d'égalité et potentiellement d'autres libertés fondamentales, y compris les droits à la liberté d'expression, de réunion et d'association, qui sont tous au cœur de notre mandat.

En tant qu'organisation de la société civile, la perspective de l'ACLC sur la technologie de reconnaissance faciale, ou comme nous l'appelons souvent, les empreintes digitales faciales, est fondée sur notre mandat de protéger les droits et libertés des individus. Notre expérience comprend l'engagement via nos réseaux internationaux dans les débats généralisés qui ont lieu dans les juridictions du monde entier concernant les risques et les avantages qui pourraient découler de la prolifération des applications de reconnaissance faciale dans les applications d'application de la loi et de sécurité nationale.1 Nous sommes heureux d'avoir le possibilité de collaborer avec des collègues de Privacy International pour présenter cette soumission pour cette consultation.

Privacy International (« PI ») est une organisation non gouvernementale à but non lucratif basée à Londres qui recherche, défend et plaide à l'échelle mondiale contre les abus de données et de technologie par les gouvernements et les entreprises. PI est fréquemment appelé à témoigner devant des comités parlementaires et gouvernementaux du monde entier sur des questions de confidentialité et a conseillé et fait rapport, entre autres, au Parlement britannique, au Conseil de l'Europe, au Parlement européen, à l'OCDE et à l'ONU. PI agit également régulièrement en tant que demandeur ou intervenant dans des affaires impliquant le droit à la vie privée, ayant précédemment agi devant les tribunaux du Royaume-Uni, de la Colombie, du Kenya, de la France, de l'Allemagne, des États-Unis, ainsi que de la Cour européenne des droits de l'homme.

PI s'engage régulièrement auprès des autorités au Royaume-Uni et à l'étranger pour mettre en garde contre les risques de la technologie de reconnaissance faciale et pour s'assurer que toute utilisation est légale et respecte les droits fondamentaux.2 Plus récemment, nous avons déposé des plaintes auprès des autorités de protection des données dans cinq pays européens. contre l'entreprise de grattage Web et de reconnaissance faciale Clearview AI, et contre l'utilisation de sa technologie par les autorités chargées de l'application des lois.3 Nous saluons les efforts du commissaire pour renforcer le cadre entourant l'utilisation de la reconnaissance faciale par la police, et sommes très reconnaissants au commissaire et à l'ACLC pour cette occasion d'apporter nos points de vue.

Nos réponses abordent sélectivement les questions posées dans l'avis de consultation.

Encadrer l'initiative

Ces lignes directrices présentent à la fois des opportunités et des risques. Les organismes canadiens d'application de la loi ont été un peu plus prudents dans leur adoption de la technologie de reconnaissance faciale (FRT) que leurs pairs aux États-Unis ou au Royaume-Uni, mais comme l'a montré la débâcle de Clearview AI4, il existe un intérêt important à expérimenter et à intégrer cette technologie. technologie dans une gamme d'activités policières dans les forces à travers le Canada. Il est temps que le Commissariat à la protection de la vie privée du Canada et ses collègues provinciaux profitent de l'occasion pour publier des directives pour s'assurer que l'approvisionnement, les tests et l'utilisation du TRF par les services de police sont conformes aux lois sur la protection de la vie privée et respectent la Charte des droits et libertés. , et n'est entrepris qu'avec une attention particulière aux meilleures pratiques et principes de confidentialité. Le risque d'émettre de telles directives, cependant, est que la conversation se déplace alors pour se concentrer sur « comment » utiliser la technologie d'une manière respectueuse des droits, plutôt que « si » il est possible de le faire. À l'ACLC et à l'IP, nous pensons que la question du « si » devrait toujours être au centre des discussions publiques sur cette technologie controversée, risquée et souvent raciste5. meurtre de George Floyd, qui a eu des répercussions au Canada jusqu'à et y compris la revitalisation des débats concernant la réaffectation des tâches et le définancement de la police.6

Par conséquent, bien que nous répondions de manière constructive dans cette communication aux questions concernant le texte du projet de lignes directrices, nous souhaitons déclarer dès le départ que nous pensons qu'il devrait y avoir un moratoire sur les TRF à des fins policières en l'absence d'une législation complète et efficace qui

  • fournit un cadre juridique clair pour son utilisation,
  • comprend des dispositions rigoureuses en matière de responsabilité et de transparence,
  • nécessite une surveillance indépendante, et
  • crée des moyens d'exécution efficaces en cas de non-respect.

Nous considérons en outre que l'utilisation du FRT à des fins de surveillance de masse, c'est-à-dire la reconnaissance faciale largement déployée dans des espaces publics ou accessibles au public pour identifier des individus, présente un potentiel élevé d'abus et crée un risque si grave pour les droits de l'homme. , qu'il n'existe aucun cadre, ni technique ni juridique, qui puisse éradiquer la menace7. Notons que le Parlement européen, dans le cadre de ses délibérations autour de la proposition de loi sur l'intelligence artificielle8, a récemment voté en faveur d'une interdiction de la masse biométrique surveillance et a appelé à l'interdiction d'utiliser des bases de données privées de reconnaissance faciale.9

Répondre aux questions de consultation

Cette orientation aura-t-elle l'effet escompté d'aider à garantir que l'utilisation du RF par les services de police est légale et atténue de manière appropriée les risques pour la vie privée ? Si vous n'y croyez pas, pourquoi ?
Cette orientation peut-elle être mise en œuvre concrètement ?

Ces orientations peuvent aider en demandant aux corps de police de prendre en compte une série de facteurs importants et de principes fondamentaux de confidentialité à travers l'éventail des autorités juridiques pertinentes pour l'utilisation du TRF. Elle est rendue nécessaire mais insuffisante par la réalité que la législation canadienne actuelle est terriblement inadéquate pour traiter les dommages potentiels à la vie privée et les dommages aux droits et libertés pour lesquels la vie privée sert de seuil ou de droit de passerelle, de cette technologie. Et dans cette déclaration se trouve le hic ; bien que les directives puissent aider à garantir que l'utilisation du FRT par les services de police est légale dans le paysage juridique actuel, la simple conformité légale sera insuffisante pour atténuer pleinement les risques pour les droits, y compris les droits à la vie privée, posés par l'éventail complet des utilisations potentielles du FR dans les services de police .

Cette mise en garde est devenue limpide lorsque l'ACLC a eu le privilège de participer à une réunion organisée par le commissaire à l'information et à la protection de la vie privée de l'Ontario le 16 septembre 2021, avec des représentants des corps policiers et des ministères du procureur général et du solliciteur général. Bien que ce résumé brutal rende un peu mauvais service à la conversation constructive qui a eu lieu, il n'est pas déraisonnable de décrire une rupture grossière entre les participants universitaires et de la société civile, qui se demandaient si les lignes directrices allaient assez loin, et ceux qui avaient la responsabilité plus directe du maintien de l'ordre qui ont généralement exprimé des inquiétudes quant au fait que les lignes directrices allaient plus loin à certains égards que ne le justifiait la législation actuelle.

Ce n'est pas une raison pour réduire les aspects ambitieux des lignes directrices ou des recommandations basées sur les meilleures pratiques en matière de confidentialité, y compris l'importance d'une analyse de nécessité et de proportionnalité lorsqu'on envisage une surveillance publique invasive. Mais c'est une indication que la mise en œuvre pratique peut être, au mieux, incohérente. C'est particulièrement le cas étant donné que le conseil aux corps policiers pour naviguer dans l'ensemble vraiment complexe d'autorités juridiques, y compris les pouvoirs statutaires et de common law pour les pouvoirs de police, les lois fédérales ou provinciales pertinentes sur la protection des renseignements personnels et la Charte des droits et libertés, est de consulter conseiller juridique. En tant qu'étape pragmatique, cela a du sens. En tant que stratégie d'atténuation efficace des risques pour les droits, elle est insuffisante pour deux raisons.

Premièrement, tout avis de ce type sera assujetti au secret professionnel de l'avocat et, en tant que tel, sera entièrement tenu à l'écart du public. De tels conseils peuvent être bons ou excellents (ou aucun), ils peuvent être efficaces et strictement respectés ou ignorés, ils peuvent s'appuyer sur une évaluation rigoureuse des protections offertes par chaque autorité juridique analysée ou se heurter à la jurisprudence sous-développée dans ce domaine qui semble susceptible de rendre insaisissable la sécurité juridique concernant les nuances de l'utilisation du FRT dans un avenir prévisible. Mais le public ne le saura jamais. Au mieux, comme dans l'affaire Cadillac Fairview, il faudra une enquête de l'OPC pour révéler qu'il y a eu une interprétation discutable de la loi sur la protection de la vie privée de la part d'un acteur du secteur privé.10 Au pire, il n'y aura pas de plainte, pas de enquête et aucune réparation pour une infraction fondée sur de telles interprétations privilégiées. En effet, l'opacité prévue des évaluations juridiques qui, selon les directives, devraient avoir lieu avant l'utilisation du FRT ne laisserait au public aucune idée de la manière dont les corps policiers ont accordé aux droits de l'homme, y compris le droit à la vie privée, la considération voulue et aucun moyen d'évaluer si ces considérations ont ou n'ont pas été prises en compte dans les processus d'acquisition et d'utilisation de la technologie.

Deuxièmement, dans tous ces cas, il existe une véritable question concernant la cohérence avec laquelle les orientations peuvent être interprétées dans de telles circonstances. À cet égard, l'ACLC recommande la soumission à la consultation actuelle des professeures Lisa Austin et Andrea Slane, qui expliquent la complexité du paysage juridique pertinent à l'utilisation du TRF par la police.11 Les gens de partout au Canada méritent une protection égale et cohérente de leurs droits si la police les forces utilisent le FRT. L'obligation de « demander à votre avocat » dans cet environnement juridique incertain, pour cette technologie controversée et en évolution, n'y parviendra pas.

Quelles mesures ou pratiques les services de police peuvent-ils mettre en œuvre pour s'assurer que les tiers impliqués dans les initiatives de RF opèrent avec une autorité légale ?

L'ACLC croit qu'il est important de souligner, tout d'abord, que les lignes directrices sont tout à fait correctes pour imposer aux organismes d'application de la loi utilisant le FRT de s'assurer que les outils qu'ils choisissent sont conformes à toutes les lois canadiennes pertinentes. La résistance de la Gendarmerie royale du Canada (GRC) à accepter la responsabilité de s'assurer que les fournisseurs tiers se conforment à la loi sur la protection des renseignements personnels, documentée dans les conclusions de l'enquête concernant l'utilisation par la GRC de la technologie de reconnaissance faciale Clearview AI, met clairement en évidence la nécessité de cette disposition.12 Elle doit former une partie de chaque processus d'approvisionnement, aller jusqu'à la mise en œuvre et continuer pendant toute la durée de fonctionnement de l'outil. Compte tenu du potentiel de changements technologiques dans les logiciels tiers, une diligence continue en matière de conformité est d'une importance particulière. Le manque d'expertise interne pour effectuer de telles évaluations peut et doit être résolu par une consultation externe indépendante avec des experts, y compris un large éventail de parties prenantes de la communauté. Au paragraphe 69 des orientations, dernier point, nous demandons que la participation d'experts techniques et de groupes de parties prenantes soit considérée comme obligatoire au lieu d'une simple option comme le suggère actuellement le libellé « peut inclure » ; nous suggérons également que les services de police soient tenus de démontrer dans leur rapport d'ÉFVP comment ils ont collaboré avec de tels experts et intervenants communautaires. Les directives devraient également exiger que l'évaluation de la conformité légale et la consultation des parties prenantes externes soient effectuées, complétées et rapportées avant tout essai impliquant des membres du public, et bien sûr avant tout contrat et déploiement réels d'une technologie. Les ressources pour financer une telle consultation doivent être considérées comme faisant partie des coûts d'acquisition et budgétisées en conséquence. Les organismes chargés de l'application de la loi doivent manifestement se conformer à la loi dans toutes leurs transactions si l'on veut obtenir ou mériter la confiance du public.

À ce sujet, PI aimerait souligner que s'assurer que les tiers impliqués dans des initiatives liées à la reconnaissance faciale opèrent avec une autorité légale n'est pas la seule chose dont les services de police devraient s'assurer. Dans ses travaux, PI observe que, alors que les autorités du monde entier cherchent à étendre leurs capacités de surveillance et à exploiter le pouvoir des données pour fournir des services publics, elles ont souvent recours aux services d'entreprises technologiques privées, par le biais de partenariats public-privé (« PPP » ).13 Ces partenariats soulèvent de sérieuses questions de droits humains concernant l'implication d'acteurs privés dans l'utilisation de technologies de surveillance invasives et l'exercice de pouvoirs qui ont été traditionnellement compris comme la prérogative de l'État.

Grâce à son travail d'enquête et le travail de ses partenaires à travers le monde, PI a identifié un certain nombre de problèmes communs aux PPP qui impliquent la technologie de surveillance et/ou le traitement de masse des données. Pour résoudre ces problèmes, PI a défini des garanties correspondantes qu'ils recommandent pour la mise en œuvre par les autorités publiques et les entreprises qui ont l'intention de conclure de tels partenariats. Classés entre les principes de transparence, d'approvisionnement approprié, de légalité, de nécessité et de proportionnalité, de responsabilité, de surveillance et de réparation, ils cherchent ensemble à défendre les droits de l'homme et à restaurer la confiance dans les fonctions publiques de l'État alors que celles-ci sont de plus en plus sous-traitées à des mains privées. Les garanties visent à ne pas tenir compte de la juridiction, afin qu'elles puissent s'appliquer aussi largement que possible à travers le monde. Nous invitons humblement le commissaire à examiner ces garanties proposées (et les exemples d'abus auxquels elles cherchent à remédier) et à examiner comment elles pourraient être intégrées et maintenues dans ce guide pour l'utilisation du TRF par les services de police au Canada. Les garanties n'ont pas encore été officiellement lancées et nous recherchons actuellement les commentaires de certains des partenaires avec lesquels nous travaillons dans le monde, mais veuillez trouver une ébauche presque finale en tant que pièce 1 de cette soumission.

Prévoyez-vous des conséquences négatives découlant des recommandations décrites dans ce guide, et si oui, quelles sont-elles ?

Dans nos commentaires d'ouverture pour cette soumission, nous avons exprimé une réserve que la simple publication de ces lignes directrices, qui traitent du « comment » plus en détail que du « si », FRT a un rôle à jouer dans l'application de la loi dans le respect des droits, pourrait changer l'orientation des conversations publiques pour trouver la « meilleure » façon de permettre l'utilisation du TRF par la police.

Ceci est particulièrement important à considérer, car bien que ces directives s'adressent de manière appropriée aux organes de police, elles ont également un rôle important à jouer dans l'éducation des membres du public sur leurs droits par rapport au TRF. Lorsqu'elles seront officiellement en place, les membres du public s'appuieront sur les lignes directrices pour développer une compréhension des autorités légales en vertu desquelles la police peut utiliser le FRT, les facteurs que la police devrait être tenue d'évaluer avant d'acquérir le FRT et les garanties qu'elle devrait mettre en place. en place pour garantir que toute utilisation de la technologie est légale, éthique et équitable.

Mais il y a un risque sérieux que le fait d'attirer l'attention du public sur ces questions « comment » empêchera ou supplantera le questionnement rigoureux des questions « si » ou « quand » qui ont encore reçu une attention insuffisante au Canada. Et cela compte beaucoup, car FRT est vraiment dangereux. Sa source de données est notre visage, le signifiant extérieur de qui nous sommes. Il peut fonctionner caché, derrière des infrastructures de caméras qui ont été utilisées depuis assez longtemps pour être largement invisibles en raison de la familiarité, ou en conjonction avec des bases de données d'images, telles que des photos d'identité, dont la collecte est régie au moins en partie par des lois qui n'ont pas envisagé la des capacités quantitativement et qualitativement différentes des TRF en fonction de leur utilisation14. Encore une fois, cela est particulièrement pertinent dans le contexte de la sur-surveillance systémique des personnes racialisées, qui sont par la suite plus susceptibles d'être représentées dans de telles bases de données15.

Le FRT est suffisamment puissant pour avoir le potentiel de changer fondamentalement la relation entre les résidents et l'État. Cela a des implications qui dépassent les limites de la loi sur la protection de la vie privée du secteur public dans les impacts sociaux de la surveillance, le bourbier éthique entourant l'intelligence artificielle, les frontières floues (ou artificiellement revendiquées mais pratiquement inexistantes) entre la collecte et l'utilisation des informations des secteurs public et privé, et les relations interdépendantes entre les mégadonnées, le tri et le profilage sociaux et la discrimination. Une stricte adhésion à une définition technique et juridique de la vie privée fondée sur des informations personnellement identifiables est profondément insuffisante pour faire face aux risques imbriqués pour ces droits qui

reposent initialement sur une capacité à se déplacer dans le monde sans examen de routine par l'État. Pourtant, les directives qui vont au-delà de ces limites légales feront l'objet d'une résistance prévisible et seront difficiles, voire impossibles à appliquer.

Nous reconnaissons qu'il y a un rocher d'un côté et un endroit dur de l'autre, et ces lignes directrices se situent entre les deux. L'appétit pour l'expérimentation de Clearview AI (41 entités au Canada ont été répertoriées dans les données internes de l'entreprise comme ayant utilisé le logiciel) témoigne du fait que les forces de police à travers le pays sont intéressées à aller de l'avant avec une certaine forme de FRT.16 À Toronto, le La Commission des services policiers envisage une politique sur l'IA qui englobe la FRT et utilise la FRT depuis 2018. Calgary a été la première force au Canada à adopter la FRT en 2014. D'autres forces canadiennes ont alloué des fonds dans leur budget, exprimé leur intérêt pour la technologie ou ont récemment contrats conclus avec les fournisseurs.17

Les risques de la FRT ne doivent jamais être considérés en ne considérant que la technologie en elle-même (comme le font les lignes directrices), mais toujours le contexte dans lequel elle est déployée et les nombreux biens sociaux qu'elle menace. Par exemple, la technologie de Clearview AI n'est pas une simple base de données de visages consultable. Il s'agit d'un outil dystopique qui permet à quiconque d'identifier quelqu'un à la fois en ligne et dans le monde physique, et de combiner les informations du monde en ligne et physique pour suivre, surveiller et potentiellement traquer ou harceler de manière beaucoup plus efficace.18 Nous reconnaissons bien sûr et nous nous félicitons de la conclusion du commissaire selon laquelle l'utilisation par la GRC de la technologie de Clearview AI était illégale, mais nous craignons qu'une technologie légèrement différente déployée dans un meilleur respect des garanties procédurales puisse cocher toutes les cases des directives, tout en ayant les mêmes effets inacceptables sur les droits fondamentaux.

Bien que des lignes directrices prudentes et complètes, telles qu'elles sont, semblent pragmatiquement meilleures que pas de lignes directrices, le risque que leur simple existence serve à empêcher les conversations sur la question de savoir si la police devrait ou non utiliser le FRT est réel et troublant. C'est particulièrement le cas parce que les conversations relatives à une série de demandes d'accès à l'information soumises par l'ACLC concernant l'utilisation du TRF par la police à travers le pays ont indiqué que de nombreuses forces attendent l'arrivée de ces lignes directrices avant d'aller de l'avant avec l'acquisition de la technologie.

Il existe un risque connexe que les lignes directrices, une fois mises en œuvre, serviront également à réduire l'urgence d'un nouveau régime juridique indispensable pour régir la collecte et l'utilisation des identifiants biométriques au Canada.

Dans ce contexte, PI souhaite attirer l'attention du Commissaire sur les répercussions d'un arrêt de la Cour d'appel d'Angleterre et du Pays de Galles dans l'affaire Bridges v South Wales Police.19 La Cour a conclu dans cette affaire que le déploiement d'Automated Facial La technologie de reconnaissance de la police du sud du Pays de Galles a enfreint un certain nombre de lois sur la protection des données et les lois sur l'égalité, et qu'il y avait des « lacunes fondamentales » 20 dans le cadre juridique entourant l'utilisation de la technologie. Bien que nous ayons salué ce jugement, nous avons observé que diverses forces de police s'en prévalaient plus tard pour affirmer que leur utilisation de la technologie de reconnaissance faciale peut être légale s'ils élaborent de meilleures politiques, telles que « qui » peut être placé sur une liste de surveillance et « où » la technologie peut être déployée. Les forces de police du Royaume-Uni n'ont donc pas été dissuadées d'utiliser la technologie et certaines déploient actuellement une technologie de reconnaissance faciale en direct21. -à-réparer » les préoccupations et les conseils sur la façon de les résoudre empêchent en fait de s'engager dans les questions les plus sérieuses et les plus fondamentales sur la place d'une telle technologie dans les sociétés démocratiques.

L'utilisation de la RF par la police est-elle réglementée de manière appropriée au Canada en vertu de la loi en vigueur? Si ce n'est pas le cas, quelles sont vos préoccupations concernant la manière dont l'utilisation du FR par la police est actuellement réglementée, et quelles modifications devraient être apportées au cadre juridique actuel ?

L'ACLC soutient que l'utilisation du TRF par la police n'est pas réglementée de manière appropriée au Canada en vertu de la loi en vigueur. La mosaïque d'instruments juridiques jugés pertinents dans les lignes directrices est insuffisante dans les dispositions de surveillance, insuffisante dans les options d'application et insuffisante pour protéger les droits fondamentaux menacés par la surveillance biométrique, y compris la vie privée, la liberté d'expression, la liberté d'association et l'égalité.

Une loi intersectorielle sur la protection des données fondée largement sur un cadre des droits de l'homme se rapprocherait de la réalité, en particulier dans un environnement où les secteurs privé et public utilisent les mêmes technologies (bien que souvent à des fins différentes) mais sont désormais soumis à des règles juridiques différentes. conditions. Des lois ciblées régissant la biométrie ou, plus largement, des technologies à forte intensité de données activées ou pilotées par des algorithmes pourraient être encore mieux adaptées à l'objectif, et il existe un certain nombre d'exemples dans le monde où une telle législation a été récemment promulguée ou est à l'étude22. Au Canada, nous avons déjà ont une loi spécifique régissant l'utilisation de l'ADN par la police, donc

le précédent a été établi en ce qui concerne une donnée à caractère hautement sensible et personnel.23

Surveillance

La surveillance responsable, un terme utilisé dans un article récent du Bureau du commissaire britannique aux caméras de surveillance (lui-même un exemple de modèle possible), est de plus en plus nécessaire à appliquer dans un monde où de nouvelles options de suivi, de contrôle et d'identification prolifèrent24. un manque de surveillance efficace et indépendante (pas seulement d'examen) et d'exigences de transparence publique dans le cadre juridique actuel, ce qui laisse des lacunes importantes en matière de responsabilité.

Un facteur clé est un mécanisme de surveillance complet de l'utilisation par la police des technologies de surveillance qui apporte un éventail de points de vue, y compris ceux des forces de l'ordre et des parties prenantes civiles, pour aborder l'ensemble des questions pertinentes pour envisager l'utilisation potentielle de la FRT et d'autres données invasives. technologies de surveillance pilotées. À cet égard, l'ACLC adopte les suggestions concernant la « Création d'un cadre de surveillance qui serait adéquat » contenues dans la soumission à cette consultation par les professeurs Austin et Slane pour la création d'un organisme de surveillance externe indépendant et des processus corrélés.25

Mise en vigueur

L'application de la loi est un domaine susceptible d'amélioration dans le cadre des lois actuelles sur la protection de la vie privée. Bien que le maintien de l'ordre soit une responsabilité provinciale et que la plupart des corps policiers soient régis par des lois provinciales ou municipales sur la protection des renseignements personnels, les lois fédérales régissent la GRC. Ici, nous n'abordons que les améliorations requises à la législation fédérale pertinente sur la protection de la vie privée.

Le Commissariat à la protection de la vie privée du Canada, seul et avec les commissaires provinciaux, a récemment mené trois enquêtes concernant l'analyse faciale et la technologie de reconnaissance faciale, et a fait des conclusions détaillées. Dans chacun de ces cas, il y avait des dispositions dans nos lois fédérales actuelles des secteurs public et privé qui s'appliquaient et autorisaient des conclusions précises, mais aucune conséquence au-delà de la dénonciation et de l'humiliation. Dans chaque cas, les personnes faisant l'objet d'une enquête ont repoussé ou contesté les recommandations, et l'absence de pouvoirs d'exécution, y compris l'absence de pouvoirs d'ordonnance contraignants, pour le commissaire fédéral signifiait qu'aucune sanction administrative ne pouvait être appliquée. Le projet de loi C-11 n'aurait pas résolu ce problème et il reste à voir si la prochaine loi sur la protection de la vie privée proposée dans le secteur privé conviendra à cette fin.

La récente consultation concernant la modernisation de la Loi sur la protection des renseignements personnels du Canada a soulevé des questions concernant la nécessité de donner au commissaire à la protection de la vie privée le pouvoir de rendre des ordonnances, d'élargir la compétence de révision de la Cour fédérale pour englober les questions relatives à la collecte, l'utilisation, la divulgation, la conservation et la protection des renseignements personnels, et l'ajout de nouvelles infractions pour les infractions graves à la Loi26. Ces mesures sont nécessaires pour que la fonction d'examen du CPVP de la force de police nationale du Canada, la GRC, gagne en efficacité.

Protection des droits fondamentaux

Il existe des risques pour les droits inhérents au FRT, et plus largement, à la prise de décision basée sur des algorithmes, aux algorithmes inférentiels et à une gamme d'autres technologies biométriques potentielles qui peuvent être utilisées pour faciliter la surveillance à distance, et dont les impacts vont au-delà de la vie privée pour potentiellement enfreindre un large éventail de droits protégés par la Charte. L'accent mis sur la réglementation de l'utilisation des informations personnelles identifiables ne peut pas entièrement atténuer ces risques, qui peuvent également adhérer à des groupes qui sont socialement triés à l'aide d'une gamme de données personnelles et déduites, et soumis à un traitement différencié en conséquence de manières qui peuvent être subtile et cumulative plutôt que directe et ciblée. L'éventail recommandé de perspectives dont il faut tenir compte pour déterminer comment réguler les impacts diffus et socialement corrosifs d'une surveillance effrénée est bien exprimé par l'actuel Commissaire aux caméras de surveillance au Royaume-Uni :

  1. Le technologiquement possible (ce qui peut être fait)
  2. Le légalement admissible (ce qui doit/ne doit pas être fait) et
  3. L'acceptable socialement (ce que les communautés toléreront et soutiendront).27

La nécessité d'un cadre pour soutenir les protections des droits fondamentaux au-delà de la portée des seuls droits à la vie privée soutient l'appel à un organisme de surveillance indépendant, externe et multidisciplinaire pour l'utilisation par la police des technologies de surveillance basées sur les données, y compris FRT, conformément à la recommandation ci-dessus.

L'utilisation par la police des RF, y compris la collecte d'empreintes faciales, devrait-elle être limitée à un ensemble défini d'objectifs (tels que des crimes graves ou des raisons humanitaires, par exemple des personnes disparues) ? Devraient-ils être en mesure d'utiliser ou de conserver des empreintes faciales autres que celles d'individus qui ont été arrêtés ou condamnés ?

Le FRT devrait être illégal s'il est déployé en masse/sans discernement (c'est-à-dire en adoptant une approche de surveillance de masse).

Existe-t-il des circonstances dans lesquelles la police ne devrait jamais être autorisée à utiliser FR, ou des applications spécifiques de FR qui ne devraient pas être autorisées (c'est-à-dire des « zones interdites » telles que le grattage aveugle d'images sur Internet) ? Devrait-il y avoir des règles spéciales pour (ou une interdiction contre) l'application de la RF aux jeunes ?

Une « zone interdite » serait également l'utilisation par les services de police de systèmes et de listes de surveillance de FRT déployés par le secteur privé. Par exemple, PI a dénoncé l'année dernière les partenariats entre les forces de police du Royaume-Uni et la société Facewatch, qui vend des logiciels FRT aux magasins de détail et à d'autres entreprises et leur permet de télécharger des photos de « sujets d'intérêt » (« SOI ») afin qu'ils soient alertés lorsque ceux-ci pénètrent dans leurs locaux.28 Facewatch centralise même les listes de SOI que leurs abonnés téléchargent et peut les partager avec les entreprises abonnées environnantes. L'enjeu d'un tel partenariat est double : (1) il place les pouvoirs de police entre les mains d'acteurs privés, leur permettant de décider qui est un suspect ou un criminel potentiel ; et (2) il étend les domaines de la surveillance en permettant à la police d'étendre la portée de sa surveillance aux espaces privés. Nous invitons le Commissaire à mettre en garde contre le recours à de tels partenariats public-privé qui tendent à contourner les procédures de passation de marchés établies et à opérer en dehors du cadre juridique régissant les pouvoirs de police et nous renvoyons à cet égard aux garanties proposées dans la pièce 1 (telle qu'introduite ci-dessus).

L'ACLC note que cette question, et les autres qui traitent des autorisations et des protections spécifiques pour les utilisations FRT (c.-à-d. Quelles protections devraient être accordées aux personnes dont les informations biométriques sont incluses dans une base de données d'empreintes faciales ? limités à un ensemble défini d'objectifs (tels que des crimes graves ou des raisons humanitaires, p. a besoin d'une autorité de surveillance indépendante créée par la loi et multipartite à prendre en compte, conformément à nos recommandations et à celles d'Austin et de Slane dans la section « surveillance » ci-dessus. S'inspirant du Conseil de justice pénale du Vermont récemment créé par la loi en ce qui concerne la politique du TRF,29 de telles questions nécessitent un examen attentif de la part d'un groupe multidisciplinaire disposant du temps, des ressources et d'un mandat spécifique pour s'engager avec l'ensemble des parties prenantes afin de déterminer le bon réponses, pour les Canadiens, maintenant et pour l'avenir.

L'ACLC recommande en outre, comme c'est le cas au Vermont, un moratoire sur la technologie de reconnaissance faciale par les agents d'application de la loi jusqu'à ce que l'organisme de surveillance suggéré ait eu la chance d'examiner et de répondre à ces questions et à d'autres, et a fait ses recommandations pour un gouvernement fédéral/ politique provinciale/territoriale sur l'acquisition et l'utilisation du TRF par les forces de l'ordre.

Y a-t-il d'autres questions de politique importantes qui devraient être abordées en ce qui concerne l'utilisation du FR par la police

Cela inclut, par exemple, les problèmes juridiques, éthiques ou sociaux émergents liés au développement et à la mise en œuvre de bases de données d'empreintes faciales par la police. Si oui, quels sont ces problèmes et comment recommandez-vous qu'ils soient traités ?

Felix Stalder, dans un article d'opinion intitulé à juste titre « La vie privée n'est pas l'antidote à la surveillance », note que la surveillance est « un problème structurel du pouvoir politique ». la règle de droit. À leur tour, une responsabilisation et une transparence efficaces doivent constituer un élément clé de la structure qui maintient la police dans ses pouvoirs. FRT et d'autres technologies de surveillance à forte intensité de données ont le potentiel d'effacer la vie privée, de rendre impossible de se déplacer dans l'espace public sans surveillance, sans catégorie, sans identification.

Il est raisonnable de noter ici, dans une section de clôture sur les problèmes émergents liés au développement de bases de données d'empreintes faciales par la police, les cinq caractéristiques distinctives de Woodrow Hartzog et Evan Selinger qui la différencient des autres technologies biométriques et d'autres technologies de surveillance basées sur les données. Premièrement, notent-ils, les visages sont difficiles à cacher, difficiles à changer, ne peuvent pas être cryptés et peuvent être capturés à distance de manière secrète et à distance. Deuxièmement, il existe un ensemble existant de bases de données existantes contenant des images, notamment des permis de conduire, des passeports, des photos d'identité, des profils de réseaux sociaux, tous créés à d'autres fins, légalement autorisés ou consensuels, tous potentiellement exploitables. Troisièmement, les entrées de données sont des images qui sont facilement collectées par la technologie actuelle - caméras de vidéosurveillance, caméras corporelles, caméras de tableau de bord - des outils sur le terrain en ce moment. Cela peut se produire derrière la technologie de caméra que le public voit et connaît, de manière invisible. Quatrièmement, il identifie le risque de « fluage du point de basculement » comme le passage d'une analyse statique, après coup, à une analyse préventive en direct, qui est technologiquement relativement simple et probable au fur et à mesure que l'acculturation sociale à la technologie se produit. Enfin, les visages font partie de notre identité fondamentale, en ligne et hors ligne, reliant ce que Hartzog et Selinger appellent nos « activités en nom réel, anonymes et pseudonymes ».31

Ces cinq caractéristiques mettent en évidence la puissance structurelle potentielle de la technologie FR, exercée par les forces de l'ordre. FRT utilise notre visage contre nous dans des contextes policiers. Cela peut, et se produira généralement, de manière secrète. Il s'appuie sur une gamme de bases de données héritées ; les bases de données de photos d'identité en particulier portent leur propre héritage en raison de l'arrestation et de l'inculpation disproportionnées et bien documentées de ceux qui sont noirs et autochtones32. Cela peut être direct ou rétroactif ; si ce dernier, toute image prise à tout moment en toute circonstance pourrait être utilisée comme comparateur dans des contextes où même si l'acquisition était « licite » à l'époque et dans les circonstances, elle aurait pu avoir lieu sans que le public comprenne ou anticipe une telle utilisation.

Il existe une tendance inquiétante dans les conversations concernant l'utilisation du FRT par les forces de l'ordre pour parler d'utilisations « non controversées » ou même « communes » telles que des comparaisons d'images capturées avec une base de données d'identités photographiques, par opposition à des utilisations « controversées » telles que l'utilisation du FRT en direct en public les espaces. Mais les utilisations actuelles ne sont pas « non controversées », les forces de l'ordre s'en sont simplement tirées jusqu'à présent. Par exemple, à Toronto, cela a commencé par un projet pilote secret qui a été rendu public lorsqu'un journaliste a remarqué un reportage dans un ensemble d'articles de police techniquement publics, mais pratiquement obscurs,

Procès-verbaux du Conseil. Au moment où elle est apparue, le service de police de Toronto avait déjà décidé de procéder à une mise en œuvre complète de la technologie33. partie de ce spectre qui est exempte de risques pour la vie privée ou de questions sociales pressantes sur les impacts discriminatoires.

Le Canada a besoin d'un débat public sur le FRT. Les conversations autour des lignes directrices qui font l'objet de cette consultation ont amorcé ce processus, mais seulement parmi un petit groupe de groupes chargés de l'application des lois, d'acteurs de la société civile, d'universitaires et de régulateurs de la vie privée, pas nos représentants démocratiquement élus, et pas le grand public. Il en faut plus. Comme prochaine étape de cette consultation, l'ACLC estime que le CPVP est bien placé pour lancer et diriger certaines de ces consultations publiques nécessaires, qui doivent inclure une composante d'éducation du public.

L'ACLC et PI sont reconnaissants de l'opportunité de faire cette soumission et attendent avec impatience les conversations en cours sur la technologie de reconnaissance faciale et ses contraintes et réglementations appropriées.

Notes de bas de page

À propos de l’association canadienne sur les libertés civiles

L’ACLC est un organisme indépendant à but non lucratif qui compte des sympathisant.e.s dans tout le pays. Fondé en 1964, c’est un organisme qui œuvre à l’échelle du Canada à la protection des droits et des libertés civiles de toute sa population.

Pour les médias

Pour d'autres commentaires, veuillez nous contacter à media@ccla.org.

Pour les mises à jour en direct

Veuillez continuer à vous référer à cette page et à nos plateformes de médias sociaux. On est dessus InstagramFacebook, et Twitter.

Close Menu
fr_CAFrançais du Canada