Passer au contenu principal
recherche

Clearview AI a enfreint la loi canadienne en grattant Internet pour 3 milliards de photos de personnes, dont peut-être des millions de Canadiens, en créant des identifiants biométriques à partir de ces photos et en vendant leur outil de reconnaissance faciale aux forces de police à travers le Canada. C'était une surveillance de masse. C'était illégal. Telles sont les conclusions de la enquête conjointe des commissaires à la protection de la vie privée du fédéral, de la Colombie-Britannique, de l'Alberta et du Québec, publié le 3 février 2021. Et les forces de police de tout le pays ont utilisé les outils de reconnaissance faciale Clearview, sans diligence raisonnable ni transparence publique.

Le rapport d'enquête d'aujourd'hui est accablant et explicite : Clearview AI est en faute pour avoir flagellé un outil qui viole de manière flagrante la loi canadienne. Cela dépend en partie du concept de consentement significatif et éclairé, un principe au cœur de notre droit. Le grattage d'images, contrairement aux conditions d'utilisation de nombreuses plateformes, et leur utilisation à des fins que les personnes qui publient une photo pour grand-mère ne pourraient jamais imaginer, détournent le consentement. Il n'est pas vrai que toutes les informations publiées en ligne sont un jeu gratuit et équitable pour des utilisations secondaires. Lorsque les gens publient des informations, ils le font avec l'espoir raisonnable que les règles de la plate-forme seront suivies et que leurs informations seront utilisées aux fins auxquelles elles ont consenti, et non récupérées par des tiers aléatoires à des fins complètement différentes. Le rapport indique clairement que « les informations recueillies à partir de sites Web publics, tels que les médias sociaux ou les profils professionnels, puis utilisées à des fins non liées, ne relèvent pas de l'exception « accessible au public » de la LPRPDE, PIPA AB ou PIPA BC. Cette information n'est pas non plus « publique par la loi », ce qui l'exempterait de la loi québécoise sur le secteur privé… ». En d'autres termes, chaque loi sur la protection de la vie privée du secteur privé au Canada exigerait un consentement, et Clearview ne l'avait pas.

L'autre conclusion clé est que Clearview a utilisé les renseignements personnels de personnes au Canada (y compris des enfants) pour des fins inappropriées, ce qui signifie que même s'ils avaient obtenu le consentement (et ils ne l'ont pas fait), l'utilisation serait toujours illégale. Les commissaires ont déclaré que « la collection de masse d'images… représente la identification et surveillance de masse d'individus par une entité privée dans le cadre d'une activité commerciale" à des fins qui "seront souvent au détriment de l'individu dont les images sont capturées" et "créent un risque important de préjudice pour ces individus, dont la grande majorité n'a jamais été et ne sera jamais impliqué dans un crime.

Les commissaires ont recommandé à Clearview de cesser d'offrir son outil de reconnaissance faciale au Canada; cesser de collecter, d'utiliser ou de divulguer des images et des réseaux faciaux biométriques de personnes au Canada; et supprimer les images et les masques faciaux de ces personnes. Clearview était expressément en désaccord avec les conclusions et ne s'est pas engagée à suivre les recommandations bien qu'elles aient annoncé qu'elles étaient se retirer du marché canadien avant la publication de ce rapport.

L'enquête du commissaire s'est concentrée sur Clearview et sa culpabilité. Mais il faut noter que les forces policières à travers le Canada sont également fautives, pour avoir adopté l'outil sans évaluer sa légalité, et pour avoir induit le public en erreur à son sujet. Quand le Le New York Times a dévoilé l'histoire des pratiques commerciales de Clearview AI en janvier 2020, de nombreux corps policiers interrogés par les médias canadiens s'ils l'utilisaient ont répondu non. Lorsque l'ACLC a déposé une série de demandes d'accès à l'information pour vérifier ces demandes, nous commencions à recevoir des réponses indiquant qu'il n'y avait « aucun dossier réactif » à peu près au même moment qu'il y avait une faille de sécurité chez Clearview. Leur liste de clients a fuité, prouvant que l'entreprise avait un certain nombre de clients canadiens en Nouvelle-Écosse, Alberta et Ontario. Le service de police de Toronto, la Police provinciale de l'Ontario et la GRC sont parmi ceux qui l'ont utilisé. Certaines forces ont affirmé qu'il s'agissait d'officiers ou d'unités individuels qui avaient expérimenté des versions d'essai du logiciel distribuées lors de conférences, à l'insu des chefs de police qui avaient initialement déclaré que la technologie n'avait pas été achetée ou utilisée.

Il ne s'agit donc pas seulement d'une histoire sur un mauvais acteur technologique, mais aussi sur une crise de responsabilité en ce qui concerne l'utilisation par la police d'une technologie de surveillance controversée et intrinsèquement invasive. Bien que le monde en ligne soit sous-réglementé et que nos lois soient obsolètes face au potentiel des technologies émergentes, nous avons des lois sur la confidentialité qui régissent les conditions et la nature du consentement pour l'utilisation de nos informations personnelles. L'application de Clearview ne fonctionne pas dans un monde totalement anarchique, juste un monde dans lequel la loi semble être ignorée, par l'entreprise et par les organismes d'application de la loi qui ont utilisé le produit.

Comme je l'ai écrit quand l'histoire a éclaté, cela amène tout le débat social sur la reconnaissance faciale - devrait-elle être interdite, existe-t-il des cas où les avantages l'emportent sur les risques de son utilisation, comment peut-elle être réglementée (ou simplement, peut-elle être réglementée efficacement) - en clair et urgent se concentrer. Non seulement la reconnaissance faciale facilite une forme de surveillance de masse qui est profondément dangereuse pour les droits de l'homme dans notre démocratie, mais c'est une technologie fondamentalement défectueuse. Les entreprises plus grandes et plus responsables ont eu peur de lancer cette technologie dans le monde pour cette raison ; en effet, Amazon, IBM et Microsoft ont cessé de vendre leurs outils de reconnaissance faciale à la police, reconnaissant qu'ils sont trop enclins à faciliter la discrimination étant donné leur inexactitude sur les visages noirs, bruns, autochtones, féminins, jeunes, c'est-à-dire non masculins et blancs. Avant la pandémie, le Parlement Le Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique a planifié une étude de la technologie de reconnaissance faciale, et ce serait un bon début pour une considération plus large et plus approfondie des nombreux problèmes qu'elle soulève.

Car le rapport d'enquête, publié aujourd'hui, clarifie une chose. Il doit être une priorité d'entamer les conversations publiques difficiles mais nécessaires qui demandent d'abord s'il existe des contextes dans lesquels cette technologie est appropriée pour une utilisation dans une démocratie qui valorise la liberté de la routine du secteur privé ou du contrôle de l'État lorsque nous nous déplaçons dans nos rues publiques et effectuons des transactions. affaires dans des espaces privés.

Une série de conversations tout aussi urgentes est nécessaire sur les types de responsabilité et de transparence que le public mérite et exige en retour de la part de la police qui souhaite utiliser des technologies de surveillance de plus en plus puissantes et invasives. La licence sociale d'exercer les pouvoirs que nous accordons à nos organismes chargés de l'application de la loi ne peut exister que dans une relation de confiance, et avant même d'aborder la question de savoir s'il y a ou non un avantage social à autoriser la police à utiliser la technologie de reconnaissance faciale et, dans l'affirmative, si tout avantage l'emporte sur les risques sociaux, nous devons avoir l'assurance que nos organismes chargés de l'application de la loi s'engagent à utiliser des outils qui sont légalement conçus et mis en œuvre légalement.

La débâcle de Clearview AI et le rapport qui la met à nu nous fournissent un rappel important de tout ce que nous avons à perdre si nous ne prenons pas en compte les risques des nouvelles technologies et ne sommes pas ouverts à ses avantages. L'ACLC réitère notre appel à un moratoire sur les logiciels de reconnaissance faciale jusqu'à ce que le Canada ait eu la chance, en tant que nation, de discuter, de débattre et de contester d'abord si, alors, seulement si nous dépassons cette question, lorsque et comment, cette technologie doit être utilisée dans une démocratie respectueuse des droits.

Fermer le menu
fr_CAFrançais du Canada