Accéder au contenu principal
recherche

Clearview AI est une entreprise technologique dont le Rapports du New York Times a récupéré 3 milliards de photos de personnes sur Internet, créé un système de reconnaissance faciale pour exploiter cette base de données et commercialise l'accès aux forces de police. 600 forces de police, y compris, selon l'entreprise, certaines forces de police canadiennes, utilisent cet outil non réglementé et sous-examiné. Cela amène tout le débat social sur la reconnaissance faciale - si elle devait être interdite, y a-t-il déjà des cas où les avantages l'emportent sur les risques de son utilisation, comment peut-elle être réglementée (ou simplement, peut-elle être réglementée efficacement) - en un focus clair et urgent . Parce que tandis que les entreprises plus grandes et plus responsables ont eu peur de lancer cette technologie dans le monde, tandis que les gens réfléchissent et que les décideurs politiques délibèrent, un faux, le casse ou le fait démarrer vient de sortir tranquillement et de faire ce que nous avons tous craignaient de voir le jour – un système qui exploite les images personnelles que nous partageons sur des plateformes sur lesquelles nous comptons et en qui nous avons confiance alors que nous participons au monde moderne – et l'ont vendu à la police. Qui l'achète.

Décomposons pourquoi c'est un problème.

Pour commencer, examinons pourquoi les citoyens d'une démocratie ont besoin d'une protection contre la reconnaissance faciale sans entrave. La réponse? Car c'est une menace pure et simple pour la liberté humaine. La reconnaissance faciale utilise les caractéristiques physiques de notre visage pour créer un modèle mathématique qui nous est propre, qui nous identifie, tout comme une empreinte digitale. Au CCLA, nous pensons en effet qu'il est vraiment utile de parler d'empreintes faciales plutôt que de reconnaissance, car cela donne une impression plus précise de ce dont nous parlons vraiment, un identifiant inextricablement lié à notre corps. Poussée à l'extrême, la reconnaissance faciale lâchée dans nos rues signifierait l'anéantissement de l'anonymat, une incapacité totale à se déplacer dans le monde et à être un visage dans la foule. Cela donnerait à quiconque y a accès un grand pouvoir. Les entreprises pourraient nous suivre et utiliser ce qu'elles apprennent pour essayer d'influencer notre comportement de consommateur. Les politiciens pourraient utiliser ces mêmes informations pour influencer notre comportement politique. Les harceleurs pourraient l'utiliser pour avoir une parfaite connaissance de l'endroit où se trouvent leurs victimes. Les États pourraient l'utiliser pour suivre n'importe qui, des criminels présumés aux manifestants, ou, juste tout le monde, juste au cas où. C'est une vision dystopique, mais c'est en fait une vision qu'un large éventail de personnes, y compris même Sundar Pichai, PDG de Google, d'accord pourrait arriver à moins que nous ne soyons très prudents et réfléchis à réfléchir non seulement quand, mais SI d'utiliser la technologie.

Un argument en réponse à cela est que c'est de notre faute. Après tout, nous partageons tous des informations, y compris des photos, au cours de notre participation volontaire à la vie moderne. Lorsque nous partageons une photo sur Facebook, par exemple, la plupart d'entre nous ont un public en tête. Si nous choisissons d'ignorer les paramètres de confidentialité et de laisser quiconque utilise la plate-forme potentiellement voir la photo, nous pourrions avoir de bonnes raisons de le faire. employé que nous ferions, ou peut-être que nous aimons l'idée que des gens du monde entier puissent voir et interagir avec nos publications et nos photos. Ou peut-être que nous ne pensons tout simplement pas à qui d'autre pourrait le voir du tout. Quelle que soit la raison, il est tout simplement faux que lorsque nous publions même une photo publique sur une plate-forme de médias sociaux, nous convenons que tout le monde devrait pouvoir faire tout ce qu'il veut avec cette information. Les conditions de service pour notre utilisation de ces sites sont unilatérales, à prendre ou à laisser, mais ce sont des contrats, et la plupart des sites réputés interdisent le grattage en gros à des fins commerciales par des tiers. Nous avons très peu de protection contre les plateformes utilisant nos informations comme bon leur semble, mais elles nous promettent généralement une protection contre les autres. Nous avons également des lois sur la confidentialité qui régissent les conditions et la nature du consentement pour l'utilisation de nos informations personnelles. Ainsi, alors que le monde en ligne est sous-réglementé et que nos lois sont obsolètes face au potentiel des technologies émergentes, l'application de Clearview ne fonctionne pas dans un monde sans loi, juste un monde dans lequel la loi semble être ignorée.

Pourquoi est-ce particulièrement problématique pour un outil utilisé (secrètement) par les forces de l'ordre ? Simplement, parce que dans une démocratie, la police ne peut pas être au-dessus ou au-delà de la loi. Il y a un débat public qui a désespérément besoin d'avoir lieu autour des outils de surveillance de masse, sur les avantages et les risques d'utiliser la capture d'informations sans discernement sur tout le monde pour attraper les très rares méchants dans une mer de spectateurs innocents vaquant à leur vie. Mais ce que l'histoire de Clearview AI nous dit, c'est qu'il y a un débat tout aussi urgent que nous devons avoir sur la responsabilité en matière de surveillance policière. Il s'agit d'une technologie non examinée dont il est possible d'affirmer qu'elle utilise des images obtenues illégalement - il y a certainement des questions auxquelles il faut se poser et répondre. Cependant, ces questions ne sont pas posées et répondues publiquement lorsque les technologies de surveillance sont achetées et utilisées en secret, comme c'est le cas avec Clearview AI. Aucune force policière sollicitée par la SRC dans sa recherche de l'angle canadien de cette histoire ne confirmerait son utilisation de l'outil. Pourtant, nous savons que les services canadiens l'utilisent : il y a même une citation d'un « agent canadien d'application de la loi » non identifié sur le Site Web de la société Clearview AI. Les policiers soutiennent souvent que cela compromet leur travail si les outils d'enquête qu'ils utilisent sont connus du public. Cependant, la licence sociale d'exercer les pouvoirs que nous accordons à nos forces de l'ordre ne peut exister que dans le cadre d'une relation de confiance, et avant même que nous ne nous posions la question de savoir s'il y a ou non un avantage social à permettre à la police d'utiliser la technologie et, dans l'affirmative, si l'emporte sur les risques sociaux, nous devons avoir l'assurance que nos organismes chargés de l'application de la loi s'engagent à utiliser des outils qui sont légalement conçus et mis en œuvre légalement.

Dans une démocratie, nous faisons des choix difficiles sur ce que la police est et n'est pas autorisée à faire tout le temps. Au Canada, nous avons un Charte des droits et libertés qui énonce les droits fondamentaux que nous avons tous – et méritons – simplement parce que nous sommes humains. Parfois, le respect de ces droits rend le travail des forces de l'ordre plus difficile, cela rend les enquêtes moins efficaces, cela rend indispensable le respect des règles. C'est un compromis sur lequel nous nous sommes mis d'accord; en tant que société libre, nous pensons que nos agences de sécurité publique ne peuvent vraiment assurer la sécurité d'aucun d'entre nous s'ils ne sont pas eux-mêmes régis par la loi et tenus de défendre nos valeurs fondamentales au cours de tout processus d'enquête.

En tant que défenseur de la vie privée, on me demande tout le temps si cela vaut la peine de s'énerver à propos d'histoires comme celle-ci, ou si nous devrions simplement renoncer à la vie privée parce que le cheval est déjà sorti de l'écurie.

Ma réponse : « Le cheval est sorti de la grange » est une métaphore stupide et tout propriétaire de bétail serait d'accord - parce que si un cheval s'égarait, vous ne vous contentez pas de vous asseoir et de dire « hé, ce précieux cheval est parti maintenant », tant pis : tu vas chercher la bête. Et quand vous la trouvez, vous la ramenez à la maison et vous réparez la porte de la stalle, ou la porte de la grange, ou la porte du corral – ou les trois, parce que vous avez besoin du cheval et que cela vaut la peine de prendre soin d'elle. Donc avec notre vie privée. C'est précieux. C'est un droit de l'homme. Cela vaut la peine de s'en occuper, et cela vaut la peine de se battre pour cela. Cela vaut la peine de traquer, de ramener à la maison et de trouver de nouvelles façons de se protéger.

Espérons que l'histoire de Clearview AI soit un autre moment de Cambridge Analytica, un moment qui cristallise tout ce que nous avons à perdre si nous ne parvenons pas à nous engager avec les risques de la nouvelle technologie tout en étant ouverts à ses avantages. L'ACLC réitère notre appel à un moratoire sur les logiciels de reconnaissance faciale jusqu'à ce que le Canada ait eu la chance, en tant que nation, de discuter, de débattre et de contester d'abord si, alors, seulement si nous dépassons cette question, lorsque et comment, cette technologie doit être utilisée dans une démocratie respectueuse des droits.

À propos de l’association canadienne sur les libertés civiles

L’ACLC est un organisme indépendant à but non lucratif qui compte des sympathisant.e.s dans tout le pays. Fondé en 1964, c’est un organisme qui œuvre à l’échelle du Canada à la protection des droits et des libertés civiles de toute sa population.

Pour les médias

Pour d'autres commentaires, veuillez nous contacter à media@ccla.org.

Pour les mises à jour en direct

Veuillez continuer à vous référer à cette page et à nos plateformes de médias sociaux. On est dessus InstagramFacebook, et Twitter.

Fermer le menu
fr_CAFrançais du Canada