{"id":2255,"date":"2020-01-01T08:22:00","date_gmt":"2020-01-01T08:22:00","guid":{"rendered":"https:\/\/ccla.org\/?p=2255"},"modified":"2021-09-03T15:37:53","modified_gmt":"2021-09-03T15:37:53","slug":"make-the-choice-put-the-horse-back-in-the-barn","status":"publish","type":"post","link":"https:\/\/ccla.org\/fr\/intimite\/technologie-de-surveillance\/intelligence-artificielle\/make-the-choice-put-the-horse-back-in-the-barn\/","title":{"rendered":"Faites le choix : remettez le cheval dans la grange"},"content":{"rendered":"<div id=\"fws_69d553d737a79\"  data-column-margin=\"default\" data-midnight=\"dark\"  class=\"wpb_row vc_row-fluid vc_row\"  style=\"padding-top: 0px; padding-bottom: 0px; \"><div class=\"row-bg-wrap\" data-bg-animation=\"none\" data-bg-animation-delay=\"\" data-bg-overlay=\"false\"><div class=\"inner-wrap row-bg-layer\" ><div class=\"row-bg viewport-desktop\"  style=\"\"><\/div><\/div><\/div><div class=\"row_col_wrap_12 col span_12 dark left\">\n\t<div  class=\"vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone\"  data-padding-pos=\"all\" data-has-bg-color=\"false\" data-bg-color=\"\" data-bg-opacity=\"1\" data-animation=\"\" data-delay=\"0\" >\n\t\t<div class=\"vc_column-inner\" >\n\t\t\t<div class=\"wpb_wrapper\">\n\t\t\t\t\n\t\t<div id=\"fws_69d553d7386d7\"  data-column-margin=\"default\" data-midnight=\"dark\"  class=\"wpb_row vc_row-fluid vc_row full-width-section\"  style=\"padding-top: 0px; padding-bottom: 0px; \"><div class=\"row-bg-wrap\" data-bg-animation=\"none\" data-bg-animation-delay=\"\" data-bg-overlay=\"true\"><div class=\"inner-wrap row-bg-layer\" ><div class=\"row-bg viewport-desktop\"  style=\"\"><\/div><\/div><div class=\"row-bg-overlay row-bg-layer\" style=\"background: rgba(0,0,0,0.3); background: linear-gradient(to bottom,rgba(0,0,0,0.3) 0%,rgba(238,238,238,0.01) 100%);  opacity: 0.5; \"><\/div><\/div><div class=\"row_col_wrap_12 col span_12 dark left\">\n\t<div  class=\"vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone\"  data-padding-pos=\"all\" data-has-bg-color=\"false\" data-bg-color=\"\" data-bg-opacity=\"1\" data-animation=\"\" data-delay=\"0\" >\n\t\t<div class=\"vc_column-inner\" >\n\t\t\t<div class=\"wpb_wrapper\">\n\t\t\t\t<div class=\"divider-wrap\" data-alignment=\"default\"><div style=\"height: 10px;\" class=\"divider\"><\/div><\/div>\n\t\t\t<\/div> \n\t\t<\/div>\n\t<\/div> \n<\/div><\/div>\n\n\t\t\t<\/div> \n\t\t<\/div>\n\t<\/div> \n<\/div><\/div>\n\t\t<div id=\"fws_69d553d739351\"  data-column-margin=\"default\" data-midnight=\"dark\" data-top-percent=\"4%\" data-bottom-percent=\"4%\"  class=\"wpb_row vc_row-fluid vc_row full-width-section post-links\"  style=\"padding-top: calc(100vw * 0.04); padding-bottom: calc(100vw * 0.04); \"><div class=\"row-bg-wrap\" data-bg-animation=\"none\" data-bg-animation-delay=\"\" data-bg-overlay=\"false\"><div class=\"inner-wrap row-bg-layer\" ><div class=\"row-bg viewport-desktop\"  style=\"\"><\/div><\/div><\/div><div class=\"row_col_wrap_12 col span_12 dark left\">\n\t<div  class=\"vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone\"  data-padding-pos=\"all\" data-has-bg-color=\"false\" data-bg-color=\"\" data-bg-opacity=\"1\" data-animation=\"\" data-delay=\"0\" >\n\t\t<div class=\"vc_column-inner\" >\n\t\t\t<div class=\"wpb_wrapper\">\n\t\t\t\t\n<div class=\"wpb_text_column wpb_content_element\" >\n\t<div class=\"wpb_wrapper\">\n\t\t<p>Clearview AI est une entreprise technologique dont le\u00a0<a href=\"https:\/\/www.nytimes.com\/2020\/01\/18\/technology\/clearview-privacy-facial-recognition.html\" target=\"_blank\" rel=\"noopener\">Rapports du New York Times<\/a>\u00a0a r\u00e9cup\u00e9r\u00e9 3 milliards de photos de personnes sur Internet, cr\u00e9\u00e9 un syst\u00e8me de reconnaissance faciale pour exploiter cette base de donn\u00e9es et commercialise l&#039;acc\u00e8s aux forces de police. 600 forces de police, y compris, selon l&#039;entreprise, certaines forces de police canadiennes, utilisent cet outil non r\u00e9glement\u00e9 et sous-examin\u00e9. Cela am\u00e8ne tout le d\u00e9bat social sur la reconnaissance faciale - si elle devait \u00eatre interdite, y a-t-il d\u00e9j\u00e0 des cas o\u00f9 les avantages l&#039;emportent sur les risques de son utilisation, comment peut-elle \u00eatre r\u00e9glement\u00e9e (ou simplement, peut-elle \u00eatre r\u00e9glement\u00e9e efficacement) - en un focus clair et urgent . Parce que tandis que les entreprises plus grandes et plus responsables ont eu peur de lancer cette technologie dans le monde, tandis que les gens r\u00e9fl\u00e9chissent et que les d\u00e9cideurs politiques d\u00e9lib\u00e8rent, un faux, le casse ou le fait d\u00e9marrer vient de sortir tranquillement et de faire ce que nous avons tous craignaient de voir le jour \u2013 un syst\u00e8me qui exploite les images personnelles que nous partageons sur des plateformes sur lesquelles nous comptons et en qui nous avons confiance alors que nous participons au monde moderne \u2013 et l&#039;ont vendu \u00e0 la police. Qui l&#039;ach\u00e8te.<\/p>\n<p>D\u00e9composons pourquoi c&#039;est un probl\u00e8me.<\/p>\n<p>Pour commencer, examinons pourquoi les citoyens d&#039;une d\u00e9mocratie ont besoin d&#039;une protection contre la reconnaissance faciale sans entrave. La r\u00e9ponse? Car c&#039;est une menace pure et simple pour la libert\u00e9 humaine. La reconnaissance faciale utilise les caract\u00e9ristiques physiques de notre visage pour cr\u00e9er un mod\u00e8le math\u00e9matique qui nous est propre, qui nous identifie, tout comme une empreinte digitale. Au CCLA, nous pensons en effet qu&#039;il est vraiment utile de parler d&#039;empreintes faciales plut\u00f4t que de reconnaissance, car cela donne une impression plus pr\u00e9cise de ce dont nous parlons vraiment, un identifiant inextricablement li\u00e9 \u00e0 notre corps. Pouss\u00e9e \u00e0 l&#039;extr\u00eame, la reconnaissance faciale l\u00e2ch\u00e9e dans nos rues signifierait l&#039;an\u00e9antissement de l&#039;anonymat, une incapacit\u00e9 totale \u00e0 se d\u00e9placer dans le monde et \u00e0 \u00eatre un visage dans la foule. Cela donnerait \u00e0 quiconque y a acc\u00e8s un grand pouvoir. Les entreprises pourraient nous suivre et utiliser ce qu&#039;elles apprennent pour essayer d&#039;influencer notre comportement de consommateur. Les politiciens pourraient utiliser ces m\u00eames informations pour influencer notre comportement politique. Les harceleurs pourraient l&#039;utiliser pour avoir une parfaite connaissance de l&#039;endroit o\u00f9 se trouvent leurs victimes. Les \u00c9tats pourraient l&#039;utiliser pour suivre n&#039;importe qui, des criminels pr\u00e9sum\u00e9s aux manifestants, ou, juste tout le monde, juste au cas o\u00f9. C&#039;est une vision dystopique, mais c&#039;est en fait une vision qu&#039;un large \u00e9ventail de personnes, y compris m\u00eame\u00a0<a href=\"https:\/\/www.theverge.com\/2020\/1\/21\/21075001\/facial-recognition-ban-google-microsoft-eu-sundar-pichai-brad-smith\" target=\"_blank\" rel=\"noopener\">Sundar Pichai, PDG de Google<\/a>, d&#039;accord pourrait arriver \u00e0 moins que nous ne soyons tr\u00e8s prudents et r\u00e9fl\u00e9chis \u00e0 r\u00e9fl\u00e9chir non seulement quand, mais\u00a0<strong>SI<\/strong>\u00a0d&#039;utiliser la technologie.<\/p>\n<p>Un argument en r\u00e9ponse \u00e0 cela est que c&#039;est de notre faute. Apr\u00e8s tout, nous partageons tous des informations, y compris des photos, au cours de notre participation volontaire \u00e0 la vie moderne. Lorsque nous partageons une photo sur Facebook, par exemple, la plupart d&#039;entre nous ont un public en t\u00eate. Si nous choisissons d&#039;ignorer les param\u00e8tres de confidentialit\u00e9 et de laisser quiconque utilise la plate-forme potentiellement voir la photo, nous pourrions avoir de bonnes raisons de le faire. employ\u00e9 que nous ferions, ou peut-\u00eatre que nous aimons l&#039;id\u00e9e que des gens du monde entier puissent voir et interagir avec nos publications et nos photos. Ou peut-\u00eatre que nous ne pensons tout simplement pas \u00e0 qui d&#039;autre pourrait le voir du tout. Quelle que soit la raison, il est tout simplement faux que lorsque nous publions m\u00eame une photo publique sur une plate-forme de m\u00e9dias sociaux, nous convenons que tout le monde devrait pouvoir faire tout ce qu&#039;il veut avec cette information. Les conditions de service pour notre utilisation de ces sites sont unilat\u00e9rales, \u00e0 prendre ou \u00e0 laisser, mais ce sont des contrats, et la plupart des sites r\u00e9put\u00e9s interdisent le grattage en gros \u00e0 des fins commerciales par des tiers. Nous avons tr\u00e8s peu de protection contre les plateformes utilisant nos informations comme bon leur semble, mais elles nous promettent g\u00e9n\u00e9ralement une protection contre les autres. Nous avons \u00e9galement des lois sur la confidentialit\u00e9 qui r\u00e9gissent les conditions et la nature du consentement pour l&#039;utilisation de nos informations personnelles. Ainsi, alors que le monde en ligne est sous-r\u00e9glement\u00e9 et que nos lois sont obsol\u00e8tes face au potentiel des technologies \u00e9mergentes, l&#039;application de Clearview ne fonctionne pas dans un monde sans loi, juste un monde dans lequel la loi semble \u00eatre ignor\u00e9e.<\/p>\n<p>Pourquoi est-ce particuli\u00e8rement probl\u00e9matique pour un outil utilis\u00e9 (secr\u00e8tement) par les forces de l&#039;ordre ? Simplement, parce que dans une d\u00e9mocratie, la police ne peut pas \u00eatre au-dessus ou au-del\u00e0 de la loi. Il y a un d\u00e9bat public qui a d\u00e9sesp\u00e9r\u00e9ment besoin d&#039;avoir lieu autour des outils de surveillance de masse, sur les avantages et les risques d&#039;utiliser la capture d&#039;informations sans discernement sur tout le monde pour attraper les tr\u00e8s rares m\u00e9chants dans une mer de spectateurs innocents vaquant \u00e0 leur vie. Mais ce que l&#039;histoire de Clearview AI nous dit, c&#039;est qu&#039;il y a un d\u00e9bat tout aussi urgent que nous devons avoir sur la responsabilit\u00e9 en mati\u00e8re de surveillance polici\u00e8re. Il s&#039;agit d&#039;une technologie non examin\u00e9e dont il est possible d&#039;affirmer qu&#039;elle utilise des images obtenues ill\u00e9galement - il y a certainement des questions auxquelles il faut se poser et r\u00e9pondre. Cependant, ces questions ne sont pas pos\u00e9es et r\u00e9pondues publiquement lorsque les technologies de surveillance sont achet\u00e9es et utilis\u00e9es en secret, comme c&#039;est le cas avec Clearview AI. Aucune force polici\u00e8re sollicit\u00e9e par la SRC dans sa recherche de l&#039;angle canadien de cette histoire ne confirmerait son utilisation de l&#039;outil. Pourtant, nous savons que les services canadiens l&#039;utilisent : il y a m\u00eame une citation d&#039;un \u00ab agent canadien d&#039;application de la loi \u00bb non identifi\u00e9 sur le\u00a0<a href=\"https:\/\/clearview.ai\/\" target=\"_blank\" rel=\"noopener\">Site Web de la soci\u00e9t\u00e9 Clearview AI<\/a>. Les policiers soutiennent souvent que cela compromet leur travail si les outils d&#039;enqu\u00eate qu&#039;ils utilisent sont connus du public. Cependant, la licence sociale d&#039;exercer les pouvoirs que nous accordons \u00e0 nos forces de l&#039;ordre ne peut exister que dans le cadre d&#039;une relation de confiance, et avant m\u00eame que nous ne nous posions la question de savoir s&#039;il y a ou non un avantage social \u00e0 permettre \u00e0 la police d&#039;utiliser la technologie et, dans l&#039;affirmative, si l&#039;emporte sur les risques sociaux, nous devons avoir l&#039;assurance que nos organismes charg\u00e9s de l&#039;application de la loi s&#039;engagent \u00e0 utiliser des outils qui sont l\u00e9galement con\u00e7us et mis en \u0153uvre l\u00e9galement.<\/p>\n<p>Dans une d\u00e9mocratie, nous faisons des choix difficiles sur ce que la police est et n&#039;est pas autoris\u00e9e \u00e0 faire tout le temps. Au Canada, nous avons un\u00a0<em>Charte des droits et libert\u00e9s<\/em>\u00a0qui \u00e9nonce les droits fondamentaux que nous avons tous \u2013 et m\u00e9ritons \u2013 simplement parce que nous sommes humains. Parfois, le respect de ces droits rend le travail des forces de l&#039;ordre plus difficile, cela rend les enqu\u00eates moins efficaces, cela rend indispensable le respect des r\u00e8gles. C&#039;est un compromis sur lequel nous nous sommes mis d&#039;accord; en tant que soci\u00e9t\u00e9 libre, nous pensons que nos agences de s\u00e9curit\u00e9 publique ne peuvent vraiment assurer la s\u00e9curit\u00e9 d&#039;aucun d&#039;entre nous s&#039;ils ne sont pas eux-m\u00eames r\u00e9gis par la loi et tenus de d\u00e9fendre nos valeurs fondamentales au cours de tout processus d&#039;enqu\u00eate.<\/p>\n<p>En tant que d\u00e9fenseur de la vie priv\u00e9e, on me demande tout le temps si cela vaut la peine de s&#039;\u00e9nerver \u00e0 propos d&#039;histoires comme celle-ci, ou si nous devrions simplement renoncer \u00e0 la vie priv\u00e9e parce que le cheval est d\u00e9j\u00e0 sorti de l&#039;\u00e9curie.<\/p>\n<p>Ma r\u00e9ponse : \u00ab\u00a0Le cheval est sorti de la grange\u00a0\u00bb est une m\u00e9taphore stupide et tout propri\u00e9taire de b\u00e9tail serait d&#039;accord - parce que si un cheval s&#039;\u00e9garait, vous ne vous contentez pas de vous asseoir et de dire \u00ab\u00a0h\u00e9, ce pr\u00e9cieux cheval est parti maintenant\u00a0\u00bb, tant pis : tu vas chercher la b\u00eate. Et quand vous la trouvez, vous la ramenez \u00e0 la maison et vous r\u00e9parez la porte de la stalle, ou la porte de la grange, ou la porte du corral \u2013 ou les trois, parce que vous avez besoin du cheval et que cela vaut la peine de prendre soin d&#039;elle. Donc avec notre vie priv\u00e9e. C&#039;est pr\u00e9cieux. C&#039;est un droit de l&#039;homme. Cela vaut la peine de s&#039;en occuper, et cela vaut la peine de se battre pour cela. Cela vaut la peine de traquer, de ramener \u00e0 la maison et de trouver de nouvelles fa\u00e7ons de se prot\u00e9ger.<\/p>\n<p>Esp\u00e9rons que l&#039;histoire de Clearview AI soit un autre moment de Cambridge Analytica, un moment qui cristallise tout ce que nous avons \u00e0 perdre si nous ne parvenons pas \u00e0 nous engager avec les risques de la nouvelle technologie tout en \u00e9tant ouverts \u00e0 ses avantages. L&#039;ACLC r\u00e9it\u00e8re notre appel \u00e0 un moratoire sur les logiciels de reconnaissance faciale jusqu&#039;\u00e0 ce que le Canada ait eu la chance, en tant que nation, de discuter, de d\u00e9battre et de contester d&#039;abord\u00a0<em>si<\/em>, alors, seulement si nous d\u00e9passons cette question,\u00a0<em>lorsque<\/em>\u00a0et\u00a0<em>comment<\/em>, cette technologie doit \u00eatre utilis\u00e9e dans une d\u00e9mocratie respectueuse des droits.<\/p>\n\t<\/div>\n<\/div>\n\n\n\n\n\t\t\t<\/div> \n\t\t<\/div>\n\t<\/div> \n<\/div><\/div>\n\t\t<div id=\"fws_69d553d739f74\"  data-column-margin=\"default\" data-midnight=\"dark\"  class=\"wpb_row vc_row-fluid vc_row\"  style=\"padding-top: 0px; padding-bottom: 0px; \"><div class=\"row-bg-wrap\" data-bg-animation=\"none\" data-bg-animation-delay=\"\" data-bg-overlay=\"false\"><div class=\"inner-wrap row-bg-layer\" ><div class=\"row-bg viewport-desktop\"  style=\"\"><\/div><\/div><\/div><div class=\"row_col_wrap_12 col span_12 dark left\">\n\t<div  class=\"vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone\"  data-padding-pos=\"all\" data-has-bg-color=\"false\" data-bg-color=\"\" data-bg-opacity=\"1\" data-animation=\"\" data-delay=\"0\" >\n\t\t<div class=\"vc_column-inner\" >\n\t\t\t<div class=\"wpb_wrapper\">\n\t\t\t\t\n\t\t<div id=\"fws_69d553d73ab45\"  data-column-margin=\"default\" data-midnight=\"dark\" data-top-percent=\"1%\" data-bottom-percent=\"1%\"  class=\"wpb_row vc_row-fluid vc_row\"  style=\"padding-top: calc(100vw * 0.01); padding-bottom: calc(100vw * 0.01); \"><div class=\"row-bg-wrap\" data-bg-animation=\"none\" data-bg-animation-delay=\"\" data-bg-overlay=\"false\"><div class=\"inner-wrap row-bg-layer\" ><div class=\"row-bg viewport-desktop\"  style=\"\"><\/div><\/div><\/div><div class=\"row_col_wrap_12 col span_12 dark left\">\n\t<div  class=\"vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone\"  data-padding-pos=\"all\" data-has-bg-color=\"false\" data-bg-color=\"\" data-bg-opacity=\"1\" data-animation=\"\" data-delay=\"0\" >\n\t\t<div class=\"vc_column-inner\" >\n\t\t\t<div class=\"wpb_wrapper\">\n\t\t\t\t<h3 style=\"color: #ef770e;text-align: left\" class=\"vc_custom_heading vc_do_custom_heading\" >\u00c0 propos de l\u2019association canadienne sur les libert\u00e9s civiles<\/h3>\n<div class=\"wpb_text_column wpb_content_element\" >\n\t<div class=\"wpb_wrapper\">\n\t\t<p class=\"translation-block\">L\u2019ACLC est un organisme ind\u00e9pendant \u00e0 but non lucratif qui compte des sympathisant.e.s dans tout le pays. Fond\u00e9 en 1964, c\u2019est un organisme qui \u0153uvre \u00e0 l\u2019\u00e9chelle du Canada \u00e0 la protection des droits et des libert\u00e9s civiles de toute sa population.<\/p>\n\t<\/div>\n<\/div>\n\n\n\n<h3 style=\"color: #ef770e;text-align: left\" class=\"vc_custom_heading vc_do_custom_heading\" >Pour les m\u00e9dias<\/h3>\n<div class=\"wpb_text_column wpb_content_element\" >\n\t<div class=\"wpb_wrapper\">\n\t\t<p>Pour d&#039;autres commentaires, veuillez nous contacter \u00e0\u00a0<a href=\"mailto:media@ccla.org\"><u>media@ccla.org<\/u><\/a>.<\/p>\n\t<\/div>\n<\/div>\n\n\n\n<h3 style=\"color: #ef770e;text-align: left\" class=\"vc_custom_heading vc_do_custom_heading\" >Pour les mises \u00e0 jour en direct<\/h3>\n<div class=\"wpb_text_column wpb_content_element\" >\n\t<div class=\"wpb_wrapper\">\n\t\t<p>Veuillez continuer \u00e0 vous r\u00e9f\u00e9rer \u00e0\u00a0<a href=\"https:\/\/ccla.org\/fr\/the-latest\/\" rel=\"noopener\">cette page<\/a>\u00a0et \u00e0 nos plateformes de m\u00e9dias sociaux. On est dessus\u00a0<a href=\"https:\/\/www.instagram.com\/cancivlib\/?hl=en\" target=\"_blank\" rel=\"noopener\"><u>Instagram<\/u><\/a>,\u00a0<a href=\"http:\/\/facebook.com\/cancivlib\/\" target=\"_blank\" rel=\"noopener\"><u>Facebook<\/u><\/a>, <a href=\"https:\/\/twitter.com\/cancivlib\" target=\"_blank\" rel=\"noopener\"><u>Twitter<\/u><\/a> et <a href=\"https:\/\/bsky.app\/profile\/cancivlib.bsky.social\" target=\"_blank\" rel=\"noopener\"><u>Ciel bleu<\/u><\/a>.<\/p>\n\t<\/div>\n<\/div>\n\n\n\n\n\t\t\t<\/div> \n\t\t<\/div>\n\t<\/div> \n<\/div><\/div>\n\n\t\t\t<\/div> \n\t\t<\/div>\n\t<\/div> \n<\/div><\/div>","protected":false},"excerpt":{"rendered":"<p>Clearview AI est une entreprise technologique qui, selon le New York Times, a r\u00e9cup\u00e9r\u00e9 3 milliards de photos de personnes sur Internet, cr\u00e9\u00e9 un syst\u00e8me de reconnaissance faciale pour exploiter cette base de donn\u00e9es et commercialise l&#039;acc\u00e8s aux forces de police. 600 corps policiers, y compris, selon l&#039;entreprise, certains corps policiers canadiens, utilisent cet outil non r\u00e9glement\u00e9 et sous-examin\u00e9.<\/p>","protected":false},"author":11,"featured_media":336,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[150,11,88],"tags":[],"class_list":{"0":"post-2255","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-artificial-intelligence","8":"category-privacy","9":"category-surveillance-technology"},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v24.7 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Make the Choice: Put the Horse Back in the Barn - CCLA<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/ccla.org\/fr\/intimite\/technologie-de-surveillance\/intelligence-artificielle\/make-the-choice-put-the-horse-back-in-the-barn\/\" \/>\n<meta property=\"og:locale\" content=\"fr_CA\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Make the Choice: Put the Horse Back in the Barn - CCLA\" \/>\n<meta property=\"og:description\" content=\"Clearview AI is a tech company that the New York Times reports has scraped 3 billion photos of people from the internet, created a facial recognition system to exploit that database, and is marketing access to police forces. 600 police forces, including, the company says, some Canadian police forces, are using this unregulated and under-scrutinized tool.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/ccla.org\/fr\/intimite\/technologie-de-surveillance\/intelligence-artificielle\/make-the-choice-put-the-horse-back-in-the-barn\/\" \/>\n<meta property=\"og:site_name\" content=\"CCLA\" \/>\n<meta property=\"article:published_time\" content=\"2020-01-01T08:22:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-09-03T15:37:53+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1920\" \/>\n\t<meta property=\"og:image:height\" content=\"1280\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Brenda McPhail\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@Brenda\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Brenda McPhail\" \/>\n\t<meta name=\"twitter:label2\" content=\"Estimation du temps de lecture\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/\",\"url\":\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/\",\"name\":\"Make the Choice: Put the Horse Back in the Barn - CCLA\",\"isPartOf\":{\"@id\":\"https:\/\/ccla.org\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg\",\"datePublished\":\"2020-01-01T08:22:00+00:00\",\"dateModified\":\"2021-09-03T15:37:53+00:00\",\"author\":{\"@id\":\"https:\/\/ccla.org\/#\/schema\/person\/c0ab72c13438e404cfca5f071db582f8\"},\"breadcrumb\":{\"@id\":\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#breadcrumb\"},\"inLanguage\":\"fr-CA\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-CA\",\"@id\":\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#primaryimage\",\"url\":\"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg\",\"contentUrl\":\"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg\",\"width\":1920,\"height\":1280},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/ccla.org\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"PRIVACY\",\"item\":\"https:\/\/ccla.org\/category\/privacy\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Surveillance &amp; Technology\",\"item\":\"https:\/\/ccla.org\/category\/privacy\/surveillance-technology\/\"},{\"@type\":\"ListItem\",\"position\":4,\"name\":\"Artificial Intelligence\",\"item\":\"https:\/\/ccla.org\/category\/privacy\/surveillance-technology\/artificial-intelligence\/\"},{\"@type\":\"ListItem\",\"position\":5,\"name\":\"Make the Choice: Put the Horse Back in the Barn\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/ccla.org\/#website\",\"url\":\"https:\/\/ccla.org\/\",\"name\":\"CCLA\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/ccla.org\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-CA\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/ccla.org\/#\/schema\/person\/c0ab72c13438e404cfca5f071db582f8\",\"name\":\"Brenda McPhail\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-CA\",\"@id\":\"https:\/\/ccla.org\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/b88e2b9b83f05dd6b511990cc78ba746?s=96&d=blank&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/b88e2b9b83f05dd6b511990cc78ba746?s=96&d=blank&r=g\",\"caption\":\"Brenda McPhail\"},\"sameAs\":[\"https:\/\/x.com\/Brenda\"],\"url\":\"https:\/\/ccla.org\/fr\/author\/brenda\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Make the Choice: Put the Horse Back in the Barn - CCLA","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/ccla.org\/fr\/intimite\/technologie-de-surveillance\/intelligence-artificielle\/make-the-choice-put-the-horse-back-in-the-barn\/","og_locale":"fr_CA","og_type":"article","og_title":"Make the Choice: Put the Horse Back in the Barn - CCLA","og_description":"Clearview AI is a tech company that the New York Times reports has scraped 3 billion photos of people from the internet, created a facial recognition system to exploit that database, and is marketing access to police forces. 600 police forces, including, the company says, some Canadian police forces, are using this unregulated and under-scrutinized tool.","og_url":"https:\/\/ccla.org\/fr\/intimite\/technologie-de-surveillance\/intelligence-artificielle\/make-the-choice-put-the-horse-back-in-the-barn\/","og_site_name":"CCLA","article_published_time":"2020-01-01T08:22:00+00:00","article_modified_time":"2021-09-03T15:37:53+00:00","og_image":[{"width":1920,"height":1280,"url":"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg","type":"image\/jpeg"}],"author":"Brenda McPhail","twitter_card":"summary_large_image","twitter_creator":"@Brenda","twitter_misc":{"\u00c9crit par":"Brenda McPhail","Estimation du temps de lecture":"7 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/","url":"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/","name":"Make the Choice: Put the Horse Back in the Barn - CCLA","isPartOf":{"@id":"https:\/\/ccla.org\/#website"},"primaryImageOfPage":{"@id":"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#primaryimage"},"image":{"@id":"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#primaryimage"},"thumbnailUrl":"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg","datePublished":"2020-01-01T08:22:00+00:00","dateModified":"2021-09-03T15:37:53+00:00","author":{"@id":"https:\/\/ccla.org\/#\/schema\/person\/c0ab72c13438e404cfca5f071db582f8"},"breadcrumb":{"@id":"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#breadcrumb"},"inLanguage":"fr-CA","potentialAction":[{"@type":"ReadAction","target":["https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/"]}]},{"@type":"ImageObject","inLanguage":"fr-CA","@id":"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#primaryimage","url":"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg","contentUrl":"https:\/\/ccla.org\/wp-content\/uploads\/2021\/04\/facial-recognition_1920.jpg","width":1920,"height":1280},{"@type":"BreadcrumbList","@id":"https:\/\/ccla.org\/privacy\/surveillance-technology\/artificial-intelligence\/make-the-choice-put-the-horse-back-in-the-barn\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/ccla.org\/"},{"@type":"ListItem","position":2,"name":"PRIVACY","item":"https:\/\/ccla.org\/category\/privacy\/"},{"@type":"ListItem","position":3,"name":"Surveillance &amp; Technology","item":"https:\/\/ccla.org\/category\/privacy\/surveillance-technology\/"},{"@type":"ListItem","position":4,"name":"Artificial Intelligence","item":"https:\/\/ccla.org\/category\/privacy\/surveillance-technology\/artificial-intelligence\/"},{"@type":"ListItem","position":5,"name":"Make the Choice: Put the Horse Back in the Barn"}]},{"@type":"WebSite","@id":"https:\/\/ccla.org\/#website","url":"https:\/\/ccla.org\/","name":"CCLA","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/ccla.org\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-CA"},{"@type":"Person","@id":"https:\/\/ccla.org\/#\/schema\/person\/c0ab72c13438e404cfca5f071db582f8","name":"Brenda McPhail","image":{"@type":"ImageObject","inLanguage":"fr-CA","@id":"https:\/\/ccla.org\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/b88e2b9b83f05dd6b511990cc78ba746?s=96&d=blank&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/b88e2b9b83f05dd6b511990cc78ba746?s=96&d=blank&r=g","caption":"Brenda McPhail"},"sameAs":["https:\/\/x.com\/Brenda"],"url":"https:\/\/ccla.org\/fr\/author\/brenda\/"}]}},"_links":{"self":[{"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/posts\/2255","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/comments?post=2255"}],"version-history":[{"count":3,"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/posts\/2255\/revisions"}],"predecessor-version":[{"id":5801,"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/posts\/2255\/revisions\/5801"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/media\/336"}],"wp:attachment":[{"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/media?parent=2255"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/categories?post=2255"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ccla.org\/fr\/wp-json\/wp\/v2\/tags?post=2255"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}