Pensez à notre prochaine étude de cas : L'intelligence artificielle...

Le CCLET espère continuer à ajouter des études de cas sur le site Remote Rights, et nous pourrions avoir besoin d'aide.

Parce que nous savons que les projets s'améliorent lorsque nous incluons une diversité d'opinions et que nous nous engageons avec d'autres personnes qui se soucient de l'éducation aux droits, nous essayons quelque chose de nouveau : nous partageons notre dernière idée au stade conceptuel pour voir quels types de réponses nous obtenons. Si vous l'aimez, si vous la détestez, si vous avez une expertise qui pourrait nous aider à faire avancer l'idée, faites-le nous savoir !

Bien que notre capacité à faire avancer les projets dépende du financement (nous y travaillons !), nous voulons lancer le projet dès maintenant. Alors, lisez l'idée ici, consultez notre carte de l'expérience utilisateur initiale et voyez ce que vous en pensez.

"Étude de cas "Créer des criminels

Le contexte : L'intelligence artificielle (IA) joue un rôle de plus en plus important dans les systèmes de justice pénale et de sécurité publique grâce à l'évaluation des risques. Les tribunaux américains utilisent ces outils à de nombreux stades pour prendre des décisions importantes concernant les personnes accusées, une tendance qui pourrait bientôt s'étendre aux tribunaux canadiens. Les services de police utilisent également des outils similaires dans le cadre d'applications de police prédictive pour toute une série d'activités la prévision des "points chauds" de la criminalité à la création les "listes de chaleur". des personnes qui risquent de commettre des actes criminels graves. Ces pratiques fondées sur les données comportent un large éventail de risques pour les droits individuels, notamment les droits à la vie privée et à l'égalité, tout en risquant de rendre de plus en plus opaques des systèmes qui doivent rendre des comptes au public. Le Canadian Civil Liberties Education Trust (CCLET) apportera à ce sujet ses plus de 20 ans d'expérience dans l'enseignement aux jeunes pour qu'ils s'engagent de manière critique dans les questions de droits. Le scénario interactif "Creating Criminals" aidera les utilisateurs à découvrir de manière ludique le fonctionnement des outils d'IA, en créant une expérience d'apprentissage en ligne interactive pour aider les participants à interroger les questions de vie privée, d'égalité et d'équité qui se posent lorsque l'IA est utilisée dans les systèmes de justice pénale et de sécurité publique. Nous créerons également des ressources textuelles supplémentaires librement accessibles afin de fournir des informations de base sur la technologie de l'IA et ses utilisations dans les systèmes de justice pénale et de sécurité publique.

L'idée : Nous voulons créer un programme interactif de type quiz pour aider Les utilisateurs apprendront comment des caractéristiques ou des activités spécifiques pourraient conduire un algorithme à étiqueter des personnes comme "risques" dans un contexte de sécurité publique. Les utilisateurs seront invités à sélectionner un avatar puis à faire une série de choix pour développer le profil du personnage de l'avatar (par exemple, statut d'emploi/citoyenneté, activité dans les médias sociaux, etc.) À la fin de l'exercice, une évaluation des risques sera révélée avec une explication de la manière dont l'algorithme a interprété les choix de l'utilisateur comme ayant un impact positif ou négatif sur leurs résultats.

Le public cible : Notre portail d'éducation aux droits en ligne Remote Rights et les modules qui l'alimentent sont conçus pour plaire aux lycéens et aux enseignants ; cependant, nous espérons qu'ils sont également appropriés et accessibles au grand public.

La carte conceptuelle: Regardez ici !

Contactez-nous :

[contact-form-7 id="29632″ title="Questions ou commentaires sur nos outils d'apprentissage ? Envoyez-nous un message !"]

Brenda McPhail
fr_CAFrançais du Canada
en_CAEnglish (Canada) fr_CAFrançais du Canada