Par Julie-Michèle Morin, doctorante en Littératures de langue française à l’Université de Montréal. Sa thèse porte sur la robotique dans les arts vivants. Elle mobilise une approche technoféministe pour réfléchir aux enjeux politiques soulevés par la rencontre entre les arts, les cultures numériques et les dispositifs technoscientifiques. Elle est également conseillère dramaturgique et se spécialise dans l’accompagnement des écritures médiatiques de la scène.

Résumé: Les systèmes d’intelligences artificielles (IA), et plus largement les innovations technologiques, sont toujours le résultat d’un processus de coopération entre des forces humaines (programmeur·euses, mathématicien·nes, algorithmicien·nes, technicien·es informatiques, etc.) et des agents autres qu’humains (protocoles informatiques, statistiques, formules mathématiques, diverses applications d’apprentissage automatisé ou semi-automatisé, etc.). Cette collaboration vise à créer et à raffiner le fonctionnement des algorithmes à l’œuvre dans une IA. Ce faisant, toute technologie est la matérialisation du système de valeurs des personnes, ou plus fréquemment des compagnies et des groupes de recherche, derrière sa fabrication. Ces artéfacts technologiques contiennent des principes, des politiques et des intérêts qui reflètent les valeurs de leurs concepteur·trices, des industries pour lesquelles iels travaillent. Les jeux de données (datasets) mobilisés pour créer les IA sont des témoins directs de ces valeurs, de ces idéologies et de ces postures. Loin d’être neutres, ces technologies modifient et déterminent les expériences individuelles, sociales et collectives que l’on fait de la race, du sexe, du genre et de la classe. Ce webinaire sera l’occasion de réfléchir au rôle que joue le choix des données utilisées pendant l’entrainement des systèmes d’intelligences artificielles et aux effets que ces encodages provoquent dans le processus de discrimination et de profilage de certains groupes sociaux historiquement marginalisés. Afin d’exemplifier concrètement cette réflexion sur la technologisation du profilage, je m’appuierai sur deux figures de cas : d’abord, les méthodes de police prédictives, avec l’exemple des outils développés par PredPol puis ensuite, l’évaluation judiciaire du risque de récidive des prévenu·es, avec le cas de l’outil COMPAS (Correctional Offender Management Profiling for Alternative Sanctions).