BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Observatoire des profilages - ECPv6.10.3//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:Observatoire des profilages
X-ORIGINAL-URL:https://www.observatoiredesprofilages.ca
X-WR-CALDESC:Évènements pour Observatoire des profilages
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:America/New_York
BEGIN:DAYLIGHT
TZOFFSETFROM:-0500
TZOFFSETTO:-0400
TZNAME:EDT
DTSTART:20220313T070000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0400
TZOFFSETTO:-0500
TZNAME:EST
DTSTART:20221106T060000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=America/New_York:20221024T120000
DTEND;TZID=America/New_York:20221024T133000
DTSTAMP:20260419T095550
CREATED:20221011T183107Z
LAST-MODIFIED:20221110T203350Z
UID:6895-1666612800-1666618200@www.observatoiredesprofilages.ca
SUMMARY:Intelligence artificielle et profilages
DESCRIPTION:Ce webinaire présente deux conférences sur le thème de l’intelligence artificielle et des profilages. \nIA et profilages : risques éthiques et juridiques (Visionner l’enregistrement) \nPar Céline Castets-Renard\, professeure titulaire\, Faculté de droit civil\, Université d’Ottawa. Titulaire de la chaire IA responsable à l’échelle mondiale et de la chaire Law au sein d’ANITI (Artificial and Natural Intelligence Toulouse Institute). Affiliée au Yale Internet Society Project et membre de l’Observatoire de l’économie des plateformes à la Commission européenne. \nRésumé: Alors que l’intelligence artificielle et les technologies en général sont régulièrement présentées comme facteurs de progrès dans les sociétés\, la réalité est souvent toute autre et peut conduire à des situations de profilage et de discrimination. Plusieurs études portant sur la reconnaissance faciale ont pu montrer la discrimination envers les personnes racisées et envers les femmes. De même\, si l’usage de l’IA en imagerie médicale est un exemple a priori positif pour aider au diagnostic des cancers\, il faut aussi considérer plus largement les facteurs socio-économiques et techniques de mise en oeuvre qui peuvent conduire à exclure des personnes\, notamment selon leur pathologie ou leur ethnie. Également\, les lois anti-avortement adoptées récemment dans plusieurs États américains donnent lieu à une surveillance par des dispositifs technologiques de géolocalisation ou collecte d’informations auprès des géants du numérique ou courtiers des données\, afin de traquer les femmes souhaitant interrompre leur grossesse. Ces cas de profilages fondés sur le genre\, la race ou la santé illustrent le fait que les rapports de pouvoir\, domination et contrôle social sont alors maintenus voire renforcés dans l’utilisation de technologies. La discussion engagera à la recherche collective de solutions. \nIntelligence artificielle : jeux de données et jeux de pouvoir (Visionner l’enregistrement) \nPar Julie-Michèle Morin\, doctorante en Littératures de langue française à l’Université de Montréal. Sa thèse porte sur la robotique dans les arts vivants. Elle mobilise une approche technoféministe pour réfléchir aux enjeux politiques soulevés par la rencontre entre les arts\, les cultures numériques et les dispositifs technoscientifiques. Elle est également conseillère dramaturgique et se spécialise dans l’accompagnement des écritures médiatiques de la scène. \nRésumé: Les systèmes d’intelligences artificielles (IA)\, et plus largement les innovations technologiques\, sont toujours le résultat d’un processus de coopération entre des forces humaines (programmeur·euses\, mathématicien·nes\, algorithmicien·nes\, technicien·es informatiques\, etc.) et des agents autres qu’humains (protocoles informatiques\, statistiques\, formules mathématiques\, diverses applications d’apprentissage automatisé ou semi-automatisé\, etc.). Cette collaboration vise à créer et à raffiner le fonctionnement des algorithmes à l’œuvre dans une IA. Ce faisant\, toute technologie est la matérialisation du système de valeurs des personnes\, ou plus fréquemment des compagnies et des groupes de recherche\, derrière sa fabrication. Ces artéfacts technologiques contiennent des principes\, des politiques et des intérêts qui reflètent les valeurs de leurs concepteur·trices\, des industries pour lesquelles iels travaillent. Les jeux de données (datasets) mobilisés pour créer les IA sont des témoins directs de ces valeurs\, de ces idéologies et de ces postures. Loin d’être neutres\, ces technologies modifient et déterminent les expériences individuelles\, sociales et collectives que l’on fait de la race\, du sexe\, du genre et de la classe. Ce webinaire sera l’occasion de réfléchir au rôle que joue le choix des données utilisées pendant l’entrainement des systèmes d’intelligences artificielles et aux effets que ces encodages provoquent dans le processus de discrimination et de profilage de certains groupes sociaux historiquement marginalisés. Afin d’exemplifier concrètement cette réflexion sur la technologisation du profilage\, je m’appuierai sur deux figures de cas : d’abord\, les méthodes de police prédictives\, avec l’exemple des outils développés par PredPol puis ensuite\, l’évaluation judiciaire du risque de récidive des prévenu·es\, avec le cas de l’outil COMPAS (Correctional Offender Management Profiling for Alternative Sanctions).
URL:https://www.observatoiredesprofilages.ca/event/intelligence-artificielle-et-profilages/
LOCATION:Zoom
CATEGORIES:Webinaire,Évènements ODP
ATTACH;FMTTYPE=image/jpeg:https://www.observatoiredesprofilages.ca/wp-content/uploads/2022/10/Banderole.jpeg
END:VEVENT
END:VCALENDAR