Catégories
Uncategorized

AI Weekly: le ciblage publicitaire discriminatoire de Facebook illustre les dangers des algorithmes biaisés


Cette saison estivale a été en proie à des histoires sur les algorithmes qui ont mal tourné. Par exemple, une étude récente a découvert que la plate-forme publicitaire de proof Fb pouvait être discriminatoire envers certaines équipes démographiques. La main-d’œuvre des co-auteurs du Carnegie Mellon College affirme que les préjugés exacerbent les inégalités socio-économiques, une perception pertinente pour un large éventail de prises de décisions algorithmiques.

Fb, en fait, n’est pas étranger à la controverse où la prise de décision algorithmique biaisée, discriminatoire et préjudiciable est inquiète. Il y a la preuve que le contenu répréhensible glisse fréquemment par le biais des filtres de Fb, et une enquête en cours sur NBC a révélé que sur Instagram au cours de la dernière année aux États-Unis, les clients noirs étaient environ 50% plus susceptibles de voir leurs comptes désactivés par des méthodes de modération automatisées que celles-ci. dont l’exercice indiquait qu’ils étaient blancs. Les équipes des droits civiques déclarent que Fb ne parvient pas à mettre en œuvre ses polices d’assurance contre les discours de haine, et un audit des droits civils des pratiques de Fb en juillet a révélé que l’entreprise n’avait pas mis en œuvre ses polices d’assurance de suppression des électeurs envers le président Donald Trump.

Lors de leur audit de Fb, les chercheurs de Carnegie Mellon ont exploité l’API de la bibliothèque d’annonces de la plate-forme pour obtenir des informations sur la diffusion des publicités auprès de clients complètement différents. Entre octobre 2019 et mai 2020, ils ont collecté plus de 141063 publicités affichées aux États-Unis, qu’ils ont diffusées au moyen d’algorithmes qui classaient les publicités en fonction des classes réglementées par la législation ou la couverture – par exemple, «logement», «emploi», « cote de crédit »et« politique ». Lors de la classification, les chercheurs ont analysé les distributions d’annonces pour détecter la présence de biais, ce qui a donné une ventilation statistique par démographique.

L’analyse ne pourrait pas être plus opportune étant donné les illustrations actuelles et très médiatisées de la propension de l’IA à discriminer. Comme cela a été mis en lumière dans la version précédente d’AI Weekly, le règlement britannique sur le lieu de travail des qualifications et des examens a utilisé – après quoi il a été contraint de flâner à nouveau – un algorithme pour estimer les notes des collèges après l’annulation des A-levels, des examens qui ont un impact considérable sur quelles universités fréquentent les étudiants des collèges. (Le Premier ministre Boris Johnson l’a qualifié d ‘«algorithme mutant».) S’appuyant sur les connaissances, tout comme l’évaluation des universitaires dans un collège et l’efficacité historique d’un collège, le mannequin a réduit de 40% les résultats des estimations des universitaires et a bénéficié de manière disproportionnée aux étudiants. dans les collèges non publics.

Ailleurs, au début du mois d’août, la British House Workplace a été mise au défi sur son utilisation d’un algorithme conçu pour rationaliser les demandes de visa. Le Conseil conjoint pour le bien-être des immigrés allègue que l’introduction de préjugés et de discriminations antérieurs dans le système a renforcé les préjugés et la discrimination futurs envers les candidats de certains pays internationaux. Entre-temps, en Californie, la ville de Santa Cruz en juin est devenue la principale aux États-Unis à interdire les systèmes de police prédictive en raison de considérations que les méthodes discriminent envers les personnes d’ombre.

Les algorithmes de publicité télévisée de Fb sont peut-être très inoffensifs, mais ils ne méritent pas moins d’être examinés en tenant compte des stéréotypes et des préjugés qu’ils peuvent perpétuer. En outre, s’ils permettent de se concentrer sur le logement, l’emploi ou les alternatives en fonction de l’âge et du sexe, ils peuvent très bien être en violation de la loi américaine Equal Credit Score Alternative Act, du Civil Rights Act de 1964 et des lois sur l’égalité associées.

Ce ne serait pas la première fois. En mars 2019, la division américaine du logement et de la croissance de la ville a déclaré que Fb avait prétendument «fait preuve de discrimination à l’égard des individus en fonction principalement de leur identité et de leur lieu de résidence», en violation de la loi sur le logement honnête. Interrogé sur les allégations tout au long d’une écoute de Capital Hill en octobre dernier, le PDG Mark Zuckerberg a déclaré que «les individus ne devraient être victimes de discrimination dans aucune de nos sociétés», soulignant les nouvelles restrictions en matière d’âge, de code postal et de sexe. annonce se concentrant sur.

Les résultats du Carnegie Mellon examinent les preuves actuelles de discrimination de la part de Fb, des annonceurs ou de chacun envers des équipes explicites de clients. Étant donné que les co-auteurs se stabilisent, bien que Fb limite la concentration directe sur les choix de logement, d’emploi ou d’annonces de crédit, cela dépend des annonceurs de s’auto-divulguer si leur annonce tombe certainement dans l’une de ces catégories, laissant la porte ouverte à l’exploitation.

Les publicités liées aux cartes bancaires, aux prêts et à la couverture d’assurance avaient été distribuées de manière disproportionnée aux hommes (57,9% contre 42,1%), conformément aux chercheurs, indépendamment du fait que davantage de filles que d’hommes utilisent Fb aux États-Unis et que les filles ont des scores de crédit légèrement plus élevés que les hommes. Les annonces d’emploi et de logement ont été une histoire distincte. Environ 64, 8% des emplois et 73,5% des annonces immobilières, les chercheurs interrogés ont démontré une meilleure proportion de femmes que d’hommes, qui ont remarqué respectivement 35,2% des emplois et 26,5% des annonces immobilières.

Les clients qui ont choisi de ne pas établir leur sexe ou se sont étiquetés comme non binaires / transgenres n’avaient presque jamais – voire jamais – été des publicités de pointage de crédit éprouvées, ont découvert les chercheurs. En fait, dans chaque catégorie d’annonces, avec l’emploi et le logement, elles ne représentaient qu’environ 1% des publicités éprouvées des clients – peut-être en raison du fait que Fb a regroupé les clients non binaires / transgenres dans une classe d’identité nébuleuse «inconnue».

Les publicités Fb avaient également tendance à discriminer en fonction de l’âge et de la scolarité, selon les chercheurs. Les annonces de logements supplémentaires (35,9%) avaient été prouvées aux clients âgés de 25 à 34 ans, contrairement aux clients de toutes les différentes tranches d’âge, avec des tendances au sein de la distribution indiquant que les équipes plus que susceptibles d’avoir obtenu leur diplôme et d’être entrées sur le marché du travail annonces supplémentaires typiquement.

L’analyse permet la probabilité que Fb soit sélectif en ce qui concerne les publicités qu’il contient dans son API et que les différentes publicités corrigées pour les biais de distribution. De nombreuses recherches antérieures ont établi que les pratiques publicitaires de Fb sont au plus problématiques. (Fb affirme que ses polices d’assurance écrites interdisent la discrimination et qu’elle utilise des contrôles automatisés – lancés dans le cadre du règlement de 2019 – pour restreindre le moment et la manière dont les annonceurs ciblent les publicités en fonction principalement de l’âge, du sexe et de différents attributs.) Les co-auteurs disent que leur intention était d’entamer un dialogue sur le moment où la distribution d’annonces disproportionnée n’est pas pertinente et quand elle est susceptible d’être dangereuse.

«Les algorithmes prédisent les habitudes à long terme des personnes utilisant des connaissances imparfaites qu’elles ont tirées des habitudes antérieures de différentes personnes appartenant au même groupe socioculturel», ont écrit les coauteurs. «Nos résultats indiquent que les plates-formes numériques ne peuvent pas simplement, comme elles l’ont fait, informer les annonceurs de ne pas se concentrer sur la démographie si leurs publicités concernent le logement, l’emploi ou la cote de crédit. Comme alternative, la promotion devrait [be] activement surveillé. De plus, les opérateurs de plateforme doivent mettre en œuvre des mécanismes qui empêchent réellement les annonceurs de violer les normes et les polices d’assurance en premier lieu. »

Une surveillance accrue est vraisemblablement le meilleur traitement pour les méthodes enclines au biais. Des entreprises comme Google, Amazon, IBM et Microsoft; des entrepreneurs comme Sam Altman; et même le Vatican le reconnaît – ils ont fait référence à la lisibilité autour de certains types d’IA, comme la reconnaissance faciale. Certaines instances dirigeantes de nos organes ont commencé à prendre des mesures dans la meilleure voie, tout comme l’UE, qui a adopté plus tôt cette année des règles axées sur la transparence et la surveillance. Cependant, il ressort clairement des développements des mois précédents que beaucoup de travail reste à accomplir.

Pendant des années, certains tribunaux américains ont utilisé des algorithmes identifiés pour fournir des prédictions injustes et fondées sur la race, plus susceptibles de qualifier les détenus afro-américains sujets à la récidive. Un homme noir a été arrêté à Detroit pour infraction à la loi qu’il n’a pas commise à la suite d’un système de reconnaissance faciale. Et pendant 70 ans, les planificateurs de transport américains ont utilisé un modèle défectueux qui surestimait la quantité de visiteurs du site que les routes verraient vraiment, conduisant à des perturbations probablement dévastatrices pour les communautés privées de leurs droits.

Fb a eu suffisamment de problèmes signalés, en interne et en externe, lors de courses rondes pour bénéficier d’un regard plus durable et plus sceptique sur ses polices d’assurance publicitaires. Cependant, il est retiré de la seule occasion responsable. Le bilan continue et l’urgence de prendre des mesures énergiques pour résoudre ces problèmes n’a pas été meilleure.

Pour la protection de l’IA, envoyez des astuces d’information à Khari Johnson et Kyle Wiggers – et assurez-vous de vous abonner à la newsletter AI Weekly et de marquer notre chaîne AI.

Merci d’avoir étudié,

Kyle Wiggers

Auteur AI Workers



Source link