Note :
Il n'y a actuellement aucun avis de lecteur. La note est basée sur 9 votes.
Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition
Comment le big data et l'apprentissage automatique codent la discrimination et créent des groupes agités de rage réconfortante.
Dans Discriminating Data, Wendy Hui Kyong Chun révèle comment la polarisation est un objectif - et non une erreur - dans le big data et l'apprentissage automatique. Selon elle, ces méthodes codent la ségrégation, l'eugénisme et les politiques identitaires par le biais de leurs hypothèses et conditions par défaut. La corrélation, qui fonde le potentiel prédictif du big data, découle des tentatives eugéniques du XXe siècle visant à « élever » un avenir meilleur. Les systèmes de recommandation favorisent les groupes de similitude en colère grâce à l'homophilie. Les utilisateurs sont « formés » à devenir authentiquement prévisibles par le biais d'une politique et d'une technologie de reconnaissance. L'apprentissage automatique et l'analyse des données cherchent donc à perturber l'avenir en rendant la perturbation impossible.
M. Chun, qui a une formation en ingénierie de conception de systèmes ainsi qu'en études des médias et en théorie culturelle, explique que même si les algorithmes d'apprentissage automatique n'incluent pas officiellement la race en tant que catégorie, ils intègrent la blancheur par défaut. La technologie de reconnaissance faciale, par exemple, s'appuie sur les visages de célébrités hollywoodiennes et d'étudiants de premier cycle universitaire, des groupes qui ne sont pas réputés pour leur diversité. Le concept d'homophilie est apparu pour décrire l'attitude des résidents américains blancs qui vivent dans des logements sociaux biraciaux mais ségrégués. La technologie de police prédictive déploie des modèles formés à partir d'études sur des quartiers majoritairement mal desservis. Entraînés sur des données sélectionnées et souvent discriminatoires ou sales, ces algorithmes ne sont validés que s'ils reflètent ces données.
Comment pouvons-nous nous libérer de l'emprise des données discriminatoires ? M. Chun préconise des algorithmes alternatifs, des valeurs par défaut et des coalitions interdisciplinaires afin de déségréger les réseaux et de favoriser un big data plus démocratique.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)