Alexa, are you racist? Algorithmic racism, biases and intentionality

Authors

DOI:

https://doi.org/10.29147/datjournal.v9i1.749

Keywords:

Algorithmic racism, Design, and activism, Algorithm, Racist biases

Abstract

This article seeks to critically examine algorithms and their implications, raising questions about equity, social justice, and ethical responsibility. Furthermore, it proposes measures to mitigate the negative effects of algorithmic bias, such as the development of more inclusive design practices, systematic reviews of existing algorithms, increased transparency, and accountability from the companies and organizations that use them. Through these analyses and proposals, the article aims to contribute to a broader and more informed debate about algorithmic bias, encouraging actions and solutions that promote equity and justice in algorithm-driven systems.

Downloads

Download data is not yet available.

Author Biographies

Jean Carlos de Oliveira

graduado em Tecnologia e Mídias Digitais, com ênfase em Arte e Tecnologia, pela PU- CSP (2007), possui especialização em Sócio Psicologia pela FESP (2011) e em Docência no Ensino Superior pelo Centro Universitário Senac (2020). Foi aluno bolsista no Programa de Mestrado em Design na UAM (2022 a 2024) e integrou o grupo de pesquisa “Design,arte e memória: perspectivas contemporâneas”, orientado pela Profa. Dra. Palavras-chave Racismo algorítmico, Design e ativismo, Algoritmo, Vieses racistas. Priscila Arantes, na UAM. Atualmente, é docente nos cursos de Design na Universidade São Judas.

Priscila Almeida Cunha Arantes

pesquisadora, crítica e curadora no campo da arte e estética contemporânea. Possui graduação em Filosofia pela USP, com pós-doutorado pela UNICAMP e pela Penn State University (EUA). É professora do Departamento de Artes da PUC/SP e diretora adjunta da Faculdade de Filosofia, Comunicação, Letras e Artes. Além disso, leciona no PPG em Design da Universidade Anhembi Morumbi. Entre 2007 e 2020, foi diretora e curadora do Paço das Artes, instituição da Secretaria de Estado da Cultura de SP, onde desenvolveu diversos proje- tos curatoriais, seminários nacionais e internacionais, eventos e publicações. É autora de “Arte @ Mídia: perspectivas da estética digital” (FAPESP/SENAC), Keywords Algorithmic racism, Design, and activism, Algorithm, Racist biases. finalista do 48º Prêmio Jabuti, “Reescrituras da Arte Contemporânea: história, arquivo e mídia” (Ed. Sulina), “Urgências na Arte”, entre outros trabalhos. Também atua como vice-diretora daABCA (Associação Brasileira de Críticos de Arte) e integra, como convidada, o grupo de pesquisadores do ID+, instituto de pesquisa da Universidade de Porto e Aveiro (Portugal).

References

GILLESPIE, Tarleton. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. New Haven: Yale University Press, 2018, p.160. DOI: https://doi.org/10.12987/9780300235029

JURNO, Amanda Chevtchouk. (In)visibilidade algorítmica no “feed de notícias” do Facebook. Contemporânea: Comunicação e Cultura, Salvador, v. 15, n. 2, p. 463-484, maio/ago. 2017. DOI: https://doi.org/10.9771/contemporanea.v15i2.17796. Disponível em: https://periodicos.ufba.br/index.php/contemporaneaposcom/article/view/17796 - Acesso em 07/06/2023. DOI: https://doi.org/10.9771/contemporanea.v15i2.17796

JURNO, Amanda Chevtchouk. Questões e apontamentos para o estudo de algoritmos. Parágrafo, São Paulo, v.6, n. 1, p. 17-29, jan./abr. 2018. Disponível em: https://revistaseletro-nicas.fiamfaam.br/index.php/recicofi/article/view/709 - Acesso em 07/06/2023.

NADAL, K. L. (2014). A guide to responding to microaggressions. In CUNY Forum (Vol. 2,No. 1, pp. 71-76).

NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018. DOI: https://doi.org/10.2307/j.ctt1pwt9w5

NOBLE, Sofiya Umoja. Google Search: hiper-visibility as a means of rendering black woman and girls invisible. InVisible Culture: an Eletronic Journal for Visual Culture, Rochester, v. 19, 29 out. 2013. Disponível em: http://ivc.lib.rochester.edu/google-search-hyper-vi-sibility-as-a-means-of-rendering-black-women-and-girls-invisible/ - Acesso em 07/06/2023. DOI: https://doi.org/10.47761/494a02f6.50883fff

O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Broadway Books, 2016.

OPENAI. “ChatGPT é uma inteligência artificial de linguagem natural desenvolvida pela OpenAI, que usa uma arquitetura de rede neural para gerar respostas a perguntas feitas por usuários.” Disponível em: https://chat.openai.com/share/45f91530-60f9-49e-6-a96b-f1e23e0fa76f - Acesso em 13/06/2023.

SILVA, Tarcízio. Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais. São Paulo: Edições Sesc, 2022. DOI: https://doi.org/10.29327/269579.6.3-14

SILVA, Tarcízio. Visão computacional e racismo algorítmico: branquitude e opacidade no aprendizado de máquina. Revista da ABPN, Guarulhos, v. 12, n. 31, p. 428-448, dez. 2019/fev. 2020. DOI: https://doi.org/10.31418/2177-2770.2020.v12.n.31.p428-448

SILVA, Tarcízio. #1 - Eu Existo? O Racismo Algorítmico na rede. Entrevistador: Giovanne Ramos. Comunicando em Preto - Spotify, 29/06/2022. Podcast. Disponível em: https://open.spotify.com/episode/2HKqIEHX1yFU6dyMfUz6Gg?i=lsZbA9AJQmOAtwFRTnHP4A&nd=1. Acesso em 13/06/2023.

SCHNOOR, Marina. IA do Facebook rotulou vídeo de homens negros como ‘primatas’; empresa pede desculpas. Olhar Digital. 2021. Disponível em: https://olhardigital.com.br/2021/09/04/internet-e-redes-sociais/ai-facebook-rotulou-video-homens-negros-primatas/ - Acesso em 07/06/2023.

VIÉS. In: HOUAISS, Antônio. Dicionário Houaiss da Língua Portuguesa. Rio de Janeiro, Ed. Objetiva, 2023 [online]. Disponível em: https://houaiss.uol.com.br/corporativo/apps/uol_www/v6-1/html/index.php#0 – Acesso em 07/06/2023.

Published

2024-04-10

How to Cite

Oliveira, J. C. de, & Arantes, P. A. C. (2024). Alexa, are you racist? Algorithmic racism, biases and intentionality. DAT Journal, 9(1), 04–16. https://doi.org/10.29147/datjournal.v9i1.749