Sugestão de leitura: Data Feminism - Catherine D'Ignazio e Lauren Klein (2020)
Os dados estão moldando o futuro das políticas públicas, da força de trabalho, da comunicação pessoal e da experiência vivida no mundo moderno. A partir de funções de manipulação, transformação e análise de dados, produtos ou modelos podem ser organizados e produzidos para análises descritivas, preditivas e prescritivas capazes de gerar inúmeras tomadas de decisão.
Mas quem está por trás? Quem decide quais dados são importantes, e quais não são? Em resumo, são operadores, cientistas, analistas de dados e profissionais que trabalham com métodos STEM (Science, Technology, Engineering and Math) os responsáveis por destilar e moldar os dados brutos coletados, tornando-se profissionais-chave nesta construção.
Cathy O'Neil¹ apontou que "algoritmos são opiniões embutidas no código", ou seja, os algoritmos muitas vezes acabam refletindo as visões, comportamentos e crenças dos desenvolvedores, que são considerados "vieses inconscientes". Assim sendo, certamente se a equipe de dados for composta especialmente por pessoas que compartilham as mesmas características subjetivas, menos provável será alcançar a objetividade desejada.
Isso acontece porque humanos e algoritmos de aprendizado de máquina trabalham juntos para identificar padrões nos dados, mas estão sempre sujeitos a vieses internos. Os algoritmos aprendem como tomar decisões seguindo padrões nos dados apresentados a eles. É por isso que quando padrões de parcialidade, preconceito e desigualdade são detectados nos dados, os algoritmos resultantes também podem ser tendenciosos².
Um exemplo claro foi o chatbot “Tay”³, lançado pela Microsoft, que aprendeu a falar, analisar e conversar com humanos no Twitter, recebendo grande porcentagem de interações. O resultado: em menos de um dia, Tay começou a se expressar de maneira misógina e racista, reproduzindo as mensagens preconceituosas que recebeu, não sendo capaz de identificar a violência existente nos termos. No entanto, não há como se esperar que a ferramenta “pense” nessa possibilidade. Mas e os desenvolvedores? Não se lembraram que as redes sociais são palco de destilação de discriminação?
Bem, a ausência de preocupação com a diversidade de gênero, de raça e de etnia em equipes de ciência de dados e desenvolvedoras de sistemas de inteligência artificial fomenta a cegueira sobre estes problemas, correlacionados diretamente com a baixa proporção de mulheres no desenvolvimento de produtos e modelos de ciência de dados, uma vez que mulheres nestas funções jogam luz a esses preconceitos experimentados por si mesmas, fornecendo perspectivas alternativas ao extrair padrões e construir algoritmos de big data.
Mas por que as mulheres não estão nas equipes? Simplesmente porque a ciência de dados é uma forma de poder. E as narrativas em torno de big data e ciência de dados são predominantemente brancas e masculinas. Antes de mais nada, isso precisa ser reconhecido.
É importante garantir que as equipes de trabalho e os conjuntos de dados da ciência de dados sejam representados por um número justo de indivíduos diversos. Mas ainda assim, isso não é suficiente sem mudanças nas instituições que geram e reproduzem resultados enviesados. Portanto, examinar o poder não é apenas reconhecer o poder, mas também desafiar o poder.
E é neste contexto que surge a perspectiva do feminismo de dados.
Inicialmente, é preciso observar que o progresso tecnológico, embora muito importante, se pauta na exclusão, ou seja, parte da ideia de ausência de grupos minorizados, como mulheres, e ainda mais, mulheres negras. E a tecnologia, ao reconhecer a exclusão existente, pode afastar e impedir discriminações, ao menos as conscientes.
Não é difícil visualizar que uma das causas dos vieses que impedem dados importantes de aparecerem está justamente no fato de que a operação dos dados e criação de modelos são realizados por pequenos grupos de pessoas, que dificilmente são compostos por mulheres.
Assim, sendo as equipes de dados dominadas por indivíduos de origens privilegiadas, como homens, é possível que, ainda de forma não intencional, ampliem e deem um poder significativo às suas perspectivas. O resultado com viés de gênero, por exemplo, se concretiza a partir da ausência de outros pontos de vista e identidades em sua análise de dados.
Nesse sentido, a ideia do Feminismo de Dados, cunhado por Catherine D'Ignazio e Lauren F. Klein⁴, se concretiza em sete princípios, quais sejam:
Examinando o poder: analisando como o poder funciona no mundo.
Desafiando o poder: trabalhando para desafiar estruturas de poder desiguais e trabalhar pela justiça
Elevar a emoção e a experiência: valorizando o conhecimento em suas diversas formas, inclusive o conhecimento advindo de diferentes experiências
Repensando binarismos e hierarquias: desafiando os binários de gênero e outros sistemas de contagem e classificação que perpetuam a opressão.
Abraçando o pluralismo: insistindo que o conhecimento mais completo vem da síntese de múltiplas perspectivas, priorizando formas de conhecimento locais, indígenas e baseadas na experiência
Considerando o contexto: pensando que os dados não são neutros nem objetivos. São o produto de relações sociais desiguais, e esse contexto é fundamental para análises éticas e precisas.
Tornando o trabalho visível: valorizando o trabalho de ciência de dados, como trabalho multifacetado.
Estes princípios são destinados a fornecer etapas de ação para cientistas de dados que buscam entender como o feminismo pode ajudá-los a alcançar a justiça e para feministas que desejam entender como seu próprio trabalho pode ser transportado para o campo da ciência de dados.
Portanto, para encontrarmos respostas e informações sobre a realidade das mulheres, há de se fazer as perguntas certas, sendo o feminismo de dados uma perspectiva com boas práticas preconizadas para evitar os vieses e obter melhores resultados, orientando assim as políticas públicas e tomadas de decisão inerentes aos grupos minoritários.
REFERÊNCIAS
¹ O'NEIL, C. The Truth About Algorithms. Youtube, 7 de setembro de 2017. Disponível em: https://www.youtube.com/watch?v=_2u_eHHzRto&t=43s.
² PARLAMENTO EUROPEU. Inteligência Artifical: Desafios e Oportunidades. 2020. Disponível em: https://www.europarl.europa.eu/news/pt/headlines/society/20200918STO87404/inteligencia-artificial-oportunidades-e-desafios.
³ TECMUNDO. Tay: Twitter conseguiu corromper a IA da Microsoft em menos de 24 horas. Tecmundo, 2016. Disponível em: https://www.tecmundo.com.br/inteligencia-artificial/102782-tay-twitter-conseguiu-corromper-ia-microsoft-24-horas.htm
⁴ D’IGNAZIO, C.; KLEIN, L. Data Feminism. US: MIT Press, 2020. Disponível em: https://doi.org/10.7551/mitpress/11805.003.0002