top of page

Feminismo de Dados: Quem pergunta sobre as mulheres?



Sugestão de leitura: Data Feminism - Catherine D'Ignazio e Lauren Klein (2020)


Os dados estão moldando o futuro das políticas públicas, da força de trabalho, da comunicação pessoal e da experiência vivida no mundo moderno. A partir de funções de manipulação, transformação e análise de dados, produtos ou modelos podem ser organizados e produzidos para análises descritivas, preditivas e prescritivas capazes de gerar inúmeras tomadas de decisão.


Mas quem está por trás? Quem decide quais dados são importantes, e quais não são? Em resumo, são operadores, cientistas, analistas de dados e profissionais que trabalham com métodos STEM (Science, Technology, Engineering and Math) os responsáveis por destilar e moldar os dados brutos coletados, tornando-se profissionais-chave nesta construção.


Cathy O'Neil¹ apontou que "algoritmos são opiniões embutidas no código", ou seja, os algoritmos muitas vezes acabam refletindo as visões, comportamentos e crenças dos desenvolvedores, que são considerados "vieses inconscientes". Assim sendo, certamente se a equipe de dados for composta especialmente por pessoas que compartilham as mesmas características subjetivas, menos provável será alcançar a objetividade desejada.


Isso acontece porque humanos e algoritmos de aprendizado de máquina trabalham juntos para identificar padrões nos dados, mas estão sempre sujeitos a vieses internos. Os algoritmos aprendem como tomar decisões seguindo padrões nos dados apresentados a eles. É por isso que quando padrões de parcialidade, preconceito e desigualdade são detectados nos dados, os algoritmos resultantes também podem ser tendenciosos².


Um exemplo claro foi o chatbot “Tay”³, lançado pela Microsoft, que aprendeu a falar, analisar e conversar com humanos no Twitter, recebendo grande porcentagem de interações. O resultado: em menos de um dia, Tay começou a se expressar de maneira misógina e racista, reproduzindo as mensagens preconceituosas que recebeu, não sendo capaz de identificar a violência existente nos termos. No entanto, não há como se esperar que a ferramenta “pense” nessa possibilidade. Mas e os desenvolvedores? Não se lembraram que as redes sociais são palco de destilação de discriminação?


Bem, a ausência de preocupação com a diversidade de gênero, de raça e de etnia em equipes de ciência de dados e desenvolvedoras de sistemas de inteligência artificial fomenta a cegueira sobre estes problemas, correlacionados diretamente com a baixa proporção de mulheres no desenvolvimento de produtos e modelos de ciência de dados, uma vez que mulheres nestas funções jogam luz a esses preconceitos experimentados por si mesmas, fornecendo perspectivas alternativas ao extrair padrões e construir algoritmos de big data.


Mas por que as mulheres não estão nas equipes? Simplesmente porque a ciência de dados é uma forma de poder. E as narrativas em torno de big data e ciência de dados são predominantemente brancas e masculinas. Antes de mais nada, isso precisa ser reconhecido.


É importante garantir que as equipes de trabalho e os conjuntos de dados da ciência de dados sejam representados por um número justo de indivíduos diversos. Mas ainda assim, isso não é suficiente sem mudanças nas instituições que geram e reproduzem resultados enviesados. Portanto, examinar o poder não é apenas reconhecer o poder, mas também desafiar o poder.


E é neste contexto que surge a perspectiva do feminismo de dados.


Inicialmente, é preciso observar que o progresso tecnológico, embora muito importante, se pauta na exclusão, ou seja, parte da ideia de ausência de grupos minorizados, como mulheres, e ainda mais, mulheres negras. E a tecnologia, ao reconhecer a exclusão existente, pode afastar e impedir discriminações, ao menos as conscientes.


Não é difícil visualizar que uma das causas dos vieses que impedem dados importantes de aparecerem está justamente no fato de que a operação dos dados e criação de modelos são realizados por pequenos grupos de pessoas, que dificilmente são compostos por mulheres.


Assim, sendo as equipes de dados dominadas por indivíduos de origens privilegiadas, como homens, é possível que, ainda de forma não intencional, ampliem e deem um poder significativo às suas perspectivas. O resultado com viés de gênero, por exemplo, se concretiza a partir da ausência de outros pontos de vista e identidades em sua análise de dados.


Nesse sentido, a ideia do Feminismo de Dados, cunhado por Catherine D'Ignazio e Lauren F. Klein⁴, se concretiza em sete princípios, quais sejam:


  • Examinando o poder: analisando como o poder funciona no mundo.

  • Desafiando o poder: trabalhando para desafiar estruturas de poder desiguais e trabalhar pela justiça

  • Elevar a emoção e a experiência: valorizando o conhecimento em suas diversas formas, inclusive o conhecimento advindo de diferentes experiências

  • Repensando binarismos e hierarquias: desafiando os binários de gênero e outros sistemas de contagem e classificação que perpetuam a opressão.

  • Abraçando o pluralismo: insistindo que o conhecimento mais completo vem da síntese de múltiplas perspectivas, priorizando formas de conhecimento locais, indígenas e baseadas na experiência

  • Considerando o contexto: pensando que os dados não são neutros nem objetivos. São o produto de relações sociais desiguais, e esse contexto é fundamental para análises éticas e precisas.

  • Tornando o trabalho visível: valorizando o trabalho de ciência de dados, como trabalho multifacetado.


Estes princípios são destinados a fornecer etapas de ação para cientistas de dados que buscam entender como o feminismo pode ajudá-los a alcançar a justiça e para feministas que desejam entender como seu próprio trabalho pode ser transportado para o campo da ciência de dados.


Portanto, para encontrarmos respostas e informações sobre a realidade das mulheres, há de se fazer as perguntas certas, sendo o feminismo de dados uma perspectiva com boas práticas preconizadas para evitar os vieses e obter melhores resultados, orientando assim as políticas públicas e tomadas de decisão inerentes aos grupos minoritários.


REFERÊNCIAS


¹ O'NEIL, C. The Truth About Algorithms. Youtube, 7 de setembro de 2017. Disponível em: https://www.youtube.com/watch?v=_2u_eHHzRto&t=43s.


² PARLAMENTO EUROPEU. Inteligência Artifical: Desafios e Oportunidades. 2020. Disponível em: https://www.europarl.europa.eu/news/pt/headlines/society/20200918STO87404/inteligencia-artificial-oportunidades-e-desafios.


³ TECMUNDO. Tay: Twitter conseguiu corromper a IA da Microsoft em menos de 24 horas. Tecmundo, 2016. Disponível em: https://www.tecmundo.com.br/inteligencia-artificial/102782-tay-twitter-conseguiu-corromper-ia-microsoft-24-horas.htm


⁴ D’IGNAZIO, C.; KLEIN, L. Data Feminism. US: MIT Press, 2020. Disponível em: https://doi.org/10.7551/mitpress/11805.003.0002


31 visualizações0 comentário

Posts recentes

Ver tudo

Dias Mulheres Virão

No discurso da vitória feito pelo candidato eleito Luiz Inácio Lula da Silva, no dia 30 de outubro de 2022, nós ouvimos o futuro presidente falando às mulheres: “É preciso ir além. Fortalecer as polít

bottom of page