Há uma lacuna de dados relativos à influência das mulheres na evolução humana, tanto ao nível cultural como biológico, reforçada hoje pela ausência de figuras femininas nos mais diversos algoritmos. Foi através dessa retórica que os homens se tornaram a norma, ocupando grande parte do conceito de “ser humano”, e as mulheres a excepção. De tal forma que, se atentarmos nas estatísticas, as mulheres estão mais expostas a acidentes automóveis fatais, a desconforto térmico no local de trabalho ou até a escoriações com material de proteção contra a Covid-19.

Afinal, a quem nos referimos quando dizemos “humano” e como é que isso influencia a igualdade de género?

Entrevistada pelo Polígrafo, Carla Cerqueira, professora auxiliar na Universidade Lusófona do Porto e investigadora integrada no Centro de Investigação em Comunicação Aplicada, Cultura e Novas Tecnologias (CICANT), explica que “as mulheres continuam a ser uma minoria social e são um exemplo claro de que uma maioria numérica pode ser um grupo que continua a ser muitas vezes excluído, invisibilizado e secundarizado em múltiplas esferas”.

Cerqueira considera que “vivemos numa sociedade de matriz androcêntrica que apresenta os homens como a norma e as mulheres como a exceção, que valoriza os valores associados tradicionalmente ao masculino, apresentando-os como superiores, e que naturaliza essa superioridade masculina como se fosse algo inato”.

De facto, utilizar o padrão masculino por defeito é uma tendência persistente - embora cada vez mais obsoleta - em várias áreas. Atentemos nos números. As mulheres representam a maioria da população mundial, mas a grande fatia dos ensaios e testes são feitos com recurso a homens ou a modelos anatómicos masculinos. De acordo com um estudo de 2019 da Universidade de Virgínia, EUA, as mulheres estão mais expostas a riscos de segurança rodoviária no seu dia-a-dia por um simples e aparente desinteresse no desenho de medidas de segurança específicas para elas.

É um machismo que se reflete visivelmente nas estatísticas: quando uma mulher se envolve num acidente automóvel, a probabilidade de ficar gravemente ferida é 47% maior do que a de um homem, a par com a probabilidade de sair com lesões moderadas, que é 71% maior. A mulher tem também 17% maior probabilidade de morrer.

Porquê? Porque ainda hoje os carros são projetados para um público específico: aquele que os produz. 

As empresas das maiores marcas automóveis do mundo são lideradas por homens, mas o processo envolve mais do que apenas a produção. O Polígrafo verificou os altos quadros das companhias que fazem testes de colisão e influenciam diretamente as classificações de segurança de um veículo: Euro NCAP, Humanetics e Autoliv. Nesta última são três mulheres frente a nove homens. Na Humanetics, 13 homens para um mulher, diretora de recursos humanos. Na Euro NCAP, o último estudo de 2018 teve como representantes no grupo de rating da empresa 11 homens. Céline Vallaude foi a única mulher, em representação da Utac-Ceram. 

Vejamos um exemplo prático deste problema: as mulheres tendem a sentar-se mais para a frente aquando da condução. Isto acontece porque, em média, são mais baixas, tendo a necessidade de aproximar as pernas dos pedais e manter o corpo erecto, de forma a verem claramente aquilo que a maioria dos homens alcança sem esforço. No entanto, está longe de ser a posição padrão para uma condução segura. Este desvio relativamente à norma traduz-se num maior risco de lesões internas no caso de colisões frontais. A posição aparentemente segura pode tornar as pernas membros especialmente vulneráveis. E o problema está nos dummies.

Carla Cerqueira explica que este é mais um dos exemplos do “machismo invisível” que permeia os nossos dias. “Os estudos referem que são utilizados modelos adultos standard que obviamente deixam de fora corpos que não se encaixam no padrão habitual, mesmo de outros homens. Além disso, a ideia de ‘adulto standard’ mostra que as mulheres são invisíveis e que se trata de uma esfera na qual ainda são vistas como uma espécie de intrusas. Este é realmente um problema que coloca as mulheres mais vulneráveis, que coloca em causa a sua segurança e que tem que ser repensado”, adverte a investigadora.

Apesar de na atualidade se utilizarem dummies de diferentes tamanhos e pesos, a estrutura masculina é a predominante, deixando de lado as características físicas do corpo feminino e a diferenciação entre os pontos vulneráveis de uns e outros. Distinções como o tamanho dos ombros, ancas, peito ou o comprimento dos ligamentos e estrutura óssea não são tidos em conta nos modelos estandardizados de dummies.

Este fenómeno imperceptível acontece de igual forma com outros perfis, como o das pessoas com obesidade ou até as crianças, ainda que estes últimos tenham adquirido um maior protagonismo nos testes dos últimos anos. Filipa Subtil, docente na Escola Superior de Comunicação Social, Instituto Politécnico de Lisboa, defende a necessidade de uma consciência de género nestas matérias. “Vulgarmente pensa-se que as materialidades, os objetos e as tecnologias são neutrais e tudo depende do seu uso. Cintos de segurança, máquinas de diagnóstico, assentos anatómicos, etc., ilustram que essa ideia vulgar é em muitos casos errada. Estas ilustrações sofrem de um evidente viés masculino que urge alterar e retificar. Necessitamos de uma consciência de género ativa para que os objetos e tecnologias do quotidiano contribuam para a igualdade entre géneros”, afirma ao Polígrafo.

Novas tecnologias que reproduzem velhos estereótipos de género

A realidade é que estes objetos e tecnologias nunca deixaram de ser influenciados. E a explicação é simples. Sem dados relativos a mulheres, os resultados tornam-se enviesados pelo público masculino, sobretudo quando falamos de Inteligência Artificial. Quais são os perigos de transpor responsabilidades para algoritmos treinados e alimentados por homens, com dados selecionados por homens e recolhidos com base noutros homens? 

O setor de programação tornou-se dominado pelo género masculino na década de 1980. Ainda hoje, 59% dos cientistas e engenheiros europeus são homens, de acordo com os últimos dados do Eurostat. Essa desigualdade foi inadvertida e inconscientemente integrada na escrita dos algoritmos.

“É importante relembrar que as áreas científicas e tecnológicas são dominados por homens”, destaca Cerqueira. “Basta pensar nas raparigas que não escolhem cursos vocacionados para as TIC, depois no mercado de trabalho há uma clara diferenciação de setores e elas estão praticamente ausentes nos cargos de chefia”.

Mas será possível resolver o problema recrutando mulheres para altos cargos de empresas tecnológicas?

“Por vezes os sexismos são subtis, não são flagrantes e até nos passam despercebidos. Além disso, foi feito um percurso importante para não homogeneizar a categoria mulher e mostrar que as situações de privilégio ou de opressão de género devem ser vistas numa óptica interseccional (intersectadas com outras pertenças identitárias, orientação sexual, raça, etnia, classe, idade, diversidade funcional, etc.) e temos que ter atenção a estas múltiplas pertenças identitárias”, salienta Cerqueira. 

A investigadora ressalva que o facto de as mulheres serem mais de metade da humanidade “tem que ser equacionado, sendo que ainda estamos perante culturas de mansplaining, em que aparece um homem a explicar à mulher, como se ela fosse uma intrusa daquele domínio. Tudo isto precisa de ser mudado. Se nos concentrarmos sobre a área da Inteligência Artificial e a sua importância é de reter que existe uma enorme falta de diversidade de género e de outras pertenças identitárias que conduz a enviesamentos nos algoritmos. Já há alguns estudos que nos mostram estes pontos cegos que precisamos de desatar, porque esta é uma esfera central para as nossas vidas e deve refletir a diversidade de pessoas e experiências existentes. Se as mulheres são mais de metade da humanidade, isso tem de ser equacionado também aqui”.

“Ainda estamos perante culturas de mansplaining, em que aparece um homem a explicar à mulher, como se ela fosse uma intrusa daquele domínio. Tudo isto precisa de ser mudado. Se nos concentrarmos sobre a área da Inteligência Artificial e a sua importância é de reter que existe uma enorme falta de diversidade de género e de outras pertenças identitárias que conduz a enviesamentos nos algoritmos. Já há alguns estudos que nos mostram estes pontos cegos que precisamos de desatar, porque esta é uma esfera central para as nossas vidas e deve refletir a diversidade de pessoas e experiências existentes”, defende a investigadora Carla Cerqueira.

Existem estudos que mostram que a lacuna de dados de género e o padrão masculino utilizado por defeito têm prejudicado as mulheres. Um algoritmo é tanto melhor quanto mais diversos e representativos forem os dados nele inseridos. Num estudo da Universidade de Washington, EUA, descobriu-se que, num conjunto de dados de imagens em que as fotos de culinária tinham 33% maior probabilidade de apresentar mulheres do que homens, o algoritmo aumentou a disparidade para 68%. Ou seja, fotografias de homens foram rotuladas como sendo de mulheres, decisão tomada com base na presença do individuo em frente a um fogão.

Mais preocupante é a introdução da Inteligência Artificial no diagnóstico médico, onde a lacuna de dados e um currículo tendencioso para os homens deixa desde logo as mulheres 50% mais propensas a serem diagnosticadas erroneamente se tiverem um ataque cardíaco, como revela uma pesquisa desenvolvida no Reino Unido. 

Este fenómeno é, em parte, explicado pela variedade de sintomas que os diferentes pacientes exibem. Mulheres particularmente jovens podem de facto apresentar-se sem qualquer dor no peito, mas antes com dor de estômago, falta de ar, náuseas e fadiga. Uma vez que os ataques cardíacos das mulheres podem não só desenvolver-se de maneira diferente, como podem ser mecanicamente díspares, a tecnologia desenvolvida para os detectar pode não ser adequada ao coração feminino.

Por exemplo, um ataque cardíaco é tradicionalmente diagnosticado com uma angiografia que mostra onde existem artérias obstruídas. A questão prende-se, no entanto, com o facto de muitas das mulheres não terem obstrução nas artérias, o que significa que o diagnóstico não exibirá nenhuma anormalidade. Lado a lado com um doente cardíaco do sexo oposto, a mulher corre riscos díspares desde o diagnóstico até ao tratamento.

Estes são paradigmas antigos e praticamente imutáveis que colocam em risco a saúde e o bem-estar do universo feminino. Na origem deste e de outros problemas estruturais, Cerqueira acredita estar a “socialização de género”.

“Para diminuirmos as desigualdades de género e criarmos mudanças estruturais também temos que fazer este esforço contínuo de atuação nas pequenas coisas do dia-a-dia. Aliás, a mudança parte muito da educação e muitas das assimetrias estão tão internalizadas porque advêm da socialização de género”, considera a investigadora.

Trazendo o tema para a atualidade, um artigo do jornal britânico The Guardian informa que profissionais de saúde na primeira linha contra a Covid-19 têm sentido falhas no equipamento de proteção pessoal, cujas características parecem ser somente adequadas a homens. Máscaras largas, batas demasiado grandes e escoriações no rosto derivadas da necessidade de ajustamento. Para estarem protegidas, as profissionais de saúde britânicas têm que optar por soluções diferenciadas que podem trazer consequências a longo prazo. 

Caroline Criado Perez, autora do livro “Invisible Women: Data Bias in a World Designed for Men” (Harry N. Abrams, 2019), explica que “o equipamento de proteção respiratória é projetado para o rosto masculino e, se não servir, não protegerá. (…) Por causa da escassez de dados desagregados por sexo, não sabemos quantas mulheres são afetadas, mas oiço diariamente mulheres no NHS (National Health Service) que dizem que não conseguem fazer com que as máscaras caibam”.

O “ser humano” é, na maior parte das vezes, um homem de 1,80m. No caminho para a dissolução desse preconceito pode estar a participação ativa das mulheres no mundo tecnológico, por exemplo, abdicando da posição atual de beneficiárias passivas. A Inteligência Artificial pode também ser fulcral neste processo, acredita Carla Cerqueira, defendendo que “não podemos ignorar todo o caminho que já foi percorrido e que nos permite estar hoje aqui a falar destes temas e a colocar estas prioridades na agenda”.

Ainda assim, a investigadora admite que “estamos numa área em que não podemos dar como garantidas as conquistas que foram feitas, porque a História tem mostrado que os retrocessos acontecem de um momento para o outro. Basta olharmos para alguns países na atualidade e vermos como esses retrocessos e os ataques às mais diversas minorias sociais, entre as quais se encontram as mulheres, estão muito presentes. Se olharmos para o contexto português, por exemplo, não podemos esquecer as marcas de 48 anos de ditadura que ainda permanecem, não podemos também ignorar o crescimento dos populismos e dos movimentos discriminatórios contra os mais diversos grupos, entre os quais estão as mulheres, os movimentos feministas, raciais”.

Assina a Pinóquio

Fica a par de todos os fact-checks com a newsletter semanal do Polígrafo.
Subscrever

Recebe os nossos alertas

Subscreve as notificações do Polígrafo e recebe todos os nossos fact-checks no momento!

Em nome da verdade

Segue o Polígrafo nas redes sociais. Pesquisa #jornalpoligrafo para encontrares as nossas publicações.
International Fact-Checking Network