A transformação digital mudou a forma como trabalhamos e nos divertimos.

    Mas o progresso tecnológico nem sempre se traduz em progresso social no que diz respeito à paridade de gênero. Alguns aspectos da tecnologia reforçaram, em vez de combater, os estereótipos sexuais. (Leia também: O que as mulheres na tecnologia querem?)

    Aqui estão algumas áreas-chave que reforçam o sexismo e os estereótipos de gênero dentro da inteligência artificial (IA):

    Bro Cultura no Trabalho

    Embora a tecnologia e a IA continuem avançando, o mesmo não pode ser dito sobre as posições das mulheres nesses campos dominados por homens. As mulheres ainda detêm pouco mais de um quarto (26%) das posições de dados e IA, de acordo com o Fórum Econômico Mundial.

    Essa falta de representação significa que a maioria das mulheres que trabalham em tecnologia – 72%, de acordo com TrustRadius– ainda tem que lidar com a cultura dos irmãos. Isso pode se traduzir em um ambiente muito tóxico e até perigoso para as mulheres.

    No caso da empresa de jogos de realidade virtual (VR) Activision Blizzard, a cultura dos irmãos no local de trabalho levou a salários desiguais, assédio sexual e até agressões sem nenhuma consequência real para os perpetradores. O Wall Street Journal relatou que o CEO, que sabia sobre má conduta, interveio para garantir que aqueles considerados culpados de má conduta por investigações internas não fossem demitidos de acordo com as recomendações.

    Bro Culture em jogo

    O sexismo que permeia as empresas que produzem jogos também cria um ambiente hostil para as jogadoras.

    Em 2021, A Reach3 Insights entrevistou 900 mulheres e descobriu que 59% deles optaram por nomes neutros ou mesmo masculinos ao jogar para evitar o assédio sexual.

    Mais de três quartos das mulheres pesquisadas (77%) relataram ter que lidar com algum tipo de aborrecimento como mulher. O julgamento sobre suas habilidades foi relatado por 70% e o controle por 65%. Metade relatou comentários paternalistas e 44% disseram que “receberam perguntas de relacionamento não solicitadas durante o jogo”.

    Algumas mulheres têm uma experiência ainda pior na realidade virtual. Jordan Belamire escreveu “Minha primeira tentativa de realidade virtual.” Um avatar chamado BigBro442 persistiu em apalpar seu avatar, apesar de seus pedidos e ordens para parar. Belamire observou:

    “À medida que a VR se torna cada vez mais real, como decidimos o que cruza a linha de um aborrecimento para um ataque real? Eventualmente, precisaremos de regras para domar o oeste selvagem do multijogador de realidade virtual.”

    Novas plataformas, o mesmo velho problema

    Outra pergunta é: quando o “eventualmente” vai chegar?

    Belamire escreveu “My First Virtual Reality Groping” em 2016 e, mais de cinco anos depois, um incidente semelhante foi relatado em The Verge. Um testador beta do “Horizon Worlds” da Meta relatou que seu avatar foi apalpado na plataforma e relatou como ela achou o incidente perturbador.

    “Assédio sexual não é brincadeira na internet normal, mas estar em VR adiciona outra camada que torna o evento mais intenso”, escreveu ela. “Não só fui apalpado ontem à noite, mas havia outras pessoas lá que apoiaram esse comportamento que me fez sentir isolado no Plaza.”

    A plataforma da Meta oferece um recurso de bloqueio, que pode dar um pouco mais de controle àqueles que entram em um espaço onde qualquer pessoa pode se aproximar do seu avatar. Mas esse tipo de solução ainda não está à altura do que Belamire sugeriu: um código de conduta que os jogadores teriam que seguir.

    O fato de o assédio sexual continuar sendo um problema sério – que transita do mundo real para o virtual – reflete o fato de que a sociedade ainda está atolada em certas suposições de gênero. E essas suposições também se expressam de formas mais sutis.

    O que a Siri diz sobre nós

    A igualdade de gênero deveria ter avançado desde meados do século passado, mas as suposições de gênero que permanecem na tecnologia cotidiana nos lembram que ainda temos um longo caminho a percorrer.

    Esse foi o foco de um recente estudo da UNESCO intitulado “Eu coraria se pudesse”.

    O título do estudo é uma frase que a assistente de voz feminina da Apple, Siri, foi originalmente programada para dizer em resposta aos usuários que a chamavam de um nome sexista. A Apple atualizou a programação da Siri no início de 2019 para oferecer um “não sei como responder a isso” mais apropriado para a máquina quando alguém faz tal declaração ao agente de IA.

    Mas ainda assim, é preciso se perguntar por que a empresa demorou tanto. O Siri foi lançado em 2011 e não deveria ter levado quase oito anos para reconhecer e resolver um problema de suposições sexistas.

    Como aponta o relatório, “a subserviência ‘feminina’ de Siri – e o servilismo expresso por tantos outros assistentes digitais projetados como mulheres jovens – fornece uma ilustração poderosa de preconceitos de gênero codificados em produtos de tecnologia, difundidos no setor de tecnologia e aparentes em habilidades digitais Educação.”

    O que há em um nome?

    Ironicamente, a Amazon, cujo nome se refere a uma feroz raça de mulheres guerreiras, manteve suposições sexistas sobre as mulheres quando lançou seu agente de IA. O nome de Alexa é derivado de Alexandria, uma cidade cuja fama no mundo antigo era sua biblioteca, de acordo com Daniel Rausch, chefe da Amazon’s “Lar inteligente” divisão.

    Rausch disse Business Insider que a ideia por trás de referenciar Alexandria com o nome de Alexa era capturar a ideia da coleção original de volumes da biblioteca antiga, que abrigava “todo o conhecimento coletivo do mundo naquela época”. Como aquela cidade antiga recebeu o nome de Alexandre, o Grande, a Amazon poderia muito bem ter chamado seu agente de “Alex”, um nome usado por homens e mulheres.

    Mas a empresa optou pela versão distintamente feminina do nome, assim como a Apple optou pelo feminino “Siri” e a Microsoft criou a Cortana. Provavelmente, todas as empresas fizeram o mesmo tipo de pesquisa de mercado que a Amazon disse que fez. (Leia também: Como a IA mudará o cenário de pesquisa de mercado?)

    Por que a IA usa vozes e avatares de mulheres

    Na entrevista do Business Insider, Rausch disse que a Amazon “descobriu que a voz de uma mulher é mais ‘simpática’ e mais bem recebida”. O artigo continuou dizendo que essa preferência por vozes femininas é anterior aos assistentes de IA.

    De fato, até o computador a bordo da Enterprise falava com voz feminina. A voz era na verdade a de Majel Barrett-Roddenberry, esposa do criador da série “Star Trek” e mais reconhecida pelos fãs por seu papel recorrente como a enfermeira loira perfeitamente penteada, Christine Chapel, que obedientemente tinha que receber ordens do Dr. .

    É verdade que existem agentes de IA ligados a identidades masculinas, como observou Chandra Steele, da PC Mag, em um blog médio em 2018. Mas eles normalmente estão ligados a tarefas mais sérias do que aquelas relegadas ao assistente virtual em seu desktop ou telefone. Conseqüentemente, o Watson da IBM, que está associado a coisas como pesquisa médica, recebeu a “voz masculina” que as pessoas associam com confiança e liderança. (Leia também: Os 20 principais casos de uso de IA: inteligência artificial na área da saúde.)

    Em contraste, as vozes femininas estão associadas à cordialidade e complacência. “Embora não tenham corpo”, explicou Steele, “elas incorporam o que pensamos quando imaginamos uma assistente pessoal: uma mulher competente, eficiente e confiável”.

    Às vezes, os assistentes virtuais recebem até um corpo virtual feminino – pelo menos um que apareça na tela. É o caso da agente cognitiva Amelia da IPsoft; ela é retratada como uma loira que poderia estar na casa dos vinte anos. Ela personifica a mulher confiável que apóia o responsável, em segundo plano, mas também convencionalmente atraente.

    Enfrentando a Raiz do Problema

    “Não há nada de artificial na IA”, declarou Fei-Fei Li, especialista na área. “É inspirado por pessoas, é criado por pessoas e, o mais importante, impacta as pessoas.” Assim como “entrada de lixo, saída de lixo” se aplica a todos os dados, o mesmo vale para o que ela chama de “bias in, bias out” para sistemas de IA.

    A vantagem disso, porém, é que é possível reformular o caminho traçado. No entanto, devemos fazer um esforço consciente para equilibrar as perspectivas alimentadas na IA. Deixar de fazer isso, disse Li, “reforçaria preconceitos que passamos gerações tentando superar”. (Leia também: Cuidando da diferença de gênero: 10 fatos sobre mulheres na tecnologia.)

    O que precisamos fazer daqui para frente é combater conscientemente a cultura bro, seja ela dando expressão a efeitos abertamente nocivos, como no caso de assédio e agressão sexual, ou se manifestando de forma mais sutil, como na estereotipagem sexual de entidades movidas a IA. .

    Para conseguir isso, é importante que as vozes das mulheres sejam ouvidas – não como ajudantes complacentes, mas como iguais aos homens no trabalho e no lazer.

    Share.

    Comments are closed.