null: nullpx
assédio-Mulher

Como assistente de voz do Google conseguiu registrar dado alarmante sobre o assédio?

A maior parte do conteúdo avaliado pelo Google remete à violência de gênero.
Publicado 6 Mai 2022 – 12:11 PM EDT | Atualizado 6 Mai 2022 – 12:11 PM EDT
Reações
Compartilhar
Google Assistente avalia medidas de combate a violência de gênero. Crédito: Google

Visando o combate ao assédio e violência de gênero, o Google adotou um novo posicionamento sobre seu assistente de voz virtual, o Google Assistente. Agora, novas respostas educativas serão programadas para retornar insultos ou termos que remetam ao assédio nas interações com o aplicativo.

Em meio a essa iniciativa interna, que segue uma estratégia proposta em 2019, a empresa reuniu dados alarmantes sobre o volume de mensagens abusivas recebidas pelo Assistente no mundo. Especificamente no Brasil, a maioria desse conteúdo está envolvido em violência de gênero.

Google Assistente é alvo de violências

Por meio de uma pesquisa revelada pelo Google este mês, a empresa constatou um alto volume de mensagens com conteúdo ofensivo recebidas mensalmente pelo Google Assistente.

O assistente de voz virtual, que é ativado por um comando de voz do usuário no celular ou computador, tem sido alvo de condutas inapropriadas, camufladas como "brincadeiras", e muitas ofensas.

Em nota, Maia Mau, chefe de marketing do Google Assistente para a América Latina, explicou que o aplicativo recebe com frequência "pedidos para 'mandar nudes'" e mensagens ofensivas, como palavrões, ofensas explícitas ou "expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito".

Para combater esse tipo de conduta e reforçar uma mensagem construtiva, o Google Assistente tomará uma nova postura diante dessas condutas. Agora, o aplicativo será programado para responder de forma instrutiva ou repelir esses comportamentos. Frases como "não fale assim comigo" ou "o respeito é fundamental" farão parte do algoritmo, sendo ativadas como réplicas às mensagens identificadas como potencialmente ofensivas.


A ação faz parte de uma iniciativa pela conscientização contra a violência de gênero. "Não podemos ignorar que essa abordagem também reforça a ideia de que algumas pessoas, especialmente as mulheres, podem ter a sua intimidade invadida. No mundo real, isso é considerado uma forma de assédio. Por isso, o Google Assistente está se posicionando de maneira incisiva contra esse tipo de comportamento", reforçou a executiva.

Google descobre dados que reforçam violência de gênero no mundo virtual

Em meio ao desenvolvimento dessa iniciativa, o Google descobriu que as mulheres são o principal alvo das mensagens abusivas ou inapropriadas que são proferidas para o aplicativo Google Assistente.

Em nota, a empresa afirmou que "um a cada seis insultos são direcionados às mulheres, seja por expressões de misoginia ou de assédio sexual". A conduta ofensiva varia entre misoginia e homofobia, a depender das opções do Assistente no Brasil, que pode soar como "feminina" ou "masculina" — dependendo da opção escolhida pelo usuário.

Em comunicação com a voz feminina, foram observadas mais perguntas sobre a aparência física ("você é bonita?", por exemplo) ou expressões de tom misógino. Já para a voz masculina, o número de comentários homofóbicos é maior, caracterizando uma a cada dez das ofensas registradas pelo aplicativo.

A forma como tratamos assistentes virtuais revela muito sobre o machismo


Conforme análise da executiva Maia Mau, a associação entre o que acontece na comunicação com o Google Assistente e no "mundo real" é vital para entendermos as condutas discriminatórias que são propagadas pelos meios digitais. "Esse tipo de abuso registrado durante o uso do app é sim um reflexo do que muitos ainda consideram normal no tratamento a algumas pessoas", destacou.

No entanto, o estudo de como o tratamento nocivo aos aplicativos de assistência virtual tem reforçado a violência de gênero tem raízes mais profundas.

No relatório "I'd Blush if I Could" ("Eu Ficaria Vermelha Se Pudesse", em tradução livre), publicado pela Unesco em 2019, a forma como essa Inteligência Artificial foi concebida ilustra o viés discriminatório com que produtos tecnológicos tendem a ser criados.

O nome do estudo partiu de uma resposta da Siri, assistente virtual dos produtos Apple, que ao receber um xingamento de um usuário, proferiu a frase-título ao invés de se defender ou instruir sobre a violência.

"A subserviência da assistente em face de abusos de gênero permanece a mesma desde o lançamento dessa tecnologia, em 2011", pontuou o estudo. O software da Siri só foi atualizado para responder com mais seriedade a insultos — com a réplica "Eu não sei como responder a isso" — em abril de 2019, após muitos anos de comportamentos nocivos contra o software de voz feminina.

O fato de ambas assistentes virtuais serem projetadas inicialmente com vozes femininas e joviais (hoje, há opções de vozes "masculinas", como vimos anteriormente na análise do Google Assistente), segundo a pesquisa, também revela "lacunas a serem preenchidas" para proteger mulheres e meninas, pois propagam um perfil passivo e submisso que é incompatível com a vida real.


Essas análises também buscam aproximar as meninas e mulheres da tecnologia e áreas científicas. O impacto da projeção de estereótipos e violências na tecnologia é claro: ainda segundo o estudo, meninas e mulheres são 25% menos atraídas pelo uso de tecnologia no cotidiano.

No meio profissional, estão 4 vezes menos aptas a programar computadores e 13 vezes menos propensas a trabalhar na área da tecnologia.

Tecnologia e violências

Reações
Compartilhar

Mais conteúdo de interesse