Siri e Alexa: a inteligência artificial é machista

Relatório da Unesco alerta: “assistentes” virtuais reproduzem submissão feminina. Empresas como Apple e Google atribuem caracterização estereotipada aos aplicativos: no nome, na voz, e na construção de uma “personalidade” serviçal

.

No DW Brasil

Assistentes virtuais populares que respondem com voz de mulher reforçam estereótipos sexistas, segundo um relatório das Nações Unidas divulgado nesta quarta-feira (22/05). A grande maioria dessas ajudantes, como a Siri da Apple, Alexa da Amazon e Cortana da Microsoft, são projetadas para serem percebidas como femininas, em nome, voz e personalidade.

Elas são programadas para serem submissas e servis, inclusive respondendo educadamente a insultos, e assim reafirmando os vieses de gênero e normalizando o assédio sexista, deduziram os pesquisadores da Organização das Nações Unidas para Educação, Ciência e Cultura (Unesco).

Como exemplo do problema, anteriormente Siri estava programada para responder “Eu ficaria vermelha, se pudesse” aos usuários que a chamassem de “bitch” (literalmente “cadela”, no uso chulo algo como “piranha”).

“A submissão de Siri diante de ofensas de gênero – e a servilidade expressa por muitas assistentes digitais projetadas como jovens mulheres – fornece uma poderosa ilustração dos vieses de gênero codificados nos produtos de tecnologia”, resume o relatório.

Apple, Amazon e Microsoft não estavam disponíveis para comentar. Numa ocasião anterior, uma porta-voz da Microsoft declarou que a companhia pesquisara opções de vozes para Cortana e concluíra que “uma voz feminina é o que melhor sustenta nossa meta de criar um assistente digital”.

Os assistentes vocais integraram-se rapidamente às vidas quotidianas de muitos, respondendo atualmente por um quinto de todas as buscas na internet, e por isso seu impacto cultural pode ser significativo, prossegue a Unesco. À medida que a tecnologia controlada vocalmente penetra mais comunidades pelo mundo, a feminização dos assistentes virtuais teria o potencial de apoiar a fixação e difusão do viés de gênero.

“O mundo precisa prestar mais atenção para como, quando e se as tecnologias de inteligência artificial representam um gênero e, crucialmente, quem está lhes conferindo esse gênero”, comentou Saniye Gulser Corat, diretora da Unesco para igualdade de gênero.

O relatório instou as companhias a agirem, inclusive evitando que os assistentes digitais sejam femininos por default, explorando opções neutras em termos de gênero e programando os assistentes para desencorajarem insultos sexistas e linguagem insultuosa. Alguns meses antes, uma equipe criativa lançara o/a primeiro/a assistente de gênero neutro, numa tentativa de evitar reforçar os clichês sexistas.

O relatório da Unesco foi saudado por grupos de mulheres. Segundo a porta-voz da Womankind, Maria Vlahakis, ele dá “a muito necessária atenção” ao viés de gênero nos algoritmos, pois “esses algoritmos perpetuam os estereótipos de gênero e o comportamento sexista e misógino, refletindo as desigualdades de gênero estruturais na tecnologia”.

Leia Também: