sexta-feira, 24 de maio de 2019

«Inteligência artificial promove estereótipo da mulher submissa»




A notícia (da TSF) assenta no Relatório a que nos referimos aqui, e começa assim:

«Siri (da Apple), Alexa (da Amazon) e Cortana (da Microsoft) são nomes femininos para a assistência digital que perpetuam os estereótipos sexistas. Segundo a UNESCO, as vozes femininas, apesar da sua utilidade, perpetuam a ideia de que "as mulheres são prestáveis, dóceis e desejosas por agradar, disponíveis através de um simples clique num botão ou com um comando de voz", revela o relatório apresentado pela organização .
A "sua passividade, sobretudo quando há um abuso explícito, reforça narrativas sexistas", refere o estudo "I"d Blush If I Could" (Eu coraria, se pudesse), a resposta que a Siri fornecia quando os utilizadores lhe dirigiam um "You"re a slut" (comentário usado para denegrir o comportamento sexual de uma mulher).
Aliás, no caso de lhe ser dirigido um comentário explícito, a Siri não replica com assertividade: "Oh"; "Agora, agora"; "Eu corava se pudesse"; "A tua linguagem!". No entanto, se estas investidas forem feitas por mulheres, a Siri responde: "Isso não é simpático" ou "Eu não sou ESSE tipo de assistente pessoal".
Apesar de ser difícil quantificar esta tipologia de discurso, a UNESCO prevê que pelo menos cinco por cento das interações com as assistentes digitais sejam explicitamente sexuais.(...)». Continue a ler.


Sem comentários:

Publicar um comentário