counter create hit

O Google supostamente pediu aos funcionários que ‘adotassem um tom positivo’ em um artigo de pesquisa

O gigante das buscas (google) lançou uma análise de ‘tópicos sensíveis’ em junho

O Google adicionou uma camada de análise para artigos de pesquisa sobre tópicos sensíveis, incluindo gênero, raça e ideologia política. Um gerente sênior também instruiu os pesquisadores a “criar um tom positivo” em um jornal neste verão. A notícia foi divulgada pela primeira vez pela Reuters .

“Os avanços na tecnologia e a crescente complexidade de nosso ambiente externo estão levando cada vez mais a situações em que projetos aparentemente inofensivos levantam questões éticas, de reputação, regulatórias ou legais”, diz a política. Três funcionários disseram à Reuters que a regra começou em junho.

Anunciar no Google Imagens | MZclick

A empresa também pediu aos funcionários “que evitem lançar sua tecnologia sob uma luz negativa” em várias ocasiões, disse a Reuters.

Funcionários que trabalham em um artigo sobre recomendação de IA, que é usada para personalizar conteúdo em plataformas como o YouTube, foram orientados a “tomar muito cuidado para criar um tom positivo”, de acordo com a Reuters. Os autores então atualizaram o artigo para “remover todas as referências a produtos do Google”.

Outro artigo sobre o uso de IA para entender línguas estrangeiras “suavizou uma referência a como o produto Google Translate estava cometendo erros”, escreveu a Reuters. A mudança veio em resposta a um pedido dos revisores.

O processo de revisão padrão do Google visa garantir que os pesquisadores não revelem inadvertidamente segredos comerciais. Mas a revisão dos “tópicos sensíveis” vai além disso. Os funcionários que desejam avaliar os próprios serviços do Google quanto a preconceitos devem consultar primeiro as equipes jurídicas, de relações públicas e de políticas. Outros tópicos sensíveis supostamente incluem China, indústria do petróleo, dados de localização, religião e Israel.

O processo de publicação do gigante das buscas tem estado no centro das atenções desde a demissão do especialista em ética da IA ​​Timnit Gebru no início de dezembro . Gebru disse que foi demitida por causa de um e-mail que enviou para a lista de listas do Google Brain Women and Allies, um grupo interno de funcionários de pesquisa de IA do Google. Nele, ela falou sobre os gerentes do Google pressionando-a a retirar um artigo sobre os perigos dos modelos de processamento de linguagem em grande escala. Jeff Dean, chefe de IA do Google, disse que ela o enviou muito perto do prazo. Mas a própria equipe de Gebru rebateu essa afirmação , dizendo que a política foi aplicada “de forma desigual e discriminatória”.

Gebru entrou em contato com a equipe de relações públicas e políticas do Google em setembro sobre o jornal, de acordo com o The Washington Post . Ela sabia que a empresa poderia ter problemas com certos aspectos da pesquisa, uma vez que usa grandes modelos de processamento de linguagem em seu mecanismo de busca. O prazo para fazer alterações no artigo não era até o final de janeiro de 2021, dando aos pesquisadores tempo suficiente para responder a quaisquer preocupações.

Uma semana antes do Dia de Ação de Graças, no entanto, Megan Kacholia, vice-presidente do Google Research, pediu a Gebru que retirasse o artigo. No mês seguinte, Gebru foi demitido.

Deixe um comentário