pt Portuguese

Twitter tenta combater o extremismo: Então Elon chegou

A empresa tinha um plano ambicioso para combater o extremismo na plataforma. Então, o que aconteceu com isso?

Foi uma longa pandemia para o time de pesquisa do Twitter. Encarregados de resolver alguns dos problemas mais difíceis da plataforma relacionados a assédio, extremismo e desinformação, os funcionários fugiram para Napa Valley para um retiro corporativo em novembro de 2021. Apesar de uma mudança tumultuada na liderança, com Dorsey deixando o cargo recentemente e sendo substituído pelo ex-chefe de tecnologia Parag Agrawal, o grupo se sentiu unido e até esperançoso. Depois de meses batalhando contra maus atores online, os funcionários tiraram algum tempo para relaxar. “No final, nos sentimos como uma equipe unida”, disse um pesquisador.

Mas no brunch de despedida do último dia, os telefones das pessoas começaram a apitar com notícias alarmantes: seu chefe, Dantley Davis, vice-presidente de design do Twitter, havia sido demitido. Ninguém sabia que estava chegando. “Foi como um filme”, diz um participante, que pediu para permanecer anônimo porque não está autorizado a falar publicamente sobre a empresa. “As pessoas começaram a chorar. Eu estava sentado lá comendo um croissant pensando, ‘O que está acontecendo com o clima?’”

A notícia prenunciou uma espiral descendente para a organização de pesquisa. Embora o grupo estivesse acostumado a reorganizações, um abalo no meio de um passeio destinado a unir a equipe parecia profundamente simbólico.

A turbulência veio à tona em abril, quando Elon Musk assinou um acordo para comprar o Twitter. Entrevistas com funcionários atuais e ex-funcionários, juntamente com 70 páginas de documentos internos, sugerem que o caos em torno da aquisição de Musk levou algumas equipes ao ponto de ruptura, levando vários pesquisadores de saúde a desistirem, com alguns dizendo que seus colegas foram instruídos a despriorizar projetos para combater o extremismo em favor de focar em bots e spam. O acordo com Musk pode nem ser aprovado, mas os efeitos nos esforços de saúde do Twitter já são claros.

A equipe de saúde, uma vez encarregada de promover conversas civis na famosa plataforma incivil, passou de 15 funcionários em tempo integral para dois.

Em 2019, Jack Dorsey fez uma pergunta fundamental sobre a plataforma que ajudou a criar: “Podemos realmente medir a saúde da conversa?”

No palco de uma conferência TED em Vancouver, o CEO de gorro falou seriamente sobre investir em sistemas automatizados para detectar proativamente o mau comportamento e “tirar completamente o fardo da vítima”.

Naquele verão, a empresa começou a contratar uma equipe de pesquisadores de saúde para realizar a missão de Dorsey. Sua palestra convenceu pessoas que trabalhavam na academia, ou para grandes empresas de tecnologia como a Meta, a se juntarem ao Twitter, inspiradas pela perspectiva de trabalhar para uma mudança social positiva.

Quando o processo funcionou como pretendido, os pesquisadores de saúde ajudaram o Twitter a pensar em possíveis abusos de novos produtos. Em 2020, o Twitter estava trabalhando em uma ferramenta chamada “unmention” que permite aos usuários limitar quem pode responder aos seus tweets. Os pesquisadores realizaram um exercício de “equipe vermelha”, reunindo funcionários de toda a empresa para explorar como a ferramenta poderia ser mal utilizada. A não menção poderia permitir que “pessoas poderosas suprimam a dissidência, discussão e correção” e permitir que “assediadores que buscam contato com seus alvos [para] coagir os alvos a responder pessoalmente”, escreveu a equipe vermelha em um relatório interno.

Mas o processo nem sempre foi tão tranquilo. Em 2021, o ex-chefe de produtos do Twitter, Kayvon Beykpour, anunciou que a prioridade número um da empresa era lançar Spaces. (“Foi um ataque completo para matar o Clubhouse”, diz um funcionário.) A equipe designada para o projeto trabalhou horas extras tentando lançar o recurso e não agendou um exercício de equipe vermelha até 10 de agosto – três meses depois lançar. Em julho, o exercício foi cancelado. Os Spaces foram ao ar sem uma avaliação abrangente dos principais riscos, e nacionalistas e terroristas brancos inundaram a plataforma, como informou o Washington Post.

Quando o Twitter finalmente realizou um exercício de equipe vermelha para o Spaces em janeiro de 2022, o relatório concluiu: “Não priorizamos identificar e mitigar os riscos de saúde e segurança antes de lançar o Spaces. Este Red Team ocorreu tarde demais. Apesar dos investimentos críticos no primeiro ano e meio de construção dos Spaces, temos sido amplamente reativos aos danos do mundo real infligidos por agentes mal-intencionados nos Spaces. Confiamos demais no público em geral para identificar problemas. Lançamos produtos e recursos sem explorar adequadamente as possíveis implicações para a saúde.”

No início deste ano, o Twitter desistiu dos planos de monetizar conteúdo adulto depois que uma equipe vermelha descobriu que a plataforma não havia tratado adequadamente o material de exploração sexual infantil. Era um problema sobre o qual os pesquisadores vinham alertando há anos. Os funcionários disseram que os executivos do Twitter estão cientes do problema, mas observaram que a empresa não alocou os recursos necessários para corrigi-lo.

No final de 2021, os pesquisadores de saúde do Twitter passaram anos brincando com maus atores na plataforma e decidiram implantar uma abordagem mais sofisticada para lidar com conteúdo prejudicial. Externamente, a empresa era regularmente criticada por permitir que grupos perigosos se descontrolassem. Mas, internamente, às vezes parecia que certos grupos, como teóricos da conspiração, foram expulsos da plataforma cedo demais – antes que os pesquisadores pudessem estudar sua dinâmica.

“A abordagem antiga era quase comicamente ineficaz e muito reativa – um processo manual de pega-pega”, diz um ex-funcionário, que pediu para permanecer anônimo porque não está autorizado a falar publicamente sobre a empresa. “Simplesmente definir e pegar ‘bandidos’ é um jogo perdido.”

Em vez disso, os pesquisadores esperavam identificar pessoas que estavam prestes a se envolver com tweets prejudiciais e incentivá-las a um conteúdo mais saudável usando mensagens pop-up e intersticiais. “O piloto permitirá que o Twitter identifique e alavanque sinais comportamentais – em vez de conteúdo – e alcance usuários em risco de danos com redirecionamento para conteúdo e serviços de suporte”, dizia um resumo interno do projeto.

Pesquisadores do Twitter fizeram parceria com a Moonshot, uma empresa especializada em estudar extremistas violentos, e deram início a um projeto chamado Redirect, inspirado no trabalho que o Google e o Facebook fizeram para conter a disseminação de comunidades nocivas. No Google, esse trabalho resultou em uma campanha sofisticada para segmentar pessoas que procuram conteúdo extremista com anúncios e vídeos do YouTube destinados a desmascarar mensagens extremistas. O Twitter planejava fazer o mesmo.

O objetivo era mover a empresa de simplesmente reagir a contas e postagens ruins para orientar os usuários proativamente para um melhor comportamento.

“Os esforços do Twitter para conter grupos nocivos tendem a se concentrar na definição desses grupos, designando-os dentro de uma estrutura política, detectando seu alcance (por meio de afiliação e comportamentos de grupo) e suspendendo ou desplataformando aqueles dentro da coorte”, diz um resumo interno do projeto. “Este projeto procura, em vez disso, entender e abordar os comportamentos dos usuários a montante. Em vez de nos concentrar em designar contas ou conteúdo ruins, procuramos entender como os usuários encontram conteúdo de grupo prejudicial nas contas e, em seguida, redirecionar esses esforços.”

Na primeira fase do projeto, que começou no ano passado, os pesquisadores se concentraram em três comunidades: extremismo violento com motivação racial ou étnica, extremismo violento antigovernamental ou antiautoritário e incels. Em um estudo de caso sobre o movimento boogaloo, um grupo de extrema-direita focado em incitar uma segunda Guerra Civil Americana, Moonshot identificou 17 influenciadores que tinham alto engajamento dentro da comunidade, usando o Twitter para compartilhar e divulgar sua ideologia.

O relatório delineou possíveis pontos de intervenção: um quando alguém tentou pesquisar um termo boogaloo e outro quando estava prestes a se envolver com um conteúdo boogaloo. “A abordagem da Moonshot para a identificação da comunidade central pode destacar os usuários que se movem em direção a essa esfera de influência, solicitando uma mensagem intersticial do Twitter”, diz o relatório.

A equipe também sugeriu adicionar uma mensagem pop-up antes que os usuários pudessem retweetar conteúdo extremista. As intervenções foram feitas para adicionar atrito ao processo de encontrar e interagir com tweets nocivos. Feito da maneira certa, diminuiria o impacto do conteúdo extremista no Twitter, tornando mais difícil para os grupos recrutar novos seguidores.

Antes que o trabalho pudesse ser totalmente implementado, no entanto, Musk chegou a um acordo com o conselho do Twitter para comprar a empresa. Pouco depois, os funcionários que lideravam a parceria Moonshot foram embora. E nos meses desde que Musk assinou o acordo, a equipe de pesquisa em saúde praticamente evaporou, passando de 15 funcionários para apenas dois.

“Vender a empresa para Elon Musk foi a cereja no topo do bolo de um histórico muito mais longo de decisões de altos escalões da empresa, mostrando que a segurança não era priorizada”, diz um funcionário.

Total
0
Shares
Prev
O Senhor dos Anéis: Os Anéis de Poder, todos os personagens dos filmes que vão aparecer na série

O Senhor dos Anéis: Os Anéis de Poder, todos os personagens dos filmes que vão aparecer na série

O Senhor dos Anéis: Os Anéis de Poder é a nova produção ambientada na Terra

Next
Data de lançamento do Ethereum 2.0: Quando o Eth2 será lançado?

Data de lançamento do Ethereum 2.0: Quando o Eth2 será lançado?

Um ETH aprimorado está chegando com o lançamento do Ethereum 2

Recomendado