No dia após a Suprema Corte anulou Roe v. Wade, empresa-mãe do Facebook, Meta, designou internamente o grupo de direitos ao aborto A vingança de Jane como uma organização terrorista, de acordo com materiais da empresa revisados pelo The Intercept, submetendo a discussão do grupo e suas ações às mais rigorosas políticas de censura da empresa. Especialistas dizem que a decisão, a primeira resposta política conhecida da Meta para a era pós-Roe, ameaça a liberdade de expressão em torno do direito ao aborto em um momento crítico.
O breve boletim interno da Meta Platforms Inc., proprietária do Instagram e do Facebook, foi intitulado “[EMERGENCY Micro Policy Update] [Terrorism] Jane's Revenge” e arquivado no livro de regras interno de Indivíduos e Organizações Perigosas da empresa, o que significa que o grupo de direitos ao aborto, que até agora só se comprometeu atos de vandalismo, serão tratados com as mesmas restrições de expressão contra “elogio, apoio e representação” aplicados ao Estado Islâmico e a Hitler. O memorando, distribuído aos moderadores do Meta em 25 de junho, descreve Jane's Revenge como “um grupo extremista de extrema esquerda que assumiu a responsabilidade em seu site por um ataque contra o escritório de um grupo antiaborto em Madison, Wisconsin, em maio de 2022. O grupo é responsável por vários ataques incendiários e de vandalismo contra instituições pró-vida.” Os grupos terroristas recebem os mais rígidos limites de expressão “Nível 1” da Meta, tratamento que a empresa diz ser reservado às entidades mais perigosas e violentas do mundo. e o grupos de ódio, cartéis de drogas e assassinos em massa.
Embora o The Intercept tenha publicado um instantâneo de toda a lista secreta de Indivíduos e Organizações Perigosas do ano passado, Meta não divulga nem explica acréscimos ao público, apesar da insistência de acadêmicos, ativistas e de seu próprio Conselho de Supervisão. Os defensores do discurso e os grupos da sociedade civil têm criticado a política por seu sigilo, preconceito em relação às prioridades governamentais dos EUA e tendência para imprecisamente excluir não-violento discurso político. De acordo com a transparência trimestral mais recente da Meta Denunciar, a empresa restaurou quase meio milhão de postagens entre janeiro e março apenas na categoria terrorismo, após determinar que haviam sido censuradas erroneamente.
A discussão sobre Jane’s Revenge já estava tecnicamente sujeita à censura de Nível 1 decorrente de outra restrição de fala interna não relatada anteriormente decretada pela Meta no mês passado. Em maio, poucos dias depois de o Politico publicar uma decisão vazada da Suprema Corte prenunciando a reversão do caso Roe v. Wade, o escritório da Wisconsin Family Action, um grupo antiaborto, foi vandalizado. No dia seguinte, o Meta proibiu silenciosamente os seus cerca de 2 mil milhões de utilizadores de “elogiarem, apoiarem ou representarem” o vandalismo ou os seus perpetradores, de acordo com materiais da empresa analisados pelo The Intercept. Embora estas restrições baseadas em eventos sejam muitas vezes temporárias, a utilização mais recente do rótulo formal de “terror” sugere uma posição política mais permanente.
“Esta designação é difícil de conciliar com a colocação dos Oath Keepers e Three Percenters no Nível 3, que está sujeito a muito menos restrições, apesar de seu papel na organização e participação no ataque ao Capitólio de 6 de janeiro”, disse Mary Pat Dwyer, programa acadêmico diretor do Instituto de Legislação e Política Tecnológica da Faculdade de Direito de Georgetown. “E embora seja possível que a Meta tenha transferido esses grupos para o Nível 1 mais recentemente, isso apenas destaca a falta de transparência sobre quando e como essas decisões, que têm um enorme impacto na capacidade das pessoas de discutir eventos atuais e questões políticas importantes, são tomadas. ”
O incidente de Wisconsin, que consistiu num pequeno incêndio e pichações denunciando a posição antiaborto do grupo, resultou apenas em pequenos danos materiais no escritório vazio. Mas o vandalismo foi rapidamente designado como “Evento Violento Violador”, uma espécie de restrição de discurso ad hoc que o Meta distribui à sua equipe de moderação de conteúdo para limitar a discussão em suas plataformas em resposta às últimas notícias e a várias crises internacionais, normalmente eventos proeminentes como o de janeiro. 6 de outubro de 2021, tumultos no Capitólio, terrorismo, tiroteios públicos ou derramamento de sangue étnico.
“Estamos classificando isso internamente como um Evento Violento Violante (Designação Geral)”, diz o memorando interno de 11 de maio, obtido pelo The Intercept. “Todo conteúdo elogiando, apoiando ou representando o evento e/ou perpetrador(es) deve ser removido da plataforma.” O despacho instruiu os moderadores a censurar a representação e discussão do vandalismo no âmbito da estrutura política de Indivíduos e Organizações Perigosas, que restringe o discurso sobre atores violentos como células terroristas, neonazistas e cartéis de drogas. “O escritório de uma organização política conservadora que faz lobby contra o direito ao aborto foi vandalizado e danificado por um incêndio em Madison, Wisconsin”, continuava o memorando. “Um grupo chamado Jane’s Revenge assumiu o crédito pelo ataque.” O número de vítimas do “Evento Violento Violador” está marcado como “0”.
A designação de Ação Familiar de Wisconsin é notável não apenas pela gravidade relativamente baixa do ataque em si, que a polícia de Madison está investigando como um ato de incêndio criminoso, mas também porque marca uma rara incursão do Facebook em limitar o discurso sobre o aborto. Também é impressionante a escolha da empresa de censurar ações relativas ao direito ao aborto, mesmo ações destrutivas, dado que ao longo da longa história do debate americano sobre o aborto, a esmagadora maioria da violência foi conduzida por aqueles que procuram impedir o acesso ao procedimento através de atentados e assassinatos. , não expandi-lo. No início deste mês, Axios relatado que “as agressões dirigidas a funcionários e pacientes de clínicas de aborto aumentaram 128% no ano passado em relação a 2020”, de acordo com um relatório da Federação Nacional de Aborto. E, no entanto, dos mais de 4,000 nomes na lista de Indivíduos e Organizações Perigosas da empresa, apenas dois estão associados à violência antiaborto ou ao terrorismo: a célula terrorista cristã do Exército de Deus e um dos seus afiliados, o notório homem-bomba Eric Rudolph. Embora muito pouco se saiba sobre Jane’s Revenge, incluindo se o vandalismo está sendo cometido pelos mesmos atores e até que ponto se trata de um grupo, proeminentes ASA direita políticos começou a exigir que os danos materiais fossem tratados como terrorismo doméstico, uma posição agora essencialmente apoiada pela Meta.
Mas a empresa também parece ter evitado censurar a discussão de atos antiaborto mais recentes, comparáveis ao incêndio em Wisconsin. Na véspera de Ano Novo, incendiários destruíram uma clínica da Planned Parenthood em Knoxville, Tennessee, que havia sido crivado de balas no início do ano, no aniversário da decisão Roe v. Wade. De acordo com várias fontes familiarizadas com as políticas de moderação de conteúdo do Facebook, que falaram sob condição de anonimato porque não têm permissão para falar com a imprensa, o incêndio da Planned Parenthood na véspera de Ano Novo nunca foi designado de forma semelhante como um “Evento Violento de Violação”. Embora os defensores anti-aborto ainda estejam proibidos de incitar mais violência contra as clínicas da Planned Parenthood (ou qualquer outra coisa), os usuários do Meta agora têm muito mais liberdade para discutir - ou mesmo elogiar - esse caso de violência anti-aborto do que atos comparáveis do outro lado. .
O frequente mau funcionamento das regras de censura global do Facebook também significa que a actualização específica do Wisconsin e o mais recente rótulo de terrorismo, mesmo que destinado apenas a impedir futuros actos de violência no mundo real de ambos os lados do debate sobre o aborto, podem acabar por sufocar políticas legítimas. discurso. Embora o livro de regras de propósito geral dos “Padrões da Comunidade” da empresa coloque uma proibição geral contra quaisquer apelos explícitos à violência, apenas pessoas, grupos e eventos explicitamente sinalizados estão sujeitos às proibições muito mais rigorosas da Meta contra “elogio, apoio e representação”, restrições que impedir os usuários de citar, descrever ou falar positivamente sobre a entidade ou ação em questão. Mas a formulação ambígua e a aplicação frequentemente desigual destas regras significam que o discurso que está muito longe de ultrapassar a linha vermelha do incitamento à violência está sujeito a eliminação. A proibição de “elogio, apoio e representação” de indivíduos e organizações perigosas tem sido frequentemente citada pelo Facebook quando exclusão de postagens que documentam ou protestam contra a violência do Estado israelense contra os palestinos, por exemplo, casos dos quais também foram por vezes designados como “eventos violentos violadores”.
A Vingança de Jane é pouco compreendida, controversa e sujeita a intenso debate, precisamente no momento em que as designações de Indivíduos e Organizações Perigosas significam que milhares de milhões de pessoas estão limitadas no que podem dizer sobre os perpetradores, os seus motivos ou os seus métodos. Qualquer coisa que possa ser interpretada como “elogio”, por mais provisória que seja, corre o risco de ser apagada. Na verdade, mesmo a descrição pública do padrão de “elogio, apoio e representação” do Facebook observa que quaisquer postagens “legitimam a causa de uma entidade designada, fazendo alegações de que sua conduta odiosa, violenta ou criminosa é legal, moral ou de outra forma justificada ou aceitável” são proibidos.
“Existem preocupações legítimas de que isso possa encerrar o debate.”
A visão geral interna da empresa sobre o padrão de “elogio”, obtida e publicada pelo The Intercept no ano passado, orienta os moderadores a excluir qualquer coisa que “se envolva em declarações baseadas em valores e argumentos emotivos” ou “procure fazer os outros pensarem de forma mais positiva” sobre o sancionado. entidade ou evento. Embora essas regras internas permitam “debate acadêmico e discurso informativo e educacional” de uma entidade ou evento violento, o que atende ao limite para “debate acadêmico” ou “discurso informativo” é deixado para os milhares de contratantes horistas sobrecarregados e mal pagos do Facebook determinarem. .
Especialistas em moderação de conteúdo que falaram com o The Intercept disseram que a política ameaça a discussão e o debate de protestos pelo direito ao aborto num momento em que tal discurso é de profunda importância nacional. “O que vimos no passado é que quando o Facebook proíbe certos tipos de discurso prejudicial, muitas vezes capta contradiscursos e outros tipos de comentários na sua rede de moderação de conteúdo”, disse Jillian York, diretora de liberdade de expressão internacional da Electronic Frontier. Fundação. “Por exemplo, os esforços para proibir conteúdos terroristas resultam frequentemente na remoção do contra-discurso contra o terrorismo ou na partilha de documentação. A utilização de tecnologias automatizadas apenas agrava esta situação; portanto, não é difícil imaginar que uma tentativa de proibir o vandalismo contra um grupo anti-aborto também poderia proibir o discurso legítimo contra tal grupo.”
Evelyn Douek, professora da Faculdade de Direito de Harvard e membro do Instituto Knight da Primeira Emenda, descreveu a censura ad hoc de “eventos violadores” por meio da estrutura de Indivíduos e Organizações Perigosas como “extremamente ampla” e “uma das políticas mais controversas e problemáticas do Facebook, ” tanto porque estas designações são feitas em segredo como porque são muito susceptíveis de constituir determinações políticas subjectivas. Embora os moderadores Meta recebam um extenso livro de regras contendo esta designação e inúmeras outras, a combinação da crescente dependência da empresa na triagem automatizada de conteúdo algorítmico e os julgamentos pessoais de empreiteiros sobrecarregados e mal pagos criam resultados erráticos e falhos. “Existem preocupações legítimas de que isto possa encerrar o debate”, disse Douek.
“Os ucranianos podem dizer merdas violentas, os palestinos não. Os supremacistas brancos sim, as pessoas pró-escolha não.”
Douek disse que a opacidade da política de censura, combinada com a aplicação “incrivelmente contundente e propensa a erros” de restrições de expressão pelo Facebook, representa uma ameaça à discussão política e ao debate em torno do aborto em si e do movimento mais amplo pelos direitos reprodutivos. Mesmo aqueles que não toleram os métodos de Jane's Revenge têm interesse em falar sobre eles e talvez até entretê-los: há um vasto universo de discurso sobre ação política direta e violência, até mesmo vandalismo, que não é em si e por si só. incitamento, uma faixa de discurso que poderia ser aspirada pela abordagem violenta do Facebook às regras de discurso. “[Dizendo] que você apoia os objetivos, a política subjacente pela qual Jane's Revenge está lutando, mesmo que você discorde de suas táticas, há todo tipo de conversa aqui sobre muitos grupos diferentes da sociedade nas margens que eu ' estou preocupado em perder.
Também significativo é o facto de que a liberdade de expressão em torno de actos de violência relativamente menores não só seria censurada em primeiro lugar, mas também sujeita aos mesmos limites que o Facebook usa para a Al Qaeda e o Terceiro Reich. “É algo notável que este ato de vandalismo tenha sido adicionado tão rapidamente à lista. Na verdade, pretende-se que seja reservada para os tipos de incidentes mais graves”, como crimes de ódio, massacres com armas de fogo e ataques terroristas, explicou Douek, “uma política que é realmente orientada para o pior dos piores”. A decisão de censurar a discussão livre sobre Jane’s Revenge, responsável por um ataque fracassado com bomba incendiária e uma série de incidentes ameaçadores de graffiti, torna ainda mais intrigante o fato de o Facebook não ter limitado de forma semelhante a discussão sobre o incêndio criminoso da Planned Parenthood no Tennessee. Douek e York situam essa decisão numa longa história em que o Facebook colocou o dedo na balança do discurso político de uma forma que muitas vezes parece motivada ideologicamente ou, noutras ocasiões, completamente arbitrária. “É precisamente a questão levantada pela constante escolha de ‘vencedores’”, disse York ao The Intercept. “Os ucranianos podem dizer merdas violentas, os palestinos não. Os supremacistas brancos sim, as pessoas pró-escolha não.”
Em um e-mail para o The Intercept, o porta-voz da Meta, Devon Kearns, confirmou a designação terrorista de Jane’s Revenge e disse que a empresa “removerá conteúdo que elogie, apoie ou represente a organização”. Kearns afirmou que a empresa tem um processo multifacetado para determinar quais pessoas e grupos são restritos pela política de Organizações Perigosas, mas não disse o que era ou por que a Vingança de Jane foi sinalizada, mas não outros atores que cometeram violência para promover sua posição sobre o aborto. Kearns observou ainda que os usuários podem recorrer das exclusões feitas por meio da política de Organizações Perigosas se acreditarem que foram feitas por engano.
Avaliar os méritos de uma decisão tomada e implementada em segredo é extremamente difícil. Embora Meta forneça uma visão geral generalizada de que tipo de discurso é proibido em suas plataformas com um punhado de exemplos incontroversos (por exemplo, “Se você quiser lutar pelo Califado, mande-me um DM”), as especificidades das regras são escondidas dos milhares de milhões de pessoas que se espera que as sigam, assim como qualquer razão que justifique a elaboração das regras. York disse ao The Intercept que o movimento Jane’s Revenge é outra indicação de que Meta precisa “instituir imediatamente os Princípios de Santa Clara”, uma moderação de conteúdo carta política que determina “regras e políticas claras e precisas relacionadas a quando ações serão tomadas em relação ao conteúdo ou às contas dos usuários”, entre muitos outros itens.
Sem a totalidade das regras da empresa e a sua justificação fornecida ao público, a Meta, que exerce um enorme grau de controlo sobre o que é permitido na Internet, deixa milhares de milhões de pessoas a publicar no escuro. A alegação da Meta sempre foi a de que ela não toma partido em nenhuma questão e apenas exclui discursos em nome da segurança, uma afirmação que o público geralmente deve considerar como um artigo de fé, dado o profundo sigilo da empresa sobre quais são as regras e como elas são. são aplicados. “Para uma plataforma que insiste consistentemente que é neutra e não tem o dedo na balança, é realmente responsabilidade do Meta ser muito mais acessível”, acrescentou Douek. “Essas são decisões políticas altamente carregadas e eles precisam ser capazes de defendê-las.”
ZNetwork é financiado exclusivamente pela generosidade de seus leitores.
OFERTAR