Com a formação de maioria no Supremo Tribunal Federal (STF) pela inconstitucionalidade do artigo 19 do Marco Civil da Internet, o Brasil deverá entrar em breve em uma nova fase de censura das redes sociais: as plataformas poderão sofrer sanções diretas por aquilo que seus usuários publicam, mesmo que não tiverem recebido nenhuma ordem da Justiça para apagar o conteúdo.
Com isso, precisarão lançar mão de todos os recursos possíveis para bloquear ou tirar rapidamente do ar os conteúdos elencados como ilícitos pelo STF. Isso deverá incluir o uso de inteligência artificial (IA) para remover postagens que o tribunal poderia classificar como “antidemocráticas”.
Os ministros ainda não definiram com exatidão os tipos de discursos ilícitos pelos quais as plataformas poderão ser punidas. Os votos da maioria, porém, dão pistas sobre isso: por um lado, eles mencionam crimes mais claramente definidos, como terrorismo e pornografia infantil; por outro, citam categorias mais vagas, como crimes contra a democracia, apologia à violência, desinformação e discurso de ódio – ainda que algumas dessas menções não tenham sido unânimes.
A única convergência entre os ministros nos temas mais subjetivos até agora tem sido a ideia de que as redes devem agir contra postagens que configurem ataques ao Estado Democrático de Direito. A ideia de que as redes devem apagar preventivamente postagens “contra a democracia” aparece em praticamente todas as manifestações da maioria.
Essa é justamente a categoria mais frequentemente manipulada nos últimos anos pelo Judiciário para justificar a censura da direita nas redes. Desde 2019, os inquéritos abusivos do Supremo têm enquadrado como ameaça à democracia desde postagens questionando a segurança das urnas eletrônicas até críticas aos próprios ministros.
“Sem dúvida alguma, a previsão de censura aos conteúdos antidemocráticos, ou de ameaça ao Estado Democrático de Direito, é perigosa por conta do que a gente tem visto nesses inquéritos e processos sobre golpe: qualquer coisa pode ser considerada ameaça ao Estado”, afirma o jurista André Marsiglia, especialista em liberdade de expressão.
Ao exigir que as plataformas removam esse tipo de conteúdo sob pena de responsabilização, mesmo sem ordem judicial, a Corte transforma em dever das redes a censura preventiva do discurso político baseada em suas interpretações amplas e elásticas do que é antidemocrático.
“É muito aberta a ideia de postagem que ‘atenta contra o Estado Democrático’. Por exemplo, uma postagem lá por 2015 pedindo o impeachment da presidente Dilma Rousseff, ou um artigo de jornal corroborando o impeachment do presidente Fernando Collor, que foram dois presidentes eleitos democraticamente: essas publicações atentam contra o Estado democrático, na medida em que pedem que seja retirado um presidente que foi eleito democraticamente? Isso é muito subjetivo”, critica Venceslau Tavares Costa Filho, professor de Direito Civil da Universidade de Pernambuco.
Marsiglia destaca que, embora o maior consenso entre os ministros pró-censura seja em relação às postagens ditas “antidemocráticas”, há ainda a possibilidade de que outros critérios subjetivos sejam adotados. “Há outros dois pontos que acho perigosos: os conteúdos desinformativos, que nem estão legislados, e os conteúdos discriminatórios, que, embora estejam na legislação, já deram o que falar, por exemplo, no processo contra o Léo Lins. E esse é um dos tipos de conteúdos que estão na baila [do julgamento no STF]”, comenta.
Com decisão do STF, IA deverá ter papel importante na censura aos discursos “antidemocráticos”
As plataformas serão incentivadas a usar todos os recursos que têm para tirar rapidamente do ar tudo aquilo que o Judiciário brasileiro classifica como criminoso. Para isso, é provável que adotem filtros mais rígidos, usando inclusive IA.
“Na experiência de países em que há responsabilização das redes, o mecanismo não costuma ser o controle prévio, mas posterior. No entanto, são filtros ágeis, que podem apagar as postagens em poucos minutos”, afirma o advogado Fernando Brizola, especialista em Direito Digital. “Mas não descarto a possibilidade de um controle prévio a exemplo do que ocorre com anúncios na Meta, que passam por aprovação. São empresas privadas, que não querem correr o risco de ficar pagando indenização pelo erro dos outros.”
Para Venceslau Tavares, “vai haver uma tendência à autocensura”. “As redes deverão criar critérios internos para a remoção das postagens e até treinar de alguma forma o algoritmo para reconhecer o tipo de postagem que não deve ser admitida”, afirma.
Nos casos em que os critérios são subjetivos, a tendência é que as plataformas removam alguns conteúdos mesmo quando não configurarem crime claro, apenas para evitar riscos jurídicos.
“As plataformas vão ter que preventivamente remover qualquer conteúdo que seja potencialmente questionável para evitar uma responsabilização ou um passivo financeiro”, lamentou Fábio Coelho, presidente do Google no Brasil, em entrevista ao UOL no começo de junho.
Os juristas também veem risco de um aumento da judicialização no sentido inverso: em vez de pedidos para remoção de conteúdos, serão levados à Justiça com mais frequência solicitações para restaurar postagens ou indenizar usuários que se sentiram lesados por um bloqueio injusto.
Tavares destaca que as arbitrariedades já são comuns nos julgamentos humanos, e ganharão um elemento adicional com a inteligência artificial. “Na época da ditadura, minha mãe foi candidata a Miss na cidade dela, e ganhou o título de Miss Simpatia. Ela levou essa faixa para a escola e estava mostrando para as colegas. Em um dado momento, alguém disse a ela: ‘Estão chamando você para a sala do diretor’. E havia lá dois agentes do DOPS junto com o diretor, perguntando sobre o teor da faixa que ela estava carregando pela escola. Se esse tipo de erro acontece com a avaliação humana, pior com a inteligência artificial”, comenta. “Quantas situações a gente vê de mulheres que estão amamentando cuja imagem é removida pelo Instagram, porque o Instagram tem a política de não permitir nudez?”, questiona.
Para ele, “como as plataformas podem ser responsabilizadas solidariamente com a pessoa que postou a mensagem ofensiva, na dúvida, elas vão remover a postagem”. “E isso é natural, porque elas têm medo de sofrer algum tipo de prejuízo financeiro”, complementa.
Fonte. Gazeta do Povo