Por 8 votos a 3, o Supremo Tribunal Federal (STF) decidiu nesta quinta-feira, 26, que as big techs podem ser responsabilizadas pelo conteúdo publicado por usuários na internet. A Google e a Meta, dona do Facebook, Instagram e WhatsApp expressaram preocupação com a liberdade de expressão após o julgamento do Artigo 19 do Marco Civil da Internet.
O artigo estabelece que as plataformas só podem ser responsabilizadas por conteúdos publicados por terceiros se não removerem o material após ordem judicial. Após doze sessões, o STF flexibilizou essa regra, ampliando a responsabilização das plataformas de tecnologia.
Para a Meta, empresa do norte-americano Mark Zuckerberg, a decisão levanta preocupações sobre "a liberdade de expressão e as milhões de empresas que usam nossos aplicativos para crescer seus negócios e gerar empregos no Brasil", diz a empresa em nota enviada ao Estadão.
"Enfraquecer o Artigo 19 do Marco Civil da Internet traz incertezas jurídicas e terá consequências para a liberdade de expressão, inovação e desenvolvimento econômico digital, aumentando significativamente o risco de fazer negócios no Brasil", diz o porta-voz Meta.
Assim como a Meta, a Google também manifestou sua preocupação com o novo entendimento do STF, alegando que poderá "impactar a liberdade de expressão e a economia digital". A big tech também afirma que está aberta ao diálogo e que irá analisar a tese aprovada e os impactos da decisão nos seus produtos.
Ao longo dos últimos meses, as duas empresas se posicionaram contrárias ao julgamento no STF. Em dezembro do último ano, a Meta emitiu uma nota reforçando a preocupação com a possibilidade das big techs serem responsabilizadas pelos conteúdos publicados pelos seus usuários.
"Temos uma longa história de diálogo e colaboração com as autoridades no Brasil, incluindo o Judiciário. Mas nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF", diz a empresa.
O ministro Luís Roberto Barroso, presidente do STF, defendeu que o Supremo preservou, na maior extensão possível, a liberdade de expressão, "sem permitir no entanto que o mundo desabe num abismo de incivilidade, legitimando discursos de ódio ou crimes indiscriminadamente praticados na rede".
Internamente, o julgamento é considerado o mais importante da história recente do Supremo. Os ministros aguardavam uma regulamentação das redes pelo Congresso, mas perderam a esperança desde o fracasso do PL das Fake News. O tribunal decidiu esperar as eleições passarem para se debruçar sobre o tema.
Após doze sessões, os ministros estabeleceram os critérios para punir as plataformas por falhas na moderação de conteúdo e fizeram um apelo para o Congresso regulamentar as redes sociais.
"O tribunal esperou, e por alguns anos, que houvesse o procedimento legislativo do Congresso Nacional, mas nós não temos a faculdade de deixarmos de julgar alguma questão pela ausência indefinida de lei", justificou o Barroso ao anunciar a decisão.
Ficou definido, como regra geral, que as empresas respondem por crimes ou atos ilícitos e por contas falsas se não removerem esses conteúdos após notificação privada (extrajudicial).
Com a decisão, a responsabilidade dessas empresas por publicações ilegais começa a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprirem decisões judiciais de remoção dos conteúdos, como prevê o artigo 19 do Marco Civil da Internet.