POLÍTICA

STF julga em 27 de novembro ações sobre big techs e Marco Civil da Internet

O Supremo Tribunal Federal (STF) deve julgar em 27 de novembro o julgamento das ações que tratam de regras para redes sociais e responsabilidade por conteúdos postados na internet. São três ações que discutem o tema, sob as relatorias dos ministros Dias Toffoli, Luiz Fux e Edson Fachin.

A definição foi feita pelo presidente da Corte, ministro Luís Roberto Barroso.

No final de agosto, os três relatores liberaram os processos para julgamento e pediram a Barroso a análise conjunta no plenário em novembro.

Os processos em questão discutem dispositivos do Marco Civil da Internet em relação a conteúdos e a possibilidade de bloqueio de plataformas por decisão judicial.

O marco é a lei que estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil.

Em maio do ano passado, o tema chegou a entrar na pauta, mas acabou adiado. Na ocasião, os ministros consideraram ser necessário dar mais tempo para que o Congresso Nacional avançasse com um projeto de lei.

Na Câmara, o projeto de lei das Fake News, que tratava do tema, teve a tramitação freada pelo presidente da Casa, Arthur Lira (PP-AL). O deputado defende um novo texto sobre o assunto.

Duas das ações, sob as relatorias de Fux e Toffoli, tratam especificamente do artigo 19 do Marco Civil da Internet.

O debate gira em torno das possibilidades de ampliação da responsabilidade de plataformas sobre os conteúdos postados, principalmente os de teor golpista, de ataque à democracia ou com discurso de ódio.

Atualmente, o Marco Civil da Internet só responsabiliza civilmente as plataformas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A garantia está no artigo 19 da lei.

A responsabilidade civil envolve o dever de indenizar eventuais danos, por exemplo.

A exceção é para divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado ou para violação de direitos autorais. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.

A terceira ação, relatada por Fachin, discute a possibilidade de bloqueio do aplicativo de mensagens WhatsApp por decisões judiciais. O caso analisa se o bloqueio ofende o direito à liberdade de expressão e comunicação e o princípio da proporcionalidade.

O tema é alvo de embate das empresas que atuam na área, como as gigantes das redes sociais Meta (dona de Facebook, Instagram e WhatsApp) e Google.

AGU quer mais responsabilidade

Em manifestação no caso, a Advocacia-Geral da União (AGU) defendeu o aumento de responsabilidade das plataformas digitais para monitorar e derrubar conteúdos postados na internet, independentemente de decisão judicial.

O órgão disse que em casos específicos, como criação de perfis falsos, impulsionamento de postagens ou conteúdos com desinformação ou crimes, as big techs devem agir assim que forem notificadas pelos usuários. Ou seja, sem ter que esperar uma decisão da Justiça determinado a remoção.

Esse entendimento é uma ampliação do que o Marco Civil da Internet estabeleceu às plataformas.

Segundo a AGU, a atual regra do Marco Civil da Internet deve ser interpretada a partir da premissa de que a “crescente complexidade das interações digitais” podem causar uma “diversidade de danos”.

O ponto defendido é de que, em certos casos, “a responsabilidade dos provedores possa ser reconhecida mesmo sem a necessidade de uma ordem judicial prévia”.

“A interpretação literal do referido dispositivo mostra-se, na atualidade, insuficiente para proteger direitos fundamentais previsto na Constituição de 1988”, disse a AGU. “As plataformas online, portanto, devem, ao passo que desempenham atividade lucrativa, arcar com a responsabilidade de moderar conteúdos para evitar danos significativos ao público ou infrações legais”.

Na manifestação, a AGU defendeu três novos pontos de ressalvas para que as plataformas ajam para derrubar publicações sem a necessidade de decisão judicial:

  • fraude (como criação de perfis e contas falsos);
  • conteúdo publicitário ou impulsionado (quando o usuário paga a plataforma para a postagem ser mais visualizada);
  • regras especiais já previstas em leis específicas.

O último ponto é amplo, e envolve todos os conteúdos que se enquadrem em hipóteses violadoras de direitos da criança e adolescente, da integridade das eleições, da defesa do consumidor, além da prática de crimes, desinformação e “outras situações que importem em violação à legislação”.

A AGU afirmou que, apesar da “evidente relevância”, as plataformas têm sido usadas no Brasil “como instrumento para a divulgação maciça de conteúdos ilícitos”.

“Esses conteúdos, que incluem desde fraudes contra usuários até discursos de ódio contra minorias, bem como campanhas de desinformação que ameaçam as instituições democráticas e a integridade das eleições, representam graves violações de direitos fundamentais”.

66% dos tribunais no Brasil usam Inteligência Artificial, aponta CNJ


CNN BRASIL