Especialista em redes sociais explica o que pode acontecer no julgamento e como a liberdade de expressão pode ser mantida
O Supremo Tribunal Federal (STF) agendou para 27 de novembro o julgamento de três ações que poderão moldar o futuro da regulação das redes sociais no Brasil. A discussão central envolve a responsabilidade das plataformas na remoção de conteúdos que disseminam desinformação e discurso de ódio, sem depender de uma ordem judicial prévia – uma questão que tem provocado intenso debate nos últimos anos.
“É necessário que as plataformas tenham uma responsabilidade maior na remoção de conteúdos prejudiciais e não esperem sempre por uma decisão judicial. O tempo de resposta é fundamental para mitigar o impacto da desinformação e proteger a sociedade”, defende o especialista em redes sociais, Antonio Gelfusa Junior.
Análise do STF
As ações liberadas para julgamento em agosto têm como relatores os ministros Luiz Fux, Edson Fachin e Dias Toffoli. Entre os casos, a ação de Toffoli analisa a constitucionalidade do Marco Civil da Internet (Lei 12.965/2014), que atualmente exige uma ordem judicial para que plataformas sejam responsabilizadas por atos ilícitos cometidos por seus usuários.
Fux avalia se as empresas que hospedam sites devem ser obrigadas a remover conteúdos ofensivos das redes sociais sem intervenção da Justiça. Por fim, Fachin julga a legalidade do bloqueio do WhatsApp, um serviço essencial para milhões de brasileiros.
Gelfusa destaca que a falta de regulação efetiva permite que a desinformação se alastre com rapidez. “Sem mecanismos mais ágeis de controle, criamos um ambiente onde discursos de ódio e fake news circulam sem obstáculos, colocando em risco o bem-estar coletivo. A autorregulação falhou, e é hora de a Justiça dar um passo à frente.”
O especialista ainda sugere que as plataformas implementem medidas específicas, como a regulamentação de um CPF por usuário e a exigência de documentação de comprovante de residência. No caso de empresas, seriam solicitados CNPJ e certidões – o que já acontece com os perfis do Google para confirmação e campanhas de publicidade.
“As plataformas devem aperfeiçoar os canais para receber denúncias e, com uma curadoria profissional, remover conteúdos claramente mentirosos ou criminosos. Também é preciso reforçar o combate aos perfis que cometem crimes raciais, sexuais e contra crianças e idosos”, acrescenta.
Liberdade de expressão nas redes sociais
Apesar de defender uma maior responsabilização das plataformas, o especialista ressalta que a regulação precisa ser criteriosa. “A liberdade de expressão é um pilar democrático e precisa ser preservada. No entanto, não podemos confundir liberdade com permissão para disseminar mentiras e discursos prejudiciais. O julgamento do STF será essencial para encontrar esse ponto de equilíbrio.”
Outro risco identificado por Gelfusa é que, sem uma orientação clara, as plataformas de redes sociais podem recorrer à autocensura, bloqueando preventivamente conteúdos legítimos por medo de sanções. “Uma regulação bem definida precisa estabelecer limites precisos e mecanismos de contestação, para que a moderação de conteúdo não seja usada de forma indiscriminada. O que queremos é segurança jurídica e transparência.”
Antonio Gelfusa Junior também alerta para a necessidade de que qualquer decisão do STF seja acompanhada de critérios transparentes. “O julgamento em novembro é uma oportunidade de mostrar que a regulação pode ser eficiente sem ser opressiva. As plataformas devem ser responsabilizadas, mas em um processo claro, pautado pelos princípios da Lei Geral de Proteção de Dados (LGPD) e da Lei de Acesso à Informação (LAI).”
Por fim, ele destaca que uma regulação eficaz poderá contribuir para um ambiente online mais saudável e seguro. “A internet pode e deve ser um espaço de pluralidade e debate, mas isso só será possível com regras bem estabelecidas. As plataformas não podem ser neutras diante de abusos; elas precisam se posicionar e colaborar ativamente com a Justiça para evitar danos maiores.”