20.2 C
São Paulo
sexta-feira, 1 de agosto de 2025

Após decisão do STF, plataformas digitais devem adotar postura mais proativa contra conteúdos ilegais

O Supremo Tribunal Federal (STF), ao decidir que as redes sociais podem ser responsabilizadas por conteúdos ilegais publicados por usuários mesmo sem ordem judicial prévia, deverá impor profundas mudanças na arquitetura de processos, operações e governança. Ou seja: no fluxo de trabalho de como as plataformas devem lidar com denúncias de conteúdo. 

Com a nova decisão, as empresas passam a ter um novo dever de vigilância e atuação preventiva. Antes, a escalada de responsabilização dependia exclusivamente de uma ordem judicial; agora, a notificação extrajudicial já pode representar um ponto crítico, exigindo respostas mais ágeis.

Diante do provável aumento no volume de notificações extrajudiciais e dos riscos jurídicos associados, plataformas digitais deverão intensificar investimentos em tecnologia e automação. 

A implementação de sistemas robustos de ticketing e rastreamento se tornará indispensável para registrar detalhadamente cada notificação recebida, incluindo a identificação do remetente, o conteúdo reportado, a data de envio, o processo de análise interna, a decisão adotada e a justificativa correspondente. Esse nível de documentação será crucial para a eventual defesa das empresas em ações judiciais.

As exigências trazidas pelo novo cenário regulatório também impactam diretamente a estrutura organizacional das companhias. Se antes a moderação de conteúdo era realizada, majoritariamente, por equipes com base em diretrizes internas, agora será necessária uma análise jurídica mais criteriosa, alinhada à legislação brasileira.

Nesse contexto, os moderadores de conteúdo precisarão ser capacitados para reconhecer situações que extrapolam os Termos de Serviço e possam configurar infrações legais. Além disso, será fundamental a criação de canais formais, claros e eficientes para o recebimento de notificações extrajudiciais, assegurando que essas comunicações recebam o devido tratamento e não se percam entre outras demandas operacionais.

A decisão inaugura um novo paradigma, afirma especialista 

Fabiano Carvalho, especialista em transformação digital e CEO da Ikhon, diz que na prática, essa nova jurisprudência altera profundamente a arquitetura de funcionamento das redes sociais. As empresas precisarão adaptar seus algoritmos e fluxos internos para dar conta do “dever de cuidado” determinado pelo STF. Isso significa que deverão atuar proativamente para identificar e remover conteúdos como incitação à violência, terrorismo, pornografia infantil, crimes contra a mulher e discurso de ódio com base em raça, religião, gênero ou orientação sexual. 

“Do ponto de vista técnico, isso impacta o design de produtos e algoritmos. Plataformas terão que aprimorar filtros, recursos de denúncia e inteligência artificial para reduzir a disseminação de conteúdos nocivos. Além disso, terão de manter canais permanentes e acessíveis de atendimento, como forma de garantir transparência e efetividade na comunicação com os usuários e autoridades. É importante ressaltar que essa mudança exige investimento tecnológico, treinamento de equipes e maior supervisão sobre os sistemas de recomendação e monetização. Juridicamente, o julgamento do STF inaugura um novo paradigmal”, afirma o CEO da Ikhon.

Autora:

Simone Oliveira

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Leia mais

Patrocínio