Política
Remoção 'proativa' de racismo, pedofilia, discurso de ódio: o que o STF decidiu sobre responsabilidade das redes
Corte entendeu que modelo atual oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade

O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira (26) para mudar a interpretação sobre a responsabilidade das redes sociais e outras plataformas digitais em relação a conteúdos publicados por terceiros.
Por 8 votos a 3, os ministros reconheceram a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet (MCI), que exigia ordem judicial específica para responsabilização civil de redes por postagens ofensivas.
A Corte entendeu que esse modelo oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade — e, por isso, precisa ser ajustado até que o Congresso aprove nova legislação sobre o tema.
Leia também
REDES SOCIAIS Regras mais duras sobre 'big techs': 4 pontos para entender o que muda com decisão do STFO que muda com a decisão do STF
A decisão cria três níveis de responsabilização para provedores e redes sociais:
Remoção proativa para casos graves
A Corte afirmou que plataformas devem atuar de forma imediata, mesmo sem notificação extrajudicial ou ordem judicial, para remover conteúdos com discurso de ódio, racismo, pedofilia, incitação à violência ou defesa de golpe de Estado. Nesses casos, a omissão da empresa pode levar à responsabilização civil direta.
Notificação extrajudicial como gatilho
Para outros tipos de conteúdo considerado ilícito, a empresa será responsabilizada caso receba uma notificação extrajudicial, não remova o conteúdo, e posteriormente a Justiça reconheça que houve ofensa.
A medida flexibiliza a exigência de ordem judicial, abrindo espaço para remoção mais ágil de conteúdo ofensivo, como ataques pessoais, desinformação grave, entre outros.
Crimes contra a honra
Em casos de crimes contra a honra — por exemplo, difamação — a tese fica como é hoje:
Ou seja, as plataformas só são obrigadas a tirar conteúdo se a Justiça mandar. Não serão punidas se não excluírem o conteúdo só com a notificação extrajudicial.
Essa é uma maneira que o STF buscou para preservar a liberdade de expressão.
Tese fixada pelo STF
A tese fixada estabelece que:
O artigo 19 do Marco Civil da Internet é parcialmente inconstitucional por omissão na proteção de direitos fundamentais
Enquanto não houver nova lei, o artigo deve ser interpretado de forma que:
▶️ Plataformas podem ser responsabilizadas civilmente por não removerem conteúdo após notificação extrajudicial.
▶️ Essa responsabilização não se aplica à legislação eleitoral, regida por regras próprias e normas do TSE.
▶️ Conteúdos de contas inautênticas também entram na lógica de responsabilização.
▶️ Casos de racismo, pedofilia, discurso de ódio e incitação à violência exigem remoção imediata e proativa, sem necessidade de provocação.
/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2025/E/i/hwOGvAS5OeYJjzaDcDLA/stf.png)
O que muda com a decisão do STF sobre responsabilidade das redes — Foto: Arte/g1
Impacto
A decisão deve forçar as grandes plataformas a rever suas políticas de moderação, adotando protocolos mais rigorosos para casos de discurso de ódio e estruturando canais eficazes de recebimento e resposta a notificações extrajudiciais.
O Congresso ainda pode editar nova legislação sobre o tema. Até lá, vale a interpretação determinada pelo Supremo.