Política

Remoção 'proativa' de racismo, pedofilia, discurso de ódio: o que o STF decidiu sobre responsabilidade das redes

Corte entendeu que modelo atual oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade

PEDRO RIBEIRO/DA EDITORIA/COM G1 26/06/2025
Remoção 'proativa' de racismo, pedofilia, discurso de ódio: o que o STF decidiu sobre responsabilidade das redes
O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira (26) para mudar a interpretação sobre a responsabilidade das redes sociais | G1

O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira (26) para mudar a interpretação sobre a responsabilidade das redes sociais e outras plataformas digitais em relação a conteúdos publicados por terceiros.

Por 8 votos a 3, os ministros reconheceram a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet (MCI), que exigia ordem judicial específica para responsabilização civil de redes por postagens ofensivas.

A Corte entendeu que esse modelo oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade — e, por isso, precisa ser ajustado até que o Congresso aprove nova legislação sobre o tema.

O que muda com a decisão do STF

A decisão cria três níveis de responsabilização para provedores e redes sociais:

Remoção proativa para casos graves

A Corte afirmou que plataformas devem atuar de forma imediata, mesmo sem notificação extrajudicial ou ordem judicial, para remover conteúdos com discurso de ódio, racismo, pedofilia, incitação à violência ou defesa de golpe de Estado. Nesses casos, a omissão da empresa pode levar à responsabilização civil direta.

Notificação extrajudicial como gatilho

Para outros tipos de conteúdo considerado ilícito, a empresa será responsabilizada caso receba uma notificação extrajudicial, não remova o conteúdo, e posteriormente a Justiça reconheça que houve ofensa.

A medida flexibiliza a exigência de ordem judicial, abrindo espaço para remoção mais ágil de conteúdo ofensivo, como ataques pessoais, desinformação grave, entre outros.

Crimes contra a honra

Em casos de crimes contra a honra — por exemplo, difamação — a tese fica como é hoje:

Ou seja, as plataformas só são obrigadas a tirar conteúdo se a Justiça mandar. Não serão punidas se não excluírem o conteúdo só com a notificação extrajudicial.

Essa é uma maneira que o STF buscou para preservar a liberdade de expressão.

Tese fixada pelo STF

A tese fixada estabelece que:

O artigo 19 do Marco Civil da Internet é parcialmente inconstitucional por omissão na proteção de direitos fundamentais

Enquanto não houver nova lei, o artigo deve ser interpretado de forma que:

▶️ Plataformas podem ser responsabilizadas civilmente por não removerem conteúdo após notificação extrajudicial.

▶️ Essa responsabilização não se aplica à legislação eleitoral, regida por regras próprias e normas do TSE.

▶️ Conteúdos de contas inautênticas também entram na lógica de responsabilização.

▶️ Casos de racismo, pedofilia, discurso de ódio e incitação à violência exigem remoção imediata e proativa, sem necessidade de provocação.

O que muda com a decisão do STF sobre responsabilidade das redes — Foto: Arte/g1

O que muda com a decisão do STF sobre responsabilidade das redes — Foto: Arte/g1

Impacto

A decisão deve forçar as grandes plataformas a rever suas políticas de moderação, adotando protocolos mais rigorosos para casos de discurso de ódio e estruturando canais eficazes de recebimento e resposta a notificações extrajudiciais.

O Congresso ainda pode editar nova legislação sobre o tema. Até lá, vale a interpretação determinada pelo Supremo.