A decisão proferida pelo STF, no julgamento conjunto dos Recursos Extraordinários 1.037.396 (Tema 987) e 1.057.258 (Tema 533), marca um novo paradigma no regime jurídico aplicável à responsabilidade civil das plataformas digitais no Brasil. O entendimento firmado, de inegável repercussão no ordenamento jurídico e nas relações digitais, reconhece a inconstitucionalidade parcial e progressiva do art. 19 da Lei n.º 12.965/2014, o Marco Civil da Internet (MCI), redefinindo os parâmetros de responsabilização dos provedores de aplicações por conteúdos ilícitos gerados por terceiros.
A redação original do art. 19 do MCI condicionava a responsabilidade civil das plataformas à existência de ordem judicial específica que determinasse a remoção do conteúdo ofensivo. Esse regime tinha como propósito assegurar a liberdade de expressão e proteger os provedores de eventual censura prévia, mediante a adoção do modelo de notice and takedown judicializado.
Ocorre que, conforme entendimento da maioria da Corte Constitucional, essa sistemática mostrou-se deficiente na proteção de bens jurídicos constitucionalmente relevantes, tais como os direitos fundamentais à honra, à imagem, à dignidade da pessoa humana, à proteção da infância e à própria ordem democrática. Assim, o STF reconheceu o “estado de omissão parcial” legislativa, atribuindo ao art. 19 do MCI a condição de norma de eficácia limitada, passível de interpretação conforme à Constituição, até que o Congresso Nacional discipline adequadamente a matéria.
A tese firmada institui, doravante, hipóteses em que a responsabilidade civil dos provedores prescinde de ordem judicial, bastando a notificação extrajudicial da parte interessada para ensejar o dever de remoção do conteúdo, especialmente nos casos envolvendo práticas de crimes graves e sistematicamente disseminados. Estabeleceu-se, ademais, presunção de responsabilidade para conteúdos impulsionados mediante anúncios pagos ou distribuídos por redes artificiais de automação, como bots e algoritmos.
A decisão estabeleceu que os provedores de aplicações de internet devem agir com diligência para remover, imediatamente, conteúdos que envolvam crimes graves, sempre que houver circulação em massa dessas publicações. A responsabilidade civil das plataformas surge quando há falha sistêmica, ou seja, quando deixam de implementar medidas eficazes de prevenção e retirada desses conteúdos.
O STF definiu um rol taxativo de crimes que exigem essa atuação imediata, entre eles:
- Atos antidemocráticos (como incitação à violência contra as instituições);
- Terrorismo;
- Indução ou auxílio ao suicídio e à automutilação;
- Discriminação por motivos de raça, cor, etnia, religião, origem, orientação sexual ou identidade de gênero;
- Crimes de ódio contra mulheres;
- Crimes sexuais contra vulneráveis, pornografia infantil e crimes contra crianças e adolescentes;
- Tráfico de pessoas.
As plataformas devem adotar mecanismos de moderação baseados nas melhores tecnologias disponíveis, garantindo altos padrões de segurança. Se o conteúdo ilícito for publicado isoladamente (sem ampla disseminação), aplica-se o regime do art. 21 do Marco Civil da Internet, que exige notificação para responsabilização.
Ressalte-se que o autor da postagem removida pode pedir à Justiça que o conteúdo seja restaurado, desde que prove que não houve ilicitude. Mesmo que a Justiça mande restaurar o conteúdo, isso não gera direito à indenização contra a plataforma.
Por sua vez, a Corte atribuiu natureza colaborativa à atuação das plataformas, impondo-lhes deveres positivos de prevenção e combate à disseminação de conteúdos ilícitos, configurando-se a responsabilização não apenas pela inércia após a notificação, mas também por falhas sistêmicas na estrutura de moderação e controle de conteúdos.
Nesse contexto, o art. 21 do MCI passa a desempenhar papel subsidiário, aplicando-se à responsabilidade por conteúdos específicos em casos isolados, mas insuficiente para abarcar a complexidade das violações em massa, cujo enfrentamento exige diligência e mecanismos automatizados compatíveis com o estado da técnica.
A decisão guarda conformidade com a doutrina constitucional do mínimo existencial digital e da responsabilidade compartilhada dos atores envolvidos na comunicação mediada por plataformas tecnológicas. A doutrina majoritária já reconhecia a insuficiência do modelo de responsabilidade civil passiva em face das novas dinâmicas da desinformação algorítmica.
No plano jurisprudencial, observa-se que o STJ já vinha, em decisões pontuais, relativizando a exigência de ordem judicial para remoção de conteúdo evidentemente ilícito, especialmente nos casos de pornografia de vingança e violação de direitos de crianças e adolescentes (cf. REsp 1.660.168/RJ, Rel. Min. Nancy Andrighi).
A decisão do STF inaugura um regime de responsabilização civil mais proativo e compatível com os valores constitucionais, conferindo maior proteção à esfera jurídica dos indivíduos e à integridade do espaço democrático. A modulação dos efeitos prospectivos preserva a segurança jurídica, evitando responsabilizações retroativas e assegurando prazo razoável para adaptação dos provedores.
De acordo com o Supremo, a interpretação conforme atribuída ao art. 19 do MCI, até que sobrevenha legislação específica, reflete o necessário equilíbrio entre liberdade de expressão e responsabilidade civil, concretizando os direitos fundamentais na era digital. Trata-se de uma evolução normativa e hermenêutica alinhada aos compromissos internacionais assumidos pelo Brasil no âmbito da proteção de dados e dos direitos humanos digitais.