Corte ainda precisa definir os critérios e regras para possíveis punições a plataformas
Responsabilização das plataformas: veja como ministros votaram (Antonio Augusto/SCO/STF/Flickr)

Responsabilização das plataformas: veja como ministros votaram (Antonio Augusto/SCO/STF/Flickr)

Agência o Globo
Agência o Globo

Agência de notícias

Publicado em 12 de junho de 2025 às 06h56.

Última atualização em 12 de junho de 2025 às 06h58.

O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira para responsabilizar as redes sociais por conteúdos considerados ilegais publicados em suas plataformas.

O julgamento foi suspenso após o voto do ministro Gilmar Mendes, e será retomado nesta quinta, 12, com a leitura do voto de Edson Fachin. A Corte, contudo, ainda precisa definir quais são os critérios dessa responsabilização.

Até agora, sete ministros já votaram — seis deles para que a responsabilização, em maior ou menor grau, seja possível mesmo sem ordem judicial para retirada de conteúdo, e um deles para manter os atuais critérios como estão.

De um lado estão Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin e Gilmar Mendes. De outro está o ministro André Mendonça, contrário a uma ampliação dessa responsabilidade.

Veja a seguir como os sete ministros votaram até agora:

Gilmar Mendes

O ministro Gilmar Mendes defendeu a inconstitucionalidade parcial do artigo 19 do Marco Civil, argumentando que a regra atual, que exige ordem judicial para a responsabilização de plataformas digitais, está ultraada diante do papel ativo que essas empresas exercem na curadoria e amplificação de conteúdos.

Segundo ele, as grandes plataformas deixaram de ser apenas intermediárias neutras e aram a exercer forte influência no debate público, com impacto direto na democracia. O modelo atual, segundo o ministro, criou um “véu de irresponsabilidade”, que impede a responsabilização mesmo diante de conteúdos evidentemente criminosos.

O voto também alerta para o impacto nocivo do modelo de negócios dessas plataformas, voltado à maximização de engajamento por meio da promoção de conteúdos polarizadores e extremistas. Gilmar citou episódios como os atos golpistas de 8 de janeiro de 2023 e defendeu a adoção de um regime de responsabilização mais eficaz.

Propôs quatro regimes distintos, incluindo a responsabilização imediata em casos graves como incitação à violência, discurso de ódio e pornografia infantil, além de estabelecer deveres de transparência e prestação de contas para as plataformas.

Cristiano Zanin

O ministro Cristiano Zanin defendeu a inconstitucionalidade parcial do artigo 19 do Marco Civil por considerar que a exigência de ordem judicial para remoção de conteúdo não é suficiente para proteger direitos fundamentais e a própria democracia. Ele propôs um novo modelo provisório de responsabilização, no qual a regra atual se mantém para "provedores neutros e para conteúdos não criminosos".

Já no caso de plataformas ativas que promovem material evidentemente ilícito, a responsabilização poderá ocorrer se não houver remoção após notificação extrajudicial.

Zanin também propôs um regime mais rigoroso para conteúdos especialmente sensíveis, como pornografia infantil, terrorismo, tráfico de pessoas e ataques à democracia. Nesses casos, os provedores devem atuar preventivamente e demonstrar diligência para evitar falhas sistêmicas.

Ele estabeleceu um dever de cuidado que obriga plataformas a manter sistemas de notificação, publicar relatórios anuais de transparência e promover educação digital, além de criar mecanismos próprios ou aderir a entidades de autorregulação regulada.

O ministro apontou que a responsabilização deve continuar sendo subjetiva, ou seja, depender da comprovação de culpa, exceto em situações com indícios claros de má-fé, como o uso de anúncios ou chatbots para disseminar ilegalidades.

Para garantir segurança jurídica, Zanin propôs que sua interpretação e a valer apenas após o fim do julgamento, com exceções pontuais, como nos casos de divulgação de imagens íntimas ou violação de direitos autorais.

Flávio Dino

Para Flávio Dino, não existe liberdade sem responsabilidade, conforme a Constituição. “A responsabilidade não impede a liberdade. Responsabilidade evita a barbárie, evita tiranias”, afirmou.

Segundo o ministro, é preciso ampliar a responsabilidade das plataformas, adotando como geral a regra que prevê possibilidade de punição caso não se exclua postagem a partir de uma notificação de um usuário. A exceção ficaria para casos de alegações de ofensas e crimes contra a honra, em que a plataforma só poderia ser responsabilizada caso descumpra decisão da Justiça para excluir determinado conteúdo.

Flávio Dino ainda propôs fixar um rol taxativo de conteúdos pelos quais as plataformas devem ter um dever de monitoramento.

Elas poderiam ser responsabilizadas caso haja uma “falha sistêmica” com a disseminação massiva de publicações como crimes contra crianças e adolescentes, instigação ao suicídio, terrorismo ou apologia a crimes contra o Estado Democrático de Direito.

As plataformas também poderiam ser responsabilizadas, independentemente de notificação judicial ou extrajudicial, em situações de perfis anônimos, robôs, ou postagens pagas.

André Mendonça

Mendonça afirma que a regra do Marco Civil é constitucional e entende que as plataformas têm legitimidade para defender a liberdade de expressão e, nesse sentido, têm o direito de preservar as regras de moderação próprias.

Caso haja determinação de remoção de conteúdo ou perfil, elas devem ter o integral a seu teor e à possibilidade de recorrer.

O ministro também considera inconstitucional a remoção de perfis, exceto quando comprovadamente falsos. Para ele, a não ser nos casos expressamente autorizados em lei, as plataformas não podem ser responsabilizadas por não remover conteúdo de terceiros, mesmo que depois o material seja considerado ofensivo pelo Judiciário.

Luís Roberto Barroso

Barroso, defendeu que as plataformas digitais devem ser responsabilizadas por conteúdos de terceiros caso deixem de tomar as providências necessárias para remover postagens com teor criminoso. Para ele, o artigo 19 do Marco Civil não dá proteção suficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores importantes para a democracia.

Barroso considera que, se a plataforma for notificada de que algo representa crime, como a criação de perfil falso, não é necessária ordem judicial de retirada.

Porém, ele considera haver situações, como nos crimes contra a honra, em que a remoção do conteúdo só deve ocorrer após ordem judicial. Segundo ele, ainda que se alegue a existência de injúria, calúnia ou difamação, a postagem deve permanecer, sob pena de violação à liberdade de expressão.

Na sua proposta, em vez de monitoramento ativo, com responsabilidade, independentemente de notificação, por cada conteúdo individual, as empresas devem ter o chamado dever de cuidado, ou seja, devem trabalhar para reduzir os riscos sistêmicos criados ou potencializados por suas plataformas.

Para Barroso, as plataformas devem atuar proativamente para que seu ambiente esteja livre de conteúdos gravemente nocivos, como pornografia infantil e crimes graves contra crianças e adolescentes, indução, instigação ou auxílio a suicídio ou a automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.

Luiz Fux

Relator de um dos casos, Fux afirmou que a regra do Marco Civil que só permite a responsabilização dos provedores de aplicativos se descumprirem decisão judicial de remoção é inconstitucional, pois dá uma espécie de imunidade civil às empresas. O ministro considera que conteúdos ilícitos ou ofensivos devem ser removidos assim que as plataformas forem notificadas.

Fux propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade, caracterizadoras de crimes (injúria, calúnia e difamação) assim que foram notificadas. Nessa hipótese, o ônus de levar o caso à Justiça deve ser invertido, e o conteúdo denunciado só poderá ser republicado com autorização judicial.

Segundo ele, a indenização por demora na retirada de conteúdo ofensivo é apenas um “prêmio de consolação” para o usuário que teve sua honra atingida de forma grave. Por outro lado, pode se transformar em recompensa para o infrator, com os lucros gerados pela exposição indevida.

Dias Toffoli

Relator de um dos casos que estão sendo julgados, Toffoli considera inconstitucional o artigo 19 do Marco Civil e propõe que a responsabilização deverá se basear no artigo 21 da lei, que prevê a retirada do conteúdo mediante simples notificação. Para o ministro, é imprescindível combater a violência digital para evitar seus efeitos “devastadores” para pessoas e instituições sociais e estatais.

Toffoli considerou que os provedores têm condições tecnológicas para detectar conteúdos ilícitos. Por isso, podem ser responsabilizados sem necessidade de comprovar culpa toda vez que as postagens coloquem em risco a integridade física de pessoas vulneráveis, o estado democrático de direito ou o regime democrático, que prejudiquem a saúde pública ou que tenham potencial de interferir na integridade do processo político eleitoral e no resultado do pleito.

Na proposta de Toffoli, a regra se aplica também a conteúdos racistas, com incentivo ao suicídio, à violência sexual, ao tráfico de pessoas ou à divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que incitem a violência física. Em todas essas hipóteses, a seu ver, a gravidade das práticas torna desnecessária a notificação prévia do ofendido à plataforma.

Acompanhe tudo sobre:Supremo Tribunal Federal (STF)Redes sociaisLuís Roberto BarrosoGilmar Mendes

Mais de Brasil

I das Bets vota relatório final com pedido de indiciamento de influenciadoras

Senado aprova fim de atenuante de idade para crimes de estupro

Maioria do STF vota para responsabilizar redes por conteúdo ilegal

Mais na Exame