NOVA MUTUM, 13 de Junho de 2025
  
DÓLAR: R$ 5,55
NOVA MUTUM, 13 de Junho de 2025
  
DÓLAR: R$ 5,55
Logomarca

GERAL Quarta-feira, 11 de Junho de 2025, 15:41 - A | A

11 de Junho de 2025, 15h:41 - A | A

GERAL / INTERNET

STF está a um voto de responsabilizar redes sociais por publicações de usuários

Cinco ministros já votaram para ampliar responsabilidade de plataformas e provedores por conteúdos que permitem circular

Estadão



O Supremo Tribunal Federal (STF) está a um voto de responsabilizar provedores e redes sociais por publicações de usuários. Cinco ministros já defenderam ampliar as obrigações das big techs na moderação de conteúdo.

O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.

O STF vai decidir se se amplia a obrigação das plataformas de fiscalizarem os conteúdos que circulam nas redes - um dos maiores pontos de inquietação das big techs.

O tribunal também precisa definir se - e em que casos - as empresas de tecnologia podem ser punidas por publicações mesmo quando não houver ordem judicial para tirá-las do ar, o que implicaria uma moderação de conteúdo mais rigorosa.

Internamente, o julgamento é considerado o mais importante da história recente do Supremo. A tendência é que a sistemática atual seja substituída por um conjunto de normas mais rígidas. Apesar disso, há diferenças nas teses propostas.

Enquanto Toffoli e Fux defendem punições para as empresas de tecnologia que não removerem publicações ofensivas imediatamente após a notificação dos usuários, Barroso considera que a exigência de ordem judicial para remoção desses conteúdos deve continuar a valer, desde que as empresas melhorem seus sistemas internos de monitoramento.

Toffoli e Fux defendem ainda que é dever das plataformas impedir espontaneamente a circulação de publicações criminosas. Para Barroso e Zanin, nos casos de crime, a notificação extrajudicial deve ser suficiente para a remoção do conteúdo.

Já André Mendonça defende manter as regras como estão.

Veja como cada ministro votou até o momento:

Dias Toffoli

Toffoli foi o primeiro a votar. Para o ministro, a restrição imposta pelo Marco Civil da Internet é inconstitucional porque cria uma “imunidade” para as empresas de tecnologia e, ao mesmo tempo, deixa os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.

Toffoli propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.

O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial, como tráfico de pessoas, racismo, terrorismo, estímulo ao suicídio e à violência, crimes contra o Estado Democrático de Direito, violência contra mulheres, crianças, adolescentes e pessoas vulneráveis, entre outros.

Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.

Os pontos-chave do voto de Toffoli:

• O provedor deve ser responsabilizado pelos danos causados por conteúdos publicados pelos usuários quando for notificado pelo ofendido (ou seu representante legal), preferencialmente pelos canais de atendimento, e deixar de tomar “providências cabíveis em prazo razoável”;

• O provedor responde, independente de notificação, pelos danos decorrentes de conteúdos publicados por contas inautênticas, violações a direitos de autor e no caso do rol de crimes listados;

• Marketplaces respondem solidariamente com o anunciante por propagandas de produtos de venda proibida ou sem certificação pelos órgãos competentes.

Luiz Fux

O ministro Luiz Fux deu o segundo voto para ampliar a responsabilidade das plataformas e provedores por conteúdos publicados pelos usuários. Ele defendeu a inversão do modelo em vigor. A proposta é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.

Assim como Toffoli, o ministro Luiz Fux propõe que as plataformas sejam obrigadas a monitorar e a remover espontaneamente publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia a golpe de Estado.

“Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros”, alertou o ministro.

Os pontos-chave do voto de Fux:

• Inverter o ônus da judicialização: a plataforma é que deve pedir autorização judicial para manter no ar publicações questionadas pelos usuários;

• As plataformas e provedores respondem por postagens ofensivas à honra, à imagem e à privacidade quando forem notificadas “por qualquer meio idôneo”;

• Canais “eficientes, funcionais e sigilosos” para receber denúncias e reclamações de usuários que se sintam lesados;

• Monitoramento ativo de publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado;

• Responsabilidade automática no caso do impulsionamento pago: as plataformas precisam verificar se o conteúdo que recebem para impulsionar são regulares.

Luís Roberto Barroso

O presidente do STF sugere como alternativa o chamado “dever de cuidado”. Segundo a proposta, as big techs devem criar mecanismos para melhorar a qualidade da informação, mas só podem ser punidas por falhas amplas, isto é, pela omissão na gestão global dos conteúdos ilícitos e não por casos individuais.

Em discurso nesta quarta, na retomada do julgamento, Barroso fez um um pronunciamento em que negou que o tribunal esteja invadindo competências do Congresso ao julgar o tema.

O ministro afirmou que o STF tem o dever de definir critérios claros para serem aplicados em casos concretos que chegarem ao Judiciário e que essas balizas “só prevalecerão” até que o Congresso aprove legislação sobre o assunto.

Os pontos-chave do voto de Barroso:

• A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente;

• Notificação privada (extrajudicial) e retirada de conteúdos como regra geral para publicações criminosas;

• Necessidade de decisão judicial para remoção de publicações que configurem crimes contra a honra (injúria, calúnia e difamação);

• Responsabilidade das plataformas, independente de notificação, por publicações ilícitas que forem impulsionadas ou veiculadas em anúncios pagos;

• Dever de cuidado: plataformas têm a obrigação de mitigar riscos criados ou potencializados pelas suas atividades, sobretudo quando impactarem “direitos individuais e coletivos e a estabilidade democrática”, e só podem ser responsabilizadas se houver uma “falha sistêmica” nesse trabalho;

• As plataformas têm que agir proativamente, ou seja, de ofício, para remover publicações sobre pornografia infantil, incentivo ao suicídio, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado;

• O Congresso deve definir as sanções possíveis para as plataformas e criar um órgão regulador independente e autônomo para a análise de conformidade, monitoramento e eventual aplicação das punições;

• As plataformas devem criar sistemas para a recepção de notificações dos usuários, com interface acessível e amigável, e publicar relatórios anuais, “claros e facilmente compreensíveis” sobre a atividade de moderação de conteúdo.

André Mendonça

Mendonça votou para manter a sistemática atual de responsabilidade das plataformas por publicações de usuários - apenas em caso de descumprimento de decisões judiciais para remover conteúdos. Foi o único voto alinhado com os interesses das big techs.

Mendonça equiparou as redes sociais a veículos de comunicação e jornalísticos e defendeu que, por isso, elas não podem sofrer restrições “à plena liberdade de informação”.

O ministro argumentou que considera arriscado transferir da Justiça para as próprias plataformas a moderação de conteúdos controversos.

“Não vislumbro como transferir às plataformas e, por consequência, ao algoritmo, o dever de ponderar, de modo automático e artificial, os valores em disputa, especialmente quando um desses valores é a liberdade de expressão”, defendeu.

Na avaliação de Mendonça, se as plataformas estiverem sujeitas a penalidades por conteúdos publicados por terceiros, a tendência é um aumento da vigilância sobre a atividade online dos usuários.

“A análise do tema enseja uma alteração de foco. Deixar de mirar na responsabilidade pela remoção do conteúdo ou do perfil, passando-se a destinar atenção aos protocolos e procedimentos empregados pelas plataformas na tentativa de criar um ambiente digital mais hígido, íntegro e salutar.”

Os pontos-chave do voto de André Mendonça:

• Plataformas não respondem por conteúdos de terceiros;

• É inconstitucional a remoção ou suspensão de perfis, exceto quando comprovadamente falsos, robôs ou criminosos;

• Em serviços de mensageria privada, como WhatsApp e Telegram, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados;

• A decisão que determinar a remoção de conteúdo deve apresentar fundamentação específica e, ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação.

Flávio Dino

O ministro iniciou o voto defendendo que apresentaria uma posição moderada em busca do consenso no plenário.

“Se dependesse de mim, o resultado desse julgamento seria outro, bastante diferente, e seria muito mais rigoroso.”

Ainda na apresentação, Dino apresentou exemplos como o de ataques a escolas e de crimes contra crianças e adolescentes estimulados nas redes sociais para defender um controle mais rígido sobre as publicações.

Em seu voto, o ministro defendeu que “a liberdade regulada é a única liberdade”. “Liberdade sem responsabilidade é anarquia, conduz à barbárie”, afirmou.

Dino argumentou ainda que, como qualquer atividade econômica, as plataformas precisam de regulamentação.

“É absolutamente razoável que nós fortaleçamos o dever de vigilância, de prevenção, de cuidado, de precaução. Um shopping não tem que manter seguranças? Um banco não tem que manter seguranças? Qualquer atividade tem bônus e ônus”, defendeu.

Os pontos-chave do voto de Flávio Dino:

• Os provedores podem ser responsabilizados pelos danos decorrentes de conteúdos gerados por terceiros se não removerem as publicações após notificação dos usuários, “ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE”;

• A ordem judicial é necessária apenas no caso de alegações de ofensas e crimes contra a honra (injúria, calúnia e difamação);

• As plataformas têm obrigação de remover por iniciativa própria, independente de notificação judicial e extrajudicial, postagens de perfis falsos e robôs e “ilicitudes” veiculadas em anúncios pagos e publicações patrocinadas;

• Os provedores podem ser punidos, nos termos do Código de Defesa do Consumidor, por “falhas sistêmicas” na moderação de publicações que representem crimes contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio e automutilação, terrorismo e crimes contra o estado democrático de direito. Nesses casos, se o conteúdo for restaurado por ordem judicial, as plataformas não podem ser condenadas a pagar indenização ao autor das postagens;

• Os provedores deverão editar autorregulação que abranja necessariamente um sistema de notificação, um devido processo e um relatório anual de transparência em relação a notificação extrajudiciais, anúncios e impulsionamento;

• Procuradoria-Geral da República como instância de monitoramento e fiscalização até o Congresso editar uma legislação sobre o tema.

Cristiano Zanin

O ministro também considerou que o artigo 19 do Marco Civil da Internet, no estágio atual, é “deficiente” para proteger os usuários.

“O artigo 19 é incompatível com a atual realidade do modelo de negócio de muito provedores, que fomenta a perpetuação de danos e desinformação, além de impor às vítimas o ônus de acionar o Poder Judiciário, com todo o custo e desgaste que isso requer”, argumentou.

Zanin votou para diferenciar “conteúdos evidentemente criminosos ou ilícitos” de publicações em que houver “dúvida razoável sobre a ilicitude do conteúdo”. No primeiro caso, segundo a posição do ministro, as plataformas podem ser punidas se deixarem de remover postagens após notificação dos usuários. No segundo caso, os provedores podem aguardar uma ordem judicial.

O ministro também diferenciou provedores “neutros”, descritos por ele como “meros repositórios” que operam sem impulsionamento, daqueles que usam “curadoria algorítmica”, que segundo têm uma responsabilidade maior pelos conteúdos que permitem circular.

Os pontos-chave do voto de Zanin:

• Responsabilidade objetiva, após decisão judicial, para os provedores “neutros”, veículos de comunicação social ou quando houver “dúvida razoável” sobre a ilicitude do conteúdo, na forma do artigo 19 do Marco Civil da Internet;

• Responsabilidade subjetiva após notificação extrajudicial para os provedores “ativos” e quando houver “conteúdo evidentemente criminoso ou ilícito”, na forma do artigo 21 do Marco Civil da Internet;

• Dever de cuidado das plataformas: as empresas devem prevenir e mitigar “riscos sistêmicos” criados e potencializados por suas atividades.



Comente esta notícia