
O Supremo Tribunal Federal formou, nesta quarta-feira (11), maioria para responsabilizar plataformas digitais por conteúdos ilegais publicados por usuários, mesmo sem decisão judicial prévia.
O julgamento, ainda em andamento, questiona a constitucionalidade do artigo 19 do Marco Civil da Internet, que até então protegia as redes sociais de punição caso não houvesse uma ordem expressa da Justiça para remover as postagens.
A decisão já conta com seis votos a um pela inconstitucionalidade do artigo. Com isso, redes sociais como Facebook, Instagram, YouTube, X (antigo Twitter) e TikTok poderão ser responsabilizadas caso não retirem conteúdos considerados ilícitos assim que forem notificados.
O julgamento envolve dois recursos extraordinários com repercussão geral. O primeiro, relatado pelo ministro Dias Toffoli, diz respeito a um processo movido contra o Facebook, após a criação de um perfil falso na plataforma.
O segundo, sob relatoria de Luiz Fux, trata de uma ação envolvendo o Google e conteúdos publicados no extinto Orkut.
Toffoli votou pela inconstitucionalidade do artigo 19
Ele defendeu que as plataformas devem remover os conteúdos assim que forem notificadas, mesmo sem ordem da Justiça.
O ministro apresentou um conjunto de dez deveres que, segundo ele, devem ser exigidos das plataformas, como transparência, combate a contas falsas e responsabilidade solidária por crimes como racismo e incitação à violência.
Fux acompanhou o entendimento de Toffoli e sugeriu que, após a notificação, a plataforma remova o conteúdo de imediato e, se discordar, recorra posteriormente à Justiça para tentar restabelecê-lo. Para Fux, a demora na exclusão pode causar danos irreparáveis.
O ministro Luís Roberto Barroso, presidente do STF, votou pela parcial inconstitucionalidade do artigo 19.
Segundo sua proposta, conteúdos que configurem crimes graves — como pornografia infantil, terrorismo ou ataques à democracia — devem ser retirados sem necessidade de decisão judicial.
Para outros casos, como crimes contra a honra, Barroso manteve a exigência de autorização judicial.
Também votaram com a maioria os ministros Flávio Dino, Cristiano Zanin e Nunes Marques. Dino argumentou que a responsabilidade civil das plataformas deve seguir o artigo 21 do Marco Civil da Internet, que prevê a retirada de conteúdos após notificação.
Ele defendeu a responsabilização por publicações que façam apologia à violência ou ameacem o Estado Democrático de Direito.
Voto de Zanin

Zanin votou alinhado ao relator Toffoli e defendeu a responsabilização das plataformas por conteúdos ilegais assim que houver notificação, sem necessidade de decisão judicial.
Nunes Marques também acompanhou a maioria, mas seus argumentos não foram divulgados nas informações disponíveis.
Voto contrário
O único voto contrário foi do ministro André Mendonça. Ele considerou o artigo 19 constitucional e defendeu a necessidade de ordem judicial para remoção de conteúdos, sob o argumento de que essa exigência protege a liberdade de expressão e evita censura prévia.
Mendonça propôs que apenas perfis comprovadamente falsos ou operados por robôs possam ser retirados sem decisão judicial.
Ele também criticou a suspensão de perfis por tempo indeterminado, prática que atribuiu a decisões do ministro Alexandre de Moraes, classificando-as como censura.
Mendonça defendeu ainda um modelo de “autorregulação regulada”, no qual as plataformas adotariam mecanismos próprios de compliance, sem serem responsabilizadas diretamente pelas postagens dos usuários.
Para ele, as empresas devem ter legitimidade para defender a liberdade de expressão de quem publica nas redes.
Os ministros Gilmar Mendes, Edson Fachin, Alexandre de Moraes e Cármen Lúcia ainda não votaram, mas a maioria necessária para modificar o entendimento sobre o artigo 19 já foi alcançada.
Com a decisão, as plataformas poderão ser obrigadas a retirar conteúdos que promovam desinformação, discurso de ódio, incitação à violência ou ataques ao regime democrático, a partir de notificações feitas por usuários, sob risco de sanções e multas.
Posição das empresas
Empresas de tecnologia alegam que a mudança pode levar à remoção preventiva de conteúdos legítimos, como reportagens jornalísticas e publicações de humor, por receio de punições.
Representantes das big techs também afirmam que o novo entendimento compromete a liberdade de expressão, transfere responsabilidade indevida às plataformas e impõe um custo operacional alto para moderação de bilhões de postagens diárias.
A Advocacia-Geral da União, por outro lado, defendeu a nova responsabilização. Destacou casos em que a ausência de ação das plataformas resultou em consequências graves, como a morte de uma menina de oito anos após participar de um “desafio” promovido em redes sociais.