Sessão desta quinta-feira (28) foi marcada pela discussão sobre o papel das redes sociais na retirada de conteúdos dos ataques antidemocráticos de 8 de janeiro. A sessão do Supremo Tribunal Federal (STF) foi adiada, nesta quinta-feira (28), sem uma conclusão para o julgamento que avalia se há responsabilidade das redes sociais pelos conteúdos publicados por usuários.
➡️Na prática, os ministros avaliam se as plataformas podem ser condenadas ao pagamento de indenização por danos morais por não terem retirado do ar postagens — com discursos de ódio, ofensas, fake news ou que prejudiquem terceiros —, mesmo sem uma ordem prévia da Justiça.
Nesta quinta, os ministros ouviram especialistas e começaram a apresentar os votos, com a manifestação do relator de um dos processos, Dias Toffoli. Porém, ele não concluiu o voto antes do adiamento da sessão.
➡️O julgamento será retomado na próxima quarta-feira (4).
Fachada do Supremo Tribunal Federal.
Gustavo Moreno/SCO/STF
Papel das redes sociais no 8 de janeiro
A sessão desta quinta-feira (28) teve um debate, entre os ministros, sobre o papel das plataformas digitais em relação ao conteúdo publicado no dia 8 de janeiro.
A questão surgiu a partir da manifestação do ministro da Advocacia-Geral da União Jorge Messias. Ao apresentar os argumentos da AGU no caso, Messias citou o que ocorreu no 8 de janeiro de 2023. Em meio à depredação das sedes dos Três Poderes, Messias lembrou que teve que fazer pedidos ao ministro Alexandre de Moraes para que fosse determinada a retirada de conteúdos das redes sociais, que transmitiam a invasão aos prédios públicos. O ministro da AGU lembrou que apenas com a decisão de Moraes as plataformas digitais tomaram providências.
“Estamos tratando de algo maior, da própria sobrevivência do Estado Democrático de Direito”, afirmou Messias.
O advogado-geral da União argumentou ainda que há um ambiente de “infodemia”, que traz prejuízos econômicos e à qualidade da democracia.
Após a fala de Messias, o ministro Alexandre de Moraes – relator de processos relativos ao 8 de janeiro – também falou sobre os atos antidemocráticos. Para ele, não é possível defender que as redes estabeleçam, por si sós, critérios de remoção de postagens.
“O dia 8 de janeiro demonstrou a total falência do sistema de autorregulação de todas as redes, de todas as big techs”, afirmou Moraes.
“É faticamente impossível defender, após o dia 8 de janeiro, que o sistema de autorregulação funciona. Falência total e absoluta. Instrumentalização e, lamentavelmente, parte de conivência”, completou.
Moraes ressaltou que os ataques foram organizados pelas redes e que os criminosos incitavam, em transmissões ao vivo, outras pessoas a participar da destruição.
“Por que digo de falência? Falência porque tudo foi organizado pelas redes, ou parte das redes. Todos se recordam aqui, a festa da Selma. Selma, mulher de um dos generais investigados. Depois, no dia, a Praça dos Três Poderes invadida, o Supremo sendo destruído, o Palácio do Planalto, as pessoas fazendo vídeo, postando nas redes sociais, chamando gente para destruir. E as redes sociais não retiraram nada. Por quê? Like em cima de like, sistema de negócio, monetização… Então, se não fosse pela falência em virtude da organização anterior, foi pela instrumentalização e conivência no dia 8 que se demonstra que autorregulação não funcionou. E não venham – não adiantando voto – não venham dizer que isso é contra a liberdade de expressão”, completou, ressaltando que se trata de um dos julgamentos mais importantes do ano.
Na sequência, a ministra Cármen Lúcia lembrou o caso do homem que detonou explosivos em frente ao Supremo, no último dia 13.
“Este último episódio em frente ao nosso prédio também estava nas redes. A postagem da pessoa atacando o supremo, dizendo que ia fazer alguma coisa e não se conseguiu nem ver, nem vislumbrar, nem nada. O que tivemos foi aquela noite com um ato trágico. Trágico institucionalmente, pessoalmente e de toda natureza”.
Moraes ressaltou que não é possível usar o argumento de que é impossível, tecnologicamente, realizar o controle.
“E não se diga que tecnologicamente não é possível. Porque em relação – sabemos todos – à pornografia infantil, pedofilia e direitos autorais, a inteligência artificial e os algoritmos retiram, antes de um like, 93% das postagens, e os 7% seguintes são encaminhados à comissão de seres humanos. Então, é possível tecnologicamente. O que não houve e não vem havendo é empenho”, declarou.
Voto do relator Dias Toffoli
Ao iniciar seu voto, o ministro Dias Toffoli afirmou que o artigo 19 da lei do Marco Civil da Internet, que está em análise no julgamento, dá uma imunidade às redes sociais.
“Só surge a responsabilidade civil após ordem judicial e o descumprimento da ordem. Se a ordem judicial é cumprida, não há que se pagar dano nenhum. Se dá de ombros. Aquilo pode ter ficado um ano, dois anos – o que já é uma eternidade na internet – sem nenhuma reparação posterior. Porque a responsabilidade, pelo artigo 19, só surge se descumprir a decisão judicial. Se cumpre a decisão judicial, não há responsabilidade. É disso que se trata”.
“O que é ilícito no mundo real, é ilícito no mundo virtual. o que é lícito no mundo real, é lícito no mundo virtual. ponto, simples assim. Não precisaria nem de lei específica para se aplicar o Direito”, completou.
Segundo Toffoli, as redes sociais se alimentam de “inverdades, de estímulo ao ódio, de estímulo a todo tipo de situação ilícita”.
“Aquilo que dá like nas redes sociais não é a verdade, não são as boas ações, não são as redes de ajuda. Infelizmente, o que dá like e impulsionamento, mais marketing, mais publicidade, mais ganho… e, ao fim e ao cabo, é de business, de dinheiro que se trata. Não há interesses aí outros que não o lucro”.
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá elaborar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.
Fonte: G1