Publicações
LexLegal | 06/012/2024 | Luiz Friggi
O Supremo Tribunal Federal (STF) iniciou esta semana um julgamento que pode transformar a forma como as redes sociais operam no Brasil. Em uma votação que promete impactar diretamente a liberdade de expressão e a proteção contra abusos digitais, o ministro Dias Toffoli votou a favor da responsabilização direta das plataformas pelos conteúdos ilegais publicados por usuários, sem necessidade de ordem judicial prévia.
Essa decisão questiona o Artigo 19 do Marco Civil da Internet, que atualmente protege as redes de penalizações desde que removam conteúdos ilegais após decisão judicial. Para Toffoli, essa regra é inconstitucional, e as plataformas precisam responder pelos danos causados pela manutenção de publicações prejudiciais ou pela omissão na remoção de conteúdos evidentemente ilegais.
O julgamento coloca em xeque o equilíbrio entre liberdade de expressão, inovação digital e a necessidade de proteção contra conteúdos nocivos. O voto de Toffoli propõe que as redes sociais sejam obrigadas a remover postagens consideradas ilegais de forma imediata. Caso contrário, podem ser processadas por danos causados.
Segundo o ministro, conteúdos ilegais incluem:
O Marco Civil da Internet foi criado em 2014 para regular a atuação na web, buscando equilibrar liberdade de expressão e responsabilidade. O Artigo 19 foi pensado para evitar censura e assegurar o direito à livre manifestação de ideias. Porém, casos recentes, como a disseminação de desinformação nas eleições, episódios de violência política e perfis falsos promovendo discursos de ódio, reacenderam o debate sobre sua eficácia.
Toffoli argumentou que o modelo atual confere uma “imunidade” às plataformas, que deveriam ser mais ativas na fiscalização de conteúdos ilegais. “Não tem como não estabelecermos hipóteses de responsabilidade objetiva. O 8 de janeiro [atos golpistas] mostra isso; novembro passado [atentado do homem-bomba] mostra isso”, afirmou o ministro.
Além disso, ele propôs que o Artigo 21 do Marco Civil, que trata de danos à intimidade, honra e vida privada, seja aplicado de forma geral, ampliando as hipóteses de responsabilização direta das plataformas.
Além das redes sociais, o voto do relator trouxe implicações para plataformas de marketplace, como aquelas que permitem a venda de produtos. Toffoli defendeu que essas plataformas sejam responsabilizadas de forma solidária quando permitirem a comercialização de itens proibidos, como medicamentos não autorizados, agrotóxicos ilegais e dispositivos de TV pirata.
Por outro lado, serviços de e-mail, mensageria privada e aplicativos de reuniões fechadas ficaram fora da aplicação das regras de remoção imediata de conteúdo, desde que não sejam usados como redes sociais.
Caso o entendimento de Toffoli prevaleça, a implementação das novas regras será acompanhada por um órgão especializado, o Departamento de Acompanhamento da Internet no Brasil (DAI). Este será vinculado ao Conselho Nacional de Justiça (CNJ) e terá como função monitorar o cumprimento das decisões judiciais relacionadas a conteúdos digitais.
O ministro também sugeriu que o Congresso tenha até 18 meses para criar uma lei que enfrente a violência digital e a desinformação, estabelecendo um marco regulatório mais abrangente.
O STF analisa dois processos que questionam a constitucionalidade do Artigo 19 do Marco Civil da Internet. Um deles, relatado por Toffoli, envolve o Facebook, que busca derrubar uma condenação por danos morais relacionados a um perfil falso criado na plataforma. O outro, relatado pelo ministro Luiz Fux, discute se uma empresa que hospeda sites deve fiscalizar e remover conteúdos ofensivos sem ordem judicial.
Enquanto isso, empresas de tecnologia e redes sociais argumentam que já realizam a remoção de conteúdos ilegais de forma voluntária e que um monitoramento mais rígido seria equivalente a censura prévia. Para essas empresas, a responsabilização direta poderia inviabilizar o funcionamento das plataformas, ao impor custos e riscos jurídicos significativos.
Nos últimos anos, casos emblemáticos, como a disseminação de desinformação durante as eleições de 2022 e os ataques de 8 de janeiro de 2023, têm pressionado o Judiciário a revisar as regras atuais. A desinformação se tornou uma das principais ameaças à estabilidade política e social, exigindo um equilíbrio delicado entre liberdade de expressão e controle de abusos.
Antonielle Freitas, advogada especializada em direito digital e proteção de dados, avalia que a decisão do STF pode trazer mudanças estruturais para o ambiente digital no Brasil. “A responsabilização das redes sociais é um passo importante, mas deve ser acompanhada de critérios claros para evitar excessos que possam limitar a liberdade de expressão”, diz.
O voto de Toffoli também gerou debates sobre os riscos de limitar a inovação e a liberdade de expressão. Especialistas argumentam que exigir monitoramento prévio pode levar as plataformas a adotarem medidas excessivas de remoção, prejudicando debates legítimos e conteúdos críticos.
“Cabe ponderar a principal alegação das big techs: como monitorar as redes para detectar conteúdo com bases subjetivas? A inteligência artificial disponível atualmente não é capaz de fazer tal varredura. Assim, caso seja seguido pelos demais ministros em seu voto, o remédio pode ser pior que a doença, no sentido de que restará às redes sociais, para sua própria proteção, restringir ao máximo a liberdade de expressão em seus ambientes”, explica Thiago Bento dos Santos, advogado da área de direito digital da Lopes & Castelo Sociedade de Advogados.
Além disso, a criação de um órgão regulador vinculado ao CNJ levanta preocupações sobre custos e eficiência administrativa. “Qualquer regulamentação deve ser flexível o suficiente para acompanhar a evolução da tecnologia e os desafios associados”, avalia Freitas.
Para Ana Luíza Kadi, advogada no escritório Fabio Kadi Advogados, a mudança proposta traz tanto oportunidades quanto riscos. “Apesar da mudança trazer consigo uma possível diminuição de judicialização de casos que podem ser resolvidos extrajudicialmente, ela traz também a autorregulamentação das redes. Isso tira do judiciário o encargo de ponderar perdas e danos e passa para pessoas leigas, aumentando o risco de remoções injustificadas.”
Luiz Friggi, sócio do escritório Simões Pires, alerta para os perigos de limitar a liberdade de expressão. “A obrigatoriedade de remoção de conteúdo apenas por meio de notificação particular, sem exame prévio e imparcial do Judiciário, é que acabará cerceando o direito à liberdade de expressão. Não deve o STF inverter mais uma vez a lógica da censura – prévia e proibitiva, em lugar de póstuma e repressiva.”
Daniel Becker, especialista em Regulação de Novas Tecnologias, destaca o impacto da decisão na moderação de conteúdo pelas plataformas. “A criação da responsabilidade objetiva mesmo em atividades como personalização de feeds levanta preocupações sobre censura privada e subjetividade na definição de conteúdos ilícitos. Além disso, o apelo midiático do voto ignora aspectos técnicos e legais fundamentais, comprometendo a segurança jurídica.”
Na visão de Thiago Bento dos Santos, advogado especializado em direito digital, a proposta traz novos desafios. “Ao determinar a remoção de conteúdo mediante notificação extrajudicial, abre espaço para que conteúdos não necessariamente infringentes sejam removidos. Nesse caso, podemos ter a medida utilizada indevidamente para manipular o conteúdo das redes.”
Ativismo judicial e separação de poderes
Vários especialistas criticaram o ativismo judicial observado na decisão do STF. João Fábio Azevedo, do Moraes Pitombo Advogados, observa que a decisão levanta sérias preocupações sobre o avanço do Poder Judiciário em matérias de competência do Poder Legislativo. “Questões de grande complexidade e impacto social, como essas, deveriam ser objeto de um projeto de lei.”
Anderson Araújo, advogado da Goulart Penteado Advogados, argumenta que a mudança desloca o equilíbrio entre princípios constitucionais. “O maior risco desta consolidação é o aumento de solicitações de remoção de conteúdos baseadas em alegações genéricas de violação à honra e imagem, especialmente durante o período eleitoral.”
Os advogados também questionam a viabilidade prática das novas regras. “Exigir que as plataformas fiscalizem a obediência a termos subjetivos pode acarretar em análises incorretas. Atualmente, a inteligência artificial disponível não é capaz de realizar uma moderação tão subjetiva”, analisa Ana Luíza Kadi.
“Após uma década de vigência do Marco Civil, o tratamento benéfico dado às plataformas já não se justifica. No entanto, é imprescindível que mudanças estruturais sejam conduzidas pelo Legislativo e não apenas pelo Judiciário, garantindo ampla discussão democrática”, avalia João Fábio Azevedo e Azeredo.
O julgamento será retomado no dia 11 de dezembro, com os votos de outros dez ministros. Se a posição de Toffoli for majoritária, o Congresso terá o desafio de criar uma legislação específica sobre violência digital e desinformação em até 18 meses.
Independentemente do desfecho, o julgamento no STF reflete um momento de transformação no Brasil, em que a sociedade busca respostas para os desafios de um mundo cada vez mais digital. O futuro das redes sociais no país pode ser redesenhado, em um esforço de equilibrar liberdade, segurança e responsabilidade.
Veja também: Demissões por justa causa por acesso a sites de apostas crescem no Brasil: entenda os impactos jurídicos
Decisão do STJ sobre stock options é positiva para empresas e investidores
01/01/1970 - Na mídia
Decisão do TRF-3 reduz quase a metade da tributação dos créditos de descarbonização
01/01/1970 - Na mídia
O que muda no Brasil após a autorização do cultivo de cannabis medicinal pelo STJ?
01/01/1970 - Na mídia