O Supremo Tribunal Federal (STF) retomou, na quinta-feira (28), a análise de casos envolvendo o Marco Civil da Internet e a possibilidade de responsabilização de plataformas de redes sociais por conteúdos de terceiros. Para o presidente da Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da OAB SP, Solano de Camargo, ampliar a responsabilidade das plataformas sem a exigência de intervenção judicial poderia instituir a censura exercida por entidades privadas no País.
“Sob a pressão de sanções ou de interpretações ambíguas, as empresas poderiam adotar uma postura excessivamente cautelosa, removendo conteúdos de maneira preventiva para evitar qualquer possibilidade de penalização. Esse cenário implicaria um impacto absurdo no debate público e na liberdade de manifestação, com as plataformas se tornando juízes arbitrários do que pode ou não ser publicado”, critica Solano.
O especialista cita, ainda, que existem questões de repercussão geral já reconhecidas pelo STF relacionadas à responsabilidade das plataformas por conteúdos de terceiros, que devem ser levadas em consideração no julgamento.
Segundo Solano, o artigo 19 do Marco Civil da Internet é fundamental para evitar que as plataformas adotem uma postura excessivamente inquisitorial, removendo conteúdos em massa por receio de penalizações ou multas.
“No entanto, pode ser aprimorado, por exemplo, ao incluir regras específicas para temas graves como abuso sexual infantil, incitação à violência e outras infrações severas bem especificadas, que poderiam justificar a remoção mais célere por meio de notificações administrativas em vez de judiciais”, aponta.
Confira, abaixo, a entrevista na íntegra para o Jornal da Advocacia.
JA - Há um julgamento em curso no STF que analisa a constitucionalidade do artigo 19 do Marco Civil da Internet no contexto dos Temas de Repercussão Geral (nº 533 e nº 987). Em resumo, a discussão coloca em destaque a questão da responsabilidade das plataformas digitais por conteúdos gerados por terceiros. O que prevê o artigo 19, exatamente?
Solano: É uma temática que incide diretamente sobre a liberdade de expressão e a proteção contra abusos no ambiente virtual. O artigo 19 do Marco Civil da Internet foi importantíssimo para estabelecer a regra de que as plataformas só podem ser responsabilizadas por conteúdos de terceiros se, após notificação judicial, não removerem o material apontado como ilegal. A lógica desse dispositivo é resguardar a liberdade de expressão, evitando que plataformas atuem como censores preventivos e permitindo que apenas o Judiciário tenha a prerrogativa de determinar a exclusão de materiais.
Essa proteção é fundamental para evitar que as plataformas adotem uma postura excessivamente inquisitorial, removendo conteúdos em massa por receio de penalizações ou multas.
JA- Por que esse modelo tem gerado críticas em todo o País?
Solano: O modelo tem sido alvo de críticas por, supostamente, dificultar respostas ágeis contra conteúdos ilícitos, como discursos de ódio, ameaças e fake news, que podem causar danos graves e irreparáveis nas mais variadas proporções.
Entendo que o artigo 19 pode ser aprimorado, por exemplo, ao incluir regras específicas para temas graves como abuso sexual infantil, incitação à violência e outras infrações severas bem especificadas, que poderiam justificar a remoção mais célere por meio de notificações administrativas em vez de judiciais. Ainda assim, qualquer mudança deve preservar o equilíbrio entre a liberdade de expressão e a responsabilidade das plataformas, para evitar um cenário de censura privada generalizada.
JA – Quais são os impactos em responsabilizar as plataformas por conteúdos de terceiros?
Solano: Ampliar a responsabilidade das plataformas sem a exigência de intervenção judicial representaria um risco gigantesco de se instituir a censura exercida por entidades privadas no País. Sob a pressão de sanções ou de interpretações ambíguas, as empresas poderiam adotar uma postura excessivamente cautelosa, removendo conteúdos de maneira preventiva para evitar qualquer possibilidade de penalização. Esse cenário implicaria um impacto absurdo no debate público e na liberdade de manifestação, com as plataformas se tornando juízes arbitrários do que pode ou não ser publicado.
JA - Há alguma forma de regulamentação das plataformas?
Solano: Sim, é possível regulamentar as plataformas digitais, mas o modelo adotado precisa ser cuidadoso para não comprometer direitos fundamentais, como a liberdade de expressão e a inovação tecnológica. Países ao redor do mundo têm explorado diferentes abordagens. Um exemplo relevante é o Digital Services Act (DSA) da União Europeia, que impõe obrigações proporcionais ao tamanho e impacto das plataformas, como a transparência em algoritmos, o estabelecimento de procedimentos para a remoção de conteúdos ilegais e a proteção de usuários contra desinformação.
Outro caminho é criar legislações específicas para temas mais sensíveis, como desinformação ou discursos de ódio, sempre mediados pelo Poder Judiciário, em vez de tentar uma abordagem única e ampla que poderia ser mais difícil de implementar. No caso do Brasil, um marco legal que incentive a autorregulação das plataformas, associado a mecanismos claros de supervisão pelo Poder Judiciário e sanções apenas em casos de omissão comprovada, parece ser um caminho viável e equilibrado.
JA - Qual seria o equilíbrio entre liberdade de expressão e a responsabilidade das plataformas por discursos de ódio, fake news, por exemplo?
Solano: O equilíbrio está em criar mecanismos que responsabilizem as plataformas apenas quando elas falham em adotar medidas razoáveis para lidar com conteúdos materialmente ilícitos, sem exigir que atuem como árbitros universais da verdade. Para isso:
- Definições claras: É essencial que termos como "discurso de ódio" e "fake news" sejam definidos com precisão na norma, para evitar interpretações amplas e subjetivas que possam ser usadas para censura.
- Medidas proporcionais: As plataformas devem ser incentivadas a criar ferramentas de moderação baseadas em transparência, com explicações claras aos usuários sobre decisões de remoção ou manutenção de conteúdos.
- Responsabilidade escalonada: Em casos de danos comprovados e quando houver negligência na remoção de conteúdos ilegais, as plataformas podem ser responsabilizadas. No entanto, elas não devem ser punidas por erros de usuários, especialmente em temas controversos.
- Educação e inclusão digital: Além de regulamentação, na minha opinião, o ponto mais importante é o governo investir em iniciativas que promovam a alfabetização digital e o pensamento crítico da população para reduzir a disseminação de desinformação, como aconteceu, por exemplo, com a campanha contra o cigarro.
A chave é encontrar um modelo que preserve o direito dos usuários de se expressarem livremente, mas que também imponha às plataformas um dever de agir contra conteúdos manifestamente ilegais e perigosos, sempre respeitando os processos de transparência e contestação.
JA – Qual a sua opinião sobre a criação de ferramentas automáticas para monitorar e excluir conteúdo em redes sociais?
Solano: Essas ferramentas agravam a situação, pois sistemas baseados em inteligência artificial podem realizar análises imprecisas, enviesadas ou manipulativas, removendo postagens legítimas e importantes para o debate democrático. Essa prática, ainda que involuntária, iria configurar uma forma velada de censura, corroendo os fundamentos modernos do Marco Civil que, por sua vez, busca promover um equilíbrio entre responsabilidade e liberdade na Internet.
JA – Como o senhor enxerga a atuação do STF na regulação digital no Brasil?
Solano: O STF, ao decidir os Temas 533 e 987, desempenha um papel absolutamente essencial para o futuro da regulação digital no Brasil. Esses temas se referem a questões de repercussão geral reconhecidas pelo Supremo Tribunal Federal (STF), relacionadas à responsabilidade de provedores de Internet pelo conteúdo gerado por terceiros.
O tema 533 discute se as empresas que hospedam sites na Internet têm o dever de fiscalizar e remover, sem a necessidade de ordem judicial, conteúdos considerados ofensivos publicados em suas plataformas. Já o tema 987 analisa a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014), que estabelece a necessidade de uma ordem judicial específica para que provedores de Internet sejam responsabilizados civilmente por danos decorrentes de conteúdos ilícitos postados por terceiros. Esses temas são fundamentais para definir o equilíbrio entre a liberdade de expressão e a responsabilidade das plataformas digitais no Brasil.
Uma interpretação que fragilize a exigência de ordem judicial vai significar um retrocesso em termos de liberdade de expressão, institucionalizando mecanismos que incentivam a supressão de conteúdos por interesses privados. Por isso, é fundamental que a Corte adote uma posição que proteja os direitos fundamentais, mantendo a liberdade de expressão como um pilar inabalável da República e assegurando a responsabilização somente nos casos em que há flagrante descumprimento de obrigações legais devidamente estabelecidas.