Big techs criticam falta de debate sobre regulação da internet no Brasil

A Folha conversou com representantes de seis das principais plataformas que atuam no Brasil. Nenhuma delas está sendo ouvida de maneira formal nas conversas sobre regulação na Câmara dos Deputados, que discute o PL 2630, ou no Executivo, que negocia uma proposta a ser incorporada ao projeto de lei.

Big techs criticam falta de debate sobre regulação da internet no Brasil

PATRÍCIA CAMPOS MELLO
SÃO PAULO, SP (FOLHAPRESS) – As plataformas de internet criticam a discussão sobre a nova regulação das redes no Brasil, que consideram pouco transparente, e demonstram preocupação com a possibilidade de mudanças no Marco Civil da Internet.

A Folha conversou com representantes de seis das principais plataformas que atuam no Brasil. Nenhuma delas está sendo ouvida de maneira formal nas conversas sobre regulação na Câmara dos Deputados, que discute o PL 2630, ou no Executivo, que negocia uma proposta a ser incorporada ao projeto de lei.

As empresas, assim como os integrantes da sociedade civil, não viram a proposta nem houve discussão pública.

O governo afirma que abrirá para discussão depois que houver um texto de consenso dentro do Executivo para ser negociado com a Câmara. E diz que o próprio PL das Fake News foi objeto de diversas audiências públicas.

Em nota enviada à Folha, o Google disse apoiar o “debate público e informado sobre a criação de medidas regulatórias para lidar com desafios sociais como o fenômeno da desinformação e ameaças ao processo democrático.”

“Entretanto, acreditamos que é importante que eventuais propostas sejam amplamente discutidas com vários setores da sociedade e elaboradas para garantir a proteção de direitos fundamentais como liberdade de expressão, privacidade e igualdade de oportunidades para todos.”

A empresa também faz uma crítica velada ao tipo de regulamentação em discussão, que supostamente beneficiaria grupos de comunicação tradicional. “Também é fundamental assegurar a manutenção de um ambiente econômico que permita a inovação e a livre concorrência, sem o favorecimento de determinados grupos ou setores.”

 

As principais plataformas -Twitter, WhatsApp, Facebook e Instagram (Meta), Google e YouTube, TikTok, Kwai, Telegram- participam apenas do grupo de trabalho montado pelo ministro Alexandre de Moraes, na presidência do TSE (Tribunal Superior Eleitoral).

Nas reuniões conduzidas pelo secretário-geral da corte, José Levi do Amaral, o objetivo é chegar a uma proposta comum de autorregulação das plataformas. As empresas já enviaram sugestões. No entanto, Moraes quer que elas incluam pelo menos algum tipo de responsabilização por conteúdo impulsionado ou monetizado.

A maior preocupação das plataformas é a perspectiva de mudanças no Marco Civil, de 2014. O Marco Civil é a principal lei que regula a internet no Brasil e determina que as plataformas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção.

A proposta em discussão no Executivo prevê punições contra as big techs mesmo antes de ordem judicial para conteúdo com racismo, violações à Lei do Estado Democrático e de direitos da criança e do adolescente.

O texto será encaminhado e discutido com o deputado Orlando Silva (PC do B-SP), relator do projeto de lei 2630. O deputado apoia a responsabilização e já disse que a mudança no Marco Civil é “inexorável”.

Segundo o texto do governo, as plataformas não teriam que monitorar conteúdo de forma pró-ativa para detectar postagens ilegais. Elas só seriam responsabilizadas se tivessem conhecimento sobre o conteúdo ilegal e não agissem. É o chamado “notice and action” que está na Lei dos Serviços Digitais que acaba de entrar em vigor na União Europeia.

As plataformas precisariam ter um canal de denúncias de fácil acesso a usuários. Quando recebessem essas informações, teriam de analisá-las e decidir se o conteúdo denunciado viola a lei, e, portanto, deveria ser removido. Se não agirem e o conteúdo for ilegal, aí poderão ser responsabilizadas.

A cada seis meses, as empresas teriam de publicar um relatório sobre o chamado “dever de cuidado”, especificando denúncias sobre conteúdo supostamente ilegal, remoções de postagens que violam a lei, medidas de mitigação para isso. Os relatórios passariam por uma auditoria independente.

As empresas não seriam punidas se deixassem passar um ou outro conteúdo ilegal –elas só seriam multadas se houvesse descumprimento generalizado do “dever de cuidado”.

Integrantes do STF (Supremo Tribunal Federal) como os ministros Gilmar Mendes, Alexandre de Moraes e Luís Roberto Barroso já manifestaram apoio à responsabilização das plataformas por determinados conteúdos de terceiros, como aqueles que incitam à violência ou defendem golpe de Estado.
O STF convocou uma audiência pública para debater, no dia 28 de março, dois recursos extraordinários que podem alterar o Marco Civil. Uma decisão em algum desses casos teria repercussão geral, poderia determinar um precedente de responsabilizar civilmente as plataformas por conteúdo antes de haver ordem judicial de remoção, como diz o Marco Civil.

As plataformas encaram a responsabilização como uma ameaça a seu modelo de negócios. Elas argumentam que, para se resguardar, vão sair removendo uma infinidade de conteúdos para evitar uma eventual punição. Apontam para a dificuldade de se determinar que conteúdo é “antidemocrático” ou “discurso de ódio”, já que isso depende do contexto.

Essa análise seria muito mais difícil do que a do tipo de conteúdo que as empresas já removem -violação de direitos autorais, pornografia e pedofilia. Elas precisariam ter parâmetros muito específicos sobre o que é ilegal. Senão, pelo sim, pelo não, vão remover. E isso enfraqueceria a internet no Brasil como espaço de troca de ideias, com redução na liberdade de expressão, afirmam.

No entanto, a proposta do governo prevê que a avaliação do cumprimento do dever de cuidado das empresas levará em conta se elas pecaram pelo excesso de remoções, uma vez que a moderação de conteúdo teria de ser “proporcional”.

Há uma consciência por parte das empresas de que o ambiente de discussão de regulação mudou completamente.

No início de 2020, quando começou a tramitar o PL das Fake News no Congresso, a discussão era centrada na necessidade de ampliar a educação midiática e preservar a liberdade de expressão. Agora, após a pandemia de Covid, o ataque ao Capitólio americano em janeiro de 2021 e a violência golpista em Brasília em janeiro de 2023, há uma enorme pressão para responsabilizar as empresas por conteúdo que tenham impactos no mundo real.

Uma minoria calcula que será necessário fazer concessões, como aceitar responsabilização por conteúdo monetizado ou impulsionado, ou por exceções muito específicas ao artigo 19 do Marco Civil.

Para outras, no entanto, qualquer exceção vai demolir o Marco Civil, porque vai abrir portas para litigância que irá, gradualmente, corroer a imunidade em outros casos.

Outros dizem que as regras já existentes das plataformas, que proíbem conteúdo violento de forma ampla, já são suficientes. Mas elas não aceitam algum tipo de responsabilização por não agirem sobre suas próprias regras.

Afirmam que a responsabilidade civil não é uma panaceia e que existem outras ferramentas muito mais adequadas do que cavar exceções ao artigo 19. Como sugestões, falam em prazos mais exíguos para cumprimento de ordens judiciais, mais transparência, empoderamento do usuário, mais cooperação com autoridades e mais investimento em checagem de fatos.

Entenda o que está em debate
Qual o debate sobre a regulação das redes sociais?
Sob o impacto dos atos golpistas do 8 de janeiro, o governo Lula elaborou proposta de medida provisória que obriga as redes a removerem conteúdo que viole a Lei do Estado Democrático, com incitação a golpe, e multa caso haja o descumprimento generalizado das obrigações. Diante da resistência do Congresso, o Planalto recuou e discute incluir essas medidas do PL 2630, o chamado PL das Fake News.
O que é o Marco Civil da Internet?
É uma lei com direitos e deveres para o uso da internet no país. O artigo 19 do marco isenta as plataformas de responsabilidade por danos gerados pelo conteúdo de terceiros, ou seja, elas só estão sujeitas a pagar uma indenização, por exemplo, se não atenderem uma ordem judicial de remoção. A constitucionalidade do artigo 19 é questionada no STF.
Qual a discussão sobre esse artigo?
A regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas é que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas. Por outro lado, críticos dizem que a regra desincentiva as empresas e combater conteúdo nocivo.
A proposta do governo impacta o Marco Civil? 
O entendimento é que o projeto abra mais uma exceção no Marco Civil. Hoje, as empresas são obrigadas a remover imagens de nudez não consentidas mesmo antes de ordem judicial. O governo quer que conteúdo golpista também se torne uma exceção à imunidade concedida pela lei, mas as empresas não estariam sujeitas à multa caso um ou outro conteúdo violador fosse encontrado na plataforma.
Como o Congresso tem reagido à discussão?
Parte do Legislativo critica a proposta do Planalto por acreditar que a responsabilização levaria as empresas a se censurarem para evitar sanções. Além disso, são estudadas medidas como a criação de um órgão regulador para as plataformas e a imunidade parlamentar nas redes, ponto defendido por Arthur Lira, presidente da Câmara.

Deixe uma resposta