Projeto de Combate às Fake News deve ser votado na terça-feira

Créditos: Karen Arnold.

Na mesma semana em que o aplicativo Telegram foi, novamente, bloqueado no Brasil, o Congresso aprovou o regime de urgência para o PL 2630/2020, também chamado de PL das Fake News ou PL da Censura. O projeto é iniciativa do Senador Alessandro Vieira (CIDADANIA/SE) e já foi aprovado no Senado. Tramitar em regime de urgência significa que não haverá discussão nas comissões, indo direto para a votação em plenário. Se aprovado também na Câmara, o texto retorna para o Senado referendar as mudanças ocorridos.

O projeto tem recebido elogios dos veículos de imprensa tradicionais e críticas das chamas Bigs Techs. Políticos de direita também criticaram, enquanto políticos de esquerda apoiam a tramitação.

A tramitação do projeto começou em 2020, o que explica ele versar também sobre questões como “medidas sanitárias”. À época, o país ainda enfrentava muitas discussões sobre a Covid-19. O texto também recebeu sugestões do TSE e do Poder Executivo. Entre elas, a proibição de veiculação de propaganda eleitoral dois dias antes do pleito e um dia após.

A Google emitiu uma carta pública contra o projeto (que pode ser encontrada aqui). Segundo a empresa, o PL 2360/2020:

  1. Acaba protegendo quem produz desinformação;
  2. Coloca em risco o acesso e a distribuição gratuita de conteúdo na internet;
  3. Dá amplos poderes a um órgão governamental para decidir o que os brasileiros podem ver na internet;
  4. Traz sérias ameaças à liberdade de expressão;
  5. Prejudica empresas e anunciantes brasileiros;
  6. Dificulta o acesso dos brasileiros à Busca do Google ao tratar buscadores como redes sociais.

O Inteiro teor do projeto pode ser conferido no site da Câmara dos Deputados.

Muito do PL 2630/2020 parece ter origem nas ações recomendadas no documento Ações e Diretrizes para a Regulação de Plataformas Digitais no Brasil, do Comitê Gestor da Internet. O texto é fruto de discussões de um seminário organizado pela instituição nos dias 1 e 2 de setembro de 2022 e contou com a participação de pesquisadores, especialistas jurídicos e representantes das empresas. O arquivo pode ser consultado na íntegra aqui.

Mudanças Previstas

Entre as medidas previstas, estão, ao nível de Estado:

  • Multa por não cumprimento de decisão judicial de remoção de conteúdo;
  • Proibição de políticos bloquearem usuários em suas redes;
  • O texto estende a imunidade parlamentar às redes sociais.

Para as empresas:

  • Criação relatório de transparência;
  • Possibilidade de recurso contra exclusão de conteúdo;
  • Plataformas terão que informar os motivos da exclusão de conteúdo;
  • Empresas deverão pagar por conteúdo jornalístico;
  • Limitação no disparo de mensagens em massa;
  • Criação de ferramentas que proíbam o uso de crianças e adolescentes, principalmente o acesso de conteúdos nocivos;
  • Responsabilização solidária das plataformas por conteúdo distribuídos por meio de publicidade;
  • Uso de robôs simulando pessoas será de responsabilidade das plataformas.

Para os usuários, a identificação dos usuários de redes sociais e aplicativos de mensagem, com o objetivo de reduzir o anonimato na internet e facilitar a responsabilização. Algo que não precisa ser feito via legislação especial, considerando os esforços da polícia em investigar os crimes cibernéticos já tipificados.

No artigo 11, anteriormente, o projeto falava que as empresas deveriam atuar “preventivamente” para remover determinados conteúdos perigosos. Após as críticas de entregar às empresas poder de censura, o texto foi alterado para “devem atuar diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços”. Os conteúdos ilícitos são abordados nos incisos do artigo 11:

I – crimes contra o Estado Democrático de Direito, tipificados no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;
II – atos de terrorismo e preparatórios de terrorismo, tipificados pela Lei nº 13.260, de 16 de março de 2016;
III – crime de induzimento, instigação ou auxílio a suicídio ou a automutilação, tipificado no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;
IV – crimes contra crianças e adolescentes previstos na Lei nº 8.069, de 13 de julho 1990, e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes, tipificados no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;
V – crime de racismo de que trata o art. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 5 de janeiro de 1989;
VI – violência contra a mulher, inclusive os crimes dispostos na Lei nº 14.192, de 4 de agosto de 2021; e
VII – infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional, de que trata o art. 10 da Lei nº 6.437, de 20 de agosto de 1977.

Para avaliação do trabalho das redes nesse esforço, serão utilizadas as informações sobre o conjunto de ações, sem considerar fracassos ou sucessos isoladamente.

Críticas ao Projeto

O principal problema que o texto apresenta é de fiscalização. São muitas as novas regras às quais os provedores precisarão se adaptar e nem todas possuem clareza de como funcionarão, deixando brechas interpretativas. Além disso, algumas delas, nalguma medida, já fazem parte do funcionamento normal das plataformas, como a avaliação de “riscos sistêmicos decorrentes da concepção ou funcionamento dos seus serviços”. O artigo 16 do PL, por exemplo, parece inócuo por já ser uma prática comum dos provedores permitir que se denuncie conteúdo potencialmente ilegal.

Em contrapartida, a lei é benéfica ao usuário quando obriga os provedores a justificarem remoção de conteúdo, automatizada ou não, e informar prazo para recurso da decisão. Uma prática que já existe, mas não é aplicada por todos os provedores. Também há benefício ao obrigar os provedores a esclarecerem os critérios de moderação e a listarem os conteúdos inelegíveis ou com possível limitação de publicidade. As únicas exceções referem-se, por exemplo, aos algoritmos que são segredo industrial, como os que atuam na indicação de conteúdo aos usuários.

Apesar de quaisquer boas intenções, a quantidade de usuários de algumas das redes, torna virtualmente impossível mantê-las sem usuários maliciosos. O rigor na fiscalização, a partir de um determinado ponto, passa a coibir o funcionamento da rede porque só os usuários maliciosos têm a energia e o interesse necessário para usá-las.

Outra crítica é que as redes sociais, que deveriam ser plataformas de conteúdo, passam a ter o papel de edição, não de simples moderação. Ou seja, além de considerar os termos de uso das plataformas, há um trabalho de moderação que independe de decisão judicial. Ainda que seja legal, e haver críticas ao Facebook por já ter realizado tal trabalho, a premissa das redes é que não sejam editoras de conteúdo, ao contrário dos jornais tradicionais com espaço na internet.

Por fim, para que parte das medidas seja eficaz, seria necessário que os usuários não navegassem anonimamente, ou seja, que, ao ingressar na internet, estivessem se identificando com uma espécie de identidade digital.

Outra crítica dirige-se à seção IV do capítulo II, onde se prevê a possibilidade de instaurar protocolo de segurança caso o provedor seja negligente ou suas ações sejam insuficientes. Essa medida é vista como uma possibilidade de facilitar bloqueios como os dois que o aplicativo Telegram já sofreu no país. Não só, mas instaurado o protocolo de segurança, os provedores poderão ser corresponsabilizados civilmente pelo conteúdo publicado pelos usuários.

Por fim, algumas medidas da lei, como a remuneração de conteúdo jornalístico, podem levar ao fim do compartilhamento de notícias nas redes sociais para evitar a remuneração ou enquanto não houver clareza de como proceder com os pagamentos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *