Elon Musk retira Twitter do acordo de ‘desinformação’ da UE

Elon Musk retirou o Twitter do “Código de Prática voluntário contra a desinformação” da UE. A parte do “voluntária” do nome já é desinformação. Sem a Primeira Emenda para lidar, os burocratas da União Europeia têm relativa facilidade em ditar o que é a verdade e o que não pode fazer parte da conversa pública. Musk pode estar se preparando para retirar o Twitter da Europa, que sempre viu como um “mercado secundário”. O comissário Thierry Breton ficou incomodado com a decisão e se manifestou em sua conta, no Twitter. Twitter leaves EU voluntary Code of Practice against disinformation. But obligations remain. You can run but you can’t hide. Beyond voluntary commitments, fighting disinformation will be legal obligation under #DSA as of August 25. Our teams will be ready for enforcement. — Thierry Breton (@ThierryBreton) May 26, 2023 A DSA [Lei de Serviços Digitais] a que Thierry Breton se refere entrou em vigor em novembro passado e permite que os burocratas classifiquem certas plataformas como VLOPs (plataformas online muito grandes) ou VLOSEs (mecanismos de busca online muito grandes) e sujeitá-los a relatórios e regulamentos adicionalmente rigorosos de supervisão.

Projeto de Combate às Fake News deve ser votado na terça-feira

Na mesma semana em que o aplicativo Telegram foi, novamente, bloqueado no Brasil, o Congresso aprovou o regime de urgência para o PL 2630/2020, também chamado de PL das Fake News ou PL da Censura. O projeto é iniciativa do Senador Alessandro Vieira (CIDADANIA/SE) e já foi aprovado no Senado. Tramitar em regime de urgência significa que não haverá discussão nas comissões, indo direto para a votação em plenário. Se aprovado também na Câmara, o texto retorna para o Senado referendar as mudanças ocorridos. O projeto tem recebido elogios dos veículos de imprensa tradicionais e críticas das chamas Bigs Techs. Políticos de direita também criticaram, enquanto políticos de esquerda apoiam a tramitação. A tramitação do projeto começou em 2020, o que explica ele versar também sobre questões como “medidas sanitárias”. À época, o país ainda enfrentava muitas discussões sobre a Covid-19. O texto também recebeu sugestões do TSE e do Poder Executivo. Entre elas, a proibição de veiculação de propaganda eleitoral dois dias antes do pleito e um dia após. A Google emitiu uma carta pública contra o projeto (que pode ser encontrada aqui). Segundo a empresa, o PL 2360/2020: Acaba protegendo quem produz desinformação; Coloca em risco o acesso e a distribuição gratuita de conteúdo na internet; Dá amplos poderes a um órgão governamental para decidir o que os brasileiros podem ver na internet; Traz sérias ameaças à liberdade de expressão; Prejudica empresas e anunciantes brasileiros; Dificulta o acesso dos brasileiros à Busca do Google ao tratar buscadores como redes sociais. O Inteiro teor do projeto pode ser conferido no site da Câmara dos Deputados. Muito do PL 2630/2020 parece ter origem nas ações recomendadas no documento Ações e Diretrizes para a Regulação de Plataformas Digitais no Brasil, do Comitê Gestor da Internet. O texto é fruto de discussões de um seminário organizado pela instituição nos dias 1 e 2 de setembro de 2022 e contou com a participação de pesquisadores, especialistas jurídicos e representantes das empresas. O arquivo pode ser consultado na íntegra aqui. Mudanças Previstas Entre as medidas previstas, estão, ao nível de Estado: Multa por não cumprimento de decisão judicial de remoção de conteúdo; Proibição de políticos bloquearem usuários em suas redes; O texto estende a imunidade parlamentar às redes sociais. Para as empresas: Criação relatório de transparência; Possibilidade de recurso contra exclusão de conteúdo; Plataformas terão que informar os motivos da exclusão de conteúdo; Empresas deverão pagar por conteúdo jornalístico; Limitação no disparo de mensagens em massa; Criação de ferramentas que proíbam o uso de crianças e adolescentes, principalmente o acesso de conteúdos nocivos; Responsabilização solidária das plataformas por conteúdo distribuídos por meio de publicidade; Uso de robôs simulando pessoas será de responsabilidade das plataformas. Para os usuários, a identificação dos usuários de redes sociais e aplicativos de mensagem, com o objetivo de reduzir o anonimato na internet e facilitar a responsabilização. Algo que não precisa ser feito via legislação especial, considerando os esforços da polícia em investigar os crimes cibernéticos já tipificados. No artigo 11, anteriormente, o projeto falava que as empresas deveriam atuar “preventivamente” para remover determinados conteúdos perigosos. Após as críticas de entregar às empresas poder de censura, o texto foi alterado para “devem atuar diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços”. Os conteúdos ilícitos são abordados nos incisos do artigo 11: I – crimes contra o Estado Democrático de Direito, tipificados no Decreto-Lei nº 2.848, de 7 de dezembro de 1940; II – atos de terrorismo e preparatórios de terrorismo, tipificados pela Lei nº 13.260, de 16 de março de 2016; III – crime de induzimento, instigação ou auxílio a suicídio ou a automutilação, tipificado no Decreto-Lei nº 2.848, de 7 de dezembro de 1940; IV – crimes contra crianças e adolescentes previstos na Lei nº 8.069, de 13 de julho 1990, e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes, tipificados no Decreto-Lei nº 2.848, de 7 de dezembro de 1940; V – crime de racismo de que trata o art. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 5 de janeiro de 1989; VI – violência contra a mulher, inclusive os crimes dispostos na Lei nº 14.192, de 4 de agosto de 2021; e VII – infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional, de que trata o art. 10 da Lei nº 6.437, de 20 de agosto de 1977. Para avaliação do trabalho das redes nesse esforço, serão utilizadas as informações sobre o conjunto de ações, sem considerar fracassos ou sucessos isoladamente. Críticas ao Projeto O principal problema que o texto apresenta é de fiscalização. São muitas as novas regras às quais os provedores precisarão se adaptar e nem todas possuem clareza de como funcionarão, deixando brechas interpretativas. Além disso, algumas delas, nalguma medida, já fazem parte do funcionamento normal das plataformas, como a avaliação de “riscos sistêmicos decorrentes da concepção ou funcionamento dos seus serviços”. O artigo 16 do PL, por exemplo, parece inócuo por já ser uma prática comum dos provedores permitir que se denuncie conteúdo potencialmente ilegal. Em contrapartida, a lei é benéfica ao usuário quando obriga os provedores a justificarem remoção de conteúdo, automatizada ou não, e informar prazo para recurso da decisão. Uma prática que já existe, mas não é aplicada por todos os provedores. Também há benefício ao obrigar os provedores a esclarecerem os critérios de moderação e a listarem os conteúdos inelegíveis ou com possível limitação de publicidade. As únicas exceções referem-se, por exemplo, aos algoritmos que são segredo industrial, como os que atuam na indicação de conteúdo aos usuários. Apesar de quaisquer boas intenções, a quantidade de usuários de algumas das redes, torna virtualmente impossível mantê-las sem usuários maliciosos. O rigor na fiscalização, a partir de um determinado ponto, passa a coibir o funcionamento da rede porque só os usuários