Relator de projeto das fake news cogita regra diferenciada para rede social de governante
O relator do projeto de lei das fake news na Câmara, o deputado Orlando Silva (PC do B-SP), cogita a possibilidade de prever no texto um tratamento diferenciado a agentes públicos no que diz respeito à moderação de conteúdo realizada pelas redes sociais.
A ideia dele é que haja uma maior liberdade acompanhada de maiores punições legais no caso de condutas irregulares.
“Considerando que as redes sociais se transformaram em um meio de comunicação pública, considerando as responsabilidades que têm os agentes públicos, nós poderíamos refletir sobre um tipo de moderação diferente, desde que viesse vinculado [a uma] responsabilização e sanção proporcional a esta prerrogativa.”
“O agente público, por exemplo, poderia chegar em uma situação que chegaria até mesmo à inelegibilidade. Porque temos que ser duros com agentes públicos que propagam desinformação.”
Silva defende ainda que seja vetada a monetização dos perfis de agentes públicos e também de canais que geram engajamento a partir de discurso de ódio. “É inaceitável o discurso de ódio ser nutrido pela monetização de canais. Isso tende a esgarçar mais o debate público no Brasil”, diz.
Aprovado no Senado em junho do ano passado, o projeto de lei das fake news institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.
Nesta semana, chegou ao fim a série de audiências públicas realizada pelo grupo de trabalho que discute a proposta na Câmara.
A previsão do relator Orlando Silva é de que, até o dia 20 de outubro, seja apresentado um texto substitutivo ao projeto aprovado pelo Senado para o presidente da Câmara, Arthur Lira (PP-AL), após debate junto ao grupo de trabalho.
O texto então precisa passar por votação do plenário da Casa e, caso alterações sejam aprovadas, o projeto volta para apreciação dos senadores.
Que balanço o sr. faz desse período de debates na Câmara?
Quando tramitou no Senado Federal, uma das críticas feitas pela sociedade civil, por acadêmicos e até por organizações internacionais é de que a tramitação foi muito rápida e que não houve debate público. Do jeito que nós conduzimos na Câmara, vencemos essa etapa. Ao final, teremos mais de 20 mesas de debates, audiências públicas.
Há muita divergência entre especialistas e também por parte das empresas. É possível alinhar essas discordâncias?
Não há uma solução mágica para combater a desinformação e, não por acaso, o mundo inteiro discute esse tema. E as divergências serão dirimidas com o debate todo que foi feito e, no limite, serão definidas no voto, que é o instrumento que temos à disposição.
Como o sr. vê a moderação de conteúdo? O Marco Civil da Internet obriga a retirada de conteúdo para as plataformas apenas após determinação judicial. É o melhor caminho?
O Marco Civil da Internet [MCI] é uma referência extraordinária de lei brasileira e tem uma grande projeção internacional. Agora eu tenho dito que o MCI não está escrito na pedra. Eu diria que ele é um excelente ponto de partida.
O próprio governo, quando editou a medida provisória (que foi devolvida pelo Congresso e agora recentemente encaminhou um projeto de lei), faz um diagnóstico que pode fazer sentido, de que não se pode permitir uma hipertrofia das plataformas, no sentido de controle do que é publicado. Não devemos admitir um sistema de censura privado.
Mas os termos do projeto apresentado pelo governo, que exige justa causa, um rol de possibilidades [para moderação], na prática não servem ao que o Congresso Nacional pretende, que é combater a desinformação.
Se é necessário estabelecer parâmetros para a moderação de conteúdo, e na minha opinião é certo, a proposta do governo é incapaz de fazer isso.
A resposta do sr. vai no sentido de limitar o poder das plataformas. E o que é possível fazer em relação às plataformas que não agem para diminuir a circulação de discurso de ódio e desinformação?
Valorizo muito a indústria, as plataformas que dialogam conosco, e devo dizer que a maioria das plataformas internacionais que atuam no Brasil têm uma atitude colaborativa com o Congresso Nacional.
Mas é certo também que algumas plataformas atuam nas sombras e não se colocam à disposição para debater nada. Mais do que isso, no mundo inteiro, atuam de modo a proteger a difusão de desinformação sobre o manto da liberdade de expressão.
Considero que nós deveríamos exigir que todas as plataformas que operam no Brasil tenham sede, representação [legal] e se vinculem às leis do Brasil.
Você pode prever um rosário de possibilidades [de punições], mas pode chegar até o bloqueio dessa atividade, porque não é razoável imaginar que qualquer plataforma possa seguir à margem da lei.
Esse seria o caso do Telegram, que até o TSE tem buscado contato e não consegue?
Eu prefiro não fulanizar a discussão, até porque o nosso objetivo é fixar uma regra geral.
O Facebok, por exemplo, virou um alvo do presidente Joe Biden nos Estados Unidos em relação à desinformação sobre vacinas. Como lidar com os conflitos com as empresas que têm algum nível de colaboração?
Estimulando que elas elevem o nível de atividade de combate à desinformação. Eu espero que as regras definidas pelo Congresso brasileiro inspirem mais medidas adotadas pelas plataformas.
O sr. tem um entendimento de que é possível criar um tipo penal para quem financia a distribuição de desinformação. Para tanto, seria preciso definir o que é desinformação?
No direito eleitoral, por exemplo, nós temos um conceito que é utilizado já hoje de algum modo que é a ideia de divulgar fatos sabidamente inverídicos.
Isso já está tipificado como crime na legislação eleitoral brasileira. Evidentemente nós sabemos da dificuldade dos pontos de vista que muitas vezes são apresentados como polêmica, mas há matérias que têm posição consolidada. A pessoa não pode dizer “vacina faz mal no combate à Covid”.
O TSE tomou a decisão de suspender os repasses financeiros a determinados canais. Caberia falar em desmonetização no projeto? Em que termos?
Eu considero que não permitir monetização para agentes públicos já é algo consolidado.
No que diz respeito às pessoas individualmente, empresas, aí a gente precisaria avaliar com um pouco mais de cuidado os termos em que isso poderia ser feito.
Não é razoável que nós ignoremos o interesse público e não se pode ter na internet o patrocínio da difusão de discurso de ódio.
Porque o que se vê, em alguns canais, é o discurso de ódio como mecanismo de engajamento. E, a partir desse engajamento, um patrocínio ser feito com a plataforma. É inaceitável o discurso de ódio ser nutrido pela monetização de canais. Isso tende a esgarçar mais o debate público no Brasil.
O PL no Senado focou em contas inautênticas e contas automatizadas, mas boa parte da desinformação é propagada por pessoas conhecidas, inclusive por políticos. Como lidar com isso?
Eu pessoalmente gostaria de rever o conceito do texto do Senado de conta autêntica. Justamente por isso, por perceber que têm nome e CPF muitos agentes de desinformação.
Mas o sr. considera que é preciso coibir contas inautênticas ou automatizadas?
Você pode ter uma conta qualquer que dispara determinados conteúdos num nível que é impossível de ser feito por um humano. Evidente que as plataformas devem reprimir esse tipo de atividade. No caso de comportamento inadequado malicioso, eu creio que as plataformas têm um papel chave.
[Já] o foco nos agentes públicos é porque envolve dinheiro público, envolve poder. A palavra de um governante tem poder de mobilização, de engajamento, então é preciso ter muita responsabilidade.
Uma reflexão que faço no grupo [de trabalho] é se não deveríamos ter dois tratamentos distintos. Um tratamento para os cidadãos, todos eles, e que podem fazer o uso das redes sociais da forma que melhor convir, assumindo os riscos de uma moderação feita pelas plataformas, assumindo os riscos de decisões judiciais, quando o uso for malicioso ou inadequado.
Mas deveríamos talvez ter uma segunda forma de tratamento para os agentes públicos. Reconhecendo que as redes sociais se transformaram em um instrumento de discussão pública, você deveria considerar uma prerrogativa para os agentes públicos no uso das redes.
Mas esses mesmos agentes públicos deveriam ter a responsabilidade proporcional à defesa que fazem da liberdade de expressão.
Desse modo, aos agentes públicos poderiam ser imputadas sanções mais duras. O agente público, por exemplo, poderia chegar em uma situação até mesmo de inelegibilidade. Porque temos que ser duros com agentes públicos que propagam desinformação.
Isso na prática seria no sentido de limitar a moderação para políticos e agentes públicos?
Veja, estamos em um processo de reflexão, não tenho um texto para te apresentar. Eu diria que, considerando que as redes sociais se transformaram em um meio de comunicação pública, considerando as responsabilidades que têm os agentes públicos, poderíamos refletir sobre um tipo de moderação diferente, desde que viesse vinculado [a uma] responsabilização e sanção proporcional a esta prerrogativa dada a agentes públicos.
O modelo de negócio das empresas muitas vezes envolve a polarização do debate, a formação de bolhas. O Legislativo tem como alcançar a discussão sobre os algoritmos?
Nas discussões feitas na Câmara dos Deputados, muitos especialistas apontaram que seria bem importante que houvesse mais transparência algorítmica. As empresas argumentam que é o segredo industrial deles, então esse é um tema muito sensível e que seguramente será objeto de deliberação com alguma polêmica.
Qual o maior desafio para tentar equilibrar a liberdade de expressão e também o combate ao discurso de ódio e à desinformação no projeto?
É garantir a máxima transparência pelas plataformas, é fixar um devido processo que permita a discussão sobre moderação de conteúdo. É fixar responsabilidades para a ação dos agentes públicos e buscar uma arquitetura, nos serviços de mensagem, que impeça essa viralização da desinformação na escala que nós temos no tempo de hoje.
Em relação aos aplicativos de mensagem, como WhatsApp, há quem defenda que é possível delimitar uma camada de comunicação privada e uma outra pública, a partir do momento que há encaminhamento. O sr. acha que é possível fazer essa divisão?
Existe uma dimensão de comunicação interpessoal. Existe uma dimensão de comunicação pública. É inegável isso e é preciso dar um tratamento distinto para essas duas dimensões. Essa é a minha percepção. É isso que eu chamo de ajustar a arquitetura de funcionamento desses serviços.
O caminho do sr. seria não permitir a rastreabilidade da cadeia de mensagens, como no projeto do Senado, mas de tentar impedir que a viralização aconteça.
Eu não me inclino a defender a rastreabilidade, mas eu reconheço que há muita manipulação no uso do serviço de mensagens.
A distinção de comunicação interpessoal e comunicação pública é funcional, para nós discutirmos o que fazer. Uma hipótese que considero é discutir arquitetura desse serviço, no sentido de medidas que já foram adotadas para reduzir encaminhamentos, mas talvez possamos avançar mais.
As regras de transparência do projeto não atingem serviços de mensagem, como Telegram e WhatsApp. Esse tipo de serviço também não deveria ser mais transparente em relação a como restringem contas ou conteúdo?
A lei veio do Senado alcançando serviços de mensagem e provedores de aplicativo de internet. Queremos ampliar a lei para incluir ferramentas de busca e trabalharemos para que a lei alcance o máximo de serviços que são oferecidos à sociedade brasileira.
Tem vários projetos apensados, inclusive na linha do projeto apresentado pelo presidente. Quais dificuldades o sr. antevê com os conflitos entre os parlamentares?
São 78 projetos de lei apensados. Nós estamos avaliando cada um deles.
A edição da MP pelo governo sobre o tema é um fato político e eu como deputado relator deste tema não posso ignorar este quadro político.
Vamos ler juntos no grupo de trabalho a proposta do governo e ver se há temas na proposta que podem ser incorporados ao nosso relatório. Porque é preciso construir um consenso, produzir uma maioria.
A nossa meta é até o dia 20 apresentar uma alternativa sólida para que o presidente Arthur Lira possa votar ainda este ano no plenário da Câmara uma proposta de lei que sirva ao combate à desinformação.
RAIO-X
Orlando Silva, 50
Está em seu segundo mandato como deputado federal de São Paulo pelo PC do B. Concorreu à Prefeitura de São Paulo em 2020. Foi ministro do Esporte de 2006 a 2011, nos governos dos ex-presidentes Luiz Inácio Lula da Silva e Dilma Rousseff (ambos do PT). Relatou a Lei Geral de Proteção de Dados (LGPD), aprovada em 2018.
Renata Galf/Folhapress