23/02/2024 - Edição 525

Entrevista

Brasil quer liderar esforço global no combate às fake news, diz secretário

Para João Brant, o mundo olha para o Brasil devido ao tamanho da desinformação disseminada e pela capacidade que Lula teve de vencer Bolsonaro nesse contexto

Publicado em 17/03/2023 9:08 - Leonardo Sakamoto - UOL

Divulgação Câmara Federal

Clique aqui e contribua para um jornalismo livre e financiado pelos seus próprios leitores.

“Todos os países estão olhando para nós, pelo tamanho do problema da desinformação e pela capacidade que Lula teve de vencer Bolsonaro nesse contexto. Isso nos impõe uma enorme responsabilidade. O Brasil deve liderar os esforços globais no combate à fake news.”

A afirmação é de João Brant, que comanda a Secretaria de Políticas Digitais da Secretaria de Comunicação Social (Secom) da Presidência da República, em entrevista exclusiva ao UOL.

Criado pelo presidente Lula, o órgão está encarregado das políticas de combate à desinformação e ao discurso de ódio, da promoção da liberdade de expressão e da pluralidade da mídia e da condução do debate sobre a regulação das plataformas, como Facebook, Instagram, Twitter, WhatsApp, Telegram, TikTok e YouTube. Ele ficaria originalmente no Ministério das Comunicações, mas foi movido para a Secom, que tem Paulo Pimenta como ministro-chefe.

Doutor em Ciência Política pela USP e com mestrado em Regulação e Políticas de Comunicação pela London School of Economics, ele ocupou o cargo de secretário-executivo do Ministério da Cultura durante o segundo governo Dilma Rousseff.

O secretário avalia que, apesar de as plataformas já contarem com regras impostas aos usuários, hoje elas estão em uma “zona de conforto”, sem obrigação de remoção de conteúdos ilegais. Para ele, é necessário encontrar um ponto de equilíbrio que “evite a remoção maciça de conteúdo, mas também a profusão de conteúdos ilegais”.

Cita que as plataformas são rigorosas com questões de direitos autorais, derrubando conteúdos, mas não com outros, como os que atentam contra o Estado democrático de direito. Para ele, não há motivos para direitos autorais serem mais protegidos do que a democracia.

Também defende que o projeto de lei 2630, conhecido como PL das Fake News, é tímido. E, no formato atual, “não traria mudanças significativas no cenário da desinformação”. O projeto é respaldado pelos presidentes do Senado, Rodrigo Pacheco (PSD-MG), e da Câmara, Arthur Lira (PP-AL). Um dos pontos polêmicos do projeto é a imunidade que dá a parlamentares nas redes.

 

As plataformas de redes sociais devem ser responsáveis por monitorar e remover conteúdos considerados ilegais no Brasil?

O modelo atual foi definido pensando em proteger a liberdade de expressão. O grande temor era de que se as plataformas fossem consideradas responsáveis pelos conteúdos de terceiros, isso geraria uma remoção de conteúdo em massa, por precaução jurídica delas. O efeito colateral disso foi as plataformas ficarem em uma zona de conforto sem obrigação de remoção de conteúdos ilegais.

Hoje, uma das poucas exceções para essa regra são os direitos autorais. E nisso elas são super-rigorosas. Mas não há motivos para direitos autorais serem mais protegidos do que a democracia.

Então, legislações como a alemã e a proposta atualmente em discussão no parlamento britânico têm essa tônica: repensar o regime de responsabilidade das plataformas para encontrar um novo ponto de equilíbrio, que evite a remoção maciça de conteúdo, mas também evite a profusão de conteúdos ilegais.

Na minha visão, é importante que reencontremos esse equilíbrio, sobretudo ouvindo os atores envolvidos – as empresas, as organizações da sociedade civil, os movimentos sociais, os técnicos de governo, representantes dos Três Poderes.

Esse reequilíbrio passa por mudar o artigo 19 do Marco Civil da Internet, que afirma que plataformas não podem ser responsabilizadas por conteúdos de terceiros?

A Suprema Corte dos Estados Unidos, neste momento, se debruça sobre dois casos que tratam da responsabilidade das plataformas [o foco do debate é a seção 230 da Lei da Decência das Comunicações, que diz que provedores de conteúdo e de hospedagem não pode ser responsabilizados por postagens dos usuários]. Ali o debate é mais complicado, até porque os casos não permitem saída fácil.

Mas também no Brasil essa perspectiva deve ser pautada logo. A constitucionalidade do artigo 19 do Marco Civil da Internet é inclusive objeto de discussão junto ao Supremo Tribunal Federal, que deve promover audiência pública no final de março, no âmbito de dois recursos extraordinários.

Não corre o risco de termos um ambiente de vigilância permanente, com a derrubada de mais conteúdos do que aquilo que seria feito pela Justiça?

Mas o problema principal hoje é justamente o excesso de conteúdo ilegal, de um lado, e nocivo, de outro, que afetam negativamente direitos individuais e coletivos, e que seguem no ar por inação das empresas.

O motivo dessa avalanche passa pelo modelo de negócio das empresas, que privilegia o engajamento como indicador de sucesso do seu sistema de moderação de conteúdos. De toda forma, o volume e a velocidade de circulação de conteúdos ilegais não conseguem ser acompanhados pela Justiça, pelo menos não no modelo atual e nos ritos ordinários.

É importante lembrar que as plataformas digitais de grande porte hoje em dia já fazem um trabalho proativo de remoção de conteúdos que violem os seus termos de uso, seja com o apoio de ferramentas digitais, seja via moderação humana.

Além disso, qualquer mudança no regime de moderação de conteúdo deve ser no sentido de conferir maior transparência a procedimentos e critérios de curadoria de conteúdo que já existem e já estão em funcionamento. É preciso garantir que essas políticas e práticas sejam feitas de forma aberta e proporcional.

Aberta como?

Se os termos de uso são transparentes; se uma eventual decisão de remoção de conteúdo é devidamente justificada; se o usuário sabe como recorrer de uma decisão como essa por considerá-la abusiva; se as plataformas publicam relatórios periódicos mostrando o que costuma ser moderado. Assim, teremos uma maior proteção à liberdade de expressão, pois os critérios ficam claros para todo mundo, e abertos ao debate democrático.

Sem contar que países europeus têm aprovado legislações mais avançadas que a nossa, e até agora não há evidência de que tenha havido lá remoção maciça de conteúdos nas redes.

Como o Brasil está articulando essa agenda das plataformas com outros países?

Todos os países estão olhando para nós, pelo tamanho do problema da desinformação e pela capacidade que o presidente Lula teve de vencer Bolsonaro nesse contexto. Isso nos impõe uma enorme responsabilidade. O Brasil deve liderar os esforços globais no combate à fake news. Mas, para isso, precisamos alinhar os debates no âmbito doméstico e no plano internacional.

O governo brasileiro está acompanhando as tendências e debates dessa discussão no nível global. E o que posso adiantar é que existe uma percepção ampla, compartilhada por vários países, de que é o momento para se avançar e propor regulações mais avançadas para o ambiente das plataformas digitais.

O presidente Lula teve diálogos bastante produtivos sobre a questão do ambiente digital com o presidente Biden e com o chanceler alemão Olaf Scholz. Na cúpula da Celac [Comunidade de Estados Latino-Americanos e Caribenhos], em janeiro, os países expressaram na declaração final sua preocupação com a desinformação no ambiente digital. Além disso, o governo brasileiro enviou uma comitiva oficial à primeira conferência primeira conferência mundial sobre confiabilidade na internet, realizada pela Unesco, em Paris, no fim de fevereiro.

Tivemos a oportunidade de fazer vários diálogos com o sistema ONU e bilaterais com o governo francês para conhecer suas experiências nessa temática.

Falando em regulação, aqui chegamos a uma das perguntas mais importantes desse debate: como definir até onde vai o limite da liberdade de expressão e onde começa um crime de ódio?

Isso tem a ver com os limites aceitáveis que devem pautar o discurso não só no ambiente digital, como fora dele. Vale lembrar que os juristas e os tribunais lidam com isso há bastante tempo, pois a legislação sobre crimes de ódio e os limites da liberdade de expressão precede o advento das redes sociais.

A legislação brasileira é expressa ao dizer que é ilegal, por exemplo, a injúria racial, a apologia ao nazismo ou tentar depor, por meio de violência ou grave ameaça, o governo legitimamente constituído.

Mas a análise deve se dar caso a caso. A ONU definiu em 2012 o Plano de Ação de Rabat, que define seis critérios para avaliar limites à liberdade de expressão ao analisar discursos de ódio: contexto social e político, status do orador, intenção de incitar o público contra um grupo-alvo, conteúdo e forma do discurso, extensão de sua disseminação e probabilidade de dano, incluindo a iminência.

O desafio atual é entender como lidar com efeitos próprios da rede social, como o impacto nos casos de ação em enxame, quando o ataque é coordenado e simultâneo, vindo de vários interlocutores.

Precisamos de novas formas para punir as mentiras intencionais? As leis vigentes de crimes contra a honra e a saúde pública, por exemplo, não dão conta?

O que ocorreu nos últimos anos é que vários países perceberam que os riscos representados pela disseminação da desinformação exigem um olhar diferenciado. Se há uma correta preocupação com a importância de se preservar a liberdade de expressão em sua dimensão individual, agora sabemos que é igualmente relevante preservar a dimensão coletiva da liberdade de expressão.

Não há propriamente liberdade de expressão quando o ambiente informacional está completamente distorcido por desinformação. É o que vimos, por exemplo, na pandemia da covid-19, em que houve repercussões graves na saúde pública.

Hoje quando pensamos em combate a conteúdos falsos não estamos tratando apenas de situações isoladas, mas do uso sistemático de estratégias de desinformação para fins políticos e econômicos. E isso a legislação atual não oferece os instrumentos para lidar.

Para enfrentar o problema, é preciso de uma estratégia multifacetada. De um lado, enfrentar os efeitos negativos da arquitetura das redes e do modelo de negócio, que privilegia a circulação de conteúdos com mais engajamento. A Europa implantou obrigações de avaliação de risco sistêmico pelas plataformas, por exemplo. De outro lado, estruturar o sistema de Justiça para lidar com o problema no volume e velocidade que ele tem. Sem contar soluções mais estruturais como educação midiática.

No caso do ambiente das plataformas, o que é mais grave é quando conteúdos falsos são objeto de impulsionamento ou monetização. Se não houver forma de desestimular essas condutas, elas se convertem em modelo de negócio: pessoas podem difundir informações que sabem falsas, causar prejuízos, e ainda lucrar com isso.

Entre os defensores radicais da ideia de liberdade de expressão existe o conceito do mercado de ideias, em que o bom discurso, ou seja, aquele que mais se aproxima da verdade, vai sempre vencer o discurso fraudulento e mentiroso. Como você reage a esse tipo de colocação, que é predominante, por exemplo, nos Estados Unidos?

Para a verdade vencer a mentira, é preciso que o debate público se dê em um ambiente único comum e à luz do dia, e que você possa responsabilizar moral e legalmente os que promovem discurso falso que tenha potencial de gerar danos. Nada disso acontece hoje. O ambiente é altamente fragmentado, em grande medida é opaco, em especial nos aplicativos de mensagem, e as condições para atribuir responsabilidade moral e legal são limitadas.

A invocação ao modelo dos EUA é frequente, mas é importante lembrar que a tradição jurídica no Brasil nunca foi essa. Nos EUA, a interpretação que se fez historicamente da Primeira Emenda [da Constituição, que diz que o Congresso não pode limitar a liberdade de expressão] os levou à situação em que é lícito que se tenha um partido abertamente nazista, ou que se façam marchas de movimentos de supremacia branca.

Mas trata-se de um ponto fora da curva, mesmo se comparando com outros países democráticos. Na Alemanha, por exemplo, que passou por experiências históricas traumáticas, os limites ao discurso tolerável são muito mais restritos.

No caso brasileiro, uma das grandes conquistas da Constituição de 1988 foi a garantia da liberdade de expressão. Mas nosso modelo não tolera, por exemplo, que se professem abertamente discursos de ódio ou de discriminação. No caso dos países europeus, os documentos oficiais por eles produzidos dizem com todas as letras: a desinformação pode distorcer processos eleitorais e desestabilizar o próprio regime democrático.

Além disso, é importante lembrar que um ambiente em que a desinformação é disseminada não é um mercado livre. Se há atores que têm ganhos financeiros com a disseminação maciça de informações falsas, se conteúdos mentirosos viralizam com maior facilidade do que conteúdos verdadeiros, o que há é uma distorção que afeta negativamente a democracia.

Em que direção estão indo as propostas do governo para combater desinformação, ódio, intolerância e crimes contra o Estado democrático de direito?

O debate sobre essas questões foi recentemente centralizado na Casa Civil da Presidência da República, já que afeta várias áreas. Temos feito várias reuniões, envolvendo não só o Ministério da Justiça, como também a Advocacia-Geral da União, Ciência e Tecnologia, Cultura, Direitos Humanos, para formarmos uma posição de governo sobre a questão das plataformas digitais.

E como está o diálogo com o Congresso Nacional? Tanto o presidente da Câmara, Arthur Lira, quanto o do Senado, Rodrigo Pacheco, defenderam o PL 2630, chamado PL das Fake News, que trata do tema.

É preciso considerar o acúmulo do Congresso Nacional nesse tema. Ao mesmo tempo, o PL 2630 foi redigido entre 2020 e 2022, numa situação bastante adversa, em que se tinha um governo que não tinha como prioridade fazer um debate aprofundado sobre o tema. A última versão do texto é um reflexo dessa limitação, deixando de tocar em pontos relevantes.

Vale lembrar que em 2022 a União Europeia aprovou um regulamento ousado, que vai bastante além da proposta que está hoje no Congresso Nacional. E tivemos o 8 de janeiro, que mostrou o enorme risco de se deixar o discurso antidemocrático sem qualquer controle no ambiente digital.

Há, assim, uma necessidade de aprofundar algumas questões que o PL 2630 trouxe de forma tímida, inclusive para que o Brasil não aprove uma lei que tem o apelido de PL de Fake News, mas que no formato atual não traria mudanças significativas no cenário da desinformação.

Será necessário criar um órgão regulador para as plataformas?

Na minha visão, nenhum órgão regulador deveria decidir sobre casos individuais, mas precisaríamos sim de uma estrutura para avaliar o quanto as plataformas estão cumprindo as obrigações legais nos processos de moderação. A decisão sobre casos individuais deve ficar concentrada na Justiça, sempre que possível.

Na Europa, as obrigações da nova legislação tendem a ser supervisionadas pelos órgãos reguladores de comunicação. A França criou no início de 2022 a Arcom [a autoridade reguladora da comunicação audiovisual e digital], fundindo o seu conselho superior do audiovisual com a autoridade pública que era responsável pela regulação da internet desde 2009. No Reino Unido, a função deve ficar com o Ofcom [a agência reguladora de comunicação].

No Brasil, temos um ecossistema de várias instituições já existentes no Poder Executivo, é preciso avaliar se elas poderiam assumir novas atribuições ou se talvez fosse mais conveniente criar um órgão específico para isso. Trata-se de um debate em curso, sem definição ainda. O que importa é que qualquer órgão regulador que venha a assumir essas funções tenha a devida independência e competência técnica para fazer seu trabalho de forma equilibrada e proporcional.

Por fim, qualquer solução que passe com o Judiciário será, naturalmente, dialogada com representantes desse Poder.

As propostas existentes tentam regular o comportamento das plataformas, mas considerando que o setor é extremamente concentrado, isso vai funcionar?

Na União Europeia, o debate sobre regulação de serviços digitais (Digital Services Act) se deu ao lado da elaboração da lei sobre regulação de mercados digitais (Digital Markets Act), reconhecendo que são temáticas que se influenciam mutuamente.

Acho que o Brasil deve se preparar para fazer também esse debate, ainda que não necessariamente de forma simultânea. Nessa conversa sobre regulação de mercados vejo papel importante do Ministério do Desenvolvimento, Indústria e Comércio, da Justiça e da Fazenda, e ainda do Conselho Administrativo de Defesa Econômica.

É justo taxar plataformas para financiar iniciativas de jornalismo, como em outros lugares do mundo?

O jornalismo é uma atividade essencial para a sustentação da democracia. A esfera pública, desde o pós-guerra, organizou-se conforme princípios iluministas, permitindo um debate vibrante que nos ajudou a sustentar e a ampliar processos de democratização em todo o mundo. Sem um bom jornalismo profissional, a democracia sai enfraquecida – e é justamente isso que estamos vendo acontecer desde 2010, quando a forma de consumo de informação mudou bruscamente.

Junto com a mudança na arquitetura do debate público vieram mudanças econômicas relevantes. A publicidade que sustentava o jornalismo começou a ser direcionada para empresas como Google e Facebook, que não produzem jornalismo. Isso afetou de forma brutal o modelo de financiamento do jornalismo. Se essa é uma atividade essencial para a democracia, precisamos pensar caminhos para corrigir esse problema.

Trata-se de um debate urgente e sobre o qual já tivemos conversas com vários atores, como representantes de sindicatos e federações de jornalistas, empresas de mídia e movimentos pela democratização da informação.

No cenário atual, a política está cada vez mais radicalizada, a sociedade mais polarizada, os consensos cada vez mais difíceis. Promover o jornalismo profissional a essa nova realidade é um imperativo, e promover o pluralismo e a diversidade midiática nesse novo ambiente é uma das nossas prioridades.

Você falou de educação midiática. Ela já consta de várias competências trabalhadas na base comum curricular, mas a verdade é que os professores não se sentem preparados para abordar esse tema.

Quando o presidente Lula decidiu criar uma secretaria especificamente voltada para Políticas Digitais, sinalizou que uma das frentes mais relevantes de atuação neste governo será promover políticas de educação midiática. Temos uma diretoria especificamente voltada para isso, com a atribuição de formular e implementar, em articulação com o Ministério da Educação, políticas públicas nessa área. Estamos agora abrindo o diálogo com o MEC para avançar na concretização dessa agenda.

Além disso, o presidente Lula sancionou, em janeiro, a lei 14.533 que institui a Política Nacional de Educação Digital, que estabelece o desenvolvimento de competências em cultura digital, especificamente na participação consciente e democrática por meio das tecnologias digitais, seus impactos na sociedade e a aprendizagem da análise crítica nesse contexto. Então, temos todas as condições de executar ações numa área que ficou esquecida nos últimos anos.


Voltar


Comente sobre essa publicação...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *