Estadão | A Câmara marcou para esta terça-feira, 2, a votação do PL das Fake News, proposta que pela primeira vez pretende estabelecer uma regulação para plataformas digitais, mas o presidente da Casa, Arthur Lira (PP-AL), marcou reunião com líderes de partidos, antes da sessão, e é possível que esse cronograma seja adiado. As movimentações de última hora se intensificaram porque o projeto sofre fortes resistências da oposição, dos evangélicos e das chamadas big techs, como Google, Tik Tok e Meta, controladora do Instagram e do Facebook.
Para passar na Câmara, a proposta precisa da aprovação de maioria simples dos deputados, desde que haja ao menos 257 parlamentares em plenário. Se aprovarem a versão do relator, deputado Orlando Silva (PC do B-SP), o texto ainda será enviado para discussão no Senado. O projeto tem apoio do governo Lula.
O Laboratório de Estudos de Internet e Mídias Socias da Universidade Federal do Rio de Janeiro (UFRJ) publicou estudo mostrando que plataformas digitais, como Google, usaram seus próprios sites para divulgar ataques à proposta, chamada pelas big techs de “PL da Censura”.
O que é o PL 2630/2020?
Na prática, o projeto busca estabelecer a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet e prevê novas regras de uso para redes sociais, ferramentas de busca e aplicativos de mensagem instantânea. O relatório de Orlando Silva, de 111 páginas, foi protocolado na Câmara na última quinta-feira, 27, e substitui o projeto aprovado pelo Senado, em 2020, de autoria do senador Alessandro Vieira (PSDB-SE).
O novo texto tem 16 capítulos que tratam de responsabilização e regulação das plataformas até o uso de redes sociais por crianças e adolescentes.
Quais empresas serão alcançadas pelo projeto?
Plataformas digitais com mais de 10 milhões de usuários mensais no País.
Quem não será atingido?
Empresas de comércio eletrônico, aplicativos que fazem reuniões fechadas por vídeo ou voz, enciclopédias online sem fins lucrativos, repositórios científicos e educativos, além de sites de jogos e apostas online e plataformas de desenvolvimento e compartilhamento de software de código aberto.
Fake News
O projeto define como crime o ato de promover ou financiar, por meio de conta automatizada, a divulgação em massa de mensagens que contenham Fake News sobre eleição ou que possam causar danos à integridade física. A pena é de 1 a 3 anos de prisão e multa.
Regulação dos provedores
As plataformas deverão elaborar código de conduta a partir de diretrizes definidas pelo Comitê Gestor da Internet no Brasil. As empresas deverão ter representação no País, com identificação e informações facilmente acessíveis em seus sites.
O representante deverá ter poderes para, por exemplo, cumprir determinações judiciais e fornecer informações às autoridades competentes.
O Comitê terá como atribuições:
- propor diretrizes estratégicas sobre liberdade, responsabilidade e transparência na internet;
- apresentar diretrizes para a elaboração de código de conduta para as plataformas e validá-los;
- realizar estudos sobre os procedimentos de moderação de contas.
Crianças e adolescentes
As plataformas precisarão ter um nível elevado de privacidade, proteção de dados e segurança para crianças e adolescentes. Devem impedir o uso pelo público desta faixa etária quando os serviços não forem desenvolvidos para eles. As empresas ficarão proibidas de monitorar o comportamento das crianças e adolescentes para direcionar anúncios publicitários para esse público.
O projeto estabelece que União, Estados e municípios devem estimular a educação nas escolas sobre o uso seguro das redes. O objetivo é que os estudantes desenvolvam habilidades para acessar, analisar, criar e participar de maneira crítica da internet.
Direito autoral e conteúdos jornalísticos
As plataformas deverão pagar pela reprodução de conteúdos protegidos por direitos autorais e direitos conexos, como vídeos e música. Os donos das obras deverão exercer seus direitos por meio de associações de gestão coletiva de direitos autorais, que negociarão com valores e prazo da remuneração com as plataformas.
O projeto também estabelece remuneração a empresas jornalísticas por conteúdos usados pelas plataformas. O pagamento não deve onerar os usuários que compartilham as informações. Farão jus à remuneração empresas constituídas há pelo menos 24 meses, que produzam conteúdo jornalístico original de forma regular, organizada, profissionalmente e que mantenha endereço físico e editor responsável no Brasil.
Extensão da imunidade parlamentar
O texto considera perfis de políticos com mandato, ministros e secretários como contas de interesse público. Os perfis não poderão restringir a visualização de suas publicações. A imunidade parlamentar material estende-se aos conteúdos publicados em redes sociais e aplicativos de mensagem privada.
Caso tenham mais de uma conta em uma mesma rede social, os políticos poderão indicar qual é o perfil profissional. A conta pessoal está livre das obrigações da lei.
A administração pública não poderá enviar recursos para publicidade em sites e contas em redes sociais que promovam, recomendem ou direcionem discursos ilícitos.
WhatsApp e Telegram
Os aplicativos de mensagens serão obrigados a projetar suas plataformas para limitar a distribuição massiva de conteúdos e mídias. As listas de transmissão só poderão ser encaminhadas e recebidas por pessoas identificadas tanto nas listas de contatos de remetentes como de destinatários.
Será criado, ainda, um mecanismo para aferir consentimento prévio do usuário para inclusão em grupos de mensagens, listas de transmissão, canais de difusão de informações abertos ao público, menos em situações de emergência e estado de calamidade pública.
A Justiça poderá determinar aos aplicativos que preservem e tornem disponíveis informações suficientes para identificar contas denunciadas por envio de conteúdos ilícitos. As empresas deverão exigir uma “declaração consciente e inequívoca” de contas comerciais de que o aplicativo não será usado para propaganda eleitoral e partidária, nem para distribuir conteúdo não relacionado a finalidades institucionais.
Justiça
Decisões judiciais que determinarem a remoção imediata de conteúdo ilícito deverão ser cumpridas pelas plataformas em até 24 horas, sob pena de multa de R$ 50 mil até R$ 1 milhão, por hora de descumprimento. As plataformas deverão guardar, por seis meses, conteúdo removido ou cujo acesso tenha sido desativado por decisões judiciais.
Multas
Em caso de infrações à lei, as plataformas estão sujeitas a advertência, suspensão temporária das atividades e multa simples de até 10% do faturamento do grupo econômico no Brasil, no seu último exercício. Caso não haja faturamento, haverá multa de R$ 10 até R$ 1 mil por usuário cadastrado, limitada a R$ 50 milhões.
Obrigações das plataformas
As empresas deverão fazer uma análise de risco cuidadosa da concepção ou do funcionamento dos seus serviços, incluindo os algoritmos. As plataformas terão de adotar medidas “razoáveis, proporcionais e eficazes” contra os riscos.
O projeto prevê o dever de cuidado para as plataformas. Ou seja, as empresas terão de atuar “diligentemente para prevenir e mitigar práticas ilícitas” em seus serviços. Terão, ainda, de se esforçar no combate à disseminação de conteúdos ilegais que tratem de crimes contra o Estado Democrático de Direito, atos de terrorismo, indução ao suicídio, crimes contra crianças e adolescentes, racismo, violência contra a mulher e infração sanitária.
Se for aprovado, o projeto obrigará as plataformas a pedir consentimento dos usuários para ativar a reprodução automatizada de conteúdos. Não estão incluídas aí músicas e listas de reprodução criadas pelos próprios usuários.
Responsabilização
As empresas serão responsabilizadas em conjunto com usuários que pagarem para anunciar conteúdos causadores de danos. Hoje, apenas os usuários são responsabilizados por conteúdos ilegais postados nas redes sociais. As plataformas também responderão civilmente, se não cumprirem o dever de cuidado.
O texto estabelece que as empresas digitais deverão fazer uma análise de riscos de seus serviços, incluindo os algoritmos. Os riscos incluem a difusão de conteúdos ilícitos. As plataformas terão de aplicar medidas “razoáveis, proporcionais e eficazes”.
O projeto prevê a possibilidade de abertura de protocolo de segurança por até 30 dias, em caso de descumprimento da lei.
Moderação de conteúdo
A proposta estabelece regras para moderação de conteúdo. As plataformas deverão notificar os usuários sobre as medidas aplicadas, os motivos e a base legal. Também precisarão informar os prazos para revisão da decisão, se foi tomada exclusivamente por meio de sistemas automatizados.
Publicidade
As plataformas deverão requerer a identidade de todos os anunciantes que fizerem publicidade em seus serviços. Segundo a proposta, as empresas terão de informar os usuários sobre o histórico dos conteúdos publicitários com os quais a conta interagiu em seis meses.
Transparência
Além disso, as plataformas terão de disponibilizar, de forma acessível, clara e pública, os termos de uso de seus serviços, sem revelar segredos comerciais e industriais. Elas deverão informar, por exemplo, as principais características, os tipos de conteúdos proibidos, a faixa etária à qual se destinam e os potenciais riscos de uso.
Serão obrigadas, ainda, a produzir relatórios semestrais de transparência e colocá-los em seus sites para informar procedimentos de moderação de conteúdo. Os documentos deverão ser de fácil acesso e em português.