O caso Baleia Azul e o perigo de legislar por impulso

IMG_3273

Quando algo ameaça crianças e adolescentes, a resposta da sociedade é e precisa ser rápida. Essa população, como mais vulnerável, precisa de proteção especial, inclusive na legislação. E, no entanto, vale redobrar a cautela para não responder impulsivamente quando o assunto é ameaça a crianças na web, especialmente em termos legislativos.

Em momentos de pânico, que nos afastam da razão, e na tentativa de protegê-los, somos levados a tomar decisões que volta e meia colidem com direitos fundamentais socialmente estabelecidos, conforme bem definiu Thiago Tavares, diretor presidente da Safernet Brasil e representante da sociedade civil no Comitê Gestor da Internet no Brasil (CGI.br).

O caso Baleia Azul e a reação da sociedade – especialmente dos legisladores – é um desses exemplos importantes de serem analisados.

Primeiro: as pessoas de bem, nossos amigos e parentes, na maior boa intenção, replicam, sem checar, um alarme contra o jogo que levaria jovens e adolescentes ao suicídio. A vontade é proteger, o que move é o pânico.

Em seguida, há um legislador pronto para reagir, muitas vezes bem intencionado, mas sem conhecimento sobre o funcionamento da internet.

No caso do jogo Baleia Azul, o Projeto de Lei 6989/2017, do deputado Odorico Monteiro (PROS-CE), propõe alterar o Marco Civil da Internet (Lei 12.965) para exigir que provedores retirem do ar conteúdos que promovam lesão contra a própria pessoa, automutilação, exposição a situação de risco de vida ou tentativa de suicídio.

E esta proposta, que, como vamos mostrar, é muito problemática, ganhou um requerimento de urgência que está para ser aprovado. Há até um pedido de instauração de Comissão Parlamentar de Inquérito (CPI).

Assim, caminha-se na direção contrária da verdadeira urgência, que deveria ser em desconstruir o PL proposto.

Cabe lembrar que os provedores já podem retirar de suas plataformas conteúdos que considerem inadequados.

O que o Marco Civil da Internet faz é garantir que, em caso de divergência de análise – entre o que pensa uma empresa ou mesmo um cidadão –, a plataforma em questão possa ter a Justiça como mediadora para afirmar se deve derrubar o conteúdo.

Ou seja, o Marco Civil estabelece que os provedores não são obrigados a retirar determinado teor do ar em reação a um pedido. E isto é bom, porque as denúncias não são sempre bem intencionadas ou razoáveis. Portanto, cabe à Justiça definir quando uma plataforma é obrigada a fazê-lo ou não.

Isso gera lentidão na retirada de conteúdo possivelmente nocivo para crianças e jovens?

Não. As maiores plataformas têm retirado conteúdo inadequado do ar independente de decisões judiciais, quando tal conteúdo fere seus termos de uso. A Alphabet, empresa controladora do Google e do YouTube, por exemplo, mantém uma política de retirada de vídeo sempre que contenha estímulo à automutilação.

Isso acontece de várias formas, por análise algorítmica, que tem limitações (em termos de acerto e de capacidade de identificação), por ações de funcionários dedicados a isto e, inclusive, pela denúncia dos usuários.

A possibilidade da sociedade reclamar sobre conteúdos é fundamental em plataformas com um volume de conteúdo gigantesco e que cresce exponencialmente a cada dia. E isto está acontecendo.

Vale ponderar, porém, que as empresas sozinhas não conseguem responder a problemas que vão além de seus limites cibernéticos.

E, neste sentido, lembramos, como destacou o presidente do Conselho Federal de Psicologia, Rogerio Giannini, em audiência pública na Câmara na semana passada: os jovens estão sob grande pressão para serem bem-sucedidos e é vendida a ideia de que, caso se esforcem e empreendam, alcançarão tal objetivo.

No entanto, a sociedade brasileira hoje é marcada pela falta de oportunidades para ascensão profissional e social, especialmente quando se fala da juventude pobre e negra.

Enquanto a sociedade não responder coletivamente ao contexto cultural, político e socioeconômico que abre espaço para que práticas de automutilação ganhem adeptos, não podemos colocar mais responsabilidade sobre as plataformas de internet do que elas têm de fato.

Mas se a proposta de alteração do Marco Civil para retirada de conteúdo relacionado ao Baleia Azul é inócua em termos de proteção à infância, pode ser desastrosa em termos de liberdade de expressão e acesso à informação.

Sem a mediação da Justiça, pessoas mal-intencionadas podem relacionar conteúdos ao Baleia Azul para que ele saia do ar – uma prática que acontece com notificação de infração de direito autoral.

Um usuário reclama direitos autorais de determinado conteúdo com o fim de retirá-lo do ar, mesmo que não exista infração à Lei de Direitos Autorais, como é o caso de uso justo de conteúdo para crítica e análise.

Agora, a cadeia de reação da sociedade ao jogo Baleia Azul é exemplar do que Julian Assange, no livro Cypherpunks, de 2012, chamava de os infocavaleiros do apocalipse: as ameaças que nos colocam em situação de temor e pânico de modo a abrir espaço para legislações controversas, que não resolvem os problemas que se propõem, mas causam danos a direitos fundamentais como liberdade de expressão e acesso à informação.

Os infocavaleiros do apocalipse são a pedofilia (e demais ameaças à infância), o tráfico de drogas e o terrorismo. A cada vez que alguém usa um desses argumentos, em seguida há uma desenrolar já bastante conhecido: as tentativas de aprovação de leis restritivas dos direitos de quem não comete crime algum.

Aos defensores de direitos humanos fundamentais, recomendamos cautela ao reagir a qualquer medida que vise responder a estas ameaças online e uma resposta firme a tentativas de legislar por impulso ou por autopromoção.

Importante estarem atentos que na terça 16 ocorreu mais uma audiência pública sobre o tema, chamada pela Comissão de Seguridade Social e Família.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Recentes

abril 2024
D S T Q Q S S
 123456
78910111213
14151617181920
21222324252627
282930  
Categorias