Alexander Coelho, sócio do Godke Advogados e especialista em direito digital e proteção de dados, afirma que o desafio do desodorante, por exemplo, envolve condutas com evidente risco à integridade física, especialmente quando dirigido a menores.
“Esses conteúdos deveriam ser tratados com a mesma severidade que se aplica à incitação ao suicídio ou à automutilação. No entanto, estamos atrasados em criar um marco legal que dê conta dessa nova realidade digital”, afirma ele.
Casos como esses exigem uma análise multifacetada que envolva Direito Penal, Direito Digital e responsabilidade das plataformas, de acordo com Alexander Coelho.
“Quando uma criança perde a vida em razão de um ‘desafio’ veiculado nas redes sociais, não estamos diante de uma simples fatalidade, mas sim de um reflexo da ausência de mecanismos efetivos de proteção digital infantil. A responsabilização pode recair tanto sobre os indivíduos que criaram ou propagaram o conteúdo perigoso, quanto – em certos contextos – sobre as plataformas que falharam em moderá-lo de forma tempestiva”, avalia ele.
Segundo o especialista, o ponto central é a previsibilidade do dano, pois ao permitir a viralização de conteúdos que incentivam condutas de risco,
“as redes sociais se tornam parte do problema, ainda que indiretamente.”
“Infelizmente, na prática, a punição ainda é a exceção. Embora o homicídio qualificado seja juridicamente possível — sobretudo se for comprovado o dolo eventual ou a indução à morte —, a responsabilização criminal direta dos criadores ou replicadores dos desafios encontra obstáculos na apuração da autoria, da intencionalidade e do nexo causal”, afirma Coelho.
Desde 2019, a Organização Mundial da Saúde (OMS) tem considerado os “jogos perigosos” (hazardous games, em inglês) como um distúrbio comportamental listado na Classificação Internacional de Doenças (CID). O perigo pode se manifestar tanto pelo excesso do tempo gasto com a “brincadeira” quanto pelos “comportamentos e consequências de risco” associados diretamente às regras do jogo.
“A classificação da OMS é um alerta científico, mas ainda encontra resistência no campo normativo. A compreensão de que ‘jogos perigosos’ são comportamentos com potencial lesivo à saúde mental e física é um avanço, mas no direito brasileiro ainda carecemos de tipificações penais e civis claras para lidar com tais situações”, pontua Coelho.
O advogado destaca ainda que o posicionamento das plataformas digitais, infelizmente, é marcado por uma lógica reativa, e não preventiva.
“A conduta-padrão é aguardar que o dano aconteça, ganhe repercussão e pressione a opinião pública — só então os conteúdos são removidos”, critica Coelho.
Segundo Coelho, as plataformas têm tecnologia mais do que suficiente para identificar e barrar conteúdos perigosos antes que viralizem.
“Sistemas baseados em inteligência artificial já são capazes de detectar padrões típicos de desafios virais, analisar contextos visuais e linguísticos e bloquear a disseminação desses conteúdos em tempo real.”
“No plano internacional, há avanços ainda tímidos. O Digital Services Act (DSA) da União Europeia, em vigor desde 2022, impõe deveres específicos de transparência e segurança, especialmente na proteção de menores”, afirma o especialista em direito digital e proteção de dados.
Ele destaca a multa de €345 milhões, aplicada ao TikTok em 2023 por falhas na privacidade infantil, como um marco que sinaliza uma mudança de tom. Procurada pela reportagem, a plataforma não se manifestou.
Coelho lembra que o Brasil conta com ferramentas jurídicas relevantes, dentre elas a Lei Geral de Proteção de Dados Pessoais (LGPD), o Marco Civil da Internet e os princípios já consolidados da moderação responsável.
“Essas normas impõem o dever de diligência contínua das plataformas, especialmente diante de conteúdos que colocam crianças e adolescentes em situação de risco. O grande desafio é operacionalizar esse dever: transformar a letra da lei em vigilância real, com auditorias independentes, penalidades efetivas e responsabilidade solidária em caso de omissão”, avalia ele.
Plataformas que lucram com a viralização de conteúdo precisam ser obrigadas a investir na prevenção de tragédias, na análise do especialista.
“Porque quando uma criança morre por causa de um vídeo, a omissão deixa de ser tecnológica — e passa a ser ética”, afirma ele.
“Por fim, se redes sociais têm algoritmos potentes o suficiente para prever o que você vai comprar amanhã, por que ainda não conseguem prever — e evitar — o que pode matar uma criança hoje?”, questiona.
Leia mais em: BandNews.