Morgan Pieper suicidou-se aos 15 anos de idade; segundo sua mãe, ela era ‘viciada’ em redes sociais
A adolescente americana Morgan Pieper estava prestes a completar 12 anos de idade quando começou a usar redes sociais.
“Ela tinha uma conta no Facebook. Acho que, no início, seu uso era bem limitado”, diz sua mãe, Kristina Cahak, à BBC News Brasil.
Ao longo dos três anos seguintes, porém, Kristina conta que a filha ficou cada vez mais “viciada”, abrindo múltiplas contas em redes como Instagram e Snapchat usando nomes falsos, sem que a família soubesse.
“Afetava seu sono. Às vezes, eu acordava às 3h da manhã e via luz em seu quarto”, lembra Kristina, que começou a perceber que a filha andava melancólica.
Quando, por volta dos 13 anos de idade, Morgan passou a se automutilar com cortes na pele, Kristina levou a filha a um psicólogo, que disse que aquilo seria apenas uma fase. “E realmente melhorou, ela parou”, afirma.
No entanto, Morgan continuava vendo e postando material sobre depressão, automutilação e suicídio em várias contas abertas com identidades falsas que Kristina sequer desconfiava que existiam.
A família só descobriu essa vida digital paralela de Morgan quando ela se suicidou, em 2015, aos 15 anos de idade.
Morgan era a mais nova de três irmãos. “Ela era o meu bebê”, diz sua mãe.
“Era muito inteligente, sensível, engraçada, carismática. Um dos seres humanos mais incríveis que já conheci.”
Kristina suspeitava que a filha pudesse estar deprimida, mas nunca imaginou que tivesse pensamentos suicidas.
“Sou enfermeira há quase 30 anos, trabalhei com saúde mental. Essa é a ironia da minha história, eu não vi os sinais enquanto ela ainda estava conosco”, diz.
Kristina é uma das centenas de mães e pais dos Estados Unidos que estão processando empresas donas de redes sociais por supostos “danos físicos, mentais ou emocionais” sofridos por crianças e adolescentes ao usar essas plataformas.
Ela move uma ação contra a Meta, proprietária do Facebook e do Instagram, e a Snap, dona do Snapchat.
Processos de outras famílias também têm como alvo o Google, que administra o YouTube, e a ByteDance, que cuida do TikTok.
As ações alegam que a “crise de saúde mental sem precedentes entre as crianças” é alimentada pelos produtos “defeituosos”, “viciantes” e “perigosos” dessas empresas.
O objetivo é que as empresas suspendam práticas apontadas como prejudiciais e, em muitos casos, envolvem pedidos de indenizações.
As empresas rejeitam as alegações e afirmam que estão constantemente implementando e atualizando ferramentas e recursos para proteger crianças e adolescentes em suas plataformas.
Mas os autores das ações dizem que as medidas são insuficientes e mal fiscalizadas.
Há uma grande preocupação com o tema no país, diante de altas taxas de ansiedade e depressão entre jovens.
No ano passado, o porta-voz do governo para saúde pública alertou que embora as redes possam ter benefícios, também podem representar riscos à saúde mental dos jovens.
As pesquisas não oferecem evidências conclusivas, e a própria Associação Americana de Psicologia afirma que “o uso de redes sociais não é inerentemente benéfico ou prejudicial para os jovens”.
De acordo com a associação, são necessários mais estudos sobre efeitos positivos e negativos destes serviços.
O que dizem as famílias
Algumas ações são movidas pelos próprios jovens usuários, outras por seus familiares.
Em vários dos casos, centenas de processos individuais foram consolidados em ações coletivas em tribunais federais e estaduais.
Há casos de crianças que tiraram a própria vida depois de sofrer bullying nas redes ou ver posts que normalizam e encorajam o suicídio.
Outras morreram após “desafios” online, entre eles um jogo que envolve asfixia, ou por overdoses de drogas supostamente obtidas por meio das plataformas.
Nem todos os casos envolvem mortes. Algumas crianças foram vítimas de predadores sexuais, outras enfrentam problemas como distúrbios alimentares, depressão e ansiedade.
“As principais alegações são de que as plataformas foram projetadas para serem viciantes para crianças”, diz o advogado Matthew Bergman, fundador do Social Media Victims Law Center (Centro Jurídico para Vítimas de Mídias Sociais), que representa 2,5 mil clientes em processos do tipo.
As ações argumentam que as empresas expõem conscientemente crianças e adolescentes a conteúdos e produtos prejudiciais.
Também afirmam que a dependência que as redes causam não ocorre por acaso, e sim de forma intencional, já que foram projetadas para um “uso compulsivo e excessivo”.
“Inspiradas em técnicas comportamentais e neurobiológicas usadas em máquinas caça-níqueis e exploradas pela indústria do fumo, (as empresas) incorporaram deliberadamente em seus produtos uma série de recursos de design destinados a maximizar o envolvimento dos jovens para gerar receitas publicitárias”, diz uma ação coletiva movida por mais de 400 famílias.
“(As empresas) sabem que as crianças estão em um estágio de desenvolvimento que as deixa particularmente vulneráveis aos efeitos viciantes desses recursos. Mesmo assim, miram (seus esforços) nas crianças, em busca de lucro.”
Outras acusações são de que as empresas sabiam que seus produtos poderiam causar danos aos jovens, mas não alertaram sobre o risco ou forneceram instruções sobre uso seguro, e que os controles parentais e de verificação de idade são ineficazes.
Há ainda alegações de que alguns recursos nas redes promovem comparações negativas sobre aparência e de que as redes “facilitam a disseminação de material com abuso sexual e exploração de crianças”.
“Os defeitos variam dependendo da plataforma, mas todas exploram crianças e adolescentes”, dizem as famílias em uma das ações coletivas.
Os processos são parte de uma onda de ações judiciais contra essas empresas nos Estados Unidos.
Há também diversas ações movidas por mais de 40 Estados, mais de 140 distritos escolares e sistemas hospitalares em todo o país com acusações semelhantes.
As respostas das empresas
“As alegações simplesmente não são verdadeiras”, diz a porta-voz do Google, Ivy Choi, à BBC News Brasil.
Choi afirma ainda que garantir aos jovens uma experiência segura e saudável sempre foi um elemento “fundamental”.
“Em colaboração com especialistas em juventude, saúde mental e parentalidade, construímos serviços e políticas para proporcionar aos jovens experiências adequadas à idade, e aos pais, controles robustos”, diz a porta-voz.
Por sua vez, a Snap afirmou em nota à BBC News Brasil que “o Snapchat foi intencionalmente projetado para ser diferente das mídias sociais tradicionais, com foco em ajudar os snapchatters (usuários) a se comunicarem com seus amigos próximos”.
A empresa apontou como exemplo disso o fato de, ao abrir, o aplicativo direcionar o usuário para uma câmera, “em vez de um feed de conteúdo que incentiva a navegação passiva”, e que a plataforma não tem curtidas ou comentários públicos.
A Snap destacou ainda que “a segurança e bem-estar de sua comunidade são nossa principal prioridade”.
O TikTok disse em nota que a empresa tem mecanismo “pioneiros” para proteção de jovens, entre eles um limite de tempo de tela automático de 60 minutos para menores de 18 anos e controles parentais para contas de adolescentes, além de ter lançado uma cartilha para pais abordarem temas ligados à segurança digital com jovens.
“Continuaremos trabalhando para manter nossa comunidade segura ao enfrentar estes desafios que são comuns à toda indústria”, disse a rede social.
Em resposta às alegações, a Meta compartilhou um sumário sobre seu trabalho para “ajudar a proporcionar experiências seguras” aos jovens, salientando que tem “cerca de 40 mil profissionais que trabalham em áreas ligadas à segurança” e investiu “mais de US$ 20 bilhões [R$ 100 bilhões] desde 2016”.
A empresa disse que, nos últimos oito anos, desenvolveu mais de 30 ferramentas e recursos, incluindo controles que permitem aos pais definir limites para adolescentes usarem seus serviços, ver quem os filhos estão seguindo e saber se denunciaram alguém que pode estar lhes intimidando.
As ações no Congresso americano
O documento da Meta cita o testemunho de seu cofundador e presidente, Mark Zuckerberg, ao Comitê Judiciário do Senado americano, em janeiro.
A audiência, para investigar a exploração sexual de crianças online, reuniu os executivos que lideram cinco empresas, entre eles Evan Spiegel, da Snap, e Shou Zi Chew, do TikTok.
Senadores democratas e republicanos, geralmente em lados opostos, se uniram ao criticar os executivos por não fazerem o suficiente para proteger crianças, ignorarem “deliberadamente” conteúdo prejudicial em suas plataformas e priorizarem lucro em vez do bem-estar dos jovens usuários.
Também estavam presentes pais e mães cujos filhos morreram ou sofreram exploração sexual, abusos e outros danos nessas plataformas.
Em determinado momento, Zuckerberg chegou a se dirigir diretamente a essas famílias. “Sinto muito por tudo que vocês passaram”, disse ele.
“É por isso que investimos tanto e que continuaremos a ter iniciativas líderes na indústria para garantir que ninguém tenha que passar pelo que suas famílias sofreram.”
Spiegel, questionado pelos senadores sobre venda de drogas no Snapchat, também falou às famílias, várias das quais estão processando sua empresa após perderem os filhos por overdose de drogas supostamente obtidas na plataforma.
“Lamento muito que não tenhamos conseguido evitar essas tragédias”, disse o presidente da Snap.
“Trabalhamos muito para bloquear todos os termos de pesquisa relacionados a drogas em nossa plataforma.”
O foco do Congresso americano nos impactos das redes sociais sobre as crianças aumentou a partir de 2021, quando uma ex-funcionária do Facebook vazou documentos que mostravam que a empresa sabia dos possíveis efeitos negativos de seus produtos sobre jovens.
Um dos objetivos da audiência era aumentar o apoio a vários projetos de lei para proteger crianças na internet.
Apesar de esforços bipartidários, essas propostas enfrentam resistências para serem aprovadas, e tentativas anteriores de regular as gigantes de tecnologia fracassaram.
Diante das dificuldades para aprovar uma legislação federal, diversos Estados adotaram leis próprias para aumentar as proteções aos jovens nas redes e reforçar o escrutínio das práticas de segurança das empresas.
Muitas dessas iniciativas estão sendo contestadas na Justiça pelas empresas.
Um dos argumentos das empresas é o de que essas leis supostamente contradizem umas às outras, e o ideal seria uma legislação federal que estabeleça o mesmo padrão para todo o país.
Além disso, alguns grupos de defesa de direitos civis temem que essas leis interfiram na liberdade de expressão.
Estratégias e obstáculos
Um dos obstáculos em processos contra redes sociais nos Estados Unidos é a seção 230 da lei federal que rege o setor de comunicações, aprovada em 1996, antes da popularização das plataformas.
Políticos democratas e republicanos já tentaram revogar ou revisar a seção, sem sucesso.
A seção 230 isenta as redes de responsabilidade sobre o que é publicado por terceiros, dificultando processos que alegam danos sofridos por usuários nas plataformas.
Com isso, muitas ações são descartadas antes mesmo de ir a julgamento.
Os processos atuais apostam em um argumento diferente: de que os danos alegados não resultam de postagens de terceiros, mas sim do fato de as plataformas serem um produto que tem “defeitos”.
“Nós nos concentramos no design defeituoso dessas plataformas”, diz Bergman.
“E no fato de que foram concebidas para serem viciantes e não têm características básicas de segurança que, se implementadas, as tornariam 80% ou 90% mais seguras do que são hoje.”
Assim, as empresas poderiam ser em tese responsabilizadas por negligência, ao não cumprir seu dever de projetar produtos seguros e alertar os usuários sobre defeitos.
Bergman diz que o simples fato de as empresas estarem sendo questionadas judicialmente já é importante, independentemente do resultado.
“Os executivos terão de testemunhar sob juramento e explicar como lucram com plataformas que não permitem que seus próprios filhos usem”, afirma.
Bergman fundou o Social Media Victims Law Center em 2021, depois décadas representando pessoas prejudicadas por exposição a amianto, em processos contra empresas por esconderem a ligação do produto com casos de câncer.
Ele conta que uma das motivações para mudar sua atuação foram as revelações feitas pela ex-funcionária do Facebook naquele ano.
“Queria não só assegurar compensação para as vítimas, mas impedir que outros fossem vitimados”, afirma.
Bergman diz que as mesmas características nos casos envolvendo amianto se aplicam às redes sociais.
“Exceto que o nível de má conduta corporativa que vejo nas redes sociais faz com que as empresas de amianto pareçam meninos de coral em comparação.”
Os julgamentos dos primeiros casos representados por Bergman só estão previstos para o final do próximo ano, e ele diz que há um longo caminho pela frente.
Mas o advogado ressalta a determinação das famílias em levar os casos adiante e evitar que outros passem pelo mesmo sofrimento.
Kristina diz que o suicídio de Morgan a inspirou a lutar para ajudar outras famílias.
Ela afirma que muita coisa mudou desde a morte da filha, há quase dez anos, e que hoje há maior conscientização sobre problemas de saúde mental entre jovens e os potenciais riscos das redes sociais.
“Os pais precisam estar cientes desses perigos. Mesmo que pensem saber o que seus filhos estão fazendo, provavelmente não sabem.”
Caso você seja ou conheça alguém que apresente sinais de alerta relacionados ao suicídio, confira alguns locais para pedir ajuda:
– O Centro de Valorização à Vida (CVV), por meio do telefone 188, oferece atendimento gratuito 24h por dia; há também a opção de conversa por chat, e-mail e busca por postos de atendimento ao redor do Brasil;
– Para jovens de 13 a 24 anos, a Unicef oferece também o chat Pode Falar;
– Em casos de emergência, outra recomendação de especialistas é ligar para os Bombeiros (telefone 193) ou para a Polícia Militar (telefone 190);
– Outra opção é ligar para o SAMU, pelo telefone 192;
– Na rede pública local, é possível buscar ajuda também nos Centros de Atenção Psicossocial (CAPS), em Unidades Básicas de Saúde (UBS) e Unidades de Pronto Atendimento (UPA) 24h;
– Confira também o Mapa da Saúde Mental, que ajuda a encontrar atendimento em saúde mental gratuito em todo o Brasil.
Publicado originalmente pela BBC em 04/04/2024
Por Alessandra Corrêa – de Washington para a BBC News Brasil