Pesquisa revela crescimento assustador de deepfakes de abuso infantil feitas por IA

Relatório revela que a tecnologia de IA está sendo usada para criar vídeos altamente realistas de abuso sexual infantil, aumentando a ameaça e dificultando a identificação de vítimas reais / Agência Brasil

O relatório mais recente da Internet Watch Foundation (IWF) destaca um preocupante aumento na criação de “imagens de abuso sexual infantil geradas por IA”. A tecnologia avançada agora permite que pedófilos adicionem “o rosto ou a imagem de outra pessoa a um vídeo real” de maneira quase perfeita, resultando em “deepfakes altamente realistas”.

Criminosos na dark web estão se vangloriando da capacidade de “criar qualquer pornografia infantil que desejarmos (…) em alta definição”, de acordo com o relatório da IWF, que identificou os “primeiros exemplos convincentes” de vídeos de IA retratando abuso sexual de crianças. Publicado nesta segunda-feira (22), o relatório da organização, que monitora a circulação mundial de Material de Abuso Sexual Infantil (CSAM, na sigla em inglês), destaca que a produção de vídeos feitos por IA está aumentando à medida que as ferramentas de IA se tornam mais acessíveis e fáceis de usar.

Qualidade e realismo crescentes

Os vídeos deepfake, ou parcialmente manipulados por IA, estão se tornando cada vez mais realistas, apresentando rostos – às vezes de vítimas reais, outras vezes de pessoas diferentes – em cenas que parecem autênticas. Em 2023, quando a IWF identificou os primeiros conteúdos gerados por IA, a qualidade era básica. Agora, Dan Sexton, diretor de tecnologia da IWF, afirma que os vídeos futuros terão “maior qualidade e realismo”.

A IWF identificou os primeiros vídeos totalmente sintéticos de abuso sexual infantil, indicando que “os infratores replicaram e compartilharam modelos de IA com mais de 100 vítimas de abuso”. Em um fórum da dark web dedicado a material de abuso sexual infantil, os investigadores encontraram nove vídeos deepfake circulando entre março e abril deste ano.

O relatório explica que “alguns dos vídeos deepfake apresentam pornografia adulta que é alterada para mostrar o rosto de uma criança. Outros são vídeos existentes de abuso sexual infantil que apresentam o rosto de outra criança sobreposto”. Como os vídeos originais envolvem crianças reais, os deepfakes são particularmente convincentes.

Um vídeo de 18 segundos, totalmente gerado por IA e encontrado na clear web, mostra um homem adulto abusando de uma menina que aparenta ter cerca de dez anos. Apesar de falhas no vídeo, os analistas da IWF descrevem a atividade como clara e contínua.

Um futuro sombrio

Susie Hargreaves OBE, CEO da IWF, destaca que “a tecnologia de IA generativa está evoluindo rapidamente, permitindo que os infratores produzam vídeos gráficos de abuso sexual infantil à vontade, o que é bastante assustador”. Ela enfatiza que “o fato de que alguns desses vídeos manipulam imagens de vítimas conhecidas é ainda mais aterrorizante. Sobreviventes de alguns dos piores tipos de trauma agora não têm trégua, sabendo que os infratores podem usar imagens de seu sofrimento para criar qualquer cenário de abuso que desejarem”.

Hargreaves alerta que “sem controle adequado, as ferramentas de IA generativas fornecem um playground para predadores online realizarem suas fantasias mais perversas e repugnantes. Mesmo agora, a IWF começa a ver mais desse tipo de material sendo compartilhado e vendido em sites comerciais de abuso sexual infantil na internet”.

Via Agências de Notícias

Redação:
Related Post

Privacidade e cookies: Este site utiliza cookies. Ao continuar a usar este site, você concorda com seu uso.