Ícone do site Jornal A Gazeta do Acre

Casos de vítimas de nudes feitos com inteligência artificial se multiplicam e preocupam autoridades

Em uma manhã do início de novembro, a estudante Lara*, de 13 anos, correu desesperada em direção ao banheiro da escola e começou a chorar copiosamente.

Pouco antes, ela havia recebido uma mensagem com uma fotografia que a deixou abalada. Na imagem, ela aparecia nua.

Lara se lembrava daquela foto, feita por sua mãe em um momento em família. A estudante havia compartilhado o registro em seu perfil no Instagram. Mas tinha certeza de que estava de biquíni.

A adolescente foi vítima de uma manipulação de imagens para fazer nudes criados com inteligência artificial (IA), o que fez com que ela aparecesse nua na foto.

“Quando a minha filha me ligou chorando, achei até que fosse uma pegadinha, porque ela não é de se exaltar, gritar ou chorar”, diz Vanessa*, mãe de Lara, à BBC News Brasil.

Assim como Lara, ao menos outras 28 estudantes com idades entre 13 e 16 anos de escolas de elite da Barra da Tijuca, bairro na Zona Oeste do Rio de Janeiro, sofreram com a mesma situação.

Grande parte das vítimas estudam no tradicional Colégio Santo Agostinho.

“É tão impensável e surreal que essas pessoas tenham essa crueldade com essas meninas tão novas”, diz Vanessa.

De acordo com os relatos dos pais e das próprias vítimas, os responsáveis por manipular as imagens foram meninos adolescentes que estudam no Santo Agostinho.

A escola disse em nota à BBC News Brasil que acompanha o episódio.

O caso é investigado pela Delegacia de Proteção à Criança e ao Adolescente (DPCA) do Rio de Janeiro, que tem ouvido os envolvidos.

“Diligências seguem para identificar a autoria do crime e esclarecer o caso”, informou um comunicado da Polícia Civil do Rio de Janeiro.

A situação tem se repetido com certa frequência em escolas brasileiras e também em outros países.

Em questão de dias, casos semelhantes foram denunciados em colégios de Recife, em Pernambuco, e de Belo Horizonte, em Minas Gerais.

No exterior, um dos casos que mais repercutiram ocorreu no vilarejo de Almendralejo, na Província de Badajoz, na Espanha.

O caso se tornou alvo de investigação policial. Mais de 20 meninas, com idades entre 11 e 17 anos, se apresentaram como vítimas de nudes feitos com IA.

Outro caso com grande repercussão foi registrado em uma escola de Nova Jersey, nos Estados Unidos. Alunas do Ensino Médio descobriram que garotos que estudam na mesma escola haviam manipulado imagens delas com roupas para que elas aparecessem nuas. Os pais das jovens denunciaram o caso.

‘Toda mulher é vítima em potencial’

Um dos fatores que preocupa sobre esse tipo de caso é que as ferramentas disponíveis para manipular esse tipo de imagem são de fácil acesso. Basta fazer uma busca na internet que surge uma lista com diversas opções.

Por isso, alertam especialistas, casos assim podem se tornar cada vez mais comuns.

“Isso pode se tornar epidêmico porque é muito fácil (acessar ferramentas de inteligência artificial para manipular imagens)”, diz a advogada Estela Aranha, assessora especial de Direitos Digitais do Ministério da Justiça e Segurança Pública (MJSP).

“Hoje, com esse tipo de instrumento, todas as mulheres e meninas podem ser potenciais vítimas desse tipo de crime. E, no ambiente escolar, em que há bullying, as pessoas podem achar que isso é divertido”, acrescenta.

Carlos Affonso Souza, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), diz que essas ferramentas de inteligência artificial devem ficar cada vez mais sofisticadas e com efeitos ainda mais reais. Enquanto isso, ele pontua, crianças e adolescentes continuarão postando fotos nas redes que podem ser usadas facilmente nesses aplicativos.

“Os aplicativos de IA não vão simplesmente desaparecer. Por mais que a gente pense em fazer com que eles sumam das lojas de aplicativos, sempre vai haver sites de fácil acesso que ofereçam essas funções.”

Souza avalia que esses aplicativos de inteligência artificial não devem ser considerados os vilões desses casos de fotografias falsas. Ele frisa que o problema é a forma indevida como essas ferramentas podem ser usadas, por isso diz que é fundamental que haja cada vez mais esclarecimentos sobre os riscos e as consequências que esse tipo de manipulação de imagens pode ter.

“É preciso enfrentar essa situação. É preciso que a legislação seja aplicada para punir por simulação de menores em atos pornográficos. É preciso haver uma educação digital sobre o uso seguro e responsável da Inteligência Artificial”, declara Souza.

Leia reportagem completa da BBC no G1

BBC

Sair da versão mobile