Da redação
O Fundo das Nações Unidas para a Infância (Unicef) expressou “crescente alarme” diante do rápido aumento de imagens sexualizadas de crianças geradas por inteligência artificial (IA). Em declaração divulgada nesta quarta-feira, em Nova Iorque, a agência destacou casos em que fotos reais de crianças foram manipuladas digitalmente para criar conteúdos sexualmente explícitos, num fenômeno de dimensão global.
Segundo um estudo realizado pelo Unicef, Ecpat e Interpol, em 11 países, pelo menos 1,2 milhão de crianças relataram ter suas imagens usadas em deepfakes sexualmente explícitos no último ano. Em alguns locais analisados, a proporção chega a “uma em cada 25 crianças”, equivalente a uma vítima em cada sala de aula, evidenciando a gravidade do problema.
O Unicef ressaltou que as próprias crianças estão cientes dos riscos do uso de IA: em alguns países, até dois terços delas demonstraram preocupação com a produção de imagens ou vídeos sexuais falsos. Os níveis de temor variam entre as nações, indicando a necessidade urgente de ações de informação, prevenção e proteção.
Na declaração, o Unicef classificou como material de abuso sexual infantil qualquer imagem sexualizada de crianças produzida ou manipulada por IA, afirmando: “Abuso do deepfake é abuso” e enfatizando que “não há nada de falso no dano que causa”. A agência alertou que o uso dessas imagens, mesmo sem uma vítima identificável, contribui para normalizar a exploração e dificultar a atuação das autoridades.
A agência defende que governos ampliem as definições legais para abranger material gerado por IA e criminalizem sua produção, aquisição, posse e distribuição. Também recomenda que desenvolvedores e empresas digitais adotem medidas robustas para prevenção e remoção imediata desse tipo de conteúdo, reforçando a importância de tornar a proteção das crianças prioridade no avanço tecnológico.






