La enorme cantidad de imágenes de abuso sexual infantil creadas con inteligencia artificial (IA) amenaza con desbordar la capacidad policial en algunos Estados y dificulta los esfuerzos para identificar a las víctimas, alerta la principal experta de Naciones Unidas en cibercriminalidad.

“El problema no es solo la cantidad de material generado, sino también la dificultad que representa para las investigaciones”, explica Nayelly Loya Marin, jefa del Programa Global contra el Ciberdelito de la Oficina de la ONU contra la Droga y el Delito (ONUDD).

“Es mucho más complicado identificar qué imágenes son reales y cuáles han sido alteradas o creadas con inteligencia artificial, lo que obstaculiza la identificación tanto de las víctimas como de los perpetradores”, agrega la experta mexicana. La IA no solo incrementa de forma exponencial el volumen de contenido ilegal, sino que también perpetúa el daño a las víctimas, subraya Loya Marin.

Las imágenes de menores que han sufrido abusos pueden ser utilizadas para generar nuevo material, lo que implica una constante “revictimización”. “Esto perpetúa el sufrimiento de las víctimas, quienes ven su imagen utilizada repetidamente en contextos abusivos”, resume la experta.

El perfil de los criminales involucrados en la creación y distribución de imágenes de abuso sexual infantil es muy variado, aunque en su inmensa mayoría son hombres.

Existen redes criminales que producen este contenido de manera sistemática y que, según Loya Marin, suelen estar vinculadas a la trata de personas y la explotación sexual, grabando y distribuyendo material como una extensión de los delitos que ya cometen en el mundo físico. Pero ahora el problema se multiplica por la capacidad casi infinita de la IA para crear nuevo material a partir de imágenes ya existentes.

“Esto va a tener un fuerte impacto en la capacidad de investigación de las fuerzas policiales”, sostiene Loya Marin, subrayando que ya de por sí la investigación de este tipo de delitos es una de las áreas más complicadas para las fuerzas de seguridad. Desde la pandemia de la covid el material de abuso sexual infantil ha crecido de manera alarmante, y la inteligencia artificial permite ahora generar contenido de forma sencilla.

El uso de IA permite, por ejemplo, manipular imágenes de menores, desnudándolos o alterándolas para crear contenido sexualizado, lo que amplía la cantidad de material en circulación. “Hemos visto casos de jóvenes que, utilizando versiones gratuitas de estas herramientas, crean nuevo contenido manipulando fotos que originalmente no tenían connotación sexual, convirtiéndose en ofensores sin saber que era un delito”, indica Loya Marin. En este contexto, las grandes plataformas tecnológicas juegan un papel crucial y deben actuar de forma ética y responsable, destaca.

Un ciberdelito sin fronteras

Además de los desafíos tecnológicos, Loya Marin destaca también la importancia de la cooperación internacional y, en este aspecto, el papel que jugará la nueva Convención contra la ciberdelincuencia de la ONU. “El crimen en el ciberespacio no conoce fronteras, y muchas veces las víctimas están en un país, el perpetrador en otro, y el contenido en un servidor en un tercer país”, subraya la experta.

Esa Convención, que en diciembre puede ser aprobada por la Asamblea de la ONU, debe ser ratificada por 40 Estados para entrar en vigor, lo que llevará un tiempo. El borrador del documento aborda de forma específica el tema del “material de explotación y abuso infantil”, una definición que, según Loya Marin, refleja mejor la naturaleza del delito que el término de “pornografía infantil”.