Una nueva avalancha de material de abuso sexual infantil creado por inteligencia artificial está alcanzando un punto de inflexión en cuanto a realismo y amenaza con abrumar a las autoridades.
En los últimos dos años, las nuevas tecnologías de inteligencia artificial han facilitado a los delincuentes la creación de imágenes y vídeos explícitos de menores. Ahora, investigadores de organizaciones como la Fundación Internet Watch y el Centro Nacional para Niños Desaparecidos y Explotados advierten sobre un aumento repentino de material nuevo este año, prácticamente indistinguible del abuso real.
Nuevos datos publicados el jueves por la Internet Watch Foundation, una organización británica sin fines de lucro que investiga y recopila informes de imágenes de abuso sexual infantil, identificaron 1.286 videos de abuso sexual infantil generados por IA en lo que va del año a nivel mundial, en comparación con solo dos en la primera mitad de 2024.
Los videos se han vuelto más fluidos y detallados, dijeron los analistas de la organización, debido a las mejoras en la tecnología y la colaboración entre grupos en partes difíciles de alcanzar de Internet, llamadas la red oscura, para producirlos.
El auge de los vídeos realistas contribuye a la proliferación de material de abuso sexual infantil (MASI) generado por IA. En Estados Unidos, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) afirmó haber recibido 485.000 denuncias de MASI generado por IA, incluyendo imágenes fijas y vídeos, en el primer semestre del año, en comparación con las 67.000 de todo 2024.
"Es una señal de alerta", declaró Derek Ray-Hill, director ejecutivo interino de la Fundación Internet Watch. El contenido generado por IA puede contener imágenes de niños reales junto con imágenes falsas, añadió: "Estamos presenciando un tsunami".
La avalancha de material generado por IA amenaza con dificultar aún más la labor de las fuerzas del orden. Si bien aún representa una pequeña fracción del total de material de abuso sexual infantil encontrado en línea , que asciende a millones de denuncias, la policía ha recibido una avalancha de solicitudes para investigar imágenes generadas por IA, lo que dificulta la búsqueda de quienes cometen abusos infantiles.
Las autoridades policiales dicen que las leyes federales contra el material de abuso sexual infantil y obscenidad cubren las imágenes generadas por IA, incluido el contenido creado íntegramente por la tecnología y que no contiene imágenes reales de niños.
Más allá de los estatutos federales, los legisladores estatales también se han apresurado a criminalizar las representaciones de abuso sexual infantil generadas por inteligencia artificial, promulgando más de tres docenas de leyes estatales en los últimos años.
Pero los tribunales apenas están comenzando a abordar las implicaciones legales, dijeron los expertos legales.
La nueva tecnología proviene de la IA generativa , que irrumpió en escena con la introducción de ChatGPT por parte de OpenAI en 2022. Poco después, las empresas introdujeron generadores de imágenes y videos de IA, lo que llevó a las fuerzas del orden y a los grupos de seguridad infantil a advertir sobre problemas de seguridad.
Gran parte del nuevo contenido de IA incluye imágenes reales de abuso sexual infantil que se reutilizan en nuevos vídeos e imágenes fijas. Parte del material utiliza fotos de niños extraídas de sitios web escolares y redes sociales. Las imágenes suelen compartirse entre los usuarios en foros, a través de mensajes en redes sociales y otras plataformas en línea.
En diciembre de 2023, investigadores del Observatorio de Internet de Stanford encontraron cientos de ejemplos de material de abuso sexual infantil en un conjunto de datos utilizado en una versión preliminar del generador de imágenes Stable Diffusion. Stability AI, que gestiona Stable Diffusion, declaró no haber participado en el entrenamiento de datos del modelo estudiado por Stanford. Añadió que una empresa externa había desarrollado esa versión antes de que Stability AI asumiera el desarrollo exclusivo del generador de imágenes.
Solo en los últimos meses las herramientas de IA se han vuelto lo suficientemente buenas como para engañar al ojo humano con una imagen o un video, evitando algunos de los indicios anteriores, como demasiados dedos en una mano, fondos borrosos o transiciones bruscas entre fotogramas de video.
El mes pasado, la Fundación Internet Watch encontró ejemplos de personas en un foro clandestino que elogiaban la última tecnología. Allí, comentaron el realismo de una nueva colección de vídeos de abuso sexual infantil generados por IA. Destacaron la fluidez de los vídeos, su fondo detallado con pinturas en paredes y muebles, y la representación de múltiples individuos cometiendo actos violentos e ilegales contra menores.
Unas 35 empresas tecnológicas reportan imágenes de abuso sexual infantil generadas por IA al Centro Nacional para Niños Desaparecidos y Explotados, según John Shehan, alto funcionario del grupo, aunque algunas presentan un enfoque desigual. Las empresas que presentan más denuncias suelen ser más proactivas a la hora de encontrar y reportar imágenes de abuso sexual infantil, añadió.
Amazon, que ofrece herramientas de IA a través de su servicio de computación en la nube, reportó 380.000 incidentes de material de abuso sexual infantil generado por IA durante el primer semestre del año, los cuales retiró. OpenAI reportó 75.000 casos. Stability AI reportó menos de 30.
Stability AI afirmó que había implementado medidas de seguridad para mejorar sus estándares y que “está profundamente comprometido a prevenir el uso indebido de nuestra tecnología, particularmente en la creación y difusión de contenido dañino, incluido el abuso sexual infantil”.
Cuando se les pidió a Amazon y OpenAI que hicieran comentarios, señalaron informes que publicaron en línea que explicaban sus esfuerzos para detectar y denunciar material de abuso sexual infantil.
Algunas redes criminales utilizan inteligencia artificial para crear imágenes sexualmente explícitas de menores y luego chantajearlos, según un funcionario del Departamento de Justicia, que solicitó el anonimato para poder hablar de investigaciones privadas. Otros menores utilizan aplicaciones que toman imágenes de personas reales y las desnudan , creando lo que se conoce como un desnudo deepfake.
Aunque las imágenes de abuso sexual que contienen niños reales son claramente ilegales, la ley aún está evolucionando en lo que respecta a materiales generados completamente por inteligencia artificial, dijeron algunos expertos legales.
En marzo, un hombre de Wisconsin, acusado por el Departamento de Justicia de crear, distribuir y poseer ilegalmente imágenes sintéticas de abuso sexual infantil, impugnó con éxito uno de los cargos en su contra basándose en la Primera Enmienda. El juez James Peterson, del Tribunal de Distrito de los Estados Unidos para el Distrito Oeste de Wisconsin, declaró que «la Primera Enmienda generalmente protege el derecho a poseer material obsceno en el hogar», siempre que no se trate de «pornografía infantil real».
Sin embargo, el juicio seguirá adelante por los demás cargos, relacionados con la producción y distribución de 13.000 imágenes creadas con un generador de imágenes. El hombre intentó compartir imágenes con una menor en Instagram, quien lo denunció, según la fiscalía federal .
“El Departamento de Justicia considera que todas las formas de CSAM generadas por IA son una amenaza grave y emergente”, dijo Matt Galeotti, jefe de la división criminal del Departamento de Justicia.