Las imágenes generadas por IA están abriendo las puertas a una tendencia inquietante dirigida a los niños
¿La inteligencia artificial representa una amenaza para la humanidad?
El corresponsal de Fox News, Grady Trimble, tiene lo último sobre los temores de que la tecnología se salga de control en ' Informe Especial.'
La inteligencia artificial está abriendo la puerta a una tendencia inquietante de personas que crean imágenes realistas de niños en entornos sexuales, lo que podría aumentar el número de casos de delitos sexuales contra niños en la vida real, advierten los expertos.
Las plataformas de IA que pueden imitar la conversación humana o crear imágenes realistas explotaron en popularidad a fines del año pasado hasta 2023 luego del lanzamiento del chatbot ChatGPT, que sirvió como un momento decisivo para el uso de la inteligencia artificial. A medida que la tecnología despertó la curiosidad de personas de todo el mundo para tareas laborales o escolares, otros han adoptado las plataformas con fines más nefastos.
La Agencia Nacional del Crimen (NCA, por sus siglas en inglés), que es la agencia principal del Reino Unido para combatir el crimen organizado, advirtió esta semana que la proliferación de imágenes explícitas de niños generadas por máquinas está teniendo un efecto "radicalizador" que "normaliza" la pedofilia y el comportamiento perturbador contra los niños.
"Evaluamos que ver estas imágenes, ya sean reales o generadas por IA, aumenta materialmente el riesgo de que los delincuentes pasen a abusar sexualmente de los niños ellos mismos", dijo el Director General de la NCA, Graeme Biggar, en un informe reciente .

La agencia estima que hay hasta 830.000 adultos, o el 1,6% de la población adulta en el Reino Unido, que representan algún tipo de peligro sexual contra los niños. La cifra estimada es 10 veces mayor que la población carcelaria del Reino Unido, según Biggar.
La mayoría de los casos de abuso sexual infantil involucran ver imágenes explícitas, según Biggar, y con la ayuda de la IA, crear y ver imágenes sexuales podría "normalizar" el abuso de niños en el mundo real.
"[Las cifras estimadas] reflejan en parte una mejor comprensión de una amenaza que históricamente ha sido subestimada, y en parte un aumento real causado por el efecto radicalizador de Internet, donde la disponibilidad generalizada de videos e imágenes de niños abusados y violados, y grupos que comparten y discuten las imágenes, ha normalizado tal comportamiento", dijo Biggar.

En Estados Unidos, se está desarrollando una explosión similar de uso de IA para crear imágenes sexuales de niños.
"Las imágenes de los niños, incluido el contenido de víctimas conocidas, están siendo reutilizadas para este resultado realmente malvado", dijo Rebecca Portnoff, directora de ciencia de datos de Thorn, una organización sin fines de lucro que trabaja para proteger a los niños, al Washington Post el mes pasado.
"La identificación de víctimas ya es un problema de aguja en un pajar, donde las fuerzas del orden público están tratando de encontrar a un niño en peligro", dijo. "La facilidad de uso de estas herramientas es un cambio significativo, así como el realismo. Simplemente hace que todo sea más un desafío."
Los sitios populares de IA que pueden crear imágenes basadas en indicaciones simples a menudo tienen pautas comunitarias que impiden la creación de fotos perturbadoras.

Dichas plataformas están entrenadas con millones de imágenes de Internet que sirven como bloques de construcción para que la IA cree representaciones convincentes de personas o ubicaciones que en realidad no existen.
Midjourney, por ejemplo, pide contenido PG - 13 que evite "desnudos, órganos sexuales, fijación en los senos desnudos, personas en las duchas o en los inodoros, imágenes sexuales, fetiches."Mientras que DALL-E, la plataforma de creación de imágenes de OpenAI, solo permite contenido con clasificación G, prohibiendo imágenes que muestren "desnudos, actos sexuales, servicios sexuales o contenido destinado a despertar excitación sexual."Sin embargo, los foros de la web oscura de personas con malas intenciones discuten soluciones alternativas para crear imágenes perturbadoras, según varios informes sobre IA y delitos sexuales.

Biggar señaló que las imágenes de niños generadas por IA también arrojan a la policía y las fuerzas del orden a un laberinto de descifrar imágenes falsas de las de víctimas reales que necesitan asistencia.
"El uso de la IA para este propósito dificultará la identificación de niños reales que necesitan protección y normalizará aún más el abuso sexual infantil entre los delincuentes y aquellos en la periferia de la delincuencia. También evaluamos que ver estas imágenes, ya sean reales o generadas por IA, aumenta el riesgo de que algunos delincuentes pasen a abusar sexualmente de niños en la vida real", dijo Biggar en un comentario proporcionado a Fox News Digital.
"En colaboración con nuestros socios policiales internacionales, estamos combinando nuestras habilidades y capacidades técnicas para comprender la amenaza y asegurarnos de tener las herramientas adecuadas para abordar el material generado por IA y proteger a los niños del abuso sexual."
Las imágenes generadas por IA también se pueden usar en estafas de sextorsión, y el FBI emitió una advertencia sobre los delitos el mes pasado.
Los deepfakes a menudo implican editar videos o fotos de personas para que parezcan otras personas mediante el uso de inteligencia artificial de aprendizaje profundo y se han utilizado para acosar a las víctimas o recaudar dinero, incluidos los niños.
"Los actores maliciosos usan tecnologías y servicios de manipulación de contenido para explotar fotos y videos, generalmente capturados desde la cuenta de redes sociales de un individuo, Internet abierto o solicitados a la víctima, en imágenes de temática sexual que parecen realistas a semejanza de una víctima, luego circularlos en las redes sociales, foros públicos o sitios web pornográficos", dijo el FBI en junio.
"Muchas víctimas, que han incluido menores de edad, desconocen que sus imágenes fueron copiadas, manipuladas y circuladas hasta que alguien más les llamó la atención."