Necesitamos la ayuda de los legisladores para abordar el abuso infantil en línea asistido por IA
Un importante lanzamiento de juegos reemplaza a los actores con Inteligencia Artificial
El mundo de los videojuegos está siendo sacudido por una controversia sobre la IA que podría poner patas arriba a la industria multimillonaria.
Los depredadores sexuales están utilizando una nueva y poderosa herramienta para explotar a los niños: los generadores de imágenes de IA. Los usuarios de un solo foro de la web oscura compartieron casi 3.000 imágenes generadas por IA de abuso sexual infantil en solo un mes, según un informe reciente de la Fundación Internet Watch, con sede en el Reino Unido.
Desafortunadamente, las leyes actuales sobre abuso sexual infantil están desactualizadas. No tienen en cuenta adecuadamente los peligros únicos que plantean la IA y otras tecnologías emergentes. Los legisladores deben actuar rápidamente para implementar protecciones legales.
La línea cibernética nacional, un sistema de denuncia de sospechas de explotación infantil en línea, recibió la asombrosa cifra de 32 millones de denuncias en 2022, frente a 21 millones solo dos años antes. Esa cifra ya inquietante seguramente crecerá con el auge de las plataformas de IA generadoras de imágenes.
Las plataformas de IA están "capacitadas" en material visual existente. Las fuentes utilizadas para crear imágenes de abuso pueden incluir rostros reales de niños tomados de las redes sociales o fotografías de explotación en la vida real. Dadas las decenas de millones de imágenes abusivas en línea, existe una cantidad casi inagotable de material fuente a partir del cual la IA puede generar imágenes aún más dañinas.
Las imágenes generadas por IA más avanzadas ahora son prácticamente indistinguibles de las fotografías inalteradas. Los investigadores han encontrado nuevas imágenes de víctimas ancianas, imágenes de celebridades "envejecidas" que son representadas como niños en escenarios de abuso e imágenes" nudificadas " tomadas de fotos benignas de niños vestidos.
El alcance del problema aumenta cada día. El software de conversión de texto a imagen puede crear fácilmente imágenes de abuso infantil en función de lo que el perpetrador quiera ver. Y gran parte de esta tecnología se puede descargar, por lo que los delincuentes pueden generar imágenes fuera de línea sin temor a ser descubiertos.
El uso de IA para crear imágenes de abuso sexual infantil no es un delito sin víctimas. Detrás de cada imagen de IA, hay niños reales. Los sobrevivientes de la explotación pasada son revictimizados cuando se crean nuevas representaciones utilizando su semejanza. Y los estudios muestran que la mayoría de quienes poseen o distribuyen material de abuso sexual infantil también cometen abuso práctico.
Los adultos también pueden usar plataformas de IA generadoras de texto como ChatGPT para atraer mejor a los niños, actualizando una vieja táctica. Los delincuentes han utilizado durante mucho tiempo identidades falsas en línea para conocer a jóvenes en juegos o en las redes sociales, ganarse su confianza y manipularlos para que envíen imágenes explícitas y luego los "sextuplicen" por dinero, más fotos o actos físicos.
Pero ChatGPT hace que sea sorprendentemente fácil hacerse pasar por un niño o adolescente con un lenguaje juvenil. Los delincuentes de hoy en día pueden usar plataformas de inteligencia artificial para generar mensajes realistas con el objetivo de manipular a un joven para que interactúe en línea con alguien que cree que tiene su propia edad. Aún más aterrador, muchas herramientas modernas de inteligencia artificial tienen la capacidad de "aprender" rápidamente, y por lo tanto enseñar a las personas, qué técnicas de aseo son las más efectivas.

La inteligencia artificial (IA) está avanzando rápidamente, brindándonos beneficios sin precedentes, pero también plantea serios riesgos, como la amenaza química, biológica, radiológica y nuclear (QBRN) (Cyberguy.com)
El presidente Biden firmó recientemente una orden ejecutiva orientada a gestionar los riesgos de la IA, incluida la protección de la privacidad y los datos personales de los estadounidenses. Pero necesitamos la ayuda de los legisladores para abordar el abuso infantil en línea asistido por IA.
Para empezar, necesitamos actualizar la definición legal federal de material de abuso sexual infantil para incluir representaciones generadas por IA. Tal como está la ley actualmente, los fiscales deben mostrar daño a un niño real. Pero este requisito está fuera de sintonía con la tecnología actual. Un equipo de defensa podría afirmar de manera factible que el material de abuso sexual infantil de IA no representa a un niño real y, por lo tanto, no es dañino, aunque sabemos que las imágenes generadas por IA a menudo provienen de material original que victimiza a niños reales.
En segundo lugar, debemos adoptar políticas que exijan a las empresas de tecnología monitorear e informar continuamente sobre material explotador. Algunas empresas escanean de forma proactiva dichas imágenes, pero no es obligatorio que lo hagan. Solo tres empresas fueron responsables del 98% de todos los consejos cibernéticos en 2020 y 2021: Facebook, Google y Snapchat.
Muchas leyes estatales sobre abuso sexual infantil identifican a los "informantes obligatorios" o profesionales como maestros y médicos que están legalmente obligados a denunciar sospechas de abuso. Pero en una era en la que vivimos gran parte de nuestras vidas en línea, los empleados de las redes sociales y otras empresas de tecnología deberían tener responsabilidades similares de presentación de informes legalmente obligatorias.
Finalmente, debemos repensar cómo usamos el cifrado de extremo a extremo, en el que solo el remitente y el receptor pueden acceder al contenido de un mensaje o archivo. Si bien tiene aplicaciones válidas, como registros bancarios o médicos, el cifrado de extremo a extremo también puede ayudar a las personas a almacenar y compartir imágenes de abuso infantil. Para ilustrar cuántos abusadores podrían pasar desapercibidos, considere que de los 29 millones de consejos que recibió CyberTipline en 2021, solo 160 provinieron de Apple, que mantiene el cifrado de extremo a extremo para iMessages e iCloud.
Incluso si la policía tiene una orden judicial para acceder a los archivos del perpetrador, una empresa de tecnología con cifrado de extremo a extremo puede afirmar que no puede acceder a esos archivos y que no puede ayudar. Sin duda, una industria basada en la innovación es capaz de desarrollar soluciones para proteger a nuestros niños, y hacer de eso una prioridad.
La tecnología de IA y las redes sociales evolucionan todos los días. Si los legisladores actúan ahora, podemos prevenir daños a gran escala a los niños.
Teresa Huizar es CEO de Alianza Nacional de Niños, La red de centros de atención más grande de Estados Unidos para víctimas de abuso infantil.