LOS ÁNGELES, California.- Los menores de edad están especialmente vulnerables a los peligros que hay en las redes sociales, por ello el gobernador de California, Gavin Newsom, firmó un par de propuestas para proteger a los niños del uso indebido de la inteligencia artificial (IA).
Menores de edad quedan protegidos por ley de falsos desnudos con inteligencia artificial
El gobernador de California, Gavin Newsom, firmó varias propuestas que se suman a la regulación de la IA, en esta ocasión protegiendo a los menores de ser expuestos en falsos desnudos creados con esta herramienta.
Estas nuevas leyes están destinadas a ayudar a proteger a los menores del uso indebido cada vez más frecuente de herramientas de inteligencia artificial para generar imágenes sexuales dañinas de niños.
Las medidas son parte de los esfuerzos concertados de California para intensificar las regulaciones en torno a esta industria de marquesinas que afecta cada vez más la vida diaria de los estadounidenses, pero que ha tenido poca o ninguna supervisión en los Estados Unidos.
A principios de septiembre, Newsom también aprobó algunas de las leyes más duras para abordar las falsificaciones electorales , aunque las leyes están siendo impugnadas en los tribunales. California es vista ampliamente como un líder potencial en la regulación de la industria de la inteligencia artificial en los EE. UU.
Las nuevas leyes, que recibieron un apoyo bipartidista abrumador, cierran un vacío legal en torno a las imágenes de abuso sexual infantil generadas por IA y dejan en claro que la pornografía infantil es ilegal incluso si está generada por IA.
Cambios a la ley actual
La ley actual no permite a los fiscales de distrito perseguir a personas que poseen o distribuyen imágenes de abuso sexual infantil generadas por inteligencia artificial si no pueden demostrar que los materiales representan a una persona real, dijeron los partidarios. Según las nuevas leyes, tal delito se consideraría un delito grave.
“La creación, posesión y distribución de material sobre abuso sexual infantil debe ser ilegal en California, ya sea que las imágenes sean generadas por IA o de niños reales. La IA que se utiliza para crear estas horribles imágenes se entrena a partir de miles de imágenes de niños reales que sufren abusos, lo que vuelve a victimizar a esos niños”, dijo en una declaración el asambleísta demócrata Marc Berman, autor de uno de los proyectos de ley.
Newsom también firmó otros dos proyectos de ley para fortalecer las leyes sobre la pornografía vengativa con el objetivo de proteger a más mujeres, adolescentes y otras personas de la explotación y el acoso sexual que permiten las herramientas de inteligencia artificial. Ahora será ilegal que un adulto cree o comparta deepfakes sexualmente explícitas generados por inteligencia artificial de una persona sin su consentimiento según las leyes estatales. Las plataformas de redes sociales también deben permitir a los usuarios denunciar dichos materiales para su eliminación.
Pero algunas de las leyes no son lo suficientemente amplias, dijo el fiscal de distrito del condado de Los Ángeles, George Gascón, cuya oficina patrocinó algunas de las propuestas. Gascón dijo que las nuevas sanciones por compartir pornografía de venganza generada por inteligencia artificial también deberían haber incluido a los menores de 18 años. Los legisladores estatales redujeron la medida el mes pasado para que solo se aplique a los adultos.
“Tiene que haber consecuencias, no te dan un pase libre por ser menor de 18 años”, dijo Gascón en una entrevista reciente.
El antecedente de las leyes
Las leyes surgen después de que San Francisco presentara una demanda, la primera en el país, contra más de una docena de sitios web que utilizan herramientas de inteligencia artificial con la promesa de "desnudar cualquier foto" cargada en el sitio web en cuestión de segundos.
El problema de los deepfakes no es nuevo, pero los expertos afirman que está empeorando a medida que la tecnología para producirlos se vuelve más accesible y fácil de usar. Los investigadores han estado dando la voz de alarma durante los últimos dos años sobre la explosión de material de abuso sexual infantil generado por inteligencia artificial que utiliza representaciones de víctimas reales o personajes virtuales.
En marzo, un distrito escolar de Beverly Hills expulsó a cinco estudiantes de secundaria por crear y compartir desnudos falsos de sus compañeros de clase.
El problema ha provocado rápidas acciones bipartidistas en casi 30 estados para ayudar a abordar la proliferación de materiales de abuso sexual generados por inteligencia artificial. Algunas de ellas incluyen protección para todos, mientras que otras solo prohíben materiales que muestren a menores.
Newsom ha promocionado a California como uno de los primeros en adoptar y también como regulador de la tecnología de IA, diciendo que el estado pronto podría implementar herramientas de IA generativa para abordar la congestión de las carreteras y proporcionar orientación fiscal, incluso cuando su administración considera nuevas reglas contra la discriminación de IA en las prácticas de contratación.
Te puede interesar:





Estafa de las multas falsas:
Se hacen pasar por agentes de la ley, sembrándoles miedo a las personas a quienes hacen creer que tienen una multa o adeudo, de esa manera los estafadores logran robarles dinero, advirtió el Departamento de Policía de Irvine (IPD). “Los estafadores pueden manipular la información de identificación de las personas que llaman para que parezca que llaman desde agencias gubernamentales como IPD”.