El presidente Donald Trump está implementando un cambio radical en la forma como funciona el gobierno federal, tanto de cara al público como en procesos internos, a través de la adopción de la inteligencia artificial (AI). Esto ha generado preocupación entre expertos que consideran que la tecnología podría no estar lista para la tarea y que desplazar el elemento humano podría ser peligroso e incluso ilegal.
Por qué expertos advierten riesgos en el uso de la inteligencia artificial en funciones del gobierno de Trump
La Administración Federal de Aviación explora si la IA puede ser un mejor controlador de tráfico aéreo que los humanos entrenados, mientras que el Pentágono anunció que su personal comenzará a usar el polémico modelo de inteligencia artificial de Musk Grok.
La idea, originalmente planteada por el exempleado especial del gobierno, el multimillonario Elon Musk, ha seguido cobrando impulso en la administración a pesar de su abrupta salida del gobierno y de su manifiesta enemistad con Trump.
En 2023, el presidente Joe Biden firmó una orden ejecutiva que impulsaba el uso de la IA en el gobierno, pero estableciendo las salvaguardias necesarias para limitar los riesgos inherentes a la utilización de una tecnología tan nueva y no probada. En enero, Trump derogó la orden eliminando las barreras establecidas por Biden con el objetivo de acelerar la implementación de la IA dentro del gobierno.
La teoría, enarbolada por Musk, es que la IA es capaz de hacer un mejor trabajo que los empleados federales en muchas tareas, incluyendo la toma de decisiones de vida o muerte.
La Administración Federal de Aviación (FAA), por ejemplo, está explorando si la IA puede ser un mejor controlador de tráfico aéreo que los humanos entrenados para la tarea, mientras que el Pentágono anunció el lunes que su personal comenzará a usar el polémico modelo de inteligencia artificial de Musk Grok. El uso de Grok por el Departamento de Defensa es parte de un nuevo acuerdo de $200 millones que abre la puerta para su implementación en todo el gobierno federal, según anunció xAI el lunes.
El anunció fue hecho días después de que Grok generara respuestas antisemitas a los cuestionamiento de algunos usuarios y alabara a Hitler, como resultado de lo que xAI describió como un esfuerzo por hacer el modelo "menos políticamente correcto". xAI dijo que el problema había sido corregido "rápidamente".
Según un reporte de The Washington Post, citando documentos públicos y entrevistas con empleados federales actuales y anteriores, la IA pronto podría desempeñar un papel central en auditorías tributarias, controles de seguridad aeroportuaria, exámenes de patentes e incluso en combate para distinguir entre combatientes y civiles o identificar blancos potenciales.
Parte del objetivo de esta implementación masiva de la IA por parte del gobierno federal es la reducción de su plantilla, una tarea iniciada por el Departamento de Eficiencia Gubernamental (DOGE). También se busca agilizar procesos y prestar servicios de una manera más eficiente.
Según múltiples reportes, el gobierno de Trump también está utilizado inteligencia artificial para fundamentar la toma de decisiones en materia regulatoria, identificar normas a ser eliminadas e incluso redactar nuevas regulaciones para revocar o sustituir reglas existentes.
¿Qué dicen los críticos y los partidarios del despliegue de la IA dentro del gobierno federal?
Algunos organismos de vigilancia del sector tecnológico han advertido que la adopción de la IA junto a los despidos a gran escala de empleados federales podría darle un papel de suma importancia a una tecnología que no ha sido suficientemente probada y podría no estar lista para las tareas que se le exigirán.
“Si la IA impulsa la toma de decisiones federales en lugar de asistir a expertos humanos, las fallas podrían privar injustamente a las personas de beneficios o perjudicar la seguridad pública”, dijo a The Washington Post la directora del Centro para la Democracia y la Tecnología, Elizabeth Laird.
“Existe una discrepancia fundamental entre lo que la IA puede hacer y lo que los ciudadanos esperan del gobierno”, dijo Laird.
Por su parte, durante un evento el martes patrocinado por el Centro de Estudios Regulatorios de la Universidad George Washington y la empresa especializada en regulación Norm Ai, la profesora de Derecho y exfuncionaria de carrera de la Oficina de Información y Asuntos Regulatorios Bridget Dooling advirtió contra la dependencia de la IA para acelerar el lento proceso de elaboración de regulaciones, ya sea para promulgar o derogar normas.
“Puedes envolverte en una retórica de eficiencia en esto, pero si conoces el proceso regulatorio, esto te pone nervioso porque sabes que las agencias tienen el deber legal de tomar decisiones razonadas y no tomar decisiones arbitrarias ni caprichosas”, dijo Doolonh, agregando que “el razonamiento no puede ser delegado”.
En una artículo titulado 'Los peligros del sesgo: cómo afrontar los desafíos éticos en la política impulsada por la IA' publicado en marzo en Sage Journals, los profesores de la Universidad de Nanjing Yuran Dongn y Jie Guo advierten que “la naturaleza de ‘caja negra’ de algunos algoritmos de IA dificulta la comprensión de cómo se toman las decisiones, planteando dudas sobre la rendición de cuentas y la limitación el escrutinio público”.
Los profesores dijeron, además, que los sistemas de IA se entrenan con datos y que si esos datos reflejan sesgos sociales existentes o carecen de una representación diversa, la “IA puede perpetuar e incluso amplificar esos sesgos en sus resultados”.
La Casa Blanca, que se espera que presente un plan integral de IA este mes, ha defendido su implementación. “El presidente Trump ha enfatizado durante mucho tiempo la importancia del dominio estadounidense de la IA, y su administración está utilizando todas las herramientas posibles para optimizar nuestro gobierno y ofrecer resultados más eficientes al pueblo estadounidense”, dijo en un comunicado la portavoz de la Casa Blanca Anna Kelly.
Mira también: