¿Elon Musk planea usar inteligencia artificial para dirigir el gobierno de los Estados Unidos? Ese parece ser su plan, pero los expertos dicen que es una «muy mala idea».

Musk ha despedido a decenas de miles de empleados del gobierno federal a través de su Departamento de Eficiencia del Gobierno (DOGE), y según los informes, requiere que los trabajadores restantes envíen al departamento un correo electrónico semanal con cinco puntos de bala que describen lo que lograron esa semana.

Dado que eso sin duda inundará duda con cientos de miles de estos tipos de correos electrónicos, Musk depende de la inteligencia artificial para procesar las respuestas y ayudar a determinar quién debe permanecer empleado. Según los informes, parte de ese plan también es reemplazar a muchos trabajadores gubernamentales con sistemas de IA.

Todavía no está claro cómo se ve alguno de estos sistemas de IA o cómo funcionan, algo que los demócratas en el Congreso de los Estados Unidos exigen ser completados, pero los expertos advierten que utilizar la IA en el gobierno federal sin una sólida prueba y verificación de estas herramientas podrían tener consecuencias desastrosas.

“Para usar herramientas de IA de manera responsable, deben diseñarse con un propósito particular en mente. Deben ser probados y validados. No está claro si algo de eso se está haciendo aquí ”, dice Cary Coglianese, profesor de derecho y ciencias políticas en la Universidad de Pensilvania.

Coglianese dice que si AI se está utilizando para tomar decisiones sobre quién debería ser despedido de su trabajo, sería «muy escéptico» de ese enfoque. Él dice que hay un potencial muy real para que se cometan errores, para que la IA sea parcial y para otros problemas potenciales.

“Es una muy mala idea. No sabemos nada sobre cómo una IA tomaría tales decisiones (incluida la forma en que fue capacitado y los algoritmos subyacentes), los datos en los que se basarían tales decisiones o por qué deberíamos creer que es confiable ”, dice Shobita Parthasarathy, profesora de políticas públicas en la Universidad de Michigan.

Esas preocupaciones no parecen estar frenando al gobierno actual, especialmente con Musk, un empresario multimillonario y asesor cercano al presidente de los Estados Unidos, Donald Trump, liderando el cargo por estos esfuerzos.

El Departamento de Estado de los Estados Unidos, por ejemplo, está planeando utilizar la IA para escanear las cuentas de redes sociales de los ciudadanos extranjeros para identificar a cualquier persona que pueda ser un partidario de Hamas en un esfuerzo por revocar sus visas. El gobierno de los Estados Unidos no ha sido tan transparente sobre cómo podrían funcionar este tipo de sistemas.

Daños no detectados

«La administración Trump está realmente interesada en seguir la IA a toda costa, y me gustaría ver un uso justo, justo y equitativo de la IA», dice Hilke Schellmann, profesor de periodismo en la Universidad de Nueva York y experto en inteligencia artificial. «Podría haber muchos daños que no se detectan».

Los expertos en IA dicen que hay muchas formas en que el uso gubernamental de la IA puede salir mal, por lo que debe adoptarse con cuidado y conciencia. Coglianese dice que los gobiernos de todo el mundo, incluidos los Países Bajos y el Reino Unido, han tenido problemas con la IA mal ejecutada que pueden cometer errores o mostrar sesgo y, como resultado, han negado injustamente los beneficios de bienestar de los residentes que necesitan, por ejemplo.

En los Estados Unidos, el estado de Michigan tuvo un problema con la IA que se usó para encontrar fraude en su sistema de desempleo cuando identificó incorrectamente miles de casos de presuntos fraude. Muchos de los beneficios niegados fueron tratados con dureza, incluso haber sido golpeados con múltiples sanciones y acusados ​​de fraude. La gente fue arrestada e incluso se declaró en bancarrota. Después de un período de cinco años, el estado admitió que el sistema fue defectuoso y un año después terminó reembolsando $ 21 millones a los residentes acusados ​​erróneamente de fraude.

«La mayoría de las veces, los funcionarios que compran y desplegaron estas tecnologías saben poco sobre cómo funcionan, sus prejuicios y limitaciones y errores», dice Parthasarathy. «Debido a que las comunidades de bajos ingresos y marginadas tienden a tener el mayor contacto con los gobiernos a través de servicios sociales (como beneficios de desempleo, cuidado de crianza, aplicación de la ley), tienden a verse más afectados por la IA problemática».

La IA también ha causado problemas en el gobierno cuando se ha utilizado en los tribunales para determinar cosas como la elegibilidad de libertad condicional de alguien o en los departamentos de policía cuando se ha utilizado para tratar de predecir dónde es probable que ocurra delitos.

Schellmann dice que la IA utilizada por los departamentos de policía generalmente está capacitada en datos históricos de esos departamentos, y que puede hacer que la IA recomiende áreas de sobrepoloración que han sido sobrepóladas durante mucho tiempo, especialmente las comunidades de color.

Ai no entiende nada

Uno de los problemas con el uso de IA para reemplazar a los trabajadores en el gobierno federal es que hay tantos tipos diferentes de empleos en el gobierno que requieren habilidades y conocimientos específicos. Una persona de TI en el Departamento de Justicia podría tener un trabajo muy diferente a uno en el Departamento de Agricultura, por ejemplo, a pesar de que tienen el mismo título de trabajo. Un programa de IA, por lo tanto, tendría que ser complejo y altamente capacitado para incluso hacer un trabajo mediocre al reemplazar a un trabajador humano.

«No creo que puedas cortar al azar los trabajos de las personas y luego (reemplazarlos con cualquier IA)», dice Coglianese. «Las tareas que esas personas estaban realizando a menudo son altamente especializadas y específicas».

Schellmann dice que podría usar AI para hacer partes del trabajo de alguien que podría ser predecible o repetitivo, pero no puede simplemente reemplazar por completo a alguien. Teóricamente, eso sería posible si pasara años desarrollando las herramientas de IA correctas para hacer muchos, muchos tipos diferentes de empleos, una tarea muy difícil y no lo que el gobierno parece estar haciendo actualmente.

“Estos trabajadores tienen experiencia real y una comprensión matizada de los problemas, lo que AI no tiene. La IA no, de hecho, no entiende «nada», dice Parthasarathy. “Es un uso de métodos computacionales para encontrar patrones, basados ​​en datos históricos. Y es probable que tenga una utilidad limitada e incluso refuerce los prejuicios históricos «.

La administración del ex presidente de los Estados Unidos Joe Biden emitido Una orden ejecutiva en 2023 se centró en el uso responsable de la IA en el gobierno y cómo la IA sería probada y verificada, pero la administración Trump rescindió esta orden en enero. Schellmann dice que esto ha hecho menos probable que la IA se use de manera responsable en el gobierno o que los investigadores puedan comprender cómo se está utilizando la IA.

Todo esto dijo, si la IA se desarrolla de manera responsable, puede ser muy útil. La IA puede automatizar tareas repetitivas para que los trabajadores puedan centrarse en cosas más importantes o ayudar a los trabajadores a resolver problemas con los que están luchando. Pero debe tener tiempo para implementarse de la manera correcta.

«Eso no quiere decir que no pudiéramos usar las herramientas de IA sabiamente», dice Coglianese. «Pero los gobiernos se extravían cuando intentan apresurarse y hacer las cosas rápidamente sin la aportación pública adecuada y la validación y verificación exhaustiva de cómo funciona el algoritmo».

Enlace de origen