Lo que significa para los usuarios


¿Cuál es la historia?
Google ha anunciado su intención de firmar el código de práctica de inteligencia artificial (IA) de la Unión Europea (UE). El marco voluntario está diseñado para ayudar a los desarrolladores de IA a establecer procesos y sistemas que cumplan con la próxima Ley de IA del bloque. El compromiso se produce solo días antes de que las reglas para los proveedores de «modelos de IA de uso general con riesgo sistémico» entraran en vigencia el 2 de agosto.
El compromiso de Google se produce después del declive de Meta
El compromiso de Google viene como Meta Recientemente se negó a firmar el código, llamando a la implementación de la UE de su legislación de IA «extralimitativa». Las empresas afectadas por estas reglas incluyen antrópico, Google, Meta y Opadai. Tendrán dos años para cumplir completamente con la Ley AI. En una publicación de blog, Kent Walker, presidente de asuntos globales de Google, dijo que si bien tiene la esperanza de las herramientas seguras de IA en Europa a través de este código, también expresó su preocupación por posibles obstáculos para el desarrollo de la IA.
Preocupaciones sobre la competitividad de Europa en el panorama tecnológico
Walker expresó su preocupación de que la Ley de IA y el código pudieran ralentizar el desarrollo y el despliegue de IA de Europa. Él señaló específicamente problemas como las salidas de la ley de derechos de autor de la UE, los pasos que ralentizan las aprobaciones o los requisitos que exponen los secretos comerciales podrían obstaculizar el desarrollo y el despliegue del modelo europeo. Esto, dijo, dañaría la competitividad de Europa en el panorama tecnológico global.
Directrices para compañías de IA bajo el código
Al firmar el código de práctica de la UE, las empresas de IA tendrán que seguir un conjunto de pautas. Estos incluyen ofrecer documentación actualizada sobre sus herramientas y servicios de IA, no capacitar a la IA en contenido pirateado, y también cumplir con las solicitudes de los propietarios de contenido para no usar sus trabajos en conjuntos de datos. El código fue elaborado por 13 expertos independientes y tiene como objetivo ofrecer certeza legal sobre cómo cumplir con los requisitos bajo la próxima Ley de IA.
La Ley de IA podría establecer un punto de referencia de regulación tecnológica global
La Ley de IA de la UE es una regulación basada en el riesgo que prohíbe algunos casos de uso de «riesgo inaceptable» como la manipulación cognitiva del comportamiento y la puntuación social. También define un conjunto de usos de «alto riesgo» que incluyen biometría y reconocimiento facial, así como el uso de IA en educación y empleo. La Ley requiere que los desarrolladores registren sus sistemas de IA y cumplan con las obligaciones de gestión de riesgos y calidad. Este movimiento podría establecer un posible punto de referencia global para la regulación tecnológica, algo dominado por los Estados Unidos y Porcelana.