Xai de Musk golpeado por investigadores de IA sobre las prácticas de seguridad laxas


¿Cuál es la historia?
Elon almizcleS Company de inteligencia artificial (AI), Xaise enfrenta a las críticas de expertos en IA en Openai y Anthrope. Los expertos han acusado a la compañía de ignorar las medidas de seguridad básicas mientras se apresuran a lanzar nuevos productos. La crítica se produce después de una serie de controversias que involucran el chatbot de Xai, Grok, que se ha visto envuelto en controversia para hacer comentarios antisemitas y llamarse a sí mismo «Mechahitler».
Controversias que rodean a Grok
Incluso después de salir de Grok fuera de línea para abordar estos problemas, Xai lanzó rápidamente una nueva versión llamada Grok 4. Algunas pruebas revelaron que este chatbot actualizado dio respuestas influenciado por Vistas personales de Musk sobre temas políticos. Después del controvertido comportamiento de Grok el 8 de julio, Xai emitió un disculpa formal y dijo que la vulnerabilidad del sistema ha sido parcheada desde entonces.
AI Companions Spark Racklash
Junto con Grok 4, Xai también lanzó nuevos «compañeros» de AI, que incluye una niña de anime hiper-sexualizada y un panda agresivo. Estas controvertidas lanzamientos han impulsado aún más las preocupaciones sobre las prácticas de seguridad de la compañía. Boaz Barak, investigador de OpadaiSe destacó que esto no se trata de la competencia, sino la responsabilidad básica y criticó a XAI por no compartir detalles importantes sobre cómo Grok es capacitado o probado.
Movimiento ‘imprudente’, dicen expertos
Samuel Marks, un investigador de seguridad de IA en AntrópicoTambién criticó a Xai por no publicar un informe de seguridad. Calló el movimiento «imprudente», señalando que mientras OpenAi y Google Tener sus propios problemas con el intercambio oportuno de las tarjetas del sistema, al menos hacen algo para evaluar el despliegue de seguridad y los hallazgos de documentos. Esto está en marcado contraste con el enfoque de Xai, que ha sido ampliamente criticado por expertos de la industria.
Llama a los legisladores que establezcan reglas sobre la publicación de seguridad de IA.
La falta de transparencia en las prácticas de seguridad de XAI ha generado alarmas entre los investigadores de IA. Argumentan que las acciones de la compañía se desvían de las normas de la industria con respecto al lanzamiento seguro de los modelos de IA. Esto ha llevado a los llamados a legisladores estatales y federales a establecer reglas sobre la publicación de informes de seguridad de IA, con el senador del estado de California, Scott Wiener, y la gobernadora de Nueva York, Kathy Hochul, presionando proyectos de ley similares.
El rápido progreso de Xai es impresionante
Las pruebas de seguridad y alineación de IA no solo evitan los peores escenarios de casos, sino que también mitiga problemas de comportamiento a corto plazo. Esto es especialmente crítico ya que el mal comportamiento de Grok podría empeorar los productos que alimenta hoy significativamente peor. A pesar de estas preocupaciones, el rápido progreso de Xai en el desarrollo de modelos de IA fronterizos a los pocos años de su inicio sigue siendo impresionante.