Claude AI de Anthrope se usa en campañas de extorsión a gran escala de ‘Hacking’

¿Cuál es la historia?
AntrópicoUna compañía líder de inteligencia artificial (IA), ha revelado que su sistema de IA avanzado, Claude, fue explotado en sofisticado ciberata. Este incidente marca un caso importante de IA generativa que es «armada» por delincuentes. En un informe reciente, Anthrope detalló cómo los piratas informáticos usaron a Claude para lanzar campañas de extorsión de «pirateo de ambientes» contra al menos 17 organizaciones, incluidas las de los sectores de atención médica y gubernamental.
Los piratas informáticos usaron Claude para la toma de decisiones, señala Ransom
El hacker en cuestión aprovechó el código Claude, el asistente de codificación de agente de Anthrope, para automatizar varias etapas del ataque. Estos incluyeron reconocimiento, robo de credenciales y violaciones de red. La IA también se utilizó para fines de toma de decisiones, como identificar qué datos apuntar y generar notas de rescate «visualmente alarmantes». Algunas víctimas incluso fueron amenazadas con la liberación pública de información personal confidencial si no pagaban rescates de seis cifras.
¿Qué se ha hecho antrópico para evitar futuros incidentes?
Al descubrir el ataque, Anthrope tomó medidas inmediatas al prohibir las cuentas involucradas y notificar a las autoridades. La compañía también introdujo una nueva evaluación automatizada y herramientas de detección más rápidas para evitar futuros incidentes. Aunque los detalles de estas medidas no están claros, Anthrope ha enfatizado que está mejorando constantemente sus defensas contra tales amenazas.
Mal uso similar de las herramientas de Openai
Anthrope no es el único que trata con tal uso indebido de IA. El año pasado, Opadai Reveló que los piratas informáticos de China y Corea del Norte habían utilizado sus herramientas generativas para fines maliciosos, como la depuración del código dañino y la redacción de correos electrónicos de phishing.
Microsoftque utiliza los modelos de OpenAI en su suite de copilotos, también jugó un papel en la reducción del acceso a estos grupos.
Claude también se usa en aplicaciones de empleo fraudulentas, ransomware asistido por AI-AI
El informe también destaca otras dos instancias del mal uso de Claude: su participación en un esquema de aplicación de empleo fraudulento de Corea del Norte y su uso en la creación de ransomware asistido por AI-AI. Anthrope argumenta que el factor común en estos casos es la capacidad de la IA moderna para reducir la barrera de entrada para el delito cibernético. Esto significa que incluso las personas sin experiencia técnica ahora pueden llevar a cabo operaciones complejas que anteriormente requerían equipos calificados.


