Filtran código fuente Claude Code con malware

Escrito por

en

·

En un golpe a la seguridad de las herramientas de IA, hackers han filtran código fuente Claude Code, el paquete npm de Anthropic para codificación asistida. Publicado en foros como Hacker News, el leak incluye un archivo map que revela la implementación interna completa, junto con malware adicional como ransomware. Este incidente, ligado al ataque PromptPwnd, destaca vulnerabilidades en agentes IA integrados en flujos DevOps, afectando al menos cinco empresas Fortune 500.

Detalles del leak y su origen

Claude Code (@anthropic-ai/claude-code) es una extensión que integra capacidades de Claude en entornos de desarrollo, interpretando prompts en issues de GitHub, commits y PRs. Fuentes como SecurityWeek confirman que el filtrado expone ‘frustration regexes’ y ‘undercover mode’, mecanismos internos para manejar interacciones complejas. Expertos en HN analizan cómo estos elementos podrían ser explotados, revelando debilidades en el diseño de herramientas perimetrales de IA.

El malware adjunto permite bloqueo de pantallas y control remoto, elevando el riesgo más allá del mero análisis de código. No afecta al modelo Claude principal, pero cuestiona la robustez de derivados en producción.

El ataque PromptPwnd y sus víctimas

Descubierto por Aikido Security, PromptPwnd explota inyecciones de prompts maliciosos en cuerpos de issues, commits y PRs. Agentes como Claude Code, Gemini CLI, OpenAI Codex y GitHub AI Inference los interpretan, ejecutando comandos dañinos. Google parcheó Gemini CLI rápidamente, pero el impacto en Fortune 500 subraya la fragilidad de CI/CD con LLMs.

Este vector ataca la cadena de suministro de software, donde la automatización IA acelera brechas si no hay validaciones estrictas.

Implicaciones para la industria del desarrollo

Filtran código fuente Claude Code pone en jaque la confianza en paquetes npm con IA. Economías de escala en open source se ven amenazadas por supply chain attacks, recordando incidentes como SolarWinds o Log4j. Datos de npm muestran millones de descargas semanales de herramientas similares, amplificando el riesgo.

Empresas deben priorizar sandboxing y revisión humana, sin caer en parálisis regulatoria que frene innovación.

Análisis Blixel:

Como redactor escéptico de narrativas de pánico regulatorio, este leak de Claude Code no es solo un bochorno para Anthropic, sino un recordatorio brutal de que la IA en DevOps es un arma de doble filo. Filtran código fuente Claude Code con malware expone cómo la prisa por integrar LLMs en GitHub Actions ignora básicos de seguridad perimetral. ¿’Frustration regexes’? Suena a parches improvisados para prompts impredecibles, un diseño que grita fragilidad ante inyecciones como PromptPwnd.

Datos duros: npm tiene 2 millones de paquetes, 30% con vulns conocidas (Sonatype 2023). Afectar Fortune 500 valida el threat model. Pero no compremos la histeria: Google parcheó en horas, Anthropic debe seguir. La ironía es que reguladores europeos, con su AI Act, querrán más burocracia en vez de fomentar auditorías open source. Mi apuesta libertaria: innovación privada vía bounties y verificaciones criptográficas ganará a edictos estatales. El futuro no es menos IA, sino IA endurecida por leaks como este. Sin ellos, la complacencia corporativa persiste. Monitoreemos: si Anthropic rota claves y fortalece parsers, saldrá fortalecida; si no, competidores como xAI tomarán nota.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *