Síguenos en redes sociales:

Claude Mythos, la IA de Anthropic que desata un debate global sobre ciberseguridad

Expertos advierten de que esta tecnología que es capaz de descubrir vulnerabilidades críticas en sistemas informáticos también podría ser usada para ciberataques

Claude Mythos, la IA de Anthropic que desata un debate global sobre ciberseguridadMagnific

El rápido avance de lainteligencia artificial (IA) vuelve a situarse una vez más en el centro del debate. En esta ocasión todas las miradas se centran en Anthropic y en su nuevo modelo de IA, Claude Mythos Preview, una herramienta que ha encendido las alarmas por su capacidad para detectar vulnerabilidades informáticas prácticamente invisibles para el ojo humano.

En los últimos años, la inteligencia artificial ha pasado de ser una promesa tecnológica a convertirse en un pilar esencial para empresas y administraciones. Pese a ser una herramienta de una enorme eficacia, ha generado importantes dudas sobre cuáles son sus límites o quién la controla. Ahora, la aparición de Claude Mythos no hace más que intensificar esas cuestiones.

El sistema, según la propia compañía, es capaz de encontrar fallos críticos en infraestructuras de software en solo unos minutos. Durante sus pruebas internas, detectó una vulnerabilidad en OpenBSD que llevaba 27 años oculta, además de otra en FFmpeg que había pasado desapercibida tras millones de test automatizados. No se trata de casos puntuales, sino que Anthropic asegura haber identificado miles de fallos de alta gravedad, muchos de ellos del tipo día cero, es decir, desconocidos hasta ahora.

Codificación de programas informáticos en una pantalla.

¿Protección o riesgo?

A simple vista, esta nueva IA de Anthropic podría parecer una revolución positiva para la ciberseguridad. Detectar antes que nadie un fallo permite corregirlo y evitar ataques. Sin embargo, el problema aparece cuando se plantea el escenario contrario: que esta tecnología caiga en las manos equivocadas. En ese caso, el mismo sistema que protege podría convertirse en una herramienta para atacar hospitales, redes eléctricas o sistemas gubernamentales.

Consciente de este riesgo, la empresa liderada por Dario Amodei ha optado por restringir su uso. Claude Mythos no está disponible para el público general, sino que forma parte de un programa cerrado, el llamado Proyecto Glasswing. Bajo este paraguas, solo un grupo reducido de grandes compañías tecnológicas y entidades estratégicas puede acceder a la herramienta con el objetivo de reforzar sus sistemas antes de que los ciberdelincuentes encuentren las grietas.

Preocupación en gobiernos y empresas

Aun así, la preocupación ha traspasado el ámbito tecnológico y ha llegado al político. En Estados Unidos, la Casa Blanca ha seguido de cerca el desarrollo de este modelo y la Administración de Donald Trump llegó incluso a vetar a Anthropic por considerarla un riesgo para la seguridad nacional, una decisión que acabó en los tribunales. En paralelo, desde la Comisión Europea se ha advertido de que Mythos presenta "capacidades cibernéticas sin precedentes".

Expertos en ciberseguridad coinciden en que este tipo de herramientas marcan un antes y un después, aunque no todos comparten el mismo grado de alarma. Algunos consideran que su impacto real aún está por ver y que muchas de las pruebas se han realizado en entornos controlados. Otros, sin embargo, subrayan que la combinación de autonomía, capacidad de razonamiento y generación de código convierte a Claude Mythos en algo difícil de comparar con modelos anteriores.

Lo que sí parece claro es la tendencia que marcan este tipo de hallazgos. Desde Anthropic insisten en que este no es el límite y que en los próximos meses surgirán sistemas similares o incluso más avanzados. Y, en ese escenario, la cuestión ya no es si estas herramientas llegarán sino cómo se gestionarán.

Porque, en el fondo, Claude Mythos no es solo un avance tecnológico, sino también un recordatorio de la delgada línea que separa la innovación del riesgo, una línea que, como ocurre tantas veces con la tecnología, va muy por delante de su propia regulación.