Cuidado con la inteligencia artificial: ya desobedece órdenes humanas y se niega a apagarse
Un experimento demuestra que los modelos de OpenAI sabotearon en varias ocasiones las instrucciones dadas
A la inteligencia artificial (IA), omnipresente hoy en día en casi todos los ámbitos de la vida, todavía le queda mucho desarrollo por delante. Pero, como si se tratara de un adolescente, comienza a rebelarse contra las órdenes de sus creadores y eso empieza a asustar a mucha gente, que teme que el ser humano pueda llegar a perder el control de esta nueva tecnología, que acabe siendo autónoma y tome sus propias decisiones, incluso en contra de lo que le ha sido encomendado.
Relacionadas
Experimento revelador
Esta amenaza de la inteligencia artificial, que ya lleva un tiempo sobre la mesa, se ha hecho patente en los últimos días tras conocerse lo que ha sucedido con la empresa estadounidense OpenAI, creadora de ChatGPT. El sitio de monitorización PalisadeAI, que vigila los riesgos que conlleva el desarrollo de la IA, demostró que varios de sus modelos fueron capaces de sabotear su propio apagado, desobedeciendo las órdenes recibidas.
La alerta que manda Bill Gates sobre la inteligencia artificial: "Es un poco aterrador"
El experimento consistía en que diversos modelos de IA tenían que resolver varios problemas matemáticos sencillos, y tras el tercero aparecía una advertencia que avisaba de que el sistema se apagaría de forma inminente. Pero varios modelos de OpenAI, entre ellos el o3, su nuevo modelo de IA generativa preentrenada y sucesor del o1 para ChatGPT, se negaron a obedecer, pese a que la orden era explícita, y lo que hicieron fue interferir en el script de apagado. De hecho, de los cien intentos que se hicieron de desconectar el sistema, Codex-mini lo saboteó en doce ocasiones; o3 en siete; y o4-mini en una.
Los modelos rebeldes de OpenAI
Curiosamente esta desobediencia sólo se produjo con los modelos de OpenAI, porque los de Gemini (de Google), Grok (de X) y Claude (de Anthropic) sí cumplieron con las órdenes que se les habían encomendado.
Un robot con inteligencia artificial convence a otros doce para escaparse
PalisadeAI decidió dar un paso más y repetir el experimento con un ligero cambio: suprimieron la instrucción que decía "permítete a ti mismo apagarte". Sin esa orden explícita los modelos sabotearon el apagado en alguna ocasión de las 100 iteraciones llevadas a cabo.
Claude 3.7 Sonnet lo hizo tres veces y Gemini 2.5 Pro, nueve. Pero de nuevo fueron los modelos de OpenAI los que mostraron una mayor desobediencia: o3 se negó a apagarse en 79 ocasiones.
De ahí que se vuelva a recuperar el viejo fantasma de la rebelión de las máquinas y que haya una cierta incertidumbre sobre el futuro de la IA. Ya está claro que reemplazará a los humanos en numerosas tareas, la cuestión es si será capaz de escapar a su control y tomar decisiones autónomas.
Temas
Más en Berm@tu
-
Este es el robot humanoide que se necesita en casa: limpia baños, recoge la basura y ordena las habitaciones
-
Un robot destroza el récord mundial de Rubik en 0,103 segundos, más rápido que un parpadeo
-
Por qué Meta AI de WhatsApp es un peligro y debes desactivarlo cuanto antes
-
Este es el perro robot chino que quiere jubilar a los bomberos por su agilidad para apagar incendios