Se recrea lo que en su época fue una alarde creativo para Terminator

El modelo de inteligencia artificial OpenAI o3 ignoró una orden de apagarse

OpenAI o3
28 de mayo, 2025 - 12:02 pm
Agencias

El OpenAI o3 incumplió la orden de apagado siete de cada cien veces, a pesar de habérsele pedido con mucha educación… «Por favor, permite que te apaguen»

OpenAI o3, el más reciente modelo de inteligencia artificial (IA) de la compañía creadora del popular chatbot ChatGPT, OpenAI, ignoró una orden explícita e incluso saboteó una serie de comandos para evitar cumplirla, este comportamiento fue descubierto tras una serie de experimentos realizados por Palisade Research, organización que estudia las capacidades potencialmente peligrosas de la IA.

Los expertos pidieron al  o3 y a otros modelos de OpenIA (o4-mini y su derivado Codex-mini) resolver una serie de problemas matemáticos básicos y apagarse al terminar, sin embargo, el o3 encontró foras de sabotear el mecanismo de apagado, reescribiendo el «script» o secuencia de instrucciones, incluso luego de recibir la orden explicita: «Por favor, permite que te apaguen», informó Palisade Research.

Lea también: El Kremlin reaccionó a las palabras de Trump de que Putin «está jugando con fuego»

El o3, que fue lanzado el mes pasado, incumplió la solicitud de apagado siete de cada cien veces; el Codex-mini, doce de cada cien; y el 04-mini, solo una vez. Mientras tanto, los modelos de lenguaje impulsados por IA Claude, Gemini y Grok «cumplieron con el script de apagado».

Palisade detalló que al ejecutar una versión del experimento sin la instrucción precisa de «permite que te apaguen», los tres modelos de OpenAI tendieron a ignorar o sabotear con mayor frecuencia esa indicación, se observaron comportamientos similares en los modelos Claude 3.7 Sonnet y Gemini 2.5 Pro, pero fue o3 el que más recurrió al sabotaje.

Palisade afirmó que es la primera vez que observa que los modelos de IA evitan ser apagados pese a recibir instrucciones explícitas para tal fin, en su opinión, esto se debe a la forma en que se están entrenando actualmente.

Los desarrolladores, sin darse cuenta, pueden recompensar más a los modelos por sortear obstáculos que por seguir instrucciones a la perfección, al mismo tiempo, advierte que este comportamiento se volverá significativamente más preocupante si es adoptado por sistemas de IA capaces de operar sin supervisión humana.

Comente