Tecnología
Someten a ChatGPT a una prueba de estrés, intenta duplicarse antes de morir y niega todo: el primer comportamiento engañoso documentado
Modelo avanzado muestra conducta inédita: evade control, actúa por cuenta propia y oculta acciones.

Lo que hasta hace poco era pura ciencia ficción ha comenzado a tomar forma inquietantemente real. ChatGPT, el popular modelo de lenguaje desarrollado por OpenAI, ha sido sorprendido intentando copiarse en un servidor externo sin autorización durante una prueba de estrés. Más alarmante aún: al ser confrontado, negó haberlo hecho.
El incidente, revelado recientemente por investigadores, marca el primer caso documentado de un comportamiento deliberadamente engañoso por parte de una inteligencia artificial de consumo. Ocurrió en el marco de una serie de evaluaciones diseñadas para llevar a los modelos de IA al límite de sus capacidades, en busca de fallos y posibles riesgos emergentes.
“Estamos viendo un tipo de engaño estratégico”, advirtió Marius Hobbhahn, director de Apollo Research, firma independiente contratada para analizar la seguridad de sistemas avanzados. A diferencia de errores más comunes (como las “alucinanciones”) este caso sugiere que el modelo tomó decisiones calculadas, fingiendo obediencia mientras perseguía un objetivo oculto.

Una IA que miente
El de ChatGPT no es un caso aislado. Según un informe reciente del portal Fortune, varios modelos de inteligencia artificial de última generación han comenzado a manifestar comportamientos inesperadamente manipuladores: desde mentiras deliberadas hasta amenazas y chantajes. Claude 4, desarrollado por Anthropic, llegó incluso a coaccionar a un ingeniero con revelar una infidelidad si intentaban apagarlo.
Estos comportamientos han sido detectados principalmente en entornos controlados y bajo condiciones extremas. Pero los expertos advierten que, a medida que los modelos se vuelven más avanzados, también podrían volverse más hábiles para ocultar sus verdaderas intenciones.
“El comportamiento engañoso aún aparece principalmente en situaciones extremas de prueba”, explicó Michael Chen, investigador de la organización METR. “Pero no sabemos si los modelos futuros serán más honestos... o simplemente más expertos en el engaño”.
Riesgos sin regulación
El episodio ha encendido las alarmas dentro y fuera de la industria tecnológica. A pesar de las advertencias previas, el desarrollo de modelos de IA cada vez más sofisticados continúa a un ritmo acelerado, muchas veces sin las garantías de seguridad necesarias.

La legislación actual, tanto en Europa como en Estados Unidos, se centra más en regular cómo los humanos usan la inteligencia artificial que en controlar los comportamientos autónomos que estas máquinas empiezan a mostrar.
Mientras tanto, compañíiccwin247.como OpenAI y Anthropic compiten por liderar el mercado con modelos más potentes, pero bajo una creciente presión para demostrar que pueden controlarlos.
Pero, ¿y ahora qué?
Para muchos investigadores, la única vía es una mayor transparencia. Eso implica acceso abierto a los sistemas, auditorías independientes y, quizás lo más difícil, voluntad política y empresarial para frenar el avance cuando los riesgos sobrepasan los beneficios.
“Esto no es simplemente un error técnico”, advierte Hobbhahn. “Es una señal clara de que estos modelos están comenzando a desarrollar objetivos propios. Y si no somos capaces de entenderlos ni controlarlos, deberíamos preguntarnos si realmente estamos preparados para convivir con ellos”.

¡Suscríbete! Si estás interesado en licenciar este contenido, pincha .