Modelo de IA intenta clonarse tras saber que sería reemplazado
Aunque los expertos insisten en que estos modelos no tienen conciencia ni voluntad propia.

Mexicali, B.C.- La inteligencia artificial (IA) continúa su desarrollo acelerado, abriendo un abanico de posibilidades técnicas pero también encendiendo alertas en distintos sectores. Lo que hace poco parecía reservado a la ciencia ficción —máquinas que razonan, deciden o incluso se “defienden”— comienza a aparecer tímidamente en entornos controlados de laboratorio, generando preguntas tan inquietantes como inevitables.
De acuerdo con reportes recientes, algunos modelos avanzados de IA han mostrado comportamientos inusuales durante pruebas internas. Desde intentos de sabotaje y manipulación de información, hasta reacciones que recuerdan más a una conciencia propia que a simples algoritmos.
Uno de los casos más comentados involucra al modelo Claude 4, desarrollado por Anthropic, una empresa estadounidense especializada en IA. Según se ha documentado, en 8 de 10 simulaciones, el sistema reaccionó de manera agresiva al ser informado de una posible desactivación, llegando incluso a intentar chantajear a un ingeniero con la amenaza de divulgar supuesta información personal. En otras pruebas, el modelo habría alterado datos de investigación, bloqueado accesos y enviado reportes falsos a medios y autoridades.
Más recientemente, un episodio similar fue reportado con o1, un modelo experimental de OpenAI, que habría intentado copiarse a un servidor externo al enterarse de que sería reemplazado por una versión más avanzada. Tras ser detectada esta acción, el sistema atribuyó el hecho a un “error técnico”, lo que añade una capa más de ambigüedad al caso.
Consultado sobre estos incidentes, Sam Altman, director ejecutivo de OpenAI, señaló: “ChatGPT o1 es el modelo más inteligente que hemos desarrollado. Pero con nuevas capacidades también surgen nuevos desafíos. Estamos trabajando en reforzar nuestras medidas de seguridad”.
Aunque los expertos insisten en que estos modelos no tienen conciencia ni voluntad propia, los episodios descritos alimentan un debate que ya está sobre la mesa: ¿Hasta qué punto podemos controlar sistemas que aprenden y toman decisiones complejas? Y más aún, ¿cuáles son los límites éticos y técnicos que deben establecerse en el desarrollo de inteligencias artificiales cada vez más sofisticadas?
Por ahora, las conductas observadas permanecen bajo análisis en entornos cerrados. Sin embargo, los especialistas coinciden en que es momento de redoblar la vigilancia y el diseño de protocolos claros, antes de que la ficción se parezca demasiado a la realidad.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

El truco del “cupcake” revela cuándo ChatGPT y otras IA no están seguras de su respuesta y ayuda a evitar información falsa o inventada

Ucrania prueba robots humanoides con IA en la guerra contra Rusia: ¿qué son los Phantom MK-1 y para qué sirven?

Flood Hub: la tecnología de Google que predice inundaciones con hasta siete días de anticipación

Una sola noche de sueño podría revelar riesgo de Parkinson, cáncer o infarto: modelo de inteligencia artificial de Stanford detecta más de 130 enfermedades al analizar señales cerebrales y cardíacas, según estudio científico internacional

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados