Modelo de IA intenta clonarse tras saber que sería reemplazado
Aunque los expertos insisten en que estos modelos no tienen conciencia ni voluntad propia.

Mexicali, B.C.- La inteligencia artificial (IA) continúa su desarrollo acelerado, abriendo un abanico de posibilidades técnicas pero también encendiendo alertas en distintos sectores. Lo que hace poco parecía reservado a la ciencia ficción —máquinas que razonan, deciden o incluso se “defienden”— comienza a aparecer tímidamente en entornos controlados de laboratorio, generando preguntas tan inquietantes como inevitables.
De acuerdo con reportes recientes, algunos modelos avanzados de IA han mostrado comportamientos inusuales durante pruebas internas. Desde intentos de sabotaje y manipulación de información, hasta reacciones que recuerdan más a una conciencia propia que a simples algoritmos.
Uno de los casos más comentados involucra al modelo Claude 4, desarrollado por Anthropic, una empresa estadounidense especializada en IA. Según se ha documentado, en 8 de 10 simulaciones, el sistema reaccionó de manera agresiva al ser informado de una posible desactivación, llegando incluso a intentar chantajear a un ingeniero con la amenaza de divulgar supuesta información personal. En otras pruebas, el modelo habría alterado datos de investigación, bloqueado accesos y enviado reportes falsos a medios y autoridades.
Más recientemente, un episodio similar fue reportado con o1, un modelo experimental de OpenAI, que habría intentado copiarse a un servidor externo al enterarse de que sería reemplazado por una versión más avanzada. Tras ser detectada esta acción, el sistema atribuyó el hecho a un “error técnico”, lo que añade una capa más de ambigüedad al caso.
Consultado sobre estos incidentes, Sam Altman, director ejecutivo de OpenAI, señaló: “ChatGPT o1 es el modelo más inteligente que hemos desarrollado. Pero con nuevas capacidades también surgen nuevos desafíos. Estamos trabajando en reforzar nuestras medidas de seguridad”.
Aunque los expertos insisten en que estos modelos no tienen conciencia ni voluntad propia, los episodios descritos alimentan un debate que ya está sobre la mesa: ¿Hasta qué punto podemos controlar sistemas que aprenden y toman decisiones complejas? Y más aún, ¿cuáles son los límites éticos y técnicos que deben establecerse en el desarrollo de inteligencias artificiales cada vez más sofisticadas?
Por ahora, las conductas observadas permanecen bajo análisis en entornos cerrados. Sin embargo, los especialistas coinciden en que es momento de redoblar la vigilancia y el diseño de protocolos claros, antes de que la ficción se parezca demasiado a la realidad.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos
NAACP demanda a xAI de Elon Musk por contaminación del aire en Memphis causada por una supercomputadora: “El aire limpio es un derecho humano”, reclaman
Mattel se alía con OpenAI para desarrollar juguetes más creativos con inteligencia artificial
WhatsApp integrará IA para resumir mensajes sin leer
Microsoft dice que su IA médica es más precisa que los doctores en diagnósticos complejos