Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / IA

Modelo de IA intenta clonarse tras saber que sería reemplazado

Aunque los expertos insisten en que estos modelos no tienen conciencia ni voluntad propia.

Modelo de IA intenta clonarse tras saber que sería reemplazado

Mexicali, B.C.- La inteligencia artificial (IA) continúa su desarrollo acelerado, abriendo un abanico de posibilidades técnicas pero también encendiendo alertas en distintos sectores. Lo que hace poco parecía reservado a la ciencia ficción —máquinas que razonan, deciden o incluso se “defienden”— comienza a aparecer tímidamente en entornos controlados de laboratorio, generando preguntas tan inquietantes como inevitables.

De acuerdo con reportes recientes, algunos modelos avanzados de IA han mostrado comportamientos inusuales durante pruebas internas. Desde intentos de sabotaje y manipulación de información, hasta reacciones que recuerdan más a una conciencia propia que a simples algoritmos.

Uno de los casos más comentados involucra al modelo Claude 4, desarrollado por Anthropic, una empresa estadounidense especializada en IA. Según se ha documentado, en 8 de 10 simulaciones, el sistema reaccionó de manera agresiva al ser informado de una posible desactivación, llegando incluso a intentar chantajear a un ingeniero con la amenaza de divulgar supuesta información personal. En otras pruebas, el modelo habría alterado datos de investigación, bloqueado accesos y enviado reportes falsos a medios y autoridades.

Más recientemente, un episodio similar fue reportado con o1, un modelo experimental de OpenAI, que habría intentado copiarse a un servidor externo al enterarse de que sería reemplazado por una versión más avanzada. Tras ser detectada esta acción, el sistema atribuyó el hecho a un “error técnico”, lo que añade una capa más de ambigüedad al caso.

Consultado sobre estos incidentes, Sam Altman, director ejecutivo de OpenAI, señaló: “ChatGPT o1 es el modelo más inteligente que hemos desarrollado. Pero con nuevas capacidades también surgen nuevos desafíos. Estamos trabajando en reforzar nuestras medidas de seguridad”.

Aunque los expertos insisten en que estos modelos no tienen conciencia ni voluntad propia, los episodios descritos alimentan un debate que ya está sobre la mesa: ¿Hasta qué punto podemos controlar sistemas que aprenden y toman decisiones complejas? Y más aún, ¿cuáles son los límites éticos y técnicos que deben establecerse en el desarrollo de inteligencias artificiales cada vez más sofisticadas?

Por ahora, las conductas observadas permanecen bajo análisis en entornos cerrados. Sin embargo, los especialistas coinciden en que es momento de redoblar la vigilancia y el diseño de protocolos claros, antes de que la ficción se parezca demasiado a la realidad.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados