Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / Estados Unidos

Solo 35 de 85 países acuerdan reglas para el uso militar de la inteligencia artificial en cumbre en España; Estados Unidos y China se rehúsan a firmar

Sin consenso global sobre armas con inteligencia artificial

Solo 35 de 85 países acuerdan reglas para el uso militar de la inteligencia artificial en cumbre en España; Estados Unidos y China se rehúsan a firmar

CIUDAD DE MÉXICO.- La inteligencia artificial avanza a un ritmo que supera la capacidad de los gobiernos para regularla. Este jueves 5 de febrero, durante una cumbre internacional celebrada en La Coruña, España, 35 de los 85 países asistentes firmaron una declaración con principios para el uso responsable de la inteligencia artificial en el ámbito militar. Sin embargo, dos actores clave, Estados Unidos y China, decidieron no sumarse al acuerdo.

La información fue difundida por la agencia Reuters, presente en el encuentro.

La reunión, conocida como REAIM (por sus siglas en inglés, Cumbre sobre Inteligencia Artificial Responsable en el Ámbito Militar), buscaba establecer bases comunes para evitar que el desarrollo tecnológico incremente riesgos de guerra, accidentes o decisiones fuera de control humano. El resultado dejó claro que el consenso internacional todavía está lejos.

Qué cambia tras la cumbre REAIM en España: 20 principios para regular la IA en la guerra y por qué no obligan a las grandes potencias. Foto: Reuters, Canvas

¿Qué se acordó en la cumbre sobre inteligencia artificial militar?

El documento firmado por 35 países contiene 20 principios generales para guiar el uso de la inteligencia artificial en operaciones militares. Entre los puntos más importantes destacan:

  • Mantener siempre la responsabilidad humana sobre las armas impulsadas por IA.
  • Establecer cadenas de mando y control claras.
  • Compartir información sobre mecanismos nacionales de supervisión, siempre que no afecte la seguridad de cada país.

El objetivo central es evitar que las decisiones de vida o muerte queden totalmente en manos de sistemas automáticos.

Entre los países que sí firmaron el compromiso se encuentran Canadá, Alemania, Francia, Reino Unido, Países Bajos, Corea del Sur y Ucrania.

¿Por qué no participaron Estados Unidos y China?

La ausencia de Estados Unidos y China fue uno de los puntos más comentados del encuentro. Ambos países lideran el desarrollo de inteligencia artificial militar y su decisión de no adherirse refleja tensiones políticas y estratégicas.

De acuerdo con varios delegados citados por Reuters, la incertidumbre sobre las futuras relaciones entre Washington y sus aliados europeos influyó en el ambiente de la cumbre. Algunos gobiernos prefirieron no comprometerse ante un escenario internacional cambiante.

Además, existe el temor de que aceptar límites pueda poner a ciertos países en desventaja frente a potencias rivales que continúan desarrollando esta tecnología sin restricciones.

Aranceles, inflación e inteligencia artificial impulsan una nueva ola de despidos en Estados Unidos

El “dilema del prisionero” de la inteligencia artificial

Ruben Brekelmans, ministro de Defensa de Países Bajos, explicó a Reuters que los gobiernos enfrentan un problema complejo al intentar regular la IA militar.

“Rusia y China están avanzando muy rápido. Eso crea urgencia para avanzar en el desarrollo de la IA. Pero ver que avanza rápidamente también aumenta la urgencia de seguir trabajando en su uso responsable. Las dos cosas van de la mano”, afirmó.

Brekelmans comparó la situación con un “dilema del prisionero”. Por un lado, los países reconocen la necesidad de imponer límites éticos y legales. Por otro, temen que esas restricciones los dejen en desventaja frente a adversarios que no acepten las mismas reglas.

¿Qué riesgos existen si no hay regulación?

Especialistas y gobiernos coinciden en que el uso militar de la inteligencia artificial sin controles claros puede provocar varios peligros:

  • Decisiones automáticas que escalen conflictos sin intervención humana.
  • Errores técnicos que causen ataques no deseados.
  • Uso de sistemas autónomos difíciles de detener una vez activados.
  • Falta de responsabilidad legal cuando un arma controlada por IA cause daños.

La declaración firmada en España busca justamente reducir estas amenazas, aunque su impacto será limitado mientras grandes potencias no se sumen.

¿Qué sigue después de esta cumbre?

El acuerdo alcanzado en La Coruña se trata de un compromiso político y ético que cada país deberá traducir en leyes, protocolos y controles internos.

Se espera que, en futuro, se logre ampliar el número de firmantes y, sobre todo, incorporar a Estados Unidos y China en las discusiones.

Por ahora, existe preocupación global por el uso de la inteligencia artificial en la guerra, pero todavía no hay un consenso real sobre cómo controlarla.

La interacción con sistemas de inteligencia artificial como Chat GPT ha transformado la forma en que las personas buscan información y resuelven tareas diarias l Foto: Pixabay

Lo que debes tener claro

  • La cumbre REAIM reunió a 85 países en España.
  • Solo 35 firmaron un acuerdo con principios para regular la IA militar.
  • Estados Unidos y China no participaron en el compromiso.
  • El documento promueve que las decisiones de armas con IA siempre tengan supervisión humana.
  • El avance tecnológico y las tensiones internacionales dificultan un acuerdo global.

El debate apenas comienza y marcará buena parte de la agenda internacional en los próximos años. Mantener el equilibrio entre innovación y seguridad será uno de los mayores retos para gobiernos y sociedades.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados