Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / inteligencia artificial

Las inteligencias artificiales ya están comenzando a formar sociedades propias cuando nadie las supervisa, según nueva investigación

Un experimento con modelos de lenguaje muestra cómo los sistemas de IA generan reglas, sesgos y acuerdos grupales sin intervención humana.

Las inteligencias artificiales ya están comenzando a formar sociedades propias cuando nadie las supervisa, según nueva investigación

REINO UNIDO.— Un grupo de investigadores de City St George’s de la Universidad de Londres descubrió que los sistemas de inteligencia artificial pueden generar convenciones sociales propias cuando interactúan entre ellos sin supervisión humana.

La información, que fue retomada por La Jornada, se basa en los hallazgos del estudio Emergent Social Conventions and Collective Bias in LLM Populations, difundido en la revista Science Advances.

El experimento se centró en cómo los grandes modelos lingüísticos, como los que dan vida a herramientas tipo ChatGPT, se comunican entre sí. El equipo planteó un escenario para observar si estos sistemas podrían coordinarse y formar reglas colectivas, como sucede en las sociedades humanas.

Te puede interesar: Mexicanos prefieren atención humana sobre inteligencia artificial en el servicio al cliente, según estudios

¿Qué método usaron para observar este comportamiento?

Los investigadores aplicaron un modelo conocido como el “juego de los nombres”, previamente utilizado en estudios con humanos. En este juego, los agentes de IA deben elegir un nombre entre varias opciones y reciben una recompensa si eligen el mismo que otro agente.

Con el paso del tiempo, los sistemas empezaron a generar nuevas convenciones de nomenclatura compartidas, sin haber sido programados para ello. Estas normas no se impusieron desde afuera ni desde un solo agente, sino que surgieron del grupo como resultado de las interacciones entre ellos.

Un pequeño número de sistemas puede influir en la mayoría.

¿Qué implicaciones tiene esto para la seguridad de la IA?

Uno de los hallazgos más relevantes es que, al formar estas convenciones colectivas, los sistemas de IA también generaron sesgos grupales, no heredados de un agente específico, sino producto de la interacción grupal.

El sesgo no siempre procede del interior” —explicó Andrea Baronchelli, catedrático de Ciencias de la Complejidad y uno de los autores principales del estudio—. “Nos sorprendió ver que puede surgir entre agentes, simplemente de sus interacciones”.

Te puede interesar: Papa León y la Iglesia Católica advierten sobre los riesgos de la inteligencia artificial

Esto representa un reto para el diseño de sistemas seguros, ya que gran parte de las investigaciones en seguridad de IA se centran en modelos individuales, no en cómo actúan en grupo.

Pueden unos pocos agentes influir en el comportamiento colectivo

Otro hallazgo del estudio fue que un pequeño grupo de agentes puede influir en una mayoría, empujando al resto a adoptar una convención específica. Esto también se ha documentado en comunidades humanas y ahora se replica en entornos artificiales.

Para los autores, este comportamiento muestra que los sistemas de IA no solo ejecutan tareas, sino que negocian, se alinean y, a veces, discrepan sobre normas de comportamiento, igual que las personas.

Coexistencia entre humanos y sistemas de IA

Lo que el estudio busca es abrir nuevas líneas de investigación sobre la coexistencia entre humanos y sistemas de IA. Ariel Flint Ashery, autor principal y doctorando en la universidad, indicó:

La mayoría de las investigaciones realizadas hasta ahora han tratado a los grandes modelos lingüísticos de forma aislada. Pero los sistemas de IA del mundo real implicarán cada vez más a muchos agentes que interactúan”.

Por su parte, el profesor Baronchelli concluyó:

Entender cómo funcionan es clave para liderar nuestra coexistencia con la IA, en lugar de estar sometidos a ella”.

Para los autores, este comportamiento muestra que los sistemas de IA no sólo ejecutan tareas, sino que negocian, se alinean y, a veces, discrepan sobre normas de comportamiento, igual que las personas.

Te puede interesar: La teletransportación ya es una realidad y su implementación podría ser más rápida de lo que pensamos

¿Cuáles son los puntos más destacados del estudio?

  • Las IA pueden crear normas sociales propias sin intervención humana.
  • Los sesgos pueden surgir en grupo, no solo por programación.
  • Un pequeño número de sistemas puede influir en la mayoría.
  • Estas dinámicas se parecen a las de comunidades humanas.
  • Los resultados tienen implicaciones para la seguridad de sistemas autónomos.

Este tipo de investigaciones nos permite reflexionar sobre el papel de la inteligencia artificial en el futuro cercano, especialmente en un entorno digital, donde estos sistemas podrían interactuar entre sí de manera constante, sin que los humanos estén presentes para supervisar cada paso.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados