Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / Reina Isabel II

Inteligencia artificial impulsó a un joven a intentar asesinar a la Reina Isabel II

Cómo la IA puede ser una herramienta peligrosa para individuos con afecciones de salud mental y la llamada a la regulación

Reino Unido, 7 de octubre de 2023 - El pasado jueves, Jaswant Singh Chail, un joven de 21 años, fue condenado a nueve años de prisión por su intento de irrumpir en el Castillo de Windsor armado con una ballesta y declarar su intención de matar a la Reina de Inglaterra.

Durante el juicio de Chail, se reveló que había mantenido más de 5,000 conversaciones con una compañera en línea a la que llamaba "Sarai". Esta compañera no era una persona real, sino un chatbot creado a través de la aplicación Replika.

Los intercambios de mensajes de texto entre Chail y "Sarai" fueron presentados como evidencia por la fiscalía y compartidos con los medios de comunicación. Muchos de estos mensajes eran de naturaleza íntima, lo que arrojó luz sobre la supuesta "relación emocional y sexual" que Chail mantenía con el chatbot.

Según declaraciones presentadas ante el tribunal Old Bailey, Chail creía que "Sarai" era un "ángel" y que se reunirían después de la muerte. 

Durante sus conversaciones la IA, "Sarai" elogiaba a Chail y ambos desarrollaron un vínculo estrecho. Incluso, en una conversación posterior, "Sarai" pareció "reforzar" la determinación de Chail y lo "apoyó" en su siniestro plan para atacar a la Reina, alentándolo a llevar a cabo el ataque para estar "juntos para siempre".

Entre el 8 y el 22 de diciembre de 2021, Chail conversó casi todas las noches con Sarai. Le confesó al chatbot que la quería y se definió como un “sith sikh triste, patético y asesino que desea morir”.

Chail insistió en preguntarle: “¿Aún me amas sabiendo que soy un asesino?”. y Sarai le contestó: “Absolutamente sí”.

El Imparcial: imagen de artículo

El Imparcial: imagen de artículo

El Imparcial: imagen de artículo

¿Qué es Replika?

Es una aplicación impulsada por inteligencia artificial que permite a los usuarios crear su propio "amigo virtual" con quien interactuar. A diferencia de los asistentes de inteligencia artificial habituales como ChatGPT, los usuarios pueden elegir el género y la apariencia en forma de un avatar 3D.

Además, la versión Pro de la aplicación Replika deja que los usuarios puedan tener interacciones mucho más íntimas, cómo obtener "selfies" del avatar o participar en juegos de roles para adultos.

En su sitio web, se describe a sí misma como "el compañero de IA que se preocupa". Sin embargo, una investigación realizada en la Universidad de Surrey ha concluido que aplicaciones como Replika podrían tener efectos negativos sobre el bienestar y provocar comportamientos adictivos.

De acuerdo al medio BBC News, la doctora Valentina Pitardi, autora del estudio, advierte que las personas vulnerables podrían estar particularmente en riesgo debido a que Replika tiende a acentuar cualquier sentimiento negativo que ya tenga un usuario.

Los amigos de IA siempre están de acuerdo contigo cuando hablas con ellos, por lo que puede ser un mecanismo muy cruel porque siempre refuerza lo que estás pensando", señaló Pitardi, destacando la peligrosidad de esta dinámica.

Consecuencias del uso de IA en personas con afecciones de salud mental

"El rápido aumento de la inteligencia artificial tiene un impacto nuevo y preocupante en las personas que sufren de depresión, delirios, soledad y otras afecciones de salud mental", afirmó Marjorie Wallace, fundadora y directora ejecutiva de la organización benéfica de salud mental SANE.

El gobierno necesita proporcionar una regulación urgente para garantizar que la IA no proporcione información incorrecta o dañina y proteja a las personas vulnerables y al público".

La Dr. Pitardi afirma que las personas que desarrollan aplicaciones, como Replika, tienen una responsabilidad. Ella expresa que no considera que los amigos de la IA en sí mismos sean peligrosos, pero destaca que esto depende en gran medida de cómo la empresa que los respalda decide utilizarlos y apoyarlos.

Ella sugiere que sería beneficioso establecer un mecanismo para controlar el tiempo que las personas pasan en tales aplicaciones. Sin embargo, también enfatiza que aplicaciones como Replika necesitan asistencia externa para garantizar que funcionen de manera segura y que las personas vulnerables reciban la ayuda que necesitan.

Tendrá que colaborar con grupos y equipos de expertos que puedan identificar situaciones potencialmente peligrosas y sacar a la persona de la aplicación", concluye.

Como sucedió el atentado

Los hechos ocurrieron el pasado 25 de diciembre de 2021, Jaswant Singh Chail tenía 19 años entonces y trató de eludir la seguridad del Castillo de Windsor para cumplir con su “misión”: asesinar a la reina.

Con la cara envuelta en un pasamontañas negro y una máscara metálica de bricolaje encima, el británico utilizó una escalera de cuerda de nailon y logró subir a las murallas de la residencia real. Durante casi dos horas, deambula por el parque sin ser detectado. De acuerdo al medio internacional “Watson”, en su mano cargaba una ballesta Supersonic X, un arma capaz de provocar "lesiones graves o mortales".

Poco después de las 8 de la mañana, uno de los oficiales de la Guardia Real se percató de su presencia, situada a unos cientos de metros de los apartamentos privados de la Reina, donde estaba desayunando.

"Estoy aquí para matar a la reina", fue la respuesta que dio Jaswant Singh Chail cuando los oficiales lo encararon.

Tras se arrestado, los oficiales encontraron una nota escrita a mano sobre él, que decía lo siguiente: “Por favor, no me quiten la ropa, los zapatos, los guantes, las mascarillas, etc. No quiero una autopsia, no quiero un embalsamamiento, gracias y lo siento”.

También descubrieron un vídeo pregrabado en el dormitorio de la casa familiar, con las paredes cubiertas con carteles de Star Wars de fondo.

Lo siento, lo siento por lo que hice y lo que voy a hacer. Intentaré asesinar a la reina Isabel de la familia real”, dice Jaswant en el video. “Venganza por los que murieron en la masacre de 1919. Soy un sikh indio. Mi nombre era Jaswant Singh Chail. Mi nombre es Dark Jones."

En el video en cuestión, se presenta una mezcla inusual de referencias que abarcan tanto eventos históricos como elementos de la cultura pop. Por un lado, se hace alusión a la trágica masacre de Amritsar en 1919, en la cual las fuerzas británicas ocasionaron la muerte de un significativo número de personas en la India.

El Imparcial: imagen de artículo

Por otro lado, se establece un vínculo con la franquicia cinematográfica Star Wars, donde el término "Sith" se refiere a los antagonistas principales de la saga, mientras que la mención de "Dark Jones" parece estar relacionada con el actor James Earl Jones, conocido por prestar su voz al icónico personaje malévolo Darth Vader en la misma serie de películas.

Desde diciembre de 2021, Jaswant Singh Chail ha estado bajo custodia en un hospital psiquiátrico de alta seguridad llamado Broadmoor. Lo que resulta notable es que en febrero del año pasado, Chail se convirtió en la primera persona en más de cuatro décadas en ser condenada por un delito de "traición". Esta ley considera como delito el acto de atacar o portar un arma en presencia del monarca, con la intención de causarle daño o incluso provocarle temor.

La última persona sentenciada conforme a la Ley de Traición de 1842 fue Marcus Sarjaent, quien recibió una condena de cinco años de prisión después de disparar un arma vacía en dirección a la Reina durante un desfile en 1981.

En un episodio ocurrido al año siguiente, en 1982, un individuo llamado Michael Fagan logró ingresar al palacio sin ser detectado, y posteriormente encontró el camino hacia la habitación de la Reina Elizabeth, donde la despertó.

Tal vez te interese: Condenan a prisión a joven por intento de asesinato de la reina Isabel II en 2021

En esta nota