Edición México
Suscríbete
Ed. México

El Imparcial / Mundo /

Video viral de orca que se ‘come’ a entrenadora en parque acuático resulta ser FALSO: Estos son las señales para saber si es IA

Un video donde “Jessica Radcliffe” es atacada por una orca en pleno espectáculo fue hecho con Inteligencia Artificial.

Video viral de orca que se ‘come’ a entrenadora en parque acuático resulta ser FALSO: Estos son las señales para saber si es IA

En los últimos días, un video viral ha circulado en redes sociales mostrando a una mujer identificada como Jessica Radcliffe, entrenadora de orcas, siendo supuestamente atacada por una de ellas durante un espectáculo en un parque acuático.

Las impactantes imágenes, que causaron conmoción a nivel mundial, mostraban al público gritando mientras el animal se sumergía con la joven.

Sin embargo, todo era falso: ni la entrenadora, ni el parque, ni el ataque existieron.

Cómo se creó la ilusión del ataque

El clip, de pocos segundos, mostraba a una joven de 23 años emergiendo del agua y posándose sobre el hocico de una orca en el ficticio Pacific Blue Marine Park.

De pronto, el animal abría la boca y volvía al agua con la entrenadora entre sus fauces, dejando la impresión de que la devoraba.

Los supuestos compañeros de Radcliffe y los espectadores quedaban inmóviles, observando desde la orilla antes de que el video se cortara abruptamente, lo que alimentó la intriga sobre su destino.

Así luce el video:

Claves que demostraron que el video era falso

Una investigación digital reveló que el caso era producto de la inteligencia artificial (IA). Entre las evidencias encontradas destacan:

  • El parque acuático Pacific Blue Marine Park no existe; no aparece en Google ni en Google Maps.
  • Lo más cercano al nombre hallado en internet es Blue Pacific, un conjunto de departamentos en The Entrance, Australia.
  • Jessica Radcliffe no existe; los perfiles en redes sociales asociados a su nombre fueron creados recientemente.
  • No hay registros recientes de ataques de orcas en parques acuáticos en ninguna parte del mundo.

Cómo detectar un video generado por IA

El caso de Jessica Radcliffe se suma a otros ejemplos virales creados con IA, como el falso video de un canguro de apoyo emocional impedido de abordar un avión o las supuestas imágenes de Elton John cantándole a Phil Collins en un hospital.

En 2025, los videos generados por IA han alcanzado tal nivel de realismo que pueden recrear personas, voces, escenarios y narrativas inexistentes con gran fidelidad, complicando la tarea de distinguir entre lo real y lo fabricado.

Expertos recomiendan prestar atención a señales que pueden delatar un contenido manipulado:

  • Cambios repentinos en detalles visuales, como la textura de la piel o el color de objetos.
  • Movimientos corporales o expresiones faciales poco naturales.
  • Inconsistencias en la narrativa o saltos de información.
  • Ausencia de fuentes confiables o evidencia verificable.

Identificar estas pistas es esencial para evitar caer en desinformación y proteger la credibilidad en el entorno digital.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí