Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

ChatGPT celebra tres años con avances en multimodalidad y razonamiento, suma 800 millones de usuarios y enfrenta retos como alucinaciones, dependencia emocional, derechos de autor y riesgos de ciberseguridad según OpenAI

El asistente de OpenAI pasa de generar contenido a resolver tareas complejas con modelos avanzados, mientras crecen los debates sobre su impacto, sus límites y las medidas para un uso seguro

ChatGPT celebra tres años con avances en multimodalidad y razonamiento, suma 800 millones de usuarios y enfrenta retos como alucinaciones, dependencia emocional, derechos de autor y riesgos de ciberseguridad según OpenAI

ChatGPT celebra este domingo su tercer aniversario desde su lanzamiento, un periodo en el que ha pasado de ser una herramienta de entretenimiento a convertirse en un sistema capaz de razonar, interactuar con múltiples formatos y acompañar a millones de personas en su trabajo, estudios y vida cotidiana. La plataforma de OpenAI, que ya suma 800 millones de usuarios, ha evolucionado siguiendo una línea que combina avances tecnológicos y ajustes éticos para reducir riesgos, de acuerdo con lo publicado por Proceso.

La información fue detallada en un repaso técnico de OpenAI sobre la evolución de sus modelos, donde se explica cómo el chatbot ha ampliado sus capacidades desde 2022 hasta convertirse en un sistema de asistencia integral.

Te puede interesar: OpenAI niega responsabilidad en el suicidio de un adolescente y asegura que este hizo un “uso indebido” de ChatGPT

De GPT-3.5 a GPT-5: cómo cambió el modelo en tres años

Foto: istock

Cuando apareció, ChatGPT operaba con GPT-3.5, modelo que le permitía sostener conversaciones realistas, responder preguntas y generar contenido a partir de texto. Su popularidad creció de forma masiva por su formato conversacional, que lo hacía accesible y útil en tareas simples.

Con la llegada de GPT-4, el sistema dio un salto importante: incorporó capacidades multimodales, lo que permitió comprender imágenes y voz. La interacción dejó de depender únicamente del texto.

Con GPT-4o, la multimodalidad se volvió nativa, es decir, el modelo pudo comprender y generar combinaciones de texto, audio e imagen con mayor velocidad.

La siguiente etapa fue la mejora del razonamiento. OpenAI lanzó modelos centrados exclusivamente en esta función, conocidos como la serie o, que impulsaron la capacidad del chatbot para resolver problemas complejos en áreas como ciencia, matemáticas y programación.

Luego llegaron las herramientas de agente autónomo en internet, introducidas con o3 y o4-mini, que permitieron a ChatGPT razonar sobre el uso de herramientas externas, navegar y producir respuestas en el formato adecuado en menos de un minuto.

Finalmente, GPT-5, presentado este verano, llevó al asistente a nivel de experto académico, capaz de generar programas completos a partir de unas cuantas instrucciones y de comunicarse de forma más natural y adaptada a distintas personalidades.

Un asistente conversacional, un confidente y una herramienta de trabajo

Última actualización de GPT-5 en ChatGPT revela que cientos de usuarios se casaron o mantienen relaciones románticas con sus chatbots l Foto: Pixabay

Los usuarios no solo ven a ChatGPT como un buscador mejorado. Muchos lo adoptan como:

  • compañero de trabajo,
  • asesor personal,
  • herramienta de estudio,
  • e incluso confidente.

Esto se debe al formato conversacional, que permite interacciones fluidas y la sensación de diálogo con un asistente personalizado.

Luces y sombras: los riesgos que acompañan al crecimiento de ChatGPT

El avance de la herramienta ha dado lugar a beneficios, pero también a problemas que se han vuelto visibles conforme aumenta su uso.

Alucinaciones, engaños y el problema de la información falsa

¿Por qué existen las Fake News y cómo se viralizan?

Una de las limitaciones más críticas es la aparición de alucinaciones, respuestas en las que el modelo inventa información o la usa de forma incorrecta.

Este problema no es exclusivo de ChatGPT; también ocurre en Gemini, Claude, Perplexity y Grok. Sin embargo, el riesgo aumenta porque muchos usuarios interpretan estos sistemas como fuentes confiables, lo que puede llevar a asumir como cierto algo que no lo es.

Para mitigar esto, OpenAI y otras compañías refuerzan el entrenamiento, obligan al modelo a mostrar fuentes, a reconocer cuando no puede responder y a negar peticiones que impliquen un peligro.

Dependencia emocional y salud mental: uno de los retos más delicados

El uso intensivo del chatbot ha generado casos de dependencia emocional, cuando un usuario trata al asistente como si fuese un amigo o una figura de apoyo.

OpenAI asegura que GPT-5 identifica mejor señales de malestar emocional, reduce respuestas que puedan agravar situaciones de riesgo y mantiene salvaguardias incluso en conversaciones prolongadas, donde los modelos suelen fallar.

Además, la compañía implementó nuevas funciones de control parental para limitar contenidos y prepara un sistema capaz de detectar la edad del usuario.

Estas medidas surgieron después de que una familia en Estados Unidos demandara a OpenAI tras el suicidio de su hijo adolescente, alegando que ChatGPT jugó un papel en su decisión debido a fallos en las protecciones del modelo.

Derechos de autor: el conflicto que marcó el entrenamiento de los modelos

Desde su aparición, ChatGPT generó debate por el uso de grandes cantidades de datos para entrenar los modelos, incluidos texto, video, imágenes y audio procedentes de internet.

El cuestionamiento se centra en que estos materiales no siempre provienen de fuentes de libre uso, lo que ha detonado disputas legales con autores, medios y plataformas.

Ciberseguridad y usos maliciosos: un problema que no desaparece

Aunque OpenAI asegura haber incorporado barreras técnicas, el chatbot puede ser utilizado para fines maliciosos. Desde los primeros meses se detectó la generación de malware, y los ciberdelincuentes han refinado técnicas para:

  • impulsar campañas de phishing,
  • producir contenido manipulado,
  • elaborar deepfakes de video o audio,
  • difundir desinformación,
  • cometer fraudes financieros.

La creación de imágenes o grabaciones que simulan situaciones reales plantea desafíos adicionales para autoridades, plataformas y usuarios.

Un futuro que exige equilibrio entre innovación y seguridad

Tras tres años, ChatGPT combina avances técnicos sin precedentes con riesgos que requieren monitoreo constante. La herramienta sigue ampliando sus usos en educación, medicina, ciencia, finanzas y creatividad, mientras se mantiene el debate sobre cómo regular, supervisar y utilizar responsablemente sistemas de inteligencia artificial cada vez más autónomos.

Te puede interesar: OpenAI identifica 44 profesiones con alta exposición a la inteligencia artificial para 2026

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados

HISTORIAS