ChatGPT celebra tres años con avances en multimodalidad y razonamiento, suma 800 millones de usuarios y enfrenta retos como alucinaciones, dependencia emocional, derechos de autor y riesgos de ciberseguridad según OpenAI
El asistente de OpenAI pasa de generar contenido a resolver tareas complejas con modelos avanzados, mientras crecen los debates sobre su impacto, sus límites y las medidas para un uso seguro

ChatGPT celebra este domingo su tercer aniversario desde su lanzamiento, un periodo en el que ha pasado de ser una herramienta de entretenimiento a convertirse en un sistema capaz de razonar, interactuar con múltiples formatos y acompañar a millones de personas en su trabajo, estudios y vida cotidiana. La plataforma de OpenAI, que ya suma 800 millones de usuarios, ha evolucionado siguiendo una línea que combina avances tecnológicos y ajustes éticos para reducir riesgos, de acuerdo con lo publicado por Proceso.
La información fue detallada en un repaso técnico de OpenAI sobre la evolución de sus modelos, donde se explica cómo el chatbot ha ampliado sus capacidades desde 2022 hasta convertirse en un sistema de asistencia integral.
Te puede interesar: OpenAI niega responsabilidad en el suicidio de un adolescente y asegura que este hizo un “uso indebido” de ChatGPT
De GPT-3.5 a GPT-5: cómo cambió el modelo en tres años

Cuando apareció, ChatGPT operaba con GPT-3.5, modelo que le permitía sostener conversaciones realistas, responder preguntas y generar contenido a partir de texto. Su popularidad creció de forma masiva por su formato conversacional, que lo hacía accesible y útil en tareas simples.
Con la llegada de GPT-4, el sistema dio un salto importante: incorporó capacidades multimodales, lo que permitió comprender imágenes y voz. La interacción dejó de depender únicamente del texto.
Con GPT-4o, la multimodalidad se volvió nativa, es decir, el modelo pudo comprender y generar combinaciones de texto, audio e imagen con mayor velocidad.
La siguiente etapa fue la mejora del razonamiento. OpenAI lanzó modelos centrados exclusivamente en esta función, conocidos como la serie o, que impulsaron la capacidad del chatbot para resolver problemas complejos en áreas como ciencia, matemáticas y programación.
Luego llegaron las herramientas de agente autónomo en internet, introducidas con o3 y o4-mini, que permitieron a ChatGPT razonar sobre el uso de herramientas externas, navegar y producir respuestas en el formato adecuado en menos de un minuto.
Finalmente, GPT-5, presentado este verano, llevó al asistente a nivel de experto académico, capaz de generar programas completos a partir de unas cuantas instrucciones y de comunicarse de forma más natural y adaptada a distintas personalidades.
Un asistente conversacional, un confidente y una herramienta de trabajo

Los usuarios no solo ven a ChatGPT como un buscador mejorado. Muchos lo adoptan como:
- compañero de trabajo,
- asesor personal,
- herramienta de estudio,
- e incluso confidente.
Esto se debe al formato conversacional, que permite interacciones fluidas y la sensación de diálogo con un asistente personalizado.
Luces y sombras: los riesgos que acompañan al crecimiento de ChatGPT
El avance de la herramienta ha dado lugar a beneficios, pero también a problemas que se han vuelto visibles conforme aumenta su uso.
Alucinaciones, engaños y el problema de la información falsa

Una de las limitaciones más críticas es la aparición de alucinaciones, respuestas en las que el modelo inventa información o la usa de forma incorrecta.
Este problema no es exclusivo de ChatGPT; también ocurre en Gemini, Claude, Perplexity y Grok. Sin embargo, el riesgo aumenta porque muchos usuarios interpretan estos sistemas como fuentes confiables, lo que puede llevar a asumir como cierto algo que no lo es.
Para mitigar esto, OpenAI y otras compañías refuerzan el entrenamiento, obligan al modelo a mostrar fuentes, a reconocer cuando no puede responder y a negar peticiones que impliquen un peligro.
Dependencia emocional y salud mental: uno de los retos más delicados
El uso intensivo del chatbot ha generado casos de dependencia emocional, cuando un usuario trata al asistente como si fuese un amigo o una figura de apoyo.
OpenAI asegura que GPT-5 identifica mejor señales de malestar emocional, reduce respuestas que puedan agravar situaciones de riesgo y mantiene salvaguardias incluso en conversaciones prolongadas, donde los modelos suelen fallar.
Además, la compañía implementó nuevas funciones de control parental para limitar contenidos y prepara un sistema capaz de detectar la edad del usuario.
Estas medidas surgieron después de que una familia en Estados Unidos demandara a OpenAI tras el suicidio de su hijo adolescente, alegando que ChatGPT jugó un papel en su decisión debido a fallos en las protecciones del modelo.
Derechos de autor: el conflicto que marcó el entrenamiento de los modelos
Desde su aparición, ChatGPT generó debate por el uso de grandes cantidades de datos para entrenar los modelos, incluidos texto, video, imágenes y audio procedentes de internet.
El cuestionamiento se centra en que estos materiales no siempre provienen de fuentes de libre uso, lo que ha detonado disputas legales con autores, medios y plataformas.
Ciberseguridad y usos maliciosos: un problema que no desaparece

Aunque OpenAI asegura haber incorporado barreras técnicas, el chatbot puede ser utilizado para fines maliciosos. Desde los primeros meses se detectó la generación de malware, y los ciberdelincuentes han refinado técnicas para:
- impulsar campañas de phishing,
- producir contenido manipulado,
- elaborar deepfakes de video o audio,
- difundir desinformación,
- cometer fraudes financieros.
La creación de imágenes o grabaciones que simulan situaciones reales plantea desafíos adicionales para autoridades, plataformas y usuarios.
Un futuro que exige equilibrio entre innovación y seguridad
Tras tres años, ChatGPT combina avances técnicos sin precedentes con riesgos que requieren monitoreo constante. La herramienta sigue ampliando sus usos en educación, medicina, ciencia, finanzas y creatividad, mientras se mantiene el debate sobre cómo regular, supervisar y utilizar responsablemente sistemas de inteligencia artificial cada vez más autónomos.
Te puede interesar: OpenAI identifica 44 profesiones con alta exposición a la inteligencia artificial para 2026
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

Las 10 carreras universitarias que “debes evitar” en 2026 según la IA: Asegura que estas profesiones perderán relevancia por la automatización y la digitalización

Si usas o has usado DeepSeek ten cuidado, tus datos podrían estar siendo robados según el Reglamento General de Protección de Datos

Uno de cada cuatro empleos puede ser reemplazado por IA: El avance de la inteligencia artificial ha causado más de 48 mil despidos en 2025, según un informe; Amazon, Meta e Intel encabezan la ola de recortes

HP confirma que despedirá a miles de trabajadores por la adopción de IA, un recorte que podría superar el 10% de su plantilla mundial y que forma parte de un plan para ahorrar millones de dólares y responder a los cambios en el mercado

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados