Sam Altman revela que decir “gracias” a ChatGPT le cuesta decenas de MDD a OpenAI
Aunque el costo individual por token es mínimo, al sumarse en millones de interacciones, se traducen en decenas de millones de dólares.

Sam Altman, CEO de OpenAI, ha revelado cuál es el costo real de interactuar de manera cortés con ChatGPT. En declaraciones realizadas a través de la red social X (antes Twitter), explicó que gestos tan simples como decir “gracias” o “por favor” generan un impacto acumulativo en el consumo de recursos de la empresa.
El directivo aclaró quelas millones de interacciones amables que se realizan a diario generan decenas de millones de dólares en gastos operativos cada año.
¿Por qué cuesta tantos millones de dólares que ChatGPT sea amable?
Para comprender este fenómeno debemos adentrarnos en el funcionamiento interno de los modelos de lenguaje. ChatGPT procesa el texto en unidades llamadas “tokens”, que pueden representar palabras, sílabas o signos de puntuación.
Cada token requiere cálculos intensivos que se ejecutan en potentes servidores equipados con GPUs de alto rendimiento. Aunque el costo de procesar un token es ínfimo en términos puntuales, a escala global y por cada palabra adicional—incluso las de cortesía—el acumulado se vuelve significativo, implicando un consumo extra de electricidad y, por ende, un aumento en los costos energéticos de los centros de datos.
Esta inversión, catalogada por Altman como “decenas de millones de dólares bien gastados”, se considera justificada porque la humanización de las interacciones con la IA aporta un valor añadido: un ambiente digital más amigable y colaborativo.
Dichos modales contribuyen a que los usuarios se sientan más cómodos y respetados en sus interacciones, lo que puede potenciar la adopción y el uso general de estas tecnologías. En un mercado altamente competitivo, donde gigantes como Google o Microsoft también invierten en mejorar la experiencia conversacional, estos detalles pueden marcar la diferencia en la percepción del usuario.
Las necesidades computacionales de ChatGPT implican centros de datos que no solo deben estar preparados para procesar interacciones complejas, sino también para afrontar el volumen masivo de peticiones diarias.
Cada expresión de cortesía implica un “token” adicional, generando un microcosto que, al sumarse a millones de interacciones, se traduce en un consumo energético considerable.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

Como agua para chocolate: la IA imagina cómo sería la historia de amor de Tita y Pedro en la actualidad

Maestra se vuelve tendencia tras regañar a dos alumnos por hacer la tarea con ChatGPT

El jefe de ciberseguridad de Estados Unidos queda bajo la lupa tras filtrar documentos oficiales en ChatGPT, revelando una vulnerabilidad crítica en la gestión de archivos gubernamentales y encendiendo las alarmas sobre el uso de inteligencia artificial en las agencias de inteligencia

Trend viral de ChatGPT te convierte en caricatura: guía paso a paso para crear tu retrato con IA

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados