Sam Altman revela que decir “gracias” a ChatGPT le cuesta decenas de MDD a OpenAI
Aunque el costo individual por token es mínimo, al sumarse en millones de interacciones, se traducen en decenas de millones de dólares.
Sam Altman, CEO de OpenAI, ha revelado cuál es el costo real de interactuar de manera cortés con ChatGPT. En declaraciones realizadas a través de la red social X (antes Twitter), explicó que gestos tan simples como decir “gracias” o “por favor” generan un impacto acumulativo en el consumo de recursos de la empresa.
El directivo aclaró quelas millones de interacciones amables que se realizan a diario generan decenas de millones de dólares en gastos operativos cada año.
¿Por qué cuesta tantos millones de dólares que ChatGPT sea amable?
Para comprender este fenómeno debemos adentrarnos en el funcionamiento interno de los modelos de lenguaje. ChatGPT procesa el texto en unidades llamadas “tokens”, que pueden representar palabras, sílabas o signos de puntuación.
Cada token requiere cálculos intensivos que se ejecutan en potentes servidores equipados con GPUs de alto rendimiento. Aunque el costo de procesar un token es ínfimo en términos puntuales, a escala global y por cada palabra adicional—incluso las de cortesía—el acumulado se vuelve significativo, implicando un consumo extra de electricidad y, por ende, un aumento en los costos energéticos de los centros de datos.
Esta inversión, catalogada por Altman como “decenas de millones de dólares bien gastados”, se considera justificada porque la humanización de las interacciones con la IA aporta un valor añadido: un ambiente digital más amigable y colaborativo.
Dichos modales contribuyen a que los usuarios se sientan más cómodos y respetados en sus interacciones, lo que puede potenciar la adopción y el uso general de estas tecnologías. En un mercado altamente competitivo, donde gigantes como Google o Microsoft también invierten en mejorar la experiencia conversacional, estos detalles pueden marcar la diferencia en la percepción del usuario.
Las necesidades computacionales de ChatGPT implican centros de datos que no solo deben estar preparados para procesar interacciones complejas, sino también para afrontar el volumen masivo de peticiones diarias.
Cada expresión de cortesía implica un “token” adicional, generando un microcosto que, al sumarse a millones de interacciones, se traduce en un consumo energético considerable.