Qué es el tokenmaxxing: cuando gastar más en IA se confunde con ser más productivo

  • El CEO de Nvidia plantea pagar a los ingenieros con créditos de IA equivalentes a la mitad de su salario
  • El fenómeno se extiende por Silicon Valley con dudas sobre si la métrica cuantifica un valor real
Un hombre con los brazos en jarras mira unas pantallas grandes con código HTML

Hasta hace poco, un token era, para la mayoría, una unidad técnica invisible. Un fragmento de texto procesado por modelos como ChatGPT, Claude o Gemini. Un coste de infraestructura, una medida de uso y una cifra para ingenieros y proveedores. Pero en Silicon Valley esa unidad empieza a adquirir otro significado y ya no solo mide la interacción con la IA: empieza a funcionar como un marcador de productividad, prestigio interno e incluso compensación laboral. Un giro al que se ha bautizado con nombre propio: tokenmaxxing.

La expresión describe una práctica cada vez más visible en algunas de las empresas tecnológicas más influyentes: maximizar el consumo de tokens de inteligencia artificial como señal de sofisticación técnica, alineación cultural y rendimiento. Así, cuantos más tokens se “queman”, más IA se deduce que se está usando; y cuanta más IA se usa, mayor parece ser la percepción de productividad. Un razonamiento que ya está generando tanta tracción como escepticismo.

La discusión se aceleró cuando Jensen Huang, CEO de Nvidia, propuso durante la conferencia GTC 2026 una idea que, hace solo unos meses, habría parecido extravagante: ofrecer a los ingenieros una asignación anual de tokens equivalente a aproximadamente la mitad de su salario base. Así, si un desarrollador gana 500.000 dólares al año, la lógica sería añadir unos 250.000 dólares en cómputo para que, en teoría, multiplique por diez su productividad. Huang llegó a decir que se pondría “en alerta máxima” si un ingeniero con ese sueldo apenas consumiera 5.000 dólares al año en tokens.

La propuesta de Huang, que dirige la empresa que fabrica buena parte de los chips sobre los que se ejecuta la IA del mercado, conlleva un interés por fomentar un consumo creciente de la misma: sin cómputo no hay tokens, y sin tokens no hay crecimiento de ingresos. Sus centros de datos son, en su propia expresión, “fábricas de tokens”, así que, desde esa perspectiva, convertir el uso intensivo de IA en una nueva norma cultural dentro de la ingeniería, beneficia a toda la cadena, empezando por Nvidia.

A medida que las herramientas agénticas ganan capacidad, el uso de la IA deja de ser puntual

La idea ha encontrado terreno fértil porque se inserta en una transformación más profunda del trabajo técnico. A medida que las herramientas agénticas ganan capacidad, el uso de la IA deja de ser puntual y pasa a organizar procesos enteros. Ya no se trata de pedir ayuda para redactar una función o revisar un bloque de código. Ahora los agentes pueden trabajar durante horas sin supervisión, dividir tareas, generar subagentes, revisar repositorios completos y seguir produciendo mientras su usuario duerme. En ese nuevo régimen operativo, el consumo de tokens crece de forma exponencial.

Ahí aparece el segundo motor del tokenmaxxing: la ansiedad. En empresas como Meta, Shopify u OpenAI, el uso de la IA empieza a entrar en las evaluaciones de desempeño, y algunas informaciones apuntan a rankings internos que muestran cuántos tokens consume cada empleado. En ese contexto, el volumen deja de ser una cifra neutra y se convierte en un signo de adaptación al nuevo entorno. No usar la IA con intensidad puede leerse como rezago. Usarla mucho, en cambio, proyecta la imagen de alguien alineado con el futuro. Es la lógica de una cultura que no sabe todavía medir bien el valor de la inteligencia artificial, pero sí sabe contar cuánto se gasta en ella.

Las cifras que circulan por Internet ayudan a entender la magnitud del fenómeno. Un ingeniero de OpenAI habría procesado 210.000 millones de tokens en una semana, el equivalente aproximado a 33 Wikipedias completas. En Anthropic, un solo usuario de Claude Code acumuló una factura superior a 150.000 dólares en un mes. Un desarrollador en Estocolmo resume esa desproporción con una frase que se ha convertido casi en emblema del momento: “Probablemente gasto más en Claude que en mi propio sueldo”. Es una señal del tipo de economía que empieza a configurarse alrededor de la IA: una en la que el coste de la asistencia computacional puede acercarse o incluso superar al coste del trabajo humano que la coordina.

La cuestión es que ese volumen no resuelve por sí mismo el problema central. Consumir más no implica automáticamente producir mejor. Un ingeniero puede emplear enormes cantidades de tokens para automatizar con criterio tareas complejas y generar valor real. Pero otro puede lanzar procesos en paralelo, abrir múltiples agentes y disparar el gasto sin una mejora equivalente en calidad, precisión o impacto. Si la organización premia sobre todo el volumen de uso, el incentivo deja de ser “trabajar mejor con IA” y pasa a ser “demostrar que se usa mucha IA”. Es una diferencia pequeña en apariencia, pero enorme en sus consecuencias.

Noticias Relacionadas

Por eso han empezado a proliferar las críticas. Gergely Orosz, analista del mundo de la ingeniería de software, ha señalado que el problema no está en animar a los equipos a usar herramientas que mejoren su productividad. El problema es tomar el precio de esas herramientas como criterio central. Algunas de las más útiles son baratas. Algunas de las más caras pueden ser espectaculares desde el punto de vista comercial, pero no necesariamente más valiosas en el trabajo real. La productividad, recuerda esa lectura, no debería medirse por tokens consumidos, sino por resultados obtenidos.

La analogía que más se repite en estas críticas es reveladora: evaluar a los empleados por el número de tokens que “queman” se parece a medir a soldados por la cantidad de balas disparadas. Hay actividad, pero no necesariamente eficacia. Hay movimiento, pero no necesariamente avance. En el fondo, el tokenmaxxing expone una vieja debilidad de la cultura corporativa: cuando las empresas no saben medir lo importante, tienden a medir lo que es fácil contar.

A diferencia del salario o del capital accionario, los tokens no generan patrimonio, no se acumulan y no son trasladables

En este sentido, los tokens se están incorporando a la conversación salarial de una manera ambigua. Inversores como Tomasz Tunguz ya describen la inferencia de IA como un cuarto componente de la compensación del ingeniero, junto a salario, bonus y acciones. Sobre el papel, la idea tiene lógica: si el acceso masivo a cómputo permite a un trabajador multiplicar su producción, ese acceso es un activo valioso y puede formar parte del paquete de contratación. Pero esa lógica se vuelve menos convincente en cuanto se analiza qué tipo de valor recibe realmente el empleado.

A diferencia del salario o del capital accionario, los tokens no generan patrimonio, no se acumulan y no son trasladables como seguridad económica. Son capacidad operativa, no riqueza. Un trabajador puede disponer de cientos de miles de dólares en cómputo, pero eso no mejora necesariamente su posición financiera ni su poder negociador futuro. En el mejor de los casos, le dota de herramientas. En el peor, maquilla un paquete retributivo que parece más generoso sin aumentar las partidas que sí consolidan estabilidad.

También hay una lectura empresarial más dura. Si una compañía asigna a cada ingeniero el equivalente a una segunda fuerza laboral digital en forma de agentes y cómputo, la expectativa implícita es que ese trabajador produzca mucho más porque ahora tiene a su disposición una infraestructura costosa cuyo uso debe justificarse. En ese punto, el token deja de parecerse a un beneficio y empieza a operar como un mecanismo de presión.

Por ahora, todo esto sigue en fase de experimentación cultural. Silicon Valley busca nuevas métricas para una nueva época mientras los proveedores de IA celebran el crecimiento del consumo. Los ingenieros más ambiciosos intentan demostrar que no se están quedando atrás. Y los directivos, mientras tanto, observan si esa intensidad se traduce en mejores productos, más velocidad y mayor ventaja competitiva. Todavía no está claro si el tokenmaxxing es un anticipo de cómo se organizará el trabajo técnico en los próximos años o un síntoma de una industria que, atrapada entre el miedo y la euforia, está confundiendo actividad con valor.

Lo que sí parece claro es que la conversación ha cambiado. Los tokens empiezan a ser una unidad cultural, una forma de medir adopción, repartir estatus y reescribir, quizá de manera prematura, qué significa rendir en la economía de la inteligencia artificial.

INFORMACIÓN, INSPIRACIÓN Y CRITERIO

Suscríbete gratis a la Newsletter que reciben a diario más de 50.000 profesionales de la industria.

Abrir Formulario