Recientemente, vi una demostración de una startup en la que estaban ejecutando 500 consultas de GPT-4 por sesión de usuario. En 2023, eso les habría costado 5 dólares por usuario. Hoy, les cuesta menos de 50 centavos. Y todavía se quejan de que los costos de la API son demasiado altos.
Cuando los costos colapsan, surgen nuevos mundos. Esto no es solo recorte de costos. Es un cambio de fase.
Pensemos en lo que ocurre cuando el agua se convierte en vapor. A 99°C, tienes agua caliente. A 100°C, tienes una sustancia completamente diferente con propiedades distintas que puede hacer cosas diferentes.
Los costos tecnológicos funcionan de la misma manera. Existen puntos de umbral donde los cambios cuantitativos en el precio conducen a cambios cualitativos en lo que es posible.
Inversión de los costos de la IA
Hace un año, la economía de la IA era clara: las características debían entregar al menos 50 dólares de valor por cada dólar de costo de computación para que valiera la pena construirlas. Eso limitaba lo que las empresas decidían hacer.
Ahora esa regla es irrelevante. En el último año, los costos de los tokens de OpenAI cayeron un 90%. Modelos de código abierto como Llama, Mistral y DeepSeek pueden ejecutarse localmente. Las pequeñas empresas pueden ajustar modelos por menos que lo que costaría contratar a un desarrollador.
Lo interesante no es solo que la IA se hizo más barata, sino que el patrón de costos se invirtió.
En el mundo anterior, la decisión era: “¿Podemos permitirnos usar IA aquí?”. En el mundo nuevo, es: “¿Podemos permitirnos no usar IA aquí?”.
Conozco startups que literalmente gastaron sus primeros 500,000 dólares solo en créditos de OpenAI el año pasado. Las mismas startups ahora gastan 50,000 dólares y obtienen mejores resultados. Eso no es una mejora incremental. Es un juego diferente.
Lo que realmente cambió en la IA
Tres innovaciones técnicas causaron este colapso.
Primero, aprendimos que los modelos más pequeños pueden ser casi tan buenos como los grandes si los entrenas correctamente. DeepSeek demostró esto con su modelo destilado de 8 mil millones de parámetros (DeepSeek-R1-Distill-Llama-8B), que obtuvo un 89.1% en MATH-500, superando a GPT-4o (estimado en más de 1 billón de parámetros) que obtuvo un 88.6% en razonamiento matemático. Resulta que el tamaño no lo es todo cuando el entrenamiento eficiente toma el escenario.
En segundo lugar, las empresas descubrieron cómo hacer que los modelos generen sus propios datos de entrenamiento. En lugar de pagar miles de etiquetadores humanos, usan modelos existentes para crear ejemplos. Las empresas han demostrado que esto reduce los costos de los datos en un 90%. Ahora, sus modelos se mejoran a sí mismos en un ciclo continuo.
En tercer lugar, la inferencia se volvió mucho más eficiente. En 2023, ejecutar GPT-4 requería GPUs de alta gama de Nvidia. Ahora, los modelos optimizados pueden ejecutarse en laptops.
Lo que esto significa es que los costos de la IA han pasado de ser prohibitivos a ser negligibles.
Lo que significa el colapso de los costos de la IA
Las implicaciones son masivas, pero no obvias.
El acceso se ha democratizado. Los equipos pequeños ahora pueden construir productos que solo las gigantes tecnológicas podían permitirse el año pasado. Un estudiante universitario en Bangalore puede construir y desplegar un modelo especializado de análisis financiero por menos que el costo de sus libros de texto.
La integración es más importante que la capacidad pura. Cuando todos tienen acceso a modelos suficientemente buenos, lo que importa es cómo los integras en los flujos de trabajo que las personas realmente usan. Comprender un dominio específico importa más que tener el modelo más grande.
La experimentación acaba de comenzar. Cuando los costos bajan, la gente prueba cosas raras. La mayoría fracasa, pero algunas funcionan de maneras sorprendentes. Estoy viendo startups probar enfoques de IA que habrían sido económicamente absurdos hace seis meses. Algunas descubren que lo que parecía derrochador a 1 dólar por consulta es transformador a 1 centavo.
El paisaje competitivo se ha restablecido. Las empresas que invirtieron millones en infraestructura propia de IA el año pasado están viendo cómo su ventaja se evapora a medida que capacidades similares se vuelven disponibles como llamadas API o modelos de código abierto. Mientras tanto, nuevas startups están diseñando desde cero para la nueva economía.
En Upekkha, estamos viendo esto: Nuestra cohorte actual está alcanzando el ajuste producto-mercado con 60% menos capital que la cohorte del año pasado. No están construyendo menos; están construyendo de manera más eficiente gracias al colapso de costos.
Avance de DeepSeek R1 en código abierto
El colapso de los costos se aceleró drásticamente con el lanzamiento del modelo R1 de DeepSeek. Este modelo cambió la economía de la implementación de IA de maneras que pocos anticiparon. DeepSeek R1 entregó un rendimiento comparable al de GPT-4 a solo 15% del costo operativo, y estaba disponible tanto como API como para despliegue local.
Lo que hizo revolucionario al DeepSeek R1 no fue solo su precio, sino su arquitectura novedosa que permitió eficiencia a escala. Las empresas que anteriormente gastaban millones en personalización de modelos ahora podían obtener resultados comparables por decenas de miles. Un cliente empresarial informó haber reducido sus costos de infraestructura de IA en más del 80% después de cambiar a DeepSeek R1, mientras mejoraba simultáneamente la calidad de respuesta para tareas específicas de dominio.
La capacidad del modelo para ejecutarse de manera eficiente en hardware de consumo democratizó aún más el acceso. Los equipos pequeños ahora pueden implementar capacidades que antes requerían infraestructura especializada y profunda experiencia.
Relación entre código abierto y costo
Hay una dinámica extraña en el mundo de la IA ahora mismo. El código abierto está ganando en algunas áreas pero perdiendo en otras. Y no está sucediendo de manera aleatoria.
La mayoría piensa en el código abierto como una filosofía, pero las empresas tecnológicas lo utilizan como una estrategia. Las grandes empresas tecnológicas no son completamente abiertas o cerradas; son estratégicamente ambas. Abren el código cuando comoditizan las ventajas de sus competidores y mantienen lo propietario cuando es lo que las diferencia.
Meta hizo código abierto Llama para comoditizar la ventaja de OpenAI. OpenAI mantiene sus métodos de entrenamiento como propietarios para mantener su ventaja. Ninguno de los dos enfoques es “correcto”, simplemente son estrategias diferentes.
Lo interesante es cómo esto se desarrolla económicamente. Como me dijo recientemente un fundador: “Los costos de producción están cayendo mientras que la distribución sigue siendo igual de difícil de descifrar».
Cuando los modelos se hacen baratos, el juego cambia. La parte difícil ya no es construir el modelo; es llevarlo a los usuarios. Y eso significa que la distribución se vuelve aún más valiosa que antes.
Cambios en cómo se consume y procesa la información
Esto está cambiando la manera en que las personas consumen información. Como un investigador de IA me explicó: “Durante 50 años, supusimos que los humanos leían la documentación directamente. Dividíamos el contenido en secciones, añadíamos capturas de pantalla y construíamos navegación, todo para los humanos. Eso es historia ahora. Hoy, los primeros adoptantes de IA interactúan con la documentación a través de la IA. No leen los documentos; hacen preguntas y la IA lee los documentos por ellos.»
Esto cambia todo sobre cómo diseñamos productos y compartimos información. La documentación ya no es para los humanos, es para que la IA la interprete para los humanos. Las interfaces de usuario se convierten en conversaciones. El soporte se vuelve integrado, no separado.
Lo que estamos presenciando no es solo una IA más barata. Es un reconocimiento total de cómo las personas interactúan con la tecnología y la información.
Desafíos de la abundancia de IA
La abundancia en IA crea nuevos problemas.
La parálisis por elección es real. Cuando había tres buenos modelos, las decisiones eran simples. Ahora hay cientos. Estoy viendo equipos desperdiciar semanas evaluando modelos en lugar de construir productos.
La calidad varía enormemente. No todos los modelos baratos son buenos modelos. Estamos viendo empresas desplegar sistemas optimizados por costos que dan información incorrecta o toman malas decisiones, solo para descubrir que los costos ocultos superan con creces lo que ahorraron en computación.
La carrera por diferenciarse se intensifica. Cuando todos tienen acceso a una buena IA, tener IA ya no es especial. El valor se traslada al conocimiento del dominio, las ventajas de los datos, la distribución y la experiencia del usuario.
La inflación de expectativas ocurre rápido. Los usuarios rápidamente se adaptan a lo que es posible. Las características que encantaban a la gente hace seis meses ahora se consideran básicas. Una startup que asesoro lanzó una función de IA con críticas positivas en enero. Para marzo, los usuarios se quejaban de que no estaba a la altura de la competencia.
¿Qué sigue en las oportunidades de IA?
El colapso de los costos no ha terminado. Todavía estamos al principio de esta transición. Ya están surgiendo patrones entre las empresas que están prosperando.
Ellos suponen que la IA es abundante, no escasa. Diseñan con la suposición de que pueden usar IA en todas partes, no solo en momentos clave.
Construyen para la realidad económica que viene, no para la que existe hoy. Incluso cuando los costos sigan cayendo, están posicionados para aprovecharlos.
Se centran en los problemas que la IA aún no puede resolver. Las partes valiosas de su pila no son los componentes de IA, sino las cosas que rodean la IA: los datos que han acumulado que las empresas de modelos no pueden tener, los flujos de trabajo que han diseñado, las experiencias de usuario que han creado.
Combinan IA con experiencia en el dominio. Las mayores oportunidades no están en las herramientas generales de IA, sino en aplicar IA a dominios específicos donde los fundadores entienden profundamente los problemas.
El mundo no cambia gradualmente. Cambia por saltos, cuando algún recurso cruza un umbral y se vuelve abundante.
Eso es lo que está sucediendo con la IA en este momento. El umbral de costos ha sido cruzado. Ahora estamos viendo lo que es posible al otro lado.
(c) 2025, Fortune