Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
Superverticales de IA: ¿Primero programar, luego Excel?
La programación sorprendió a todos al consolidarse como uno de los verticales de aplicaciones de IA más potentes hasta la fecha.
Combina tres atributos poco comunes: un TAM enorme, una cuña natural en casos de uso adyacentes y un GTM orientado al producto que elimina en gran medida la necesidad de ventas y marketing tradicionales. Muy pocos verticales comparten ese perfil.
Excel es una de ellas.
El TAM es aún mayor. Gran parte de la industria del software puede verse como "envoltorios de Excel" en capas, y la adopción es en gran medida autoservicio. Esto probablemente explica por qué tanto $OpenAI como $Anthropic se han expandido agresivamente hacia hojas de cálculo y flujos de trabajo de productividad (según informes públicos).
++++
🔵Codificación
1/ Por qué funcionó la programación:
Los desarrolladores identifican rápidamente las mejores herramientas sin un marketing excesivo. A menudo tienen influencia directa en las compras, y las empresas son relativamente insensibles a los costes incrementales por desarrollador si la productividad mejora. Como resultado, los productos sólidos se expanden de abajo hacia arriba con un esfuerzo de ventas mínimo, a diferencia de la mayoría de los sectores que requieren venta, marketing y compras empresariales explícitas.
La mayoría de los otros sectores (sanidad, bienes raíces, finanzas, etc.) requieren ventas, marketing y compras empresariales explícitas.
2/ TAM:
El TAM más citado para codificación es ~$2T.
Más importante aún, programar no es solo un mercado final, es una cuña divisoria. Ser dueño del flujo de trabajo del desarrollador crea ventaja en todas las aplicaciones construidas sobre él.
3/ Codificación - Comprobación de estado:
4 empresas a $1.000 millones + ARR
Al menos 7 empresas han superado los 100 millones de dólares de ARR, a menudo a una velocidad sin precedentes
++++
🔵Excel sigue el mismo patrón.
Tiene un enorme TAM, sirve como puerta de entrada a muchos casos de uso adyacentes y soporta la adopción por autoservicio con GTM limitado. La industria del software de aplicaciones de los ~500.000 millones de dólares es, probablemente, una gran capa de abstracción de Excel, que abarca CRM, Airtable, Smartsheet y grandes partes de finanzas, operaciones, analítica y herramientas internas.
▶️TAM:
Incluso teniendo en cuenta la superposición entre Microsoft Office, Google Workspace y WPS, una base global de usuarios mensuales activos en hojas de cálculo de ~1,5–1,6 mil millones es una estimación razonable.
▶️Excel también es más que Excel:
El software es una industria de ~$1 toneladón, con el software de aplicación probablemente representando el ~50%. Si un Excel nativo de IA se vuelve programable, la oportunidad se expande mucho más allá de las hojas de cálculo y se convierte en la creación de aplicaciones en sí.
▶️GTM:
Las finanzas son la cuña inicial natural. Tiene un alto beneficio per cápita, una fuerte disposición a pagar por herramientas de productividad, autoridad presupuestaria directa a nivel de analista y un ROI claro que hace que los productos sean en gran medida autoventa. Aproximadamente ~10% de los usuarios globales de hojas de cálculo trabajan en roles relacionados con finanzas, lo que representa un punto de partida muy grande y muy monetizado.
La programación mostró lo rápido que puede escalar una herramienta autoservicio, nativa del flujo de trabajo y con una gran superficie. Excel puede ser la próxima versión de ese manual, pero a una escala aún mayor.
---
Análisis completo:

59
¿Acabarán los chatbots pareciéndose más a streaming o a búsqueda?
El streaming, la búsqueda y los chatbots son industrias sin efectos clásicos de red (costes de cambio relativamente bajos). Sin embargo, el streaming está fragmentado mientras que la búsqueda se convirtió en casi un monopolio.
🔵Streaming - fragmentado por diseño
El contenido no es una mercancía. Es diferenciado, no exclusivo y está disponible en diferentes plataformas. Así que el mercado sigue disperso. YouTube, Netflix, Disney... cada uno tiene una cuota de un solo dígito porque cada uno posee diferentes programas.
🔵Búsqueda - ganador-se lleva casi-todo
$Google tiene un ~90% de cuota aunque $Bing no está tan mal. ¿Por qué?
1/ La distribución/los valores por defecto son increíblemente poderosos
La mayoría de la gente no elige un motor de búsqueda. Aceptan lo que el dispositivo les da. $Google paga decenas de miles de millones al año para ser el impago.
2/ Hábito y marca
$Google es un verbo. $Bing no lo es. El poder de la marca Habit Plus está muy infravalorado (y sinceramente me sorprende un poco).
3/ Volante de inercia de datos (en cierta medida)
Un motor mejor → más usuarios → más datos → un motor mejor. Me pregunto cuán grande es realmente este efecto, pero definitivamente existe.
4/ Escala de ecosistema publicitario
Los anunciantes obtienen más volumen y mejor retorno de inversión en Google gracias a Search + YouTube + Maps + Android + Gmail. Así que priorizan Google, lo que refuerza la ventaja.
🔵Chatbots/Agentes: ¿más cerca de la búsqueda que del streaming?
Los chatbots son más como la búsqueda: las salidas se sienten como mercancías, y quieres un asistente que recuerde todo (si los chatbots descubren la memoria, el bloqueo debería ser más fuerte que la búsqueda). Habrá zonas regionales/lingüísticas (por ejemplo, China).
Comparado con los primeros días de búsqueda $Google:
- La regulación ahora es más estricta (más difícil convertirse en monopolio);
- Las plataformas están más fragmentadas hoy en día: $Google, $Meta (y quizá MSFT/AAPL/AMZN) impulsarán cada una su propio asistente estrechamente integrado; tenemos Apple vs. Windows/Android;
Todo esto hace que un monopolio único sea mucho menos probable.
A nivel de usuario: un agente central que realiza entre el 70 y el 90% del trabajo.
A nivel de mercado: quizá 2-3 mega-asistentes, no un solo $Google con un 90% de éxito.

Freda Duan26 nov 2025
Un análisis profundo sobre el modelo de negocio de la frontera. Todo esto se basa en cifras filtradas por The Information, NYT, etc.
🔵El Núcleo: Es una máquina de combustión de cómputo
En esencia, el modelo es brutalmente simple: casi todos los costes provienen de la computación – la inferencia y, especialmente, la formación. El entrenamiento sigue algo parecido a una ley de escala. Supongamos que los costes suben ~5 veces cada año; y el retorno de inversión en los costes de formación es el doble.
Eso crea una dinámica extraña:
Coste de la formación del primer año: 1
Ingresos del año 2 de ese modelo: 2
Pero el coste del entrenamiento del segundo año para el siguiente modelo: 5
Neto: +2 - 5 = -3
Si lo haces avanzar, empeora:
Ingresos del año 3: +10
Coste de la formación de 3º curso: -25
Neto: -15
Los modelos frontera, tal y como se ejecutan actualmente, son bolas de nieve con flujo de caja negativo. Cada generación gasta más dinero que la anterior.
Para que esto llegue a un flujo de caja positivo, solo dos cosas pueden cambiar lógicamente:
R. Los ingresos crecen mucho más rápido que el doble, o
B. El crecimiento del coste de entrenamiento se ralentiza de 5 veces al año a algo así como <2 veces
El CEO de Anthropic, Dario Amodei, ha desglosado el escenario B ("los costes de formación dejan de crecer exponencialmente") en dos posibles realidades:
1/ Límites físicos/económicos: Simplemente no se puede entrenar un modelo 5 veces más grande: no hay suficientes chips, no hay suficiente energía, o el coste se acerca al PIB mundial.
2/ Rendimientos decrecientes: Podrías entrenar un modelo más grande, pero la curva de escala se aplana. Gastar otras 10 veces deja de merecer la pena.
Lo que revelan los números de OpenAI y Anthropic:
Las proyecciones financieras filtradas de ambas compañías básicamente validan este marco.
OpenAI: El plan de OpenAI asume efectivamente que la capacidad total de cómputo dejará de crecer después de 2028.
En resumen: los márgenes mejoran porque los costes de formación se estabilizan. Este es el escenario B.
Antrópico:
1/ Asumen que el ROI por modelo aumenta cada año. Gasta 1, recupera por ejemplo 5 en vez de 2.
2/ El crecimiento del gasto en cómputo también es mucho más moderado. De FY25 a FY28: Crecimiento del coste de cómputo de OpenAI >> Anthropic's
Usando el marco anterior, cuentan tanto con la rampa de ingresos de A como con un crecimiento de costes más lento en B.
🔵 $NFLX es la analogía más cercana
En tecnología, los modelos intensivos en capital son raros, aunque no sin precedentes. $NFLX es una buena analogía: durante años tuvo un flujo de caja profundamente negativo que empeoraba anualmente. Tuvieron que invertir dinero en contenido por adelantado, y esos activos se depreciaron en cuatro años. En muchos aspectos se asemeja a la economía de centros de datos y entrenamiento de modelos.
Pico de liquidez en 2019: -3.000 millones
Flujo de caja 2020: +2.000 millones
¿Por qué este cambio repentino de positivo? El COVID paralizó la producción. El gasto en contenido dejó de crecer. El flujo de caja se invertió al instante.
🔵El objetivo final: los márgenes llegan cuando el crecimiento de costes se ralentiza
$NFLX no dejó de invertir en contenido por completo, simplemente dejó de *hacer* crecer esa inversión agresivamente una vez que alcanzó los ~300 millones de suscriptores globales. A esa escala, la pegajosidad es alta, y solo necesitan mantener su posición, no expandir el gasto en contenido diez veces al año.
No creo que OpenAI o Anthropic dejen de entrenar por completo. Pero no necesitarán aumentar el gasto en entrenamiento por múltiples para siempre. En algún momento:
El ROI por modelo sube, o se activan los límites de escalado, o ambas cosas.
Y en el momento en que el gasto anual en formación deja de crecer cinco veces al año, los márgenes de beneficio aparecen casi de inmediato.
Eso es lo extraño de la economía de los LLM:
Es una máquina de quemar... hasta que de repente deja de serlo.
Fuentes:
++
Artículo completo:

66
Un análisis profundo sobre el modelo de negocio de la frontera. Todo esto se basa en cifras filtradas por The Information, NYT, etc.
🔵El Núcleo: Es una máquina de combustión de cómputo
En esencia, el modelo es brutalmente simple: casi todos los costes provienen de la computación – la inferencia y, especialmente, la formación. El entrenamiento sigue algo parecido a una ley de escala. Supongamos que los costes suben ~5 veces cada año; y el retorno de inversión en los costes de formación es el doble.
Eso crea una dinámica extraña:
Coste de la formación del primer año: 1
Ingresos del año 2 de ese modelo: 2
Pero el coste del entrenamiento del segundo año para el siguiente modelo: 5
Neto: +2 - 5 = -3
Si lo haces avanzar, empeora:
Ingresos del año 3: +10
Coste de la formación de 3º curso: -25
Neto: -15
Los modelos frontera, tal y como se ejecutan actualmente, son bolas de nieve con flujo de caja negativo. Cada generación gasta más dinero que la anterior.
Para que esto llegue a un flujo de caja positivo, solo dos cosas pueden cambiar lógicamente:
R. Los ingresos crecen mucho más rápido que el doble, o
B. El crecimiento del coste de entrenamiento se ralentiza de 5 veces al año a algo así como <2 veces
El CEO de Anthropic, Dario Amodei, ha desglosado el escenario B ("los costes de formación dejan de crecer exponencialmente") en dos posibles realidades:
1/ Límites físicos/económicos: Simplemente no se puede entrenar un modelo 5 veces más grande: no hay suficientes chips, no hay suficiente energía, o el coste se acerca al PIB mundial.
2/ Rendimientos decrecientes: Podrías entrenar un modelo más grande, pero la curva de escala se aplana. Gastar otras 10 veces deja de merecer la pena.
Lo que revelan los números de OpenAI y Anthropic:
Las proyecciones financieras filtradas de ambas compañías básicamente validan este marco.
OpenAI: El plan de OpenAI asume efectivamente que la capacidad total de cómputo dejará de crecer después de 2028.
En resumen: los márgenes mejoran porque los costes de formación se estabilizan. Este es el escenario B.
Antrópico:
1/ Asumen que el ROI por modelo aumenta cada año. Gasta 1, recupera por ejemplo 5 en vez de 2.
2/ El crecimiento del gasto en cómputo también es mucho más moderado. De FY25 a FY28: Crecimiento del coste de cómputo de OpenAI >> Anthropic's
Usando el marco anterior, cuentan tanto con la rampa de ingresos de A como con un crecimiento de costes más lento en B.
🔵 $NFLX es la analogía más cercana
En tecnología, los modelos intensivos en capital son raros, aunque no sin precedentes. $NFLX es una buena analogía: durante años tuvo un flujo de caja profundamente negativo que empeoraba anualmente. Tuvieron que invertir dinero en contenido por adelantado, y esos activos se depreciaron en cuatro años. En muchos aspectos se asemeja a la economía de centros de datos y entrenamiento de modelos.
Pico de liquidez en 2019: -3.000 millones
Flujo de caja 2020: +2.000 millones
¿Por qué este cambio repentino de positivo? El COVID paralizó la producción. El gasto en contenido dejó de crecer. El flujo de caja se invertió al instante.
🔵El objetivo final: los márgenes llegan cuando el crecimiento de costes se ralentiza
$NFLX no dejó de invertir en contenido por completo, simplemente dejó de *hacer* crecer esa inversión agresivamente una vez que alcanzó los ~300 millones de suscriptores globales. A esa escala, la pegajosidad es alta, y solo necesitan mantener su posición, no expandir el gasto en contenido diez veces al año.
No creo que OpenAI o Anthropic dejen de entrenar por completo. Pero no necesitarán aumentar el gasto en entrenamiento por múltiples para siempre. En algún momento:
El ROI por modelo sube, o se activan los límites de escalado, o ambas cosas.
Y en el momento en que el gasto anual en formación deja de crecer cinco veces al año, los márgenes de beneficio aparecen casi de inmediato.
Eso es lo extraño de la economía de los LLM:
Es una máquina de quemar... hasta que de repente deja de serlo.
Fuentes:
++
Artículo completo:

63
Populares
Ranking
Favoritas