Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-Verticales: ¿Primero la programación, luego Excel?
La programación sorprendió a todos al alza al emerger como uno de los verticales de aplicación de IA más fuertes hasta la fecha.
Combina tres atributos raros: un TAM masivo, una cuña natural en casos de uso adyacentes y un GTM liderado por productos que elimina en gran medida la necesidad de ventas y marketing tradicionales. Muy pocos verticales comparten ese perfil.
Excel es uno de ellos.
El TAM es aún mayor. Gran parte de la industria del software puede verse como "envolturas de Excel" en capas, y la adopción es en gran medida autoservicio. Esto probablemente explica por qué tanto $OpenAI como $Anthropic han estado expandiéndose agresivamente en hojas de cálculo y flujos de trabajo de productividad (según informes públicos).
++++
🔵Programación
1/ Por qué funcionó la programación:
Los desarrolladores identifican rápidamente las mejores herramientas sin un marketing pesado. A menudo tienen influencia directa sobre las compras, y las empresas son relativamente insensibles a los costos incrementales por desarrollador si la productividad mejora. Como resultado, los productos fuertes se difunden de abajo hacia arriba con un esfuerzo de ventas mínimo, a diferencia de la mayoría de los verticales que requieren ventas explícitas, marketing y adquisiciones empresariales.
La mayoría de los otros verticales (salud, bienes raíces, finanzas, etc.) requieren ventas explícitas, marketing y adquisiciones empresariales.
2/ TAM:
El TAM comúnmente citado para la programación es de ~$2T.
Más importante aún, la programación no es solo un mercado final: es una cuña. Poseer el flujo de trabajo del desarrollador crea apalancamiento en cada aplicación construida sobre él.
3/ Programación - Verificación de estado:
4 empresas con más de $1B ARR
Al menos 7 empresas han superado los $100M ARR, a menudo a una velocidad sin precedentes.
++++
🔵Excel se ajusta al mismo patrón.
Tiene un TAM enorme, sirve como una puerta de entrada a muchos casos de uso adyacentes y apoya la adopción autoservicio con un GTM limitado. La industria de software de aplicación de ~$500B es, sin duda, una enorme capa de abstracción de Excel, abarcando CRM, Airtable, Smartsheet y grandes partes de finanzas, operaciones, análisis y herramientas internas.
▶️TAM:
Incluso teniendo en cuenta la superposición entre Microsoft Office, Google Workspace y WPS, una base de usuarios activa mensual global de ~1.5–1.6B en hojas de cálculo es una estimación razonable.
▶️Excel también es más que Excel:
El software es una industria de ~$1T, con el software de aplicación representando probablemente ~50%. Si un Excel nativo de IA se vuelve programable, la oportunidad se expande mucho más allá de las hojas de cálculo hacia la creación de aplicaciones en sí.
▶️GTM:
Las finanzas son la cuña inicial natural. Tiene un alto beneficio por persona, una fuerte disposición a pagar por herramientas de productividad, autoridad presupuestaria directa a nivel de analista y un ROI claro que hace que los productos se vendan en gran medida por sí mismos. Aproximadamente ~10% de los usuarios globales de hojas de cálculo trabajan en roles relacionados con finanzas, representando un punto de partida muy grande y altamente monetizable.
La programación mostró cuán rápido puede escalar una herramienta nativa de flujo de trabajo autoservicio con una superficie masiva. Excel puede ser la próxima versión de ese manual - a una escala aún mayor.
---
Análisis completo:

61
¿Acabarán los chatbots pareciendo más a streaming o más a búsqueda?
Streaming, búsqueda y chatbots son todas industrias sin efectos de red clásicos (costos de cambio relativamente bajos). Sin embargo, el streaming está fragmentado mientras que la búsqueda se convirtió en un casi monopolio.
🔵Streaming - fragmentado por diseño
El contenido no es una mercancía. Es diferenciado, no exclusivo y vive en diferentes plataformas. Así que el mercado se mantiene disperso. YouTube, Netflix, Disney... cada uno tiene una participación de un solo dígito porque cada uno posee diferentes programas.
🔵Búsqueda - el ganador se lleva casi todo
$Google tiene ~90% de participación a pesar de que $Bing no es tan malo. ¿Por qué?
1/ La distribución/definiciones son increíblemente poderosas
La mayoría de las personas no eligen un motor de búsqueda. Aceptan lo que el dispositivo les da. $Google paga decenas de miles de millones al año para ser el predeterminado.
2/ Hábito y marca
$Google es un verbo. $Bing no lo es. El poder del hábito más la marca está subestimado (y honestamente, estoy un poco sorprendido por esto).
3/ Efecto de rueda de datos (hasta cierto punto)
Mejor motor → más usuarios → más datos → mejor motor. Cuestiono cuán grande es realmente este efecto, pero definitivamente existe.
4/ Escala del ecosistema publicitario
Los anunciantes obtienen más volumen y mejor ROI en Google gracias a Búsqueda + YouTube + Maps + Android + Gmail. Así que priorizan Google, lo que refuerza la ventaja.
🔵Chatbots/Agentes - ¿más cerca de la búsqueda que del streaming?
Los chatbots son más como la búsqueda: las salidas se sienten como mercancías, y quieres un asistente que recuerde todo (si los chatbots logran entender la memoria, el bloqueo debería ser más fuerte que en la búsqueda). Habrá bolsillos regionales/idiomáticos (por ejemplo, China).
Comparado con los primeros días de búsqueda de $Google:
- La regulación es ahora más estricta (más difícil convertirse en un monopolio);
- Las plataformas están más fragmentadas hoy: $Google, $Meta (y tal vez MSFT/AAPL/AMZN) cada uno impulsará su propio asistente integrado; tenemos el campamento de Apple vs. Windows/Android;
Todo esto hace que un único monopolio sea mucho menos probable.
A nivel de usuario: un agente central haciendo el 70-90% del trabajo.
A nivel de mercado: tal vez 2-3 mega-asistentes, no un único ganador al estilo de $Google del 90%.

Freda Duan26 nov 2025
Una profunda reflexión sobre el modelo de negocio de Frontier. Todo esto se basa en números filtrados por The Information, NYT, etc.
🔵El Núcleo: Es una Máquina de Consumo de Cómputo
En su esencia, el modelo es brutalmente simple: casi todos los costos provienen del cómputo – inferencia, y especialmente entrenamiento. El entrenamiento sigue algo así como una ley de escalado. Supongamos que los costos aumentan ~5x cada año; y el ROI en los costos de entrenamiento es de 2x.
Eso crea una dinámica extraña:
Costo de entrenamiento del Año 1: 1
Ingresos del Año 2 de ese modelo: 2
Pero el costo de entrenamiento del Año 2 para el siguiente modelo: 5
Neto: +2 - 5 = -3
Si lo proyectamos hacia adelante, empeora:
Ingresos del Año 3: +10
Costo de entrenamiento del Año 3: -25
Neto: -15
Los modelos Frontier, tal como se ejecutan actualmente, son bolas de nieve de flujo de caja negativo. Cada generación quema más efectivo que la anterior.
Para que esto cambie a flujo de caja positivo, solo dos cosas pueden cambiar lógicamente:
A. Los ingresos crecen mucho más rápido que 2x, o
B. El crecimiento de los costos de entrenamiento se desacelera de 5x al año a algo como <2x
El CEO de Anthropic, Dario Amodei, ha desglosado el escenario B (“los costos de entrenamiento dejan de crecer exponencialmente”) en dos realidades posibles:
1/ Límites físicos/económicos: Simplemente no puedes entrenar un modelo 5x más grande — no hay suficientes chips, no hay suficiente energía, o el costo se acerca al PIB mundial.
2/ Rendimientos decrecientes: Podrías entrenar un modelo más grande, pero la curva de escalado se aplana. Gastar otro 10x deja de valer la pena.
Lo que revelan los números de OpenAI y Anthropic:
Las proyecciones financieras filtradas de ambas compañías validan básicamente este marco.
OpenAI: El plan de OpenAI asume efectivamente que la capacidad total de cómputo deja de crecer después de 2028.
Traducción: los márgenes mejoran porque los costos de entrenamiento se aplanan. Este es el escenario B.
Anthropic:
1/ Asumen que el ROI por modelo aumenta cada año. Gastas 1, obtienes de vuelta 5 en lugar de 2.
2/ Su crecimiento en gastos de cómputo también es mucho más moderado. De FY25 a FY28: el crecimiento de costos de cómputo de OpenAI >> el de Anthropic
Usando el marco anterior, cuentan con un aumento de ingresos A y un crecimiento de costos B más lento.
🔵 $NFLX Es la Analogía Más Cercana
En tecnología, los modelos intensivos en capital son raros, aunque no sin precedentes. $NFLX es una buena analogía: durante años tuvo un flujo de caja profundamente negativo que empeoraba anualmente. Tuvieron que invertir dinero en contenido por adelantado, y esos activos se devaluaron durante cuatro años. En muchos aspectos, se asemeja a la economía de centros de datos y entrenamiento de modelos.
Pico de quema de efectivo en 2019: -3B
Flujo de caja en 2020: +2B
¿Por qué el repentino cambio positivo? COVID detuvo la producción. El gasto en contenido dejó de crecer. El flujo de caja se invirtió instantáneamente.
🔵El Juego Final: Los Márgenes Llegan Cuando el Crecimiento de Costos Se Desacelera
$NFLX no dejó de invertir en contenido por completo – simplemente dejó de *aumentar* esa inversión agresivamente una vez que alcanzó ~300M de suscriptores globales. A esa escala, la retención es alta, y solo necesitan mantener su posición, no expandir el gasto en contenido 10x al año.
No creo que OpenAI o Anthropic dejen de entrenar por completo. Pero no necesitarán aumentar el gasto en entrenamiento por múltiplos para siempre. En algún momento:
El ROI por modelo aumenta, o se activan los límites de escalado, o ambos.
Y en el momento en que el gasto anual en entrenamiento deje de crecer 5x al año, los márgenes de beneficio aparecerán casi de inmediato.
Esa es la cosa extraña sobre la economía de LLM:
Es una máquina de quema… hasta que de repente no lo es.
Fuentes:
++
Artículo completo:

68
Una profunda reflexión sobre el modelo de negocio de Frontier. Todo esto se basa en números filtrados por The Information, NYT, etc.
🔵El Núcleo: Es una Máquina de Consumo de Cómputo
En su esencia, el modelo es brutalmente simple: casi todos los costos provienen del cómputo – inferencia, y especialmente entrenamiento. El entrenamiento sigue algo así como una ley de escalado. Supongamos que los costos aumentan ~5x cada año; y el ROI en los costos de entrenamiento es de 2x.
Eso crea una dinámica extraña:
Costo de entrenamiento del Año 1: 1
Ingresos del Año 2 de ese modelo: 2
Pero el costo de entrenamiento del Año 2 para el siguiente modelo: 5
Neto: +2 - 5 = -3
Si lo proyectamos hacia adelante, empeora:
Ingresos del Año 3: +10
Costo de entrenamiento del Año 3: -25
Neto: -15
Los modelos Frontier, tal como se ejecutan actualmente, son bolas de nieve de flujo de caja negativo. Cada generación quema más efectivo que la anterior.
Para que esto cambie a flujo de caja positivo, solo dos cosas pueden cambiar lógicamente:
A. Los ingresos crecen mucho más rápido que 2x, o
B. El crecimiento de los costos de entrenamiento se desacelera de 5x al año a algo como <2x
El CEO de Anthropic, Dario Amodei, ha desglosado el escenario B (“los costos de entrenamiento dejan de crecer exponencialmente”) en dos realidades posibles:
1/ Límites físicos/económicos: Simplemente no puedes entrenar un modelo 5x más grande — no hay suficientes chips, no hay suficiente energía, o el costo se acerca al PIB mundial.
2/ Rendimientos decrecientes: Podrías entrenar un modelo más grande, pero la curva de escalado se aplana. Gastar otro 10x deja de valer la pena.
Lo que revelan los números de OpenAI y Anthropic:
Las proyecciones financieras filtradas de ambas compañías validan básicamente este marco.
OpenAI: El plan de OpenAI asume efectivamente que la capacidad total de cómputo deja de crecer después de 2028.
Traducción: los márgenes mejoran porque los costos de entrenamiento se aplanan. Este es el escenario B.
Anthropic:
1/ Asumen que el ROI por modelo aumenta cada año. Gastas 1, obtienes de vuelta 5 en lugar de 2.
2/ Su crecimiento en gastos de cómputo también es mucho más moderado. De FY25 a FY28: el crecimiento de costos de cómputo de OpenAI >> el de Anthropic
Usando el marco anterior, cuentan con un aumento de ingresos A y un crecimiento de costos B más lento.
🔵 $NFLX Es la Analogía Más Cercana
En tecnología, los modelos intensivos en capital son raros, aunque no sin precedentes. $NFLX es una buena analogía: durante años tuvo un flujo de caja profundamente negativo que empeoraba anualmente. Tuvieron que invertir dinero en contenido por adelantado, y esos activos se devaluaron durante cuatro años. En muchos aspectos, se asemeja a la economía de centros de datos y entrenamiento de modelos.
Pico de quema de efectivo en 2019: -3B
Flujo de caja en 2020: +2B
¿Por qué el repentino cambio positivo? COVID detuvo la producción. El gasto en contenido dejó de crecer. El flujo de caja se invirtió instantáneamente.
🔵El Juego Final: Los Márgenes Llegan Cuando el Crecimiento de Costos Se Desacelera
$NFLX no dejó de invertir en contenido por completo – simplemente dejó de *aumentar* esa inversión agresivamente una vez que alcanzó ~300M de suscriptores globales. A esa escala, la retención es alta, y solo necesitan mantener su posición, no expandir el gasto en contenido 10x al año.
No creo que OpenAI o Anthropic dejen de entrenar por completo. Pero no necesitarán aumentar el gasto en entrenamiento por múltiplos para siempre. En algún momento:
El ROI por modelo aumenta, o se activan los límites de escalado, o ambos.
Y en el momento en que el gasto anual en entrenamiento deje de crecer 5x al año, los márgenes de beneficio aparecerán casi de inmediato.
Esa es la cosa extraña sobre la economía de LLM:
Es una máquina de quema… hasta que de repente no lo es.
Fuentes:
++
Artículo completo:

67
Parte superior
Clasificación
Favoritos