Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
Super-verticais de IA: Programação primeiro, Excel em seguida?
A programação surpreendeu a todos ao se destacar como um dos mais fortes verticais de aplicações de IA até hoje.
Ele combina três atributos raros: um TAM massivo, uma cunha natural em casos de uso adjacentes e um GTM orientado pelo produto que elimina em grande parte a necessidade de vendas e marketing tradicionais. Pouquíssimos setores compartilham esse perfil.
Excel é um deles.
O TAM é ainda maior. Grande parte da indústria de software pode ser vista como "wrappers do Excel" em camadas, e a adoção é em grande parte autossuficiente. Isso provavelmente explica por que tanto $OpenAI quanto $Anthropic têm se expandido agressivamente para planilhas e fluxos de trabalho de produtividade (segundo relatórios públicos).
++++
🔵Codificação
1/ Por que a programação funcionou:
Os desenvolvedores identificam rapidamente as melhores ferramentas sem marketing pesado. Elas frequentemente têm influência direta sobre as compras, e as empresas são relativamente insensíveis aos custos incrementais por desenvolvedor se a produtividade melhorar. Como resultado, produtos fortes se espalham de baixo para cima com esforço mínimo de vendas – ao contrário da maioria dos setores que exigem vendas explícitas, marketing e compras empresariais.
A maioria dos outros setores (saúde, imóveis, finanças, etc.) exige vendas explícitas, marketing e aquisição empresarial.
2/ TAM:
O TAM comumente citado para codificação é ~$2T.
Mais importante ainda, programação não é apenas um mercado final – é uma cunha. Assumir o fluxo de trabalho do desenvolvedor cria influência em cada aplicação construída sobre ele.
3/ Codificação - Verificação de status:
4 empresas a $1 bilhão+ ARR
Pelo menos 7 empresas ultrapassaram US$ 100 milhões de ARR, muitas vezes em velocidade sem precedentes
++++
🔵O Excel segue o mesmo padrão.
Possui um enorme TAM, serve como porta de entrada para muitos casos de uso adjacentes e suporta adoção self-service com GTM limitado. A indústria de software de aplicação de ~$500 bilhões é, provavelmente, uma enorme camada de abstração do Excel – abrangendo CRM, Airtable, Smartsheet e grandes partes de finanças, operações, análise e ferramentas internas.
▶️TAM:
Mesmo considerando a sobreposição entre Microsoft Office, Google Workspace e WPS, uma base global de usuários mensais ativos de planilhas de cálculo é uma estimativa razoável.
▶️Excel também é mais do que Excel:
Software é uma indústria de ~$1 tonelão, com software de aplicação provavelmente representando ~50%. Se um Excel nativo de IA se tornar programável, a oportunidade se expande muito além das planilhas e se expande para a criação de aplicações em si.
▶️GTM:
Finanças é a cunha inicial natural. Possui alto lucro per capita, forte disposição para pagar por ferramentas de produtividade, autoridade orçamentária direta no nível de analista e um ROI claro que torna os produtos em grande parte auto-vendidos. Cerca de ~10% dos usuários globais de planilhas trabalham em funções relacionadas a finanças, representando um ponto de partida muito grande e altamente monetizável.
A programação mostrou como uma ferramenta self-service, nativa de fluxo de trabalho, com enorme área de superfície pode escalar. O Excel pode ser a próxima versão desse manual – em uma escala ainda maior.
---
Análise completa:

62
Será que os chatbots vão acabar parecendo mais com streaming ou mais com busca?
Streaming, busca e chatbots são todas indústrias sem efeitos clássicos de rede (custos de troca relativamente baixos). Ainda assim, o streaming está fragmentado enquanto a busca se tornou quase um monopólio.
🔵Streaming - fragmentado por design
Conteúdo não é uma mercadoria. É diferenciado, não exclusivo e está disponível em plataformas diferentes. Então o mercado permanece disperso. YouTube, Netflix, Disney... Cada um tem uma cota de um dígito porque cada um possui programas diferentes.
🔵Busca - o vencedor leva quase tudo
$Google tem ~90% de participação, mesmo que $Bing não seja tão ruim. Por que?
1/ Distribuição/default são incrivelmente poderosos
A maioria das pessoas não escolhe um mecanismo de busca. Eles aceitam o que o dispositivo lhes oferece. $Google paga dezenas de bilhões por ano para ser o padrão.
2/ Hábito e marca
$Google é um verbo. $Bing não é. A marca Power of Habit Plus é muito subestimada (e, honestamente, estou um pouco surpresa com isso).
3/ Roda de dados (até certo ponto)
Motor melhor → mais usuários → mais dados → motor melhor. Eu questiono o quão grande é esse efeito, mas ele definitivamente existe.
4/ Escala do ecossistema de anúncios
Anunciantes obtêm mais volume e melhor retorno sobre o investimento no Google graças à Busca + YouTube + Mapas + Android + Gmail. Então eles priorizam o Google, o que reforça essa vantagem.
🔵Chatbots/Agentes - mais próximos de busca do que de streaming?
Chatbots são mais parecidos com busca: as saídas parecem mercadorias, e você quer um assistente que lembre de tudo (se chatbots descobrem memória, o lock-in deve ser mais forte do que busca). Haverá bolsões regionais/linguísticas (por exemplo, China).
Comparado aos primeiros dias de busca $Google:
- A regulamentação agora é mais rígida (mais difícil de se tornar um monopólio);
- As plataformas são mais fragmentadas hoje: $Google, $Meta (e talvez MSFT/AAPL/AMZN) empurrarão cada uma seu próprio assistente fortemente integrado; temos o acampamento Apple vs. Windows/Android;
Tudo isso torna um monopólio único muito menos provável.
No nível do usuário: um agente central fazendo 70-90% do trabalho.
No nível de mercado: talvez 2-3 mega-assistentes, nenhum único $Google ganhador de 90%.

Freda Duan26 de nov. de 2025
Um pensamento profundo sobre o modelo de negócios de vanguarda. Tudo isso se baseia em números vazados pelo The Information, NYT, etc.
🔵O Núcleo: É uma Máquina de Processamento de Computação
No fundo, o modelo é brutalmente simples: quase todos os custos vêm da computação – inferência e, especialmente, do treinamento. O treinamento segue algo parecido com uma lei de escala. Vamos supor que os custos aumentem ~5 vezes por ano; e o retorno sobre custos de treinamento é o dobro.
Isso cria uma dinâmica estranha:
Custo do treinamento do Ano 1: 1
Receita do ano 2 desse modelo: 2
Mas custo do treinamento do segundo ano para o próximo modelo: 5
Líquido: +2 - 5 = -3
Passe para frente e piora:
Receita do Ano 3: +10
Custo do treinamento do 3º ano: -25
Net: -15
Os modelos fronteiriços, como atualmente executados, são bolas de neve com fluxo de caixa negativo. Cada geração gasta mais dinheiro do que a anterior.
Para que isso algum dia vire um fluxo de caixa positivo, apenas duas coisas podem mudar logicamente:
R. A receita cresce muito mais rápido do que o dobro, ou
B. O crescimento dos custos de treinamento desacelera de 5 vezes por ano para algo como <2x
O CEO da Anthropic, Dario Amodei, dividiu o cenário B ("custos de treinamento param de crescer exponencialmente") em duas realidades possíveis:
1/ Limites físicos/econômicos: Você simplesmente não pode treinar um modelo 5 vezes maior — chips insuficientes, energia insuficiente, ou o custo se aproxima do PIB mundial.
2/ Retornos decrescentes: Você poderia treinar um modelo maior, mas a curva de escala se achataria. Gastar mais 10 vezes deixa de valer a pena.
O que os números da OpenAI e da Anthropic revelam:
As projeções financeiras vazadas de ambas as empresas basicamente validam esse quadro.
OpenAI: O plano da OpenAI efetivamente assume que a capacidade total de computação para de crescer após 2028.
Tradução: as margens melhoram porque os custos de treinamento estagnam. Este é o cenário B.
Antrópico:
1/ Eles assumem que o retorno sobre investimento por modelo aumenta a cada ano. Gaste 1, recupere, digamos, 5 em vez de 2.
2/ O crescimento dos gastos computacionais deles também é muito mais moderado. Do AF25 ao FY28: Crescimento dos custos de computação da OpenAI >> Anthropic's
Usando o framework acima, eles contam tanto com a rampa de receita A quanto com o crescimento de custos mais lentos B.
🔵 $NFLX é a analogia mais próxima
Na tecnologia, modelos intensivos em capital são raros, embora não inéditos. $NFLX é uma boa analogia: por anos teve fluxo de caixa profundamente negativo que piorava anualmente. Eles tiveram que investir dinheiro no conteúdo antecipadamente, e esses ativos se depreciaram ao longo de quatro anos. Em muitos aspectos, ela se assemelha à economia de data center e treinamento de modelos.
Pico de queima de caixa em 2019: -3 bilhões
Fluxo de caixa em 2020: +2 bilhões
Por que esse swing súbito positivo? A COVID parou a produção. O gasto em conteúdo parou de crescer. O fluxo de caixa mudou instantaneamente.
🔵O Objetivo Final: As Margens Chegam Quando o Crescimento dos Custos Desacelera
$NFLX não parou de investir totalmente em conteúdo – apenas parou de *crescer* agressivamente esse investimento quando chegou a ~300 milhões de assinantes globais. Nessa escala, a pegada é alta, e eles só precisam manter a posição, não expandir o gasto de conteúdo 10 vezes por ano.
Não acho que OpenAI ou Anthropic vão parar de treinar completamente. Mas eles não vão precisar aumentar o gasto de treinamento por múltiplos para sempre. Em algum momento:
ROI por modelo aumenta, ou limites de escalabilidade entram em ação, ou ambos.
E no momento em que o gasto anual com treinamento para de crescer 5 vezes ao ano, as margens de lucro aparecem quase imediatamente.
Essa é a coisa estranha sobre economia de LLM:
É uma máquina de queimar... Até que, de repente, não é mais.
Fontes:
++
Artigo completo:

69
Um pensamento profundo sobre o modelo de negócios de vanguarda. Tudo isso se baseia em números vazados pelo The Information, NYT, etc.
🔵O Núcleo: É uma Máquina de Processamento de Computação
No fundo, o modelo é brutalmente simples: quase todos os custos vêm da computação – inferência e, especialmente, do treinamento. O treinamento segue algo parecido com uma lei de escala. Vamos supor que os custos aumentem ~5 vezes por ano; e o retorno sobre custos de treinamento é o dobro.
Isso cria uma dinâmica estranha:
Custo do treinamento do Ano 1: 1
Receita do ano 2 desse modelo: 2
Mas custo do treinamento do segundo ano para o próximo modelo: 5
Líquido: +2 - 5 = -3
Passe para frente e piora:
Receita do Ano 3: +10
Custo do treinamento do 3º ano: -25
Net: -15
Os modelos fronteiriços, como atualmente executados, são bolas de neve com fluxo de caixa negativo. Cada geração gasta mais dinheiro do que a anterior.
Para que isso algum dia vire um fluxo de caixa positivo, apenas duas coisas podem mudar logicamente:
R. A receita cresce muito mais rápido do que o dobro, ou
B. O crescimento dos custos de treinamento desacelera de 5 vezes por ano para algo como <2x
O CEO da Anthropic, Dario Amodei, dividiu o cenário B ("custos de treinamento param de crescer exponencialmente") em duas realidades possíveis:
1/ Limites físicos/econômicos: Você simplesmente não pode treinar um modelo 5 vezes maior — chips insuficientes, energia insuficiente, ou o custo se aproxima do PIB mundial.
2/ Retornos decrescentes: Você poderia treinar um modelo maior, mas a curva de escala se achataria. Gastar mais 10 vezes deixa de valer a pena.
O que os números da OpenAI e da Anthropic revelam:
As projeções financeiras vazadas de ambas as empresas basicamente validam esse quadro.
OpenAI: O plano da OpenAI efetivamente assume que a capacidade total de computação para de crescer após 2028.
Tradução: as margens melhoram porque os custos de treinamento estagnam. Este é o cenário B.
Antrópico:
1/ Eles assumem que o retorno sobre investimento por modelo aumenta a cada ano. Gaste 1, recupere, digamos, 5 em vez de 2.
2/ O crescimento dos gastos computacionais deles também é muito mais moderado. Do AF25 ao FY28: Crescimento dos custos de computação da OpenAI >> Anthropic's
Usando o framework acima, eles contam tanto com a rampa de receita A quanto com o crescimento de custos mais lentos B.
🔵 $NFLX é a analogia mais próxima
Na tecnologia, modelos intensivos em capital são raros, embora não inéditos. $NFLX é uma boa analogia: por anos teve fluxo de caixa profundamente negativo que piorava anualmente. Eles tiveram que investir dinheiro no conteúdo antecipadamente, e esses ativos se depreciaram ao longo de quatro anos. Em muitos aspectos, ela se assemelha à economia de data center e treinamento de modelos.
Pico de queima de caixa em 2019: -3 bilhões
Fluxo de caixa em 2020: +2 bilhões
Por que esse swing súbito positivo? A COVID parou a produção. O gasto em conteúdo parou de crescer. O fluxo de caixa mudou instantaneamente.
🔵O Objetivo Final: As Margens Chegam Quando o Crescimento dos Custos Desacelera
$NFLX não parou de investir totalmente em conteúdo – apenas parou de *crescer* agressivamente esse investimento quando chegou a ~300 milhões de assinantes globais. Nessa escala, a pegada é alta, e eles só precisam manter a posição, não expandir o gasto de conteúdo 10 vezes por ano.
Não acho que OpenAI ou Anthropic vão parar de treinar completamente. Mas eles não vão precisar aumentar o gasto de treinamento por múltiplos para sempre. Em algum momento:
ROI por modelo aumenta, ou limites de escalabilidade entram em ação, ou ambos.
E no momento em que o gasto anual com treinamento para de crescer 5 vezes ao ano, as margens de lucro aparecem quase imediatamente.
Essa é a coisa estranha sobre economia de LLM:
É uma máquina de queimar... Até que, de repente, não é mais.
Fontes:
++
Artigo completo:

68
Melhores
Classificação
Favoritos