Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-vertikaler: Kodning först, Excel sen sist?
Kodning överraskade alla på uppsidan genom att framstå som en av de starkaste AI-applikationsvertikalerna hittills.
Den kombinerar tre sällsynta egenskaper: en massiv TAM, en naturlig kil i angränsande användningsområden och en produktledd GTM som till stor del eliminerar behovet av traditionell försäljning och marknadsföring. Väldigt få vertikaler delar den profilen.
Excel är en av dem.
TAM är ännu större. Mycket av mjukvaruindustrin kan ses som lager-på-lager-"Excel-wrappers", och användningen är till stor del självbetjäning. Detta förklarar sannolikt varför både $OpenAI och $Anthropic har expanderat aggressivt till kalkylblad och produktivitetsarbetsflöden (enligt offentlig rapportering).
++++
🔵Kodning
1/ Varför kodning fungerade:
Utvecklare identifierar snabbt de bästa verktygen utan tung marknadsföring. De har ofta direkt inflytande över inköp, och företag är relativt okänsliga för ökade kostnader per utvecklare om produktiviteten ökar. Som ett resultat sprids starka produkter nerifrån och upp med minimal försäljningsinsats – till skillnad från de flesta vertikaler som kräver explicit försäljning, marknadsföring och företagsupphandling.
De flesta andra vertikaler (sjukvård, fastigheter, finans, etc.) kräver uttrycklig försäljning, marknadsföring och företagsupphandling.
2/ TAM:
Det vanligaste TAM för kodning är ~2 miljoner dollar.
Viktigare är att kodning inte bara är en slutmarknad – det är en kil. Att äga utvecklarens arbetsflöde skapar fördelar över varje applikation som byggs ovanpå det.
3/ Kodning - Statuskontroll:
4 kompanier till $1B+ ARR
Minst 7 företag har passerat 100 miljoner dollar i ARR, ofta i en aldrig tidigare skådad takt
++++
🔵Excel följer samma mönster.
Det har en enorm TAM, fungerar som en port till många närliggande användningsområden och stödjer självbetjäningsadoption med begränsad GTM. Den ~500 miljarder dollar stora applikationsmjukvaruindustrin är utan tvekan ett enda stort Excel-abstraktionslager – som sträcker sig över CRM, Airtable, Smartsheet och stora delar av ekonomi, drift, analys och interna verktyg.
▶️TAM:
Även med hänsyn till överlappning mellan Microsoft Office, Google Workspace och WPS är en global global månatlig aktiv kalkylbladsanvändarbas en rimlig uppskattning av en global månatlig datorbas för kalkylblad.
▶️Excel är också mer än bara Excel:
Mjukvara är en ~100 kronors industri, där applikationsprogramvara sannolikt står för ~50%. Om ett AI-inbyggt Excel blir programmerbart sträcker sig möjligheten långt bortom kalkylblad till att skapa applikationer.
▶️GTM:
Finansiering är den naturliga initiala kilen. Det har hög vinst per capita, stark vilja att betala för produktivitetsverktyg, direkt budgetmyndighet på analytikernivå och tydlig avkastning på investering som gör produkterna till stor del egensäljande. Ungefär ~10 % av globala kalkylbladsanvändare arbetar inom ekonomi, vilket utgör en mycket stor och mycket inkomstbringbar utgångspunkt.
Coding visade hur snabbt ett självbetjänande, arbetsflödesbaserat verktyg med enorm yta kan skalas. Excel kan bli nästa version av den spelboken – i ännu större skala.
---
Fullständig analys:

56
Kommer chatbots att se mer ut som streaming eller mer som sök?
Streaming, sök och chatbots är alla branscher utan klassiska nätverkseffekter (relativt låga switchkostnader). Ändå är streaming fragmenterat medan sök blev ett nästan monopol.
🔵Streaming – fragmenterad av design
Innehåll är inte en handelsvara. Det är differentierat, icke-exklusivt och finns på olika plattformar. Så marknaden förblir utspridd. YouTube, Netflix, Disney... Varje andel ligger på ensiffrigt andelar eftersom de äger olika program.
🔵Sök – vinnaren-tar-nästan-allt
$Google har ~90% andel även om $Bing inte är så illa. Varför?
1/ Distribution/standardinställningar är otroligt kraftfulla
De flesta väljer inte en sökmotor. De accepterar vad enheten ger dem. $Google betalar tiotals miljarder per år för att vara standard.
2/ Vana och varumärke
$Google är ett verb. $Bing är det inte. Kraften i Habit Plus-varumärket är kraftigt underskattad (och jag är ärligt talat lite förvånad över detta).
3/ Datasvänghjul (till viss del)
Bättre motor → fler användare → mer data → bättre motor. Jag ifrågasätter hur stor denna effekt egentligen är, men den existerar definitivt.
4/ Skala i annonsekosystemet
Annonsörer får mer volym och bättre avkastning på Google tack vare sök + YouTube + kartor + Android + Gmail. Så de prioriterar Google, vilket stärker ledningen.
🔵Chatbots/agenter – närmare sökning än streaming?
Chattbotar är mer som sökning: utdata känns som varor, och du vill ha en assistent som minns allt (om chattbottar kan minnas bör låsningen vara starkare än sökning). Det kommer att finnas regionala/språkliga områden (t.ex. Kina).
Jämfört med de tidiga $Google sökdagarna:
- Regleringen är nu striktare (svårare att bli monopol;
- Plattformarna är mer fragmenterade idag: $Google, $Meta (och kanske MSFT/AAPL/AMZN) kommer var och en att driva sin egen tätt integrerade assistent; vi har Apple vs. Windows/Android-lägret;
Allt detta gör ett enda monopol mycket mindre sannolikt.
På användarnivå: en kärnagent som gör 70–90 % av arbetet.
På marknadsnivå: kanske 2-3 mega-assistenter, inte en enda $Google-stil 90%-vinnare.

Freda Duan26 nov. 2025
Lite djupa eftertankar kring affärsmodellen för frontier-modellen. Allt detta grundar sig i siffror som läckt av The Information, NYT, etc.
🔵Kärnan: Det är en datorbränningsmaskin
I grunden är modellen brutalt enkel: nästan alla kostnader kommer från beräkningar – inferens, och särskilt träning. Utbildningen följer något som en skalningslag. Låt oss anta att kostnaderna ökar ~5 gånger varje år; och ROI på utbildningskostnader är dubbelt så bra.
Det skapar en konstig dynamik:
Kostnad för utbildning under år 1: 1
År 2:s intäkter från den modellen: 2
Men år 2:s utbildningskostnad för nästa modell: 5
Netto: +2 - 5 = -3
Kör det framåt och det blir värre:
Intäkter för år 3: +10
År 3:s utbildningskostnad: -25
Net: -15
Frontier-modellerna, som de används idag, är snöbollar med negativt kassaflöde. Varje generation bränner mer pengar än den föregående.
För att detta någonsin ska kunna övergå till positivt kassaflöde kan bara två saker logiskt förändras:
A. Intäkterna växer mycket snabbare än dubbelt så, eller
B. Tillväxten i utbildningskostnaderna saktar ner från 5 gånger per år till ungefär <2 gånger
Anthropics VD Dario Amodei har brutit ner scenario B ("utbildningskostnaderna slutar växa exponentiellt") i två möjliga verkligheter:
1/ Fysiska/ekonomiska begränsningar: Du kan helt enkelt inte träna en modell fem gånger större — för få chip, för lite kraft, annars närmar sig kostnaden världens BNP.
2/ Avtagande avkastning: Du skulle kunna träna en större modell, men skalningskurvan planar ut. Att spendera ytterligare 10 gånger är inte värt det.
Vad siffrorna från OpenAI och Anthropic avslöjar:
Båda företagens läckta finansiella prognoser bekräftar i princip detta ramverk.
OpenAI: OpenAIs plan utgår i praktiken från att den totala beräkningskapaciteten slutar växa efter 2028.
Översättning: marginalerna förbättras eftersom utbildningskostnaderna planar ut. Detta är scenario B.
Antropisk:
1/ De antar att ROI per modell ökar varje år. Spendera 1, få tillbaka till exempel 5 istället för 2.
2/ Deras tillväxt i datoranvändning är också mycket mer dämpad. Från räkenskapsåret 2025 till 2028: OpenAI:s beräkningskostnadstillväxt >> Anthropics
Med hjälp av ramverket ovan räknar de med både A:s intäktsökning och B:s långsammare kostnadstillväxt.
🔵 $NFLX är den närmaste analogin
Inom teknik är kapitalintensiva modeller sällsynta, men inte utan motstycke. $NFLX är en bra liknelse: under flera år hade det ett djupt negativt kassaflöde som försämrades varje år. De var tvungna att satsa pengar på innehåll direkt, och dessa tillgångar sjönk under fyra år. På många sätt liknar det datacenter- och modellträningsekonomi.
Topp av kontantförbränning 2019: -3 miljarder
Kassaflöde 2020: +2 miljarder
Varför den plötsliga positiva svängningen? COVID stoppade produktionen. Innehållsutgifterna slutade växa. Kassaflödet vände omedelbart.
🔵Slutspelet: Marginaler kommer när kostnadstillväxten saktar ner
$NFLX slutade inte helt investera i innehåll – det slutade bara *växa* den investeringen aggressivt när den nådde ~300 miljoner globala prenumeranter. På den skalan är stickigheten hög, och de behöver bara behålla sin position, inte utöka innehållsutgifterna tio gånger per år.
Jag tror inte att OpenAI eller Anthropic någonsin kommer att sluta träna helt. Men de behöver inte öka träningskostnaden med flera för alltid. Vid någon tidpunkt:
ROI per modell ökar, eller skalningsgränser träder in, eller båda delarna.
Och så fort den årliga utbildningskostnaden slutar öka fem gånger per år, syns vinstmarginalerna nästan omedelbart.
Det är det märkliga med LLM-ekonomi:
Det är en brännmaskin... tills det plötsligt inte är det.
Källor:
++
Fullständig artikel:

64
Lite djupa eftertankar kring affärsmodellen för frontier-modellen. Allt detta grundar sig i siffror som läckt av The Information, NYT, etc.
🔵Kärnan: Det är en datorbränningsmaskin
I grunden är modellen brutalt enkel: nästan alla kostnader kommer från beräkningar – inferens, och särskilt träning. Utbildningen följer något som en skalningslag. Låt oss anta att kostnaderna ökar ~5 gånger varje år; och ROI på utbildningskostnader är dubbelt så bra.
Det skapar en konstig dynamik:
Kostnad för utbildning under år 1: 1
År 2:s intäkter från den modellen: 2
Men år 2:s utbildningskostnad för nästa modell: 5
Netto: +2 - 5 = -3
Kör det framåt och det blir värre:
Intäkter för år 3: +10
År 3:s utbildningskostnad: -25
Net: -15
Frontier-modellerna, som de används idag, är snöbollar med negativt kassaflöde. Varje generation bränner mer pengar än den föregående.
För att detta någonsin ska kunna övergå till positivt kassaflöde kan bara två saker logiskt förändras:
A. Intäkterna växer mycket snabbare än dubbelt så, eller
B. Tillväxten i utbildningskostnaderna saktar ner från 5 gånger per år till ungefär <2 gånger
Anthropics VD Dario Amodei har brutit ner scenario B ("utbildningskostnaderna slutar växa exponentiellt") i två möjliga verkligheter:
1/ Fysiska/ekonomiska begränsningar: Du kan helt enkelt inte träna en modell fem gånger större — för få chip, för lite kraft, annars närmar sig kostnaden världens BNP.
2/ Avtagande avkastning: Du skulle kunna träna en större modell, men skalningskurvan planar ut. Att spendera ytterligare 10 gånger är inte värt det.
Vad siffrorna från OpenAI och Anthropic avslöjar:
Båda företagens läckta finansiella prognoser bekräftar i princip detta ramverk.
OpenAI: OpenAIs plan utgår i praktiken från att den totala beräkningskapaciteten slutar växa efter 2028.
Översättning: marginalerna förbättras eftersom utbildningskostnaderna planar ut. Detta är scenario B.
Antropisk:
1/ De antar att ROI per modell ökar varje år. Spendera 1, få tillbaka till exempel 5 istället för 2.
2/ Deras tillväxt i datoranvändning är också mycket mer dämpad. Från räkenskapsåret 2025 till 2028: OpenAI:s beräkningskostnadstillväxt >> Anthropics
Med hjälp av ramverket ovan räknar de med både A:s intäktsökning och B:s långsammare kostnadstillväxt.
🔵 $NFLX är den närmaste analogin
Inom teknik är kapitalintensiva modeller sällsynta, men inte utan motstycke. $NFLX är en bra liknelse: under flera år hade det ett djupt negativt kassaflöde som försämrades varje år. De var tvungna att satsa pengar på innehåll direkt, och dessa tillgångar sjönk under fyra år. På många sätt liknar det datacenter- och modellträningsekonomi.
Topp av kontantförbränning 2019: -3 miljarder
Kassaflöde 2020: +2 miljarder
Varför den plötsliga positiva svängningen? COVID stoppade produktionen. Innehållsutgifterna slutade växa. Kassaflödet vände omedelbart.
🔵Slutspelet: Marginaler kommer när kostnadstillväxten saktar ner
$NFLX slutade inte helt investera i innehåll – det slutade bara *växa* den investeringen aggressivt när den nådde ~300 miljoner globala prenumeranter. På den skalan är stickigheten hög, och de behöver bara behålla sin position, inte utöka innehållsutgifterna tio gånger per år.
Jag tror inte att OpenAI eller Anthropic någonsin kommer att sluta träna helt. Men de behöver inte öka träningskostnaden med flera för alltid. Vid någon tidpunkt:
ROI per modell ökar, eller skalningsgränser träder in, eller båda delarna.
Och så fort den årliga utbildningskostnaden slutar öka fem gånger per år, syns vinstmarginalerna nästan omedelbart.
Det är det märkliga med LLM-ekonomi:
Det är en brännmaskin... tills det plötsligt inte är det.
Källor:
++
Fullständig artikel:

59
Topp
Rankning
Favoriter