Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI-supervertikaler: Koding først, Excel etterpå?
Koding overrasket alle på oppsiden ved å bli en av de sterkeste AI-applikasjonsvertikalene til dags dato.
Den kombinerer tre sjeldne egenskaper: en massiv TAM, en naturlig kile inn i tilstøtende bruksområder, og en produktdrevet GTM som i stor grad eliminerer behovet for tradisjonelt salg og markedsføring. Svært få vertikaler deler den profilen.
Excel er en av dem.
TAM er enda større. Store deler av programvareindustrien kan sees på som lagdelte «Excel-wrappers», og adopsjonen er stort sett selvbetjent. Dette forklarer sannsynligvis hvorfor både $OpenAI og $Anthropic har utvidet aggressivt til regneark og produktivitetsflyter (ifølge offentlig rapportering).
++++
🔵Koding
1/ Hvorfor koding fungerte:
Utviklere identifiserer raskt de beste verktøyene uten tung markedsføring. De har ofte direkte innflytelse på innkjøp, og selskaper er relativt ufølsomme for økte kostnader per utvikler hvis produktiviteten øker. Som et resultat sprer sterke produkter seg nedenfra og opp med minimal salgsinnsats – i motsetning til de fleste vertikaler som krever eksplisitt salg, markedsføring og innkjøp i virksomheten.
De fleste andre vertikaler (helsevesen, eiendom, finans osv.) krever eksplisitt salg, markedsføring og innkjøp av virksomheter.
2/ TAM:
Den mest siterte TAM for koding er ~$2T.
Enda viktigere, koding er ikke bare et sluttmarked – det er en kile. Å eie utviklerens arbeidsflyt skaper innflytelse på tvers av alle applikasjoner som bygges oppå den.
3/ Koding - Statussjekk:
4 kompanier til $1B+ ARR
Minst 7 selskaper har passert 100 millioner dollar ARR, ofte i en enestående hastighet
++++
🔵Excel følger samme mønster.
Den har en enorm TAM, fungerer som en inngangsport til mange tilstøtende bruksområder, og støtter selvbetjent adopsjon med begrenset GTM. Applikasjonsprogramvareindustrien på ~500 milliarder dollar er trolig ett gigantisk Excel-abstraksjonslag – som spenner over CRM, Airtable, Smartsheet og store deler av finans, drift, analyse og interne verktøy.
▶️TAM:
Selv med hensyn til overlapp mellom Microsoft Office, Google Workspace og WPS, er en global månedlig aktiv regnearksbase et rimelig estimat.
▶️Excel er også mer enn bare Excel:
Programvare er en bransje for ~1000 dollar, hvor applikasjonsprogramvare sannsynligvis representerer ~50%. Hvis en AI-native Excel blir programmerbar, utvides muligheten langt utover regneark til selve applikasjonsutviklingen.
▶️GTM:
Finans er den naturlige første kilen. Det har høy fortjeneste per innbygger, sterk betalingsvilje for produktivitetsverktøy, direkte budsjettmyndighet på analytikernivå, og tydelig avkastning som gjør produktene stort sett selvselgende. Omtrent ~10 % av globale regnearkbrukere jobber i finansrelaterte roller, noe som representerer et svært stort og svært inntektsvennlig utgangspunkt.
Koding viste hvor raskt et selvbetjent, arbeidsflyt-native verktøy med enormt areal kan skalere. Excel kan bli neste versjon av den oppskriften – i enda større skala.
---
Full analyse:

38
Vil chatboter ende opp med å ligne mer på streaming eller mer på søk?
Strømming, søk og chatboter er alle bransjer uten klassiske nettverkseffekter (relativt lave svitsjekostnader). Likevel er strømming fragmentert, mens søk ble nærmest monopol.
🔵Streaming – fragmentert av design
Innhold er ikke en vare. Den er differensiert, ikke-eksklusiv, og finnes på forskjellige plattformer. Slik forblir markedet spredt. YouTube, Netflix, Disney... Hver av dem har ensifret andel fordi hver eier forskjellige programmer.
🔵Søk – vinneren-tar-nesten-alt
$Google har ~90 % andel selv om $Bing ikke er så ille. Hvorfor?
1/ Distribusjon/standardinnstillinger er sinnssykt kraftige
De fleste velger ikke en søkemotor. De aksepterer det enheten gir dem. $Google betaler titalls milliarder i året for å være standard.
2/ Vane og merke
$Google er et verb. $Bing er det ikke. Kraften i Habit Plus-merket er sterkt undervurdert (og jeg er ærlig talt litt overrasket over dette).
3/ Datasvinghjul (til en viss grad)
Bedre motor → flere brukere → mer data → bedre motor. Jeg stiller spørsmål ved hvor stor denne effekten egentlig er, men den eksisterer definitivt.
4/ Skala i annonseøkosystemet
Annonsører får mer volum og bedre avkastning på Google takket være søk + YouTube + kart + Android + Gmail. Så de prioriterer Google, noe som forsterker ledelsen.
🔵Chatboter/agenter – nærmere søk enn streaming?
Chatboter er mer som søk: resultatene føles som varer, og du vil ha én assistent som husker alt (hvis chatbotene finner ut av hukommelsen, bør låsingen være sterkere enn søk). Det vil være regionale/språklige lommer (f.eks. Kina).
Sammenlignet med de tidlige $Google søkedagene:
- Reguleringen er nå strengere (vanskeligere å bli monopol);
- Plattformene er mer fragmenterte i dag: $Google, $Meta (og kanskje MSFT/AAPL/AMZN) vil hver sin tett integrerte assistent utvikle seg; vi har Apple vs. Windows/Android-leiren;
Alt dette gjør et enkelt monopol langt mindre sannsynlig.
På brukernivå: én kjerneagent som gjør 70-90 % av arbeidet.
På markedsnivå: kanskje 2-3 mega-assistenter, ikke en eneste $Google-stil 90 % vinner.

Freda Duan26. nov. 2025
Litt dyp refleksjon rundt forretningsmodellen med grensemodell. Alt dette er basert på tall lekket av The Information, NYT, osv.
🔵Kjernen: Det er en Compute-Burn-maskin
I bunn og grunn er modellen brutalt enkel: nesten alle kostnader kommer fra beregning – inferens, og spesielt trening. Opplæringen følger noe som ligner en skaleringslov. La oss anta at kostnadene øker ~5 ganger hvert år; og ROI på opplæringskostnader er 2 ganger.
Det skaper en merkelig dynamikk:
År 1 opplæringskostnad: 1
Inntekter for år 2 fra den modellen: 2
Men opplæringskostnaden for neste modell i år 2: 5
Nettopp: +2 - 5 = -3
Kjør det fremover, og det blir verre:
Inntekter for år 3: +10
Opplæringskostnad for år 3: -25
Netto til: -15
Frontier-modellene, slik de drives nå, er snøballer med negativ kontantstrøm. Hver generasjon bruker mer penger enn den forrige.
For at dette noen gang skal snu til positiv kontantstrøm, kan bare to ting logisk endres:
A. Inntektene vokser mye raskere enn 2 ganger, eller
B. Veksten i opplæringskostnadene avtar fra 5 ganger i året til noe som <2 ganger
Anthropics administrerende direktør Dario Amodei har brutt ned scenario B ("opplæringskostnadene slutter å vokse eksponentielt") i to mulige realiteter:
1/ Fysiske/økonomiske begrensninger: Du kan rett og slett ikke trene en modell fem ganger større — for få brikker, for lite kraft, ellers nærmer kostnaden seg verdens BNP.
2/ Avtagende avkastning: Du kan trene en større modell, men skaleringskurven flater ut. Å bruke ti ganger til slutter å være verdt det.
Hva tallene til OpenAI og Anthropic avslører:
Begge selskapenes lekkede økonomiske prognoser bekrefter i praksis dette rammeverket.
OpenAI: OpenAIs plan forutsetter i praksis at total datakapasitet slutter å vokse etter 2028.
Oversettelse: marginene øker fordi opplæringskostnadene flater ut. Dette er scenario B.
Antropisk:
1/ De antar at avkastningen per modell øker hvert år. Bruk 1, få tilbake for eksempel 5 i stedet for 2.
2/ Veksten i deres beregningsutgifter er også mye mer dempet. Fra regnskapsåret 2025 til 2028: OpenAIs beregningskostnadsvekst >> Anthropics
Ved å bruke rammeverket ovenfor, regner de med både A-inntektsøkning og B langsommere kostnadsvekst.
🔵 $NFLX er den nærmeste analogien
I teknologibransjen er kapitalintensive modeller sjeldne, men ikke uten sidestykke. $NFLX er en god analogi: i flere år hadde den dypt negativ kontantstrøm som forverret seg årlig. De måtte investere penger i innhold på forhånd, og disse eiendelene ble avskrevet over fire år. På mange måter ligner det datasenter- og modelltreningsøkonomi.
Toppforbruk av kontanter i 2019: -3 milliarder
Kontantstrøm for 2020: +2 milliarder
Hvorfor den plutselige positive svingningen? COVID stengte produksjonen. Innholdsforbruket sluttet å vokse. Kontantstrømmen snudde umiddelbart.
🔵Sluttspillet: Marginene kommer når kostnadsveksten avtar
$NFLX sluttet ikke helt å investere i innhold – de sluttet bare å *vokse* den investeringen aggressivt da de nådde ~300 millioner abonnenter globalt. På den skalaen er klebrigheten høy, og de trenger bare å opprettholde posisjonen sin, ikke øke innholdsforbruket ti ganger i året.
Jeg tror ikke OpenAI eller Anthropic noen gang vil slutte å trene helt. Men de trenger ikke å øke treningsbudsjettet med flere for alltid. På et tidspunkt:
ROI per modell øker, eller skaleringsgrenser trer inn, eller begge deler.
Og i det øyeblikket det årlige opplæringsbudsjettet slutter å vokse fem ganger i året, vises fortjenestemarginene nesten umiddelbart.
Det er det merkelige med LLM-økonomi:
Det er en brannmaskin... Inntil det plutselig ikke er det.
Kilder:
++
Hele artikkelen:

60
Litt dyp refleksjon rundt forretningsmodellen med grensemodell. Alt dette er basert på tall lekket av The Information, NYT, osv.
🔵Kjernen: Det er en Compute-Burn-maskin
I bunn og grunn er modellen brutalt enkel: nesten alle kostnader kommer fra beregning – inferens, og spesielt trening. Opplæringen følger noe som ligner en skaleringslov. La oss anta at kostnadene øker ~5 ganger hvert år; og ROI på opplæringskostnader er 2 ganger.
Det skaper en merkelig dynamikk:
År 1 opplæringskostnad: 1
Inntekter for år 2 fra den modellen: 2
Men opplæringskostnaden for neste modell i år 2: 5
Nettopp: +2 - 5 = -3
Kjør det fremover, og det blir verre:
Inntekter for år 3: +10
Opplæringskostnad for år 3: -25
Netto til: -15
Frontier-modellene, slik de drives nå, er snøballer med negativ kontantstrøm. Hver generasjon bruker mer penger enn den forrige.
For at dette noen gang skal snu til positiv kontantstrøm, kan bare to ting logisk endres:
A. Inntektene vokser mye raskere enn 2 ganger, eller
B. Veksten i opplæringskostnadene avtar fra 5 ganger i året til noe som <2 ganger
Anthropics administrerende direktør Dario Amodei har brutt ned scenario B ("opplæringskostnadene slutter å vokse eksponentielt") i to mulige realiteter:
1/ Fysiske/økonomiske begrensninger: Du kan rett og slett ikke trene en modell fem ganger større — for få brikker, for lite kraft, ellers nærmer kostnaden seg verdens BNP.
2/ Avtagende avkastning: Du kan trene en større modell, men skaleringskurven flater ut. Å bruke ti ganger til slutter å være verdt det.
Hva tallene til OpenAI og Anthropic avslører:
Begge selskapenes lekkede økonomiske prognoser bekrefter i praksis dette rammeverket.
OpenAI: OpenAIs plan forutsetter i praksis at total datakapasitet slutter å vokse etter 2028.
Oversettelse: marginene øker fordi opplæringskostnadene flater ut. Dette er scenario B.
Antropisk:
1/ De antar at avkastningen per modell øker hvert år. Bruk 1, få tilbake for eksempel 5 i stedet for 2.
2/ Veksten i deres beregningsutgifter er også mye mer dempet. Fra regnskapsåret 2025 til 2028: OpenAIs beregningskostnadsvekst >> Anthropics
Ved å bruke rammeverket ovenfor, regner de med både A-inntektsøkning og B langsommere kostnadsvekst.
🔵 $NFLX er den nærmeste analogien
I teknologibransjen er kapitalintensive modeller sjeldne, men ikke uten sidestykke. $NFLX er en god analogi: i flere år hadde den dypt negativ kontantstrøm som forverret seg årlig. De måtte investere penger i innhold på forhånd, og disse eiendelene ble avskrevet over fire år. På mange måter ligner det datasenter- og modelltreningsøkonomi.
Toppforbruk av kontanter i 2019: -3 milliarder
Kontantstrøm for 2020: +2 milliarder
Hvorfor den plutselige positive svingningen? COVID stengte produksjonen. Innholdsforbruket sluttet å vokse. Kontantstrømmen snudde umiddelbart.
🔵Sluttspillet: Marginene kommer når kostnadsveksten avtar
$NFLX sluttet ikke helt å investere i innhold – de sluttet bare å *vokse* den investeringen aggressivt da de nådde ~300 millioner abonnenter globalt. På den skalaen er klebrigheten høy, og de trenger bare å opprettholde posisjonen sin, ikke øke innholdsforbruket ti ganger i året.
Jeg tror ikke OpenAI eller Anthropic noen gang vil slutte å trene helt. Men de trenger ikke å øke treningsbudsjettet med flere for alltid. På et tidspunkt:
ROI per modell øker, eller skaleringsgrenser trer inn, eller begge deler.
Og i det øyeblikket det årlige opplæringsbudsjettet slutter å vokse fem ganger i året, vises fortjenestemarginene nesten umiddelbart.
Det er det merkelige med LLM-økonomi:
Det er en brannmaskin... Inntil det plutselig ikke er det.
Kilder:
++
Hele artikkelen:

55
Topp
Rangering
Favoritter