Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-Verticals: Eerst coderen, dan Excel?
Coderen verraste iedereen positief door zich te ontwikkelen tot een van de sterkste AI-toepassingsverticalen tot nu toe.
Het combineert drie zeldzame eigenschappen: een enorme TAM, een natuurlijke toegang tot aangrenzende gebruiksgevallen, en een productgedreven GTM die grotendeels de noodzaak voor traditionele verkoop en marketing elimineert. Slechts enkele verticalen delen dat profiel.
Excel is er een van.
De TAM is zelfs nog groter. Een groot deel van de software-industrie kan worden gezien als gelaagde "Excel wrappers," en de adoptie is grotendeels zelfbedienend. Dit verklaart waarschijnlijk waarom zowel $OpenAI als $Anthropic agressief uitbreiden naar spreadsheets en productiviteitsworkflows (volgens openbare rapportage).
++++
🔵Coderen
1/ Waarom coderen werkte:
Ontwikkelaars identificeren snel de beste tools zonder zware marketing. Ze hebben vaak directe invloed op aankopen, en bedrijven zijn relatief ongevoelig voor incrementele kosten per ontwikkelaar als de productiviteit verbetert. Als gevolg hiervan verspreiden sterke producten zich van onderaf met minimale verkoopinspanningen - in tegenstelling tot de meeste verticalen die expliciete verkoop, marketing en bedrijfsinkoop vereisen.
De meeste andere verticalen (gezondheidszorg, vastgoed, financiën, enz.) vereisen expliciete verkoop, marketing en bedrijfsinkoop.
2/ TAM:
De vaak geciteerde TAM voor coderen is ~$2T.
Belangrijker is dat coderen niet alleen een eindmarkt is - het is een toegangspunt. Het bezitten van de ontwikkelaarsworkflow creëert hefboomwerking over elke applicatie die daarop is gebouwd.
3/ Coderen - Statuscontrole:
4 bedrijven met $1B+ ARR
Minstens 7 bedrijven hebben $100M ARR overschreden, vaak met ongekende snelheid
++++
🔵Excel past in hetzelfde patroon.
Het heeft een enorme TAM, dient als een toegangspoort tot veel aangrenzende gebruiksgevallen, en ondersteunt zelfbedienende adoptie met beperkte GTM. De ~$500B applicatiesoftware-industrie is naar verluidt één enorme Excel-abstr laag - die CRM, Airtable, Smartsheet en grote delen van financiën, operaties, analytics en interne tools beslaat.
▶️TAM:
Zelfs rekening houdend met overlap tussen Microsoft Office, Google Workspace en WPS, is een ~1,5–1,6B wereldwijde maandelijkse actieve spreadsheetgebruikers een redelijke schatting.
▶️Excel is ook meer dan Excel:
Software is een ~$1T industrie, waarbij applicatiesoftware waarschijnlijk ~50% vertegenwoordigt. Als een AI-native Excel programmeerbaar wordt, breidt de kans zich ver buiten spreadsheets uit naar de creatie van applicaties zelf.
▶️GTM:
Financiën is de natuurlijke initiële toegang. Het heeft hoge winst per hoofd, sterke bereidheid om te betalen voor productiviteits-tools, directe budgetautoriteit op het niveau van analisten, en duidelijke ROI die producten grotendeels zelfverkoper maakt. Ongeveer ~10% van de wereldwijde spreadsheetgebruikers werkt in financiële rollen, wat een zeer groot en hoog monetiseerbaar startpunt vertegenwoordigt.
Coderen toonde aan hoe snel een zelfbedienend, workflow-native hulpmiddel met een enorme oppervlakte kan opschalen. Excel kan de volgende versie van dat speelboek zijn - op een nog grotere schaal.
---
Volledige analyse:

35
Zullen chatbots meer gaan lijken op streaming of meer op zoek?
Streaming, zoeken en chatbots zijn allemaal industrieën zonder klassieke netwerkeffecten (relatief lage overstapkosten). Toch is streaming gefragmenteerd terwijl zoeken een bijna-monopolie is geworden.
🔵Streaming - gefragmenteerd bij ontwerp
Inhoud is geen commodity. Het is gedifferentieerd, niet-exclusief en leeft op verschillende platforms. Dus de markt blijft verspreid. YouTube, Netflix, Disney... elk heeft een marktaandeel in de eencijferige procenten omdat elk verschillende shows bezit.
🔵Zoeken - winnaar neemt bijna alles
$Google heeft ~90% marktaandeel, ook al is $Bing niet zo slecht. Waarom?
1/ Distributie/standaardinstellingen zijn waanzinnig krachtig
De meeste mensen kiezen geen zoekmachine. Ze accepteren wat het apparaat hen geeft. $Google betaalt tientallen miljarden per jaar om de standaard te zijn.
2/ Gewoonte en merk
$Google is een werkwoord. $Bing is dat niet. De kracht van gewoonte plus merk wordt enorm onderschat (en ik ben er eerlijk gezegd een beetje door verrast).
3/ Data flywheel (tot op zekere hoogte)
Betere engine → meer gebruikers → meer data → betere engine. Ik vraag me af hoe groot dit effect echt is, maar het bestaat zeker.
4/ Advertentie-ecosysteem schaal
Adverteerders krijgen meer volume en betere ROI op Google dankzij Zoek + YouTube + Maps + Android + Gmail. Dus geven ze prioriteit aan Google, wat de voorsprong versterkt.
🔵Chatbots/Agents - dichter bij zoeken dan streaming?
Chatbots zijn meer zoals zoeken: outputs voelen als commodities, en je wilt één assistent die alles onthoudt (als chatbots geheugen kunnen uitvinden, zou de lock-in sterker moeten zijn dan bij zoeken). Er zullen regionale/talen pockets zijn (bijv. China).
Vergeleken met de vroege dagen van $Google zoeken:
- Regulering is nu strenger (moeilijker om een monopolie te worden);
- Platforms zijn vandaag de dag meer gefragmenteerd: $Google, $Meta (en misschien MSFT/AAPL/AMZN) zullen elk hun eigen strak geïntegreerde assistent pushen; we hebben Apple versus Windows/Android kamp;
Dit alles maakt een enkel monopolie veel minder waarschijnlijk.
Op gebruikersniveau: één kernagent die 70-90% van het werk doet.
Op marktniveau: misschien 2-3 mega-assistenten, niet een enkele $Google-stijl 90% winnaar.

Freda Duan26 nov 2025
Wat diep nadenken over het frontier-model businessmodel. Dit alles is gebaseerd op cijfers die zijn gelekt door The Information, NYT, enz.
🔵De Kern: Het is een Compute-Burn Machine
In wezen is het model brutaal eenvoudig: bijna alle kosten komen van compute – inferentie, en vooral training. Training volgt iets als een schaalwet. Laten we aannemen dat de kosten ~5x elk jaar stijgen; en ROI op trainingskosten is 2x.
Dat creëert een vreemde dynamiek:
Jaar 1 trainingskosten: 1
Jaar 2 omzet van dat model: 2
Maar Jaar 2 trainingskosten voor het volgende model: 5
Netto: +2 - 5 = -3
Als je het vooruit rekent, wordt het erger:
Jaar 3 omzet: +10
Jaar 3 trainingskosten: -25
Netto: -15
Frontier-modellen, zoals ze momenteel worden uitgevoerd, zijn negatieve kasstroom-sneeuwballen. Elke generatie verbrandt meer geld dan de vorige.
Om dit ooit om te draaien naar positieve kasstroom, kunnen er logisch gezien maar twee dingen veranderen:
A. Omzet groeit veel sneller dan 2x, of
B. De groei van de trainingskosten vertraagt van 5x per jaar naar iets als <2x
De CEO van Anthropic, Dario Amodei, heeft scenario B (“trainingskosten stoppen met exponentieel groeien”) uiteengezet in twee mogelijke realiteiten:
1/ Fysieke/economische limieten: Je kunt simpelweg een model van 5x groter niet trainen — niet genoeg chips, niet genoeg stroom, of de kosten naderen het wereld-BBP.
2/ Diminishing returns: Je zou een groter model kunnen trainen, maar de schaalcurve vlakt af. Nog eens 10x uitgeven is niet meer de moeite waard.
Wat de cijfers van OpenAI en Anthropic onthullen:
De gelekte financiële projecties van beide bedrijven valideren deze structuur in wezen.
OpenAI: Het plan van OpenAI gaat er effectief van uit dat de totale compute-capaciteit stopt met groeien na 2028.
Vertaling: marges verbeteren omdat de trainingskosten afvlakken. Dit is scenario B.
Anthropic:
1/ Ze gaan ervan uit dat de ROI per model elk jaar toeneemt. Besteed 1, krijg er zeg 5 voor terug in plaats van 2.
2/ Hun groei van compute-uitgaven is ook veel gematigder. Van FY25 tot FY28: Groei van OpenAI compute-kosten >> die van Anthropic
Met behulp van de bovenstaande structuur rekenen ze op zowel A omzetgroei als B tragere kostenstijging.
🔵 $NFLX Is de Dichtstbijzijnde Analogie
In de technologie zijn kapitaalintensieve modellen zeldzaam, hoewel niet ongekend. $NFLX is een goede analogie: jarenlang had het een diep negatieve kasstroom die jaarlijks verslechterde. Ze moesten geld in content investeren voorafgaand, en die activa depreciëerden over vier jaar. In veel opzichten lijkt het op de economie van datacenters en modeltraining.
Piek kasverbranding in 2019: -3B
Kasstroom 2020: +2B
Waarom de plotselinge positieve swing? COVID stopte de productie. De uitgaven voor content stopten met groeien. De kasstroom flipte onmiddellijk.
🔵Het Eindspel: Marges Verschijnen Wanneer Kostenstijging Vertraagt
$NFLX stopte niet helemaal met investeren in content – het stopte gewoon met *groeien* van die investering agressief zodra het ~300M wereldwijde abonnees bereikte. Op die schaal is de vasthoudendheid hoog, en ze hoeven alleen maar hun positie te behouden, niet de uitgaven voor content met 10x per jaar uit te breiden.
Ik denk niet dat OpenAI of Anthropic ooit helemaal zullen stoppen met trainen. Maar ze zullen niet voor altijd de trainingsuitgaven met meerdere moeten laten groeien. Op een gegeven moment:
ROI per model gaat omhoog, of schaalbeperkingen treden in, of beide.
En op het moment dat de jaarlijkse trainingsuitgaven stoppen met groeien met 5x per jaar, verschijnen de winstmarges bijna onmiddellijk.
Dat is het vreemde aan LLM-economie:
Het is een verbrandingsmachine… totdat het plotseling niet meer is.
Bronnen:
++
Volledig artikel:

53
Wat diep nadenken over het frontier-model businessmodel. Dit alles is gebaseerd op cijfers die zijn gelekt door The Information, NYT, enz.
🔵De Kern: Het is een Compute-Burn Machine
In wezen is het model brutaal eenvoudig: bijna alle kosten komen van compute – inferentie, en vooral training. Training volgt iets als een schaalwet. Laten we aannemen dat de kosten ~5x elk jaar stijgen; en ROI op trainingskosten is 2x.
Dat creëert een vreemde dynamiek:
Jaar 1 trainingskosten: 1
Jaar 2 omzet van dat model: 2
Maar Jaar 2 trainingskosten voor het volgende model: 5
Netto: +2 - 5 = -3
Als je het vooruit rekent, wordt het erger:
Jaar 3 omzet: +10
Jaar 3 trainingskosten: -25
Netto: -15
Frontier-modellen, zoals ze momenteel worden uitgevoerd, zijn negatieve kasstroom-sneeuwballen. Elke generatie verbrandt meer geld dan de vorige.
Om dit ooit om te draaien naar positieve kasstroom, kunnen er logisch gezien maar twee dingen veranderen:
A. Omzet groeit veel sneller dan 2x, of
B. De groei van de trainingskosten vertraagt van 5x per jaar naar iets als <2x
De CEO van Anthropic, Dario Amodei, heeft scenario B (“trainingskosten stoppen met exponentieel groeien”) uiteengezet in twee mogelijke realiteiten:
1/ Fysieke/economische limieten: Je kunt simpelweg een model van 5x groter niet trainen — niet genoeg chips, niet genoeg stroom, of de kosten naderen het wereld-BBP.
2/ Diminishing returns: Je zou een groter model kunnen trainen, maar de schaalcurve vlakt af. Nog eens 10x uitgeven is niet meer de moeite waard.
Wat de cijfers van OpenAI en Anthropic onthullen:
De gelekte financiële projecties van beide bedrijven valideren deze structuur in wezen.
OpenAI: Het plan van OpenAI gaat er effectief van uit dat de totale compute-capaciteit stopt met groeien na 2028.
Vertaling: marges verbeteren omdat de trainingskosten afvlakken. Dit is scenario B.
Anthropic:
1/ Ze gaan ervan uit dat de ROI per model elk jaar toeneemt. Besteed 1, krijg er zeg 5 voor terug in plaats van 2.
2/ Hun groei van compute-uitgaven is ook veel gematigder. Van FY25 tot FY28: Groei van OpenAI compute-kosten >> die van Anthropic
Met behulp van de bovenstaande structuur rekenen ze op zowel A omzetgroei als B tragere kostenstijging.
🔵 $NFLX Is de Dichtstbijzijnde Analogie
In de technologie zijn kapitaalintensieve modellen zeldzaam, hoewel niet ongekend. $NFLX is een goede analogie: jarenlang had het een diep negatieve kasstroom die jaarlijks verslechterde. Ze moesten geld in content investeren voorafgaand, en die activa depreciëerden over vier jaar. In veel opzichten lijkt het op de economie van datacenters en modeltraining.
Piek kasverbranding in 2019: -3B
Kasstroom 2020: +2B
Waarom de plotselinge positieve swing? COVID stopte de productie. De uitgaven voor content stopten met groeien. De kasstroom flipte onmiddellijk.
🔵Het Eindspel: Marges Verschijnen Wanneer Kostenstijging Vertraagt
$NFLX stopte niet helemaal met investeren in content – het stopte gewoon met *groeien* van die investering agressief zodra het ~300M wereldwijde abonnees bereikte. Op die schaal is de vasthoudendheid hoog, en ze hoeven alleen maar hun positie te behouden, niet de uitgaven voor content met 10x per jaar uit te breiden.
Ik denk niet dat OpenAI of Anthropic ooit helemaal zullen stoppen met trainen. Maar ze zullen niet voor altijd de trainingsuitgaven met meerdere moeten laten groeien. Op een gegeven moment:
ROI per model gaat omhoog, of schaalbeperkingen treden in, of beide.
En op het moment dat de jaarlijkse trainingsuitgaven stoppen met groeien met 5x per jaar, verschijnen de winstmarges bijna onmiddellijk.
Dat is het vreemde aan LLM-economie:
Het is een verbrandingsmachine… totdat het plotseling niet meer is.
Bronnen:
++
Volledig artikel:

42
Boven
Positie
Favorieten