Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-Vertikalen: Zuerst Programmieren, dann Excel?
Programmieren hat alle überrascht, indem es sich als eines der stärksten Anwendungsvertikalen für KI bis heute herausgestellt hat.
Es kombiniert drei seltene Attribute: einen riesigen TAM, einen natürlichen Zugang zu angrenzenden Anwendungsfällen und einen produktorientierten GTM, der weitgehend die Notwendigkeit für traditionelle Verkaufs- und Marketingstrategien eliminiert. Sehr wenige Vertikalen teilen dieses Profil.
Excel ist eine davon.
Der TAM ist sogar noch größer. Ein großer Teil der Softwareindustrie kann als geschichtete "Excel-Hüllen" betrachtet werden, und die Akzeptanz erfolgt weitgehend selbstbedient. Das erklärt wahrscheinlich, warum sowohl $OpenAI als auch $Anthropic aggressiv in Tabellenkalkulationen und Produktivitäts-Workflows expandieren (laut öffentlicher Berichterstattung).
++++
🔵Programmieren
1/ Warum Programmieren funktioniert hat:
Entwickler identifizieren schnell die besten Werkzeuge ohne umfangreiches Marketing. Sie haben oft direkten Einfluss auf den Einkauf, und Unternehmen sind relativ unempfindlich gegenüber zusätzlichen Kosten pro Entwickler, wenn sich die Produktivität verbessert. Infolgedessen verbreiten sich starke Produkte von unten nach oben mit minimalem Verkaufsaufwand - im Gegensatz zu den meisten Vertikalen, die explizites Verkaufen, Marketing und Unternehmensbeschaffung erfordern.
Die meisten anderen Vertikalen (Gesundheitswesen, Immobilien, Finanzen usw.) erfordern explizites Verkaufen, Marketing und Unternehmensbeschaffung.
2/ TAM:
Der häufig genannte TAM für Programmieren liegt bei etwa 2 Billionen USD.
Wichtiger ist, dass Programmieren nicht nur ein Endmarkt ist - es ist ein Zugang. Die Kontrolle über den Entwickler-Workflow schafft Hebelwirkung über jede Anwendung, die darauf aufgebaut ist.
3/ Programmieren - Statusüberprüfung:
4 Unternehmen mit über 1 Milliarde USD ARR
Mindestens 7 Unternehmen haben 100 Millionen USD ARR überschritten, oft in beispielloser Geschwindigkeit.
++++
🔵Excel passt in dasselbe Muster.
Es hat einen enormen TAM, dient als Gateway zu vielen angrenzenden Anwendungsfällen und unterstützt die selbstbediente Akzeptanz mit begrenztem GTM. Die Anwendung Softwareindustrie von etwa 500 Milliarden USD ist arguably eine riesige Excel-Abstraktionsschicht - die CRM, Airtable, Smartsheet und große Teile von Finanzen, Betrieb, Analytik und internen Werkzeugen umfasst.
▶️TAM:
Selbst unter Berücksichtigung von Überschneidungen zwischen Microsoft Office, Google Workspace und WPS ist eine globale monatliche aktive Benutzerbasis von etwa 1,5–1,6 Milliarden Tabellenkalkulationsbenutzern eine angemessene Schätzung.
▶️Excel ist auch mehr als Excel:
Software ist eine Branche von etwa 1 Billion USD, wobei Anwendungssoftware wahrscheinlich etwa 50% ausmacht. Wenn ein KI-natives Excel programmierbar wird, erweitert sich die Gelegenheit weit über Tabellenkalkulationen hinaus in die Anwendungsentwicklung selbst.
▶️GTM:
Finanzen sind der natürliche erste Zugang. Es hat hohe Gewinne pro Kopf, eine starke Zahlungsbereitschaft für Produktivitätswerkzeuge, direkte Budgetautorisierung auf Analystenebene und eine klare ROI, die Produkte weitgehend selbstverkaufend macht. Etwa 10% der globalen Tabellenkalkulationsbenutzer arbeiten in finanzbezogenen Rollen, was einen sehr großen und hoch monetarisierbaren Ausgangspunkt darstellt.
Programmieren hat gezeigt, wie schnell ein selbstbedientes, workflow-natives Werkzeug mit einer riesigen Oberfläche skalieren kann. Excel könnte die nächste Version dieses Spielbuchs sein - in noch größerem Maßstab.
---
Vollständige Analyse:

3
Werden Chatbots eher wie Streaming oder eher wie Suche aussehen?
Streaming, Suche und Chatbots sind alles Branchen ohne klassische Netzwerkeffekte (relativ niedrige Wechselkosten). Dennoch ist Streaming fragmentiert, während die Suche zu einem nahezu Monopol geworden ist.
🔵Streaming - absichtlich fragmentiert
Inhalte sind kein Rohstoff. Sie sind differenziert, nicht exklusiv und leben auf verschiedenen Plattformen. Daher bleibt der Markt verstreut. YouTube, Netflix, Disney... jeder hat einen Marktanteil im einstelligen Bereich, weil jeder verschiedene Shows besitzt.
🔵Suche - der Gewinner nimmt fast alles
$Google hat ~90% Marktanteil, obwohl $Bing nicht so schlecht ist. Warum?
1/ Verteilung/Standardeinstellungen sind unglaublich mächtig
Die meisten Menschen wählen keine Suchmaschine. Sie akzeptieren, was das Gerät ihnen gibt. $Google zahlt jährlich Zehntausende von Millionen, um der Standard zu sein.
2/ Gewohnheit und Marke
$Google ist ein Verb. $Bing ist es nicht. Die Macht der Gewohnheit plus Marke wird stark unterschätzt (und ich bin ehrlich gesagt ein bisschen überrascht darüber).
3/ Datenflywheel (bis zu einem gewissen Grad)
Besserer Motor → mehr Nutzer → mehr Daten → besserer Motor. Ich bezweifle, wie groß dieser Effekt wirklich ist, aber er existiert definitiv.
4/ Skalierung des Werbeökosystems
Werbetreibende erhalten mehr Volumen und eine bessere Rendite auf Google dank Suche + YouTube + Maps + Android + Gmail. Daher priorisieren sie Google, was die Führung verstärkt.
🔵Chatbots/Agenten - näher an der Suche als am Streaming?
Chatbots sind eher wie die Suche: Ausgaben fühlen sich wie Rohstoffe an, und man möchte einen Assistenten, der sich an alles erinnert (wenn Chatbots das Gedächtnis herausfinden, sollte die Bindung stärker sein als bei der Suche). Es wird regionale/sprachliche Nischen geben (z. B. China).
Im Vergleich zu den frühen Tagen der $Google-Suche:
- Die Regulierung ist jetzt strenger (schwieriger, ein Monopol zu werden);
- Die Plattformen sind heute fragmentierter: $Google, $Meta (und vielleicht MSFT/AAPL/AMZN) werden jeweils ihren eigenen eng integrierten Assistenten vorantreiben; wir haben Apple gegen Windows/Android-Lager;
All dies macht ein einzelnes Monopol viel weniger wahrscheinlich.
Auf der Benutzerebene: ein zentraler Agent, der 70-90% der Arbeit erledigt.
Auf der Marktebene: vielleicht 2-3 Mega-Assistenten, nicht einen einzigen $Google-ähnlichen 90%-Gewinner.

Freda Duan26. Nov. 2025
Einige tiefgehende Überlegungen zum Frontier-Modell-Geschäftsmodell. All dies basiert auf Zahlen, die von The Information, NYT usw. durchgesickert sind.
🔵Der Kern: Es ist eine Compute-Burn-Maschine
Im Kern ist das Modell brutal einfach: Fast alle Kosten stammen von Compute – Inferenz und insbesondere Training. Das Training folgt etwas wie einem Skalierungsgesetz. Nehmen wir an, die Kosten steigen jedes Jahr um ~5x; und der ROI auf die Trainingskosten beträgt 2x.
Das schafft eine seltsame Dynamik:
Jahr 1 Trainingskosten: 1
Jahr 2 Einnahmen aus diesem Modell: 2
Aber die Trainingskosten für das nächste Modell im Jahr 2: 5
Netto: +2 - 5 = -3
Wenn man es weiterführt, wird es schlimmer:
Jahr 3 Einnahmen: +10
Jahr 3 Trainingskosten: -25
Netto: -15
Frontier-Modelle, wie sie derzeit betrieben werden, sind negative Cashflow-Schneebälle. Jede Generation verbrennt mehr Geld als die vorherige.
Damit sich das jemals in einen positiven Cashflow umkehrt, können nur zwei Dinge logisch geändert werden:
A. Die Einnahmen wachsen viel schneller als 2x, oder
B. Das Wachstum der Trainingskosten verlangsamt sich von 5x pro Jahr auf etwas wie <2x
Darios Amodei, CEO von Anthropic, hat Szenario B („Trainingskosten hören auf, exponentiell zu wachsen“) in zwei mögliche Realitäten unterteilt:
1/ Physische/wirtschaftliche Grenzen: Man kann ein Modell einfach nicht 5x größer trainieren – nicht genug Chips, nicht genug Energie, oder die Kosten nähern sich dem weltweiten BIP.
2/ Abnehmende Erträge: Man könnte ein größeres Modell trainieren, aber die Skalierungskurve flacht ab. Weitere 10x auszugeben, hört auf, sich zu lohnen.
Was die Zahlen von OpenAI und Anthropic offenbaren:
Die durchgesickerten Finanzprognosen beider Unternehmen validieren im Grunde dieses Framework.
OpenAI: Der Plan von OpenAI geht effektiv davon aus, dass die gesamte Compute-Kapazität nach 2028 nicht mehr wächst.
Übersetzung: Die Margen verbessern sich, weil die Trainingskosten stagnieren. Das ist Szenario B.
Anthropic:
1/ Sie gehen davon aus, dass der ROI pro Modell jedes Jahr steigt. Ausgeben 1, zurückbekommen sagen wir 5 statt 2.
2/ Ihr Wachstum der Compute-Ausgaben ist ebenfalls viel gedämpfter. Von FY25 bis FY28: Das Wachstum der Compute-Kosten von OpenAI >> Anthropics
Mit dem obigen Framework zählen sie sowohl auf A Einnahmensteigerung als auch auf B langsameres Kostenwachstum.
🔵 $NFLX ist die nächste Analogie
In der Technologie sind kapitalintensive Modelle selten, wenn auch nicht ohne Präzedenzfall. $NFLX ist eine gute Analogie: Über Jahre hatte es einen tief negativen Cashflow, der jährlich schlimmer wurde. Sie mussten Geld in Inhalte im Voraus investieren, und diese Vermögenswerte werteten über vier Jahre ab. In vielerlei Hinsicht ähnelt es den Wirtschaftsmodellen von Rechenzentren und Modelltraining.
Höchststand der Cash-Burn im Jahr 2019: -3B
Cashflow 2020: +2B
Warum der plötzliche positive Umschwung? COVID stoppte die Produktion. Die Ausgaben für Inhalte hörten auf zu wachsen. Der Cashflow drehte sich sofort um.
🔵Das Endspiel: Margen erscheinen, wenn das Kostenwachstum sich verlangsamt
$NFLX hat nicht ganz aufgehört, in Inhalte zu investieren – es hat einfach aufgehört, diese Investition aggressiv zu *vergrößern*, als es ~300M globale Abonnenten erreichte. In diesem Maßstab ist die Bindung hoch, und sie müssen nur ihre Position halten, nicht die Ausgaben für Inhalte um 10x pro Jahr erhöhen.
Ich glaube nicht, dass OpenAI oder Anthropic jemals ganz mit dem Training aufhören werden. Aber sie werden nicht für immer die Trainingsausgaben um Vielfaches erhöhen müssen. Irgendwann:
Der ROI pro Modell steigt, oder Skalierungsgrenzen treten ein, oder beides.
Und in dem Moment, in dem die jährlichen Trainingsausgaben aufhören, um 5x pro Jahr zu wachsen, zeigen sich die Gewinnmargen fast sofort.
Das ist das Seltsame an der LLM-Ökonomie:
Es ist eine Brennmaschine… bis es plötzlich nicht mehr so ist.
Quellen:
++
Vollständiger Artikel:

28
Einige tiefgehende Überlegungen zum Frontier-Modell-Geschäftsmodell. All dies basiert auf Zahlen, die von The Information, NYT usw. durchgesickert sind.
🔵Der Kern: Es ist eine Compute-Burn-Maschine
Im Kern ist das Modell brutal einfach: Fast alle Kosten stammen von Compute – Inferenz und insbesondere Training. Das Training folgt etwas wie einem Skalierungsgesetz. Nehmen wir an, die Kosten steigen jedes Jahr um ~5x; und der ROI auf die Trainingskosten beträgt 2x.
Das schafft eine seltsame Dynamik:
Jahr 1 Trainingskosten: 1
Jahr 2 Einnahmen aus diesem Modell: 2
Aber die Trainingskosten für das nächste Modell im Jahr 2: 5
Netto: +2 - 5 = -3
Wenn man es weiterführt, wird es schlimmer:
Jahr 3 Einnahmen: +10
Jahr 3 Trainingskosten: -25
Netto: -15
Frontier-Modelle, wie sie derzeit betrieben werden, sind negative Cashflow-Schneebälle. Jede Generation verbrennt mehr Geld als die vorherige.
Damit sich das jemals in einen positiven Cashflow umkehrt, können nur zwei Dinge logisch geändert werden:
A. Die Einnahmen wachsen viel schneller als 2x, oder
B. Das Wachstum der Trainingskosten verlangsamt sich von 5x pro Jahr auf etwas wie <2x
Darios Amodei, CEO von Anthropic, hat Szenario B („Trainingskosten hören auf, exponentiell zu wachsen“) in zwei mögliche Realitäten unterteilt:
1/ Physische/wirtschaftliche Grenzen: Man kann ein Modell einfach nicht 5x größer trainieren – nicht genug Chips, nicht genug Energie, oder die Kosten nähern sich dem weltweiten BIP.
2/ Abnehmende Erträge: Man könnte ein größeres Modell trainieren, aber die Skalierungskurve flacht ab. Weitere 10x auszugeben, hört auf, sich zu lohnen.
Was die Zahlen von OpenAI und Anthropic offenbaren:
Die durchgesickerten Finanzprognosen beider Unternehmen validieren im Grunde dieses Framework.
OpenAI: Der Plan von OpenAI geht effektiv davon aus, dass die gesamte Compute-Kapazität nach 2028 nicht mehr wächst.
Übersetzung: Die Margen verbessern sich, weil die Trainingskosten stagnieren. Das ist Szenario B.
Anthropic:
1/ Sie gehen davon aus, dass der ROI pro Modell jedes Jahr steigt. Ausgeben 1, zurückbekommen sagen wir 5 statt 2.
2/ Ihr Wachstum der Compute-Ausgaben ist ebenfalls viel gedämpfter. Von FY25 bis FY28: Das Wachstum der Compute-Kosten von OpenAI >> Anthropics
Mit dem obigen Framework zählen sie sowohl auf A Einnahmensteigerung als auch auf B langsameres Kostenwachstum.
🔵 $NFLX ist die nächste Analogie
In der Technologie sind kapitalintensive Modelle selten, wenn auch nicht ohne Präzedenzfall. $NFLX ist eine gute Analogie: Über Jahre hatte es einen tief negativen Cashflow, der jährlich schlimmer wurde. Sie mussten Geld in Inhalte im Voraus investieren, und diese Vermögenswerte werteten über vier Jahre ab. In vielerlei Hinsicht ähnelt es den Wirtschaftsmodellen von Rechenzentren und Modelltraining.
Höchststand der Cash-Burn im Jahr 2019: -3B
Cashflow 2020: +2B
Warum der plötzliche positive Umschwung? COVID stoppte die Produktion. Die Ausgaben für Inhalte hörten auf zu wachsen. Der Cashflow drehte sich sofort um.
🔵Das Endspiel: Margen erscheinen, wenn das Kostenwachstum sich verlangsamt
$NFLX hat nicht ganz aufgehört, in Inhalte zu investieren – es hat einfach aufgehört, diese Investition aggressiv zu *vergrößern*, als es ~300M globale Abonnenten erreichte. In diesem Maßstab ist die Bindung hoch, und sie müssen nur ihre Position halten, nicht die Ausgaben für Inhalte um 10x pro Jahr erhöhen.
Ich glaube nicht, dass OpenAI oder Anthropic jemals ganz mit dem Training aufhören werden. Aber sie werden nicht für immer die Trainingsausgaben um Vielfaches erhöhen müssen. Irgendwann:
Der ROI pro Modell steigt, oder Skalierungsgrenzen treten ein, oder beides.
Und in dem Moment, in dem die jährlichen Trainingsausgaben aufhören, um 5x pro Jahr zu wachsen, zeigen sich die Gewinnmargen fast sofort.
Das ist das Seltsame an der LLM-Ökonomie:
Es ist eine Brennmaschine… bis es plötzlich nicht mehr so ist.
Quellen:
++
Vollständiger Artikel:

29
Top
Ranking
Favoriten