Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-Verticale: Najpierw kodowanie, potem Excel?
Kodowanie zaskoczyło wszystkich pozytywnie, stając się jednym z najsilniejszych pionów zastosowań AI do tej pory.
Łączy trzy rzadkie cechy: ogromny rynek docelowy (TAM), naturalne wprowadzenie do pokrewnych przypadków użycia oraz produktowe podejście do wprowadzenia na rynek (GTM), które w dużej mierze eliminuje potrzebę tradycyjnej sprzedaży i marketingu. Bardzo niewiele pionów dzieli ten profil.
Excel jest jednym z nich.
TAM jest jeszcze większy. Większość branży oprogramowania może być postrzegana jako warstwowe „opakowania Excel”, a adopcja jest w dużej mierze samodzielna. To prawdopodobnie wyjaśnia, dlaczego zarówno $OpenAI, jak i $Anthropic agresywnie rozszerzają się na arkusze kalkulacyjne i przepływy pracy związane z produktywnością (zgodnie z publicznymi raportami).
++++
🔵Kodowanie
1/ Dlaczego kodowanie zadziałało:
Programiści szybko identyfikują najlepsze narzędzia bez intensywnego marketingu. Często mają bezpośredni wpływ na zakupy, a firmy są stosunkowo niewrażliwe na dodatkowe koszty na programistę, jeśli poprawia to produktywność. W rezultacie silne produkty rozprzestrzeniają się oddolnie przy minimalnym wysiłku sprzedażowym - w przeciwieństwie do większości pionów, które wymagają wyraźnej sprzedaży, marketingu i zakupów korporacyjnych.
Większość innych pionów (ochrona zdrowia, nieruchomości, finanse itp.) wymaga wyraźnej sprzedaży, marketingu i zakupów korporacyjnych.
2/ TAM:
Powszechnie cytowany TAM dla kodowania wynosi około 2 biliony dolarów.
Co ważniejsze, kodowanie to nie tylko rynek końcowy - to klucz. Posiadanie przepływu pracy programisty tworzy dźwignię w każdej aplikacji zbudowanej na jego podstawie.
3/ Kodowanie - Sprawdzenie statusu:
4 firmy z przychodami rocznymi powyżej 1 miliarda dolarów
Co najmniej 7 firm przekroczyło 100 milionów dolarów rocznych przychodów, często w niespotykanym tempie
++++
🔵Excel pasuje do tego samego wzoru.
Ma ogromny TAM, służy jako brama do wielu pokrewnych przypadków użycia i wspiera samodzielną adopcję z ograniczonym GTM. Przemysł oprogramowania aplikacyjnego o wartości około 500 miliardów dolarów można uznać za jedną wielką warstwę abstrakcji Excel - obejmującą CRM, Airtable, Smartsheet oraz dużą część finansów, operacji, analityki i narzędzi wewnętrznych.
▶️TAM:
Nawet biorąc pod uwagę nakładanie się Microsoft Office, Google Workspace i WPS, szacunkowa globalna baza aktywnych użytkowników arkuszy kalkulacyjnych wynosząca około 1,5–1,6 miliarda miesięcznie jest rozsądnym oszacowaniem.
▶️Excel to także więcej niż Excel:
Oprogramowanie to przemysł o wartości około 1 biliona dolarów, przy czym oprogramowanie aplikacyjne prawdopodobnie stanowi około 50%. Jeśli Excel z natywną AI stanie się programowalny, możliwości rozszerzają się znacznie poza arkusze kalkulacyjne w kierunku samego tworzenia aplikacji.
▶️GTM:
Finanse to naturalny początkowy klucz. Ma wysoką rentowność na osobę, silną gotowość do płacenia za narzędzia zwiększające produktywność, bezpośrednią władzę budżetową na poziomie analityka oraz wyraźny zwrot z inwestycji, co sprawia, że produkty w dużej mierze sprzedają się same. Około 10% globalnych użytkowników arkuszy kalkulacyjnych pracuje w rolach związanych z finansami, co stanowi bardzo dużą i wysoko monetyzowalną bazę wyjściową.
Kodowanie pokazało, jak szybko narzędzie samodzielne, natywne dla przepływu pracy, z ogromną powierzchnią może się rozwijać. Excel może być następną wersją tego podręcznika - w jeszcze większej skali.
---
Pełna analiza:

7
Czy chatboty będą wyglądać bardziej jak streaming czy bardziej jak wyszukiwanie?
Streaming, wyszukiwanie i chatboty to branże bez klasycznych efektów sieciowych (relatywnie niskie koszty przełączania). Jednak streaming jest fragmentaryczny, podczas gdy wyszukiwanie stało się niemal monopolowe.
🔵Streaming - fragmentaryczny z założenia
Treść nie jest towarem. Jest zróżnicowana, nieekskluzywna i istnieje na różnych platformach. Dlatego rynek pozostaje rozproszony. YouTube, Netflix, Disney... każdy ma jednocyfrowy udział, ponieważ każdy posiada różne programy.
🔵Wyszukiwanie - wygrany bierze prawie wszystko
$Google ma ~90% udziału, mimo że $Bing nie jest taki zły. Dlaczego?
1/ Dystrybucja/domysły są niesamowicie potężne
Większość ludzi nie wybiera wyszukiwarki. Akceptują to, co daje im urządzenie. $Google płaci dziesiątki miliardów rocznie, aby być domyślnym.
2/ Nawyk i marka
$Google to czasownik. $Bing nie jest. Siła nawyku plus marka jest niesamowicie niedoceniana (i szczerze mówiąc, jestem trochę zaskoczony tym).
3/ Efekt koła zamachowego danych (do pewnego stopnia)
Lepsza wyszukiwarka → więcej użytkowników → więcej danych → lepsza wyszukiwarka. Kwestionuję, jak duży jest ten efekt, ale na pewno istnieje.
4/ Skala ekosystemu reklamowego
Reklamodawcy uzyskują większą ilość i lepszy ROI na Google dzięki Wyszukiwaniu + YouTube + Mapy + Android + Gmail. Dlatego priorytetują Google, co wzmacnia przewagę.
🔵Chatboty/Agenci - bliżej do wyszukiwania niż do streamingu?
Chatboty są bardziej podobne do wyszukiwania: wyniki wydają się towarami, a chcesz jednego asystenta, który pamięta wszystko (jeśli chatboty rozwiążą problem pamięci, zablokowanie powinno być silniejsze niż w przypadku wyszukiwania). Będą regionalne/językowe kieszenie (np. Chiny).
W porównaniu do wczesnych dni wyszukiwania $Google:
- Regulacje są teraz ściślejsze (trudniej stać się monopolistą);
- Platformy są dziś bardziej fragmentaryczne: $Google, $Meta (a może MSFT/AAPL/AMZN) będą każda promować swojego własnego ściśle zintegrowanego asystenta; mamy Apple vs. obozu Windows/Android;
To wszystko sprawia, że pojedynczy monopol jest znacznie mniej prawdopodobny.
Na poziomie użytkownika: jeden główny agent wykonujący 70-90% pracy.
Na poziomie rynku: może 2-3 mega-asystentów, a nie pojedynczy zwycięzca w stylu $Google z 90% udziałem.

Freda Duan26 lis 2025
Trochę głębokiego myślenia na temat modelu biznesowego frontier-model. Wszystko to opiera się na liczbach wyciekłych z The Information, NYT itd.
🔵Rdzeń: To maszyna spalająca obliczenia
W swojej istocie model jest brutalnie prosty: prawie wszystkie koszty pochodzą z obliczeń – wnioskowania, a zwłaszcza treningu. Trening podlega czemuś w rodzaju prawa skalowania. Załóżmy, że koszty rosną o ~5x co roku; a ROI na kosztach treningu wynosi 2x.
To tworzy dziwną dynamikę:
Koszt treningu w roku 1: 1
Przychód z tego modelu w roku 2: 2
Ale koszt treningu w roku 2 dla następnego modelu: 5
Netto: +2 - 5 = -3
Jeśli to pociągniemy dalej, będzie jeszcze gorzej:
Przychód w roku 3: +10
Koszt treningu w roku 3: -25
Netto: -15
Modele frontier, jak obecnie działają, są śnieżnymi kulami z ujemnym przepływem gotówki. Każda generacja spala więcej gotówki niż poprzednia.
Aby to kiedykolwiek zmieniło się na dodatni przepływ gotówki, tylko dwie rzeczy mogą logicznie się zmienić:
A. Przychody rosną znacznie szybciej niż 2x, lub
B. Wzrost kosztów treningu spowalnia z 5x rocznie do czegoś w rodzaju <2x
CEO Anthropic, Dario Amodei, rozłożył scenariusz B („koszty treningu przestają rosnąć wykładniczo”) na dwie możliwe rzeczywistości:
1/ Fizyczne/ekonomiczne ograniczenia: Po prostu nie możesz trenować modelu 5x większego — nie ma wystarczająco dużo chipów, nie ma wystarczająco dużo mocy, lub koszt zbliża się do światowego PKB.
2/ Spadek zwrotów: Możesz trenować większy model, ale krzywa skalowania się spłaszcza. Wydawanie kolejnych 10x przestaje być opłacalne.
Co ujawniają liczby OpenAI i Anthropic:
Wyciekłe prognozy finansowe obu firm zasadniczo potwierdzają ten framework.
OpenAI: Plan OpenAI zasadniczo zakłada, że całkowita zdolność obliczeniowa przestaje rosnąć po 2028 roku.
Tłumaczenie: marże poprawiają się, ponieważ koszty treningu się spłaszczają. To jest scenariusz B.
Anthropic:
1/ Zakładają, że ROI na model rośnie z każdym rokiem. Wydaj 1, otrzymaj powiedzmy 5 zamiast 2.
2/ Ich wzrost wydatków na obliczenia jest również znacznie bardziej stonowany. Od FY25 do FY28: wzrost kosztów obliczeniowych OpenAI >> wzrost kosztów Anthropic
Korzystając z powyższego frameworku, liczą na zarówno A wzrost przychodów, jak i B wolniejszy wzrost kosztów.
🔵 $NFLX jest najbliższą analogią
W technologii modele kapitałochłonne są rzadkie, choć nie bezprecedensowe. $NFLX jest dobrą analogią: przez lata miało głęboko ujemny przepływ gotówki, który pogarszał się co roku. Musieli inwestować pieniądze w treści z góry, a te aktywa amortyzowały się przez cztery lata. W wielu aspektach przypomina to ekonomię centrów danych i treningu modeli.
Szczytowe spalanie gotówki w 2019 roku: -3B
Przepływ gotówki w 2020 roku: +2B
Dlaczego nagły zwrot na plus? COVID wstrzymał produkcję. Wydatki na treści przestały rosnąć. Przepływ gotówki natychmiast się odwrócił.
🔵Gra końcowa: Marże pojawiają się, gdy wzrost kosztów spowalnia
$NFLX nie przestał całkowicie inwestować w treści – po prostu przestał *agresywnie* zwiększać tę inwestycję, gdy osiągnął ~300M globalnych subskrybentów. Na tym poziomie, przywiązanie jest wysokie, a oni muszą tylko utrzymać swoją pozycję, a nie zwiększać wydatków na treści 10x rocznie.
Nie sądzę, aby OpenAI lub Anthropic kiedykolwiek całkowicie przestali trenować. Ale nie będą musieli zwiększać wydatków na trening o wielokrotności na zawsze. W pewnym momencie:
ROI na model wzrasta, lub ograniczenia skalowania wchodzą w grę, lub jedno i drugie.
A w momencie, gdy roczne wydatki na trening przestaną rosnąć o 5x rocznie, marże zysku pojawiają się niemal natychmiast.
To jest dziwna rzecz w ekonomii LLM:
To maszyna spalająca… aż nagle przestaje.

32
Trochę głębokiego myślenia na temat modelu biznesowego frontier-model. Wszystko to opiera się na liczbach wyciekłych z The Information, NYT itd.
🔵Rdzeń: To maszyna spalająca obliczenia
W swojej istocie model jest brutalnie prosty: prawie wszystkie koszty pochodzą z obliczeń – wnioskowania, a zwłaszcza treningu. Trening podlega czemuś w rodzaju prawa skalowania. Załóżmy, że koszty rosną o ~5x co roku; a ROI na kosztach treningu wynosi 2x.
To tworzy dziwną dynamikę:
Koszt treningu w roku 1: 1
Przychód z tego modelu w roku 2: 2
Ale koszt treningu w roku 2 dla następnego modelu: 5
Netto: +2 - 5 = -3
Jeśli to pociągniemy dalej, będzie jeszcze gorzej:
Przychód w roku 3: +10
Koszt treningu w roku 3: -25
Netto: -15
Modele frontier, jak obecnie działają, są śnieżnymi kulami z ujemnym przepływem gotówki. Każda generacja spala więcej gotówki niż poprzednia.
Aby to kiedykolwiek zmieniło się na dodatni przepływ gotówki, tylko dwie rzeczy mogą logicznie się zmienić:
A. Przychody rosną znacznie szybciej niż 2x, lub
B. Wzrost kosztów treningu spowalnia z 5x rocznie do czegoś w rodzaju <2x
CEO Anthropic, Dario Amodei, rozłożył scenariusz B („koszty treningu przestają rosnąć wykładniczo”) na dwie możliwe rzeczywistości:
1/ Fizyczne/ekonomiczne ograniczenia: Po prostu nie możesz trenować modelu 5x większego — nie ma wystarczająco dużo chipów, nie ma wystarczająco dużo mocy, lub koszt zbliża się do światowego PKB.
2/ Spadek zwrotów: Możesz trenować większy model, ale krzywa skalowania się spłaszcza. Wydawanie kolejnych 10x przestaje być opłacalne.
Co ujawniają liczby OpenAI i Anthropic:
Wyciekłe prognozy finansowe obu firm zasadniczo potwierdzają ten framework.
OpenAI: Plan OpenAI zasadniczo zakłada, że całkowita zdolność obliczeniowa przestaje rosnąć po 2028 roku.
Tłumaczenie: marże poprawiają się, ponieważ koszty treningu się spłaszczają. To jest scenariusz B.
Anthropic:
1/ Zakładają, że ROI na model rośnie z każdym rokiem. Wydaj 1, otrzymaj powiedzmy 5 zamiast 2.
2/ Ich wzrost wydatków na obliczenia jest również znacznie bardziej stonowany. Od FY25 do FY28: wzrost kosztów obliczeniowych OpenAI >> wzrost kosztów Anthropic
Korzystając z powyższego frameworku, liczą na zarówno A wzrost przychodów, jak i B wolniejszy wzrost kosztów.
🔵 $NFLX jest najbliższą analogią
W technologii modele kapitałochłonne są rzadkie, choć nie bezprecedensowe. $NFLX jest dobrą analogią: przez lata miało głęboko ujemny przepływ gotówki, który pogarszał się co roku. Musieli inwestować pieniądze w treści z góry, a te aktywa amortyzowały się przez cztery lata. W wielu aspektach przypomina to ekonomię centrów danych i treningu modeli.
Szczytowe spalanie gotówki w 2019 roku: -3B
Przepływ gotówki w 2020 roku: +2B
Dlaczego nagły zwrot na plus? COVID wstrzymał produkcję. Wydatki na treści przestały rosnąć. Przepływ gotówki natychmiast się odwrócił.
🔵Gra końcowa: Marże pojawiają się, gdy wzrost kosztów spowalnia
$NFLX nie przestał całkowicie inwestować w treści – po prostu przestał *agresywnie* zwiększać tę inwestycję, gdy osiągnął ~300M globalnych subskrybentów. Na tym poziomie, przywiązanie jest wysokie, a oni muszą tylko utrzymać swoją pozycję, a nie zwiększać wydatków na treści 10x rocznie.
Nie sądzę, aby OpenAI lub Anthropic kiedykolwiek całkowicie przestali trenować. Ale nie będą musieli zwiększać wydatków na trening o wielokrotności na zawsze. W pewnym momencie:
ROI na model wzrasta, lub ograniczenia skalowania wchodzą w grę, lub jedno i drugie.
A w momencie, gdy roczne wydatki na trening przestaną rosnąć o 5x rocznie, marże zysku pojawiają się niemal natychmiast.
To jest dziwna rzecz w ekonomii LLM:
To maszyna spalająca… aż nagle przestaje.

32
Najlepsze
Ranking
Ulubione