Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
Super-verticale AI: Mai întâi programarea, apoi Excel?
Programarea a surprins pe toată lumea, devenind unul dintre cele mai puternice verticale de aplicații AI de până acum.
Combină trei atribute rare: un TAM masiv, o legătură naturală cu cazurile de utilizare adiacente și un GTM orientat pe produs care elimină în mare parte nevoia vânzărilor și marketingului tradițional. Foarte puține verticale au acest profil.
Excel este unul dintre ele.
TAM-ul este chiar mai mare. O mare parte din industria software poate fi privită ca pe niște "wrapper-uri Excel" stratificate, iar adoptarea este în mare parte auto-servire. Acest lucru explică probabil de ce atât $OpenAI, cât și $Anthropic s-au extins agresiv în foi de calcul și fluxuri de lucru de productivitate (conform raportărilor publice).
++++
🔵Codare
1/ De ce a funcționat programarea:
Dezvoltatorii identifică rapid cele mai bune instrumente fără marketing intens. Adesea au o influență directă asupra achizițiilor, iar companiile sunt relativ insensibile la costurile incrementale per dezvoltator dacă productivitatea crește. Ca urmare, produsele puternice se răspândesc de jos în sus cu un efort minim de vânzări – spre deosebire de majoritatea verticalelor care necesită vânzare explicită, marketing și achiziții pentru afaceri.
Majoritatea celorlalte verticale (sănătate, imobiliare, finanțe etc.) necesită vânzare explicită, marketing și achiziții pentru afaceri.
2/ TAM:
TAM-ul citat frecvent pentru codare este ~$2T.
Mai important, programarea nu este doar o piață finală – este o pană de diviziune. Deținerea fluxului de lucru al dezvoltatorului creează un avantaj asupra fiecărei aplicații construite peste el.
3/ Codare - Verificare status:
4 companii la $1B+ ARR
Cel puțin 7 companii au depășit ARR de 100 milioane de dolari, adesea cu o viteză fără precedent
++++
🔵Excel urmează același tipar.
Are un TAM uriaș, servește ca o poartă de acces către multe cazuri de utilizare adiacente și susține adoptarea self-service cu GTM limitat. Industria software-ului de aplicații de ~500 miliarde de dolari este, probabil, un strat uriaș de abstracție Excel – acoperind CRM, Airtable, Smartsheet și mari părți din finanțe, operațiuni, analiză și unelte interne.
▶️TAM:
Chiar și luând în calcul suprapunerea dintre Microsoft Office, Google Workspace și WPS, o bază globală de utilizatori activi lunari de foi de calcul este o estimare rezonabilă.
▶️Excel este, de asemenea, mai mult decât Excel:
Software-ul este o industrie de ~$1T, iar software-ul de aplicație reprezintă probabil ~50%. Dacă un Excel nativ AI devine programabil, oportunitatea se extinde mult dincolo de foile de calcul, ajungând la crearea aplicației propriu-zisă.
▶️GTM:
Finanțele sunt pana inițială naturală. Are un profit mare pe cap de locuitor, o disponibilitate puternică de a plăti pentru instrumente de productivitate, autoritate directă în buget la nivel de analist și un ROI clar care face ca produsele să se vândă în mare parte singure. Aproximativ ~10% dintre utilizatorii globali de foi de calcul lucrează în roluri legate de finanțe, reprezentând un punct de plecare foarte mare și foarte monetizat.
Programarea a arătat cât de repede poate crește un instrument self-service, nativ pentru fluxul de lucru, cu o suprafață masivă. Excel ar putea fi următoarea versiune a acestui manual – la o scară și mai mare.
---
Analiză completă:

13
Vor ajunge chatboții să semene mai mult cu streamingul sau mai mult cu căutarea?
Streaming-ul, căutarea și chatboții sunt toate industrii fără efecte clasice de rețea (costuri relativ mici de schimbare). Totuși, streaming-ul este fragmentat, în timp ce căutarea a devenit aproape un monopol.
🔵Streaming - fragmentat prin design
Conținutul nu este o marfă. Este diferențiat, neexclusivist și funcționează pe platforme diferite. Așa că piața rămâne dispersată. YouTube, Netflix, Disney... fiecare are o cotă de o singură cifră deoarece fiecare deține emisiuni diferite.
🔵Căutare - câștigătorul ia aproape totul
$Google are ~90% cotă, deși nu $Bing e chiar atât de rău. De ce?
1/ Distribuția/implicitele sunt incredibil de puternice
Majoritatea oamenilor nu aleg un motor de căutare. Ei acceptă ceea ce le oferă dispozitivul. $Google plătește zeci de miliarde pe an pentru a fi implicit.
2/ Obicei și brand
$Google este un verb. $Bing nu este. Brandul Power of Habit Plus este extrem de subestimat (și sincer sunt puțin surprins de asta).
3/ Volanul de flotare al datelor (într-o anumită măsură)
Un motor mai bun → mai mulți utilizatori → mai multe date → un motor mai bun. Mă întreb cât de mare este cu adevărat acest efect, dar cu siguranță există.
4/ Scala ecosistemului publicitar
Advertiserii obțin mai mult volum și un ROI mai bun pe Google datorită Căutării + YouTube + Hărți + Android + Gmail. Așa că prioritizează Google, ceea ce întărește avantajul.
🔵Chatboți/agenți - mai aproape de căutare decât de streaming?
Chatboții sunt mai mult ca căutarea: rezultatele se simt ca mărfuri, iar tu vrei un singur asistent care să-și amintească totul (dacă chatboții descoperă memoria, blocarea ar trebui să fie mai puternică decât căutarea). Vor exista zone regionale/lingvistice (de exemplu, China).
Comparativ cu începuturile $Google căutări:
- Reglementarea este acum mai strictă (mai greu să devii monopol);
- Platformele sunt astăzi mai fragmentate: $Google, $Meta (și poate MSFT/AAPL/AMZN) vor împinge fiecare propriul asistent strâns integrat; avem tabăra Apple vs. Windows/Android;
Toate acestea fac ca un monopol unic să fie mult mai puțin probabil.
La nivel de utilizator: un agent de bază care face 70-90% din muncă.
La nivel de piață: poate 2-3 mega-asistenți, niciun $Google câștigător de 90%.

Freda Duan26 nov. 2025
O reflecție profundă asupra modelului de afaceri al modelului de frontieră. Toate acestea se bazează pe cifrele scurse de The Information, NYT etc.
🔵The Core: Este o mașină de calcul și consum
În esență, modelul este brutal de simplu: aproape toate costurile provin din calcul – inferență și, mai ales, din instruire. Antrenamentul urmează ceva asemănător unei legi de scalare. Să presupunem că costurile cresc de ~5 ori pe an; iar rentabilitatea costurilor de instruire este de 2x.
Asta creează o dinamică ciudată:
Costul instruirii pentru Anul 1: 1
Venituri din anul 2 din acest model: 2
Dar costul antrenamentului pentru anul 2 pentru următorul model: 5
Net: +2 - 5 = -3
Rulează-l înainte și devine mai rău:
Venituri din anul 3: +10
Costul instruirii în anul 3: -25
Net: -15
Modelele frontieră, așa cum sunt folosite în prezent, sunt bulgări de zăpadă cu flux negativ de numerar. Fiecare generație consumă mai mulți bani decât cea precedentă.
Pentru ca acest lucru să se transforme vreodată într-un flux de numerar pozitiv, doar două lucruri pot schimba logic:
A. Veniturile cresc mult mai repede decât de 2x, sau
B. Creșterea costurilor de antrenament încetinește de la 5 ori pe an la ceva de genul <2x
CEO-ul Anthropic, Dario Amodei, a descompus scenariul B ("costurile de instruire încetează să crească exponențial") în două realități posibile:
1/ Limite fizice/economice: Pur și simplu nu poți antrena un model de 5 ori mai mare — insuficient cipuri, lipsă de energie, sau costul se apropie de PIB-ul mondial.
2/ Randamente descrescătoare: Ai putea antrena un model mai mare, dar curba de scalare se aplatizează. Să cheltui încă 10 ori nu mai merită.
Ce dezvăluie cifrele OpenAI și Anthropic:
Proiecțiile financiare scurse ale ambelor companii validează practic acest cadru.
OpenAI: Planul OpenAI presupune practic că capacitatea totală de calcul încetează să crească după 2028.
Traducere: marjele se îmbunătățesc pentru că costurile de instruire se stabilizează. Acesta este scenariul B.
Anthropic:
1/ Presupun că ROI-ul pe model crește în fiecare an. Cheltui 1, recuperezi, să zicem, 5 în loc de 2.
2/ Creșterea cheltuielilor lor de calcul este, de asemenea, mult mai moderată. Din FY25 până în FY28: Creșterea costurilor de calcul OpenAI >> Anthropic's
Folosind cadrul de mai sus, se bazează atât pe creșterea veniturilor A, cât și pe creșterea costurilor mai lente B.
🔵 $NFLX este cea mai apropiată analogie
În tehnologie, modelele intensive în capital sunt rare, deși nu fără precedent. $NFLX este o analogie bună: ani de zile a avut un flux de numerar profund negativ care s-a agravat anual. Au trebuit să investească bani în conținut în avans, iar acele active s-au depreciat pe parcursul a patru ani. În multe privințe, seamănă cu economia centrelor de date și a antrenamentului pe modele.
Maxim de consum de numerar în 2019: -3B
Flux de numerar 2020: +2 miliarde
De ce această schimbare bruscă pozitivă? COVID a oprit producția. Cheltuielile pentru conținut au încetat să mai crească. Fluxul de numerar s-a schimbat instantaneu.
🔵Finalul: Marjele ajung când creșterea costurilor încetinește
$NFLX nu a încetat complet să investească în conținut – pur și simplu a încetat să mai *crească* agresiv acea investiție odată ce a ajuns la ~300 de milioane de abonați globali. La această scară, stickiness este ridicat și trebuie doar să-și mențină poziția, nu să-și extindă cheltuielile pentru conținut de 10 ori pe an.
Nu cred că OpenAI sau Anthropic vor înceta vreodată complet antrenamentul. Dar nu va trebui să crească cheltuielile de antrenament la nesfârșit. La un moment dat:
ROI-ul pe model crește, sau intră în vigoare limitele de scalare, sau ambele.
Și în momentul în care cheltuielile anuale pentru antrenament încetează să crească de 5 ori pe an, marjele de profit apar aproape imediat.
Asta e ciudat la economia LLM:
E o mașină de ars... Până când, brusc, nu mai este.
Surse:
++
Articol complet:

38
O reflecție profundă asupra modelului de afaceri al modelului de frontieră. Toate acestea se bazează pe cifrele scurse de The Information, NYT etc.
🔵The Core: Este o mașină de calcul și consum
În esență, modelul este brutal de simplu: aproape toate costurile provin din calcul – inferență și, mai ales, din instruire. Antrenamentul urmează ceva asemănător unei legi de scalare. Să presupunem că costurile cresc de ~5 ori pe an; iar rentabilitatea costurilor de instruire este de 2x.
Asta creează o dinamică ciudată:
Costul instruirii pentru Anul 1: 1
Venituri din anul 2 din acest model: 2
Dar costul antrenamentului pentru anul 2 pentru următorul model: 5
Net: +2 - 5 = -3
Rulează-l înainte și devine mai rău:
Venituri din anul 3: +10
Costul instruirii în anul 3: -25
Net: -15
Modelele frontieră, așa cum sunt folosite în prezent, sunt bulgări de zăpadă cu flux negativ de numerar. Fiecare generație consumă mai mulți bani decât cea precedentă.
Pentru ca acest lucru să se transforme vreodată într-un flux de numerar pozitiv, doar două lucruri pot schimba logic:
A. Veniturile cresc mult mai repede decât de 2x, sau
B. Creșterea costurilor de antrenament încetinește de la 5 ori pe an la ceva de genul <2x
CEO-ul Anthropic, Dario Amodei, a descompus scenariul B ("costurile de instruire încetează să crească exponențial") în două realități posibile:
1/ Limite fizice/economice: Pur și simplu nu poți antrena un model de 5 ori mai mare — insuficient cipuri, lipsă de energie, sau costul se apropie de PIB-ul mondial.
2/ Randamente descrescătoare: Ai putea antrena un model mai mare, dar curba de scalare se aplatizează. Să cheltui încă 10 ori nu mai merită.
Ce dezvăluie cifrele OpenAI și Anthropic:
Proiecțiile financiare scurse ale ambelor companii validează practic acest cadru.
OpenAI: Planul OpenAI presupune practic că capacitatea totală de calcul încetează să crească după 2028.
Traducere: marjele se îmbunătățesc pentru că costurile de instruire se stabilizează. Acesta este scenariul B.
Anthropic:
1/ Presupun că ROI-ul pe model crește în fiecare an. Cheltui 1, recuperezi, să zicem, 5 în loc de 2.
2/ Creșterea cheltuielilor lor de calcul este, de asemenea, mult mai moderată. Din FY25 până în FY28: Creșterea costurilor de calcul OpenAI >> Anthropic's
Folosind cadrul de mai sus, se bazează atât pe creșterea veniturilor A, cât și pe creșterea costurilor mai lente B.
🔵 $NFLX este cea mai apropiată analogie
În tehnologie, modelele intensive în capital sunt rare, deși nu fără precedent. $NFLX este o analogie bună: ani de zile a avut un flux de numerar profund negativ care s-a agravat anual. Au trebuit să investească bani în conținut în avans, iar acele active s-au depreciat pe parcursul a patru ani. În multe privințe, seamănă cu economia centrelor de date și a antrenamentului pe modele.
Maxim de consum de numerar în 2019: -3B
Flux de numerar 2020: +2 miliarde
De ce această schimbare bruscă pozitivă? COVID a oprit producția. Cheltuielile pentru conținut au încetat să mai crească. Fluxul de numerar s-a schimbat instantaneu.
🔵Finalul: Marjele ajung când creșterea costurilor încetinește
$NFLX nu a încetat complet să investească în conținut – pur și simplu a încetat să mai *crească* agresiv acea investiție odată ce a ajuns la ~300 de milioane de abonați globali. La această scară, stickiness este ridicat și trebuie doar să-și mențină poziția, nu să-și extindă cheltuielile pentru conținut de 10 ori pe an.
Nu cred că OpenAI sau Anthropic vor înceta vreodată complet antrenamentul. Dar nu va trebui să crească cheltuielile de antrenament la nesfârșit. La un moment dat:
ROI-ul pe model crește, sau intră în vigoare limitele de scalare, sau ambele.
Și în momentul în care cheltuielile anuale pentru antrenament încetează să crească de 5 ori pe an, marjele de profit apar aproape imediat.
Asta e ciudat la economia LLM:
E o mașină de ars... Până când, brusc, nu mai este.
Surse:
++
Articol complet:

39
Limită superioară
Clasament
Favorite