Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-Vertikal: Pengkodean Pertama, Excel Berikutnya?
Pengkodean mengejutkan semua orang dengan muncul sebagai salah satu vertikal aplikasi AI terkuat hingga saat ini.
Ini menggabungkan tiga atribut langka: TAM besar, irisan alami ke dalam kasus penggunaan yang berdekatan, dan GTM yang dipimpin produk yang sebagian besar menghilangkan kebutuhan akan penjualan dan pemasaran tradisional. Sangat sedikit vertikal yang berbagi profil itu.
Excel adalah salah satunya.
TAM bahkan lebih besar. Sebagian besar industri perangkat lunak dapat dilihat sebagai "pembungkus Excel" berlapis, dan adopsi sebagian besar adalah swalayan. Ini mungkin menjelaskan mengapa $OpenAI dan $Anthropic secara agresif memperluas ke spreadsheet dan alur kerja produktivitas (per pelaporan publik).
++++
🔵Pengkodean
1/ Mengapa pengkodean berhasil:
Pengembang dengan cepat mengidentifikasi alat terbaik tanpa pemasaran yang berat. Mereka sering memiliki pengaruh langsung atas pembelian, dan perusahaan relatif tidak peka terhadap biaya tambahan per pengembang jika produktivitas meningkat. Akibatnya, produk yang kuat menyebar dari bawah ke atas dengan upaya penjualan minimal - tidak seperti kebanyakan vertikal yang membutuhkan penjualan, pemasaran, dan pengadaan perusahaan eksplisit.
Sebagian besar vertikal lainnya (perawatan kesehatan, real estat, keuangan, dll.) memerlukan penjualan, pemasaran, dan pengadaan perusahaan yang eksplisit.
2/ TAM:
TAM yang umum dikutip untuk pengkodean adalah ~$2T.
Lebih penting lagi, pengkodean bukan hanya pasar akhir - ini adalah baji. Memiliki alur kerja pengembang menciptakan pengaruh di setiap aplikasi yang dibangun di atasnya.
3/ Pengkodean - Pemeriksaan status:
4 perusahaan seharga $1B+ ARR
Setidaknya 7 perusahaan telah melewati ARR $100 juta, seringkali dengan kecepatan yang belum pernah terjadi sebelumnya
++++
🔵Excel cocok dengan pola yang sama.
Ini memiliki TAM yang sangat besar, berfungsi sebagai pintu gerbang ke banyak kasus penggunaan yang berdekatan, dan mendukung adopsi swalayan dengan GTM terbatas. Industri perangkat lunak aplikasi ~$500 miliar bisa dibilang salah satu lapisan abstraksi Excel raksasa - mencakup CRM, Airtable, Smartsheet, dan sebagian besar keuangan, operasi, analitik, dan perkakas internal.
▶️TAM:
Bahkan memperhitungkan tumpang tindih di Microsoft Office, Google Workspace, dan WPS, basis pengguna spreadsheet aktif bulanan global ~1,5–1,6 miliar adalah perkiraan yang masuk akal.
▶️Excel juga lebih dari Excel:
Perangkat lunak adalah industri ~$1T, dengan perangkat lunak aplikasi kemungkinan mewakili ~50%. Jika Excel asli AI menjadi dapat diprogram, peluangnya meluas jauh melampaui spreadsheet ke pembuatan aplikasi itu sendiri.
▶️GTM:
Keuangan adalah baji awal alami. Ini memiliki keuntungan per kapita yang tinggi, kemauan yang kuat untuk membayar alat produktivitas, otoritas anggaran langsung di tingkat analis, dan ROI yang jelas yang membuat produk sebagian besar dijual sendiri. Sekitar ~10% pengguna spreadsheet global bekerja dalam peran terkait keuangan, mewakili titik awal yang sangat besar dan sangat dapat dimonetisasi.
Pengkodean menunjukkan seberapa cepat alat swalayan dan alur kerja asli dengan luas permukaan yang luas dapat diskalakan. Excel mungkin versi berikutnya dari buku pedoman itu - dalam skala yang lebih besar.
---
Analisis lengkap:

39
Akankah chatbot berakhir terlihat lebih seperti streaming atau lebih seperti pencarian?
Streaming, pencarian, dan chatbot adalah industri tanpa efek jaringan klasik (biaya switching yang relatif rendah). Namun streaming terfragmentasi sementara pencarian menjadi hampir monopoli.
🔵Streaming - terfragmentasi berdasarkan desain
Konten bukanlah komoditas. Ini berbeda, non-eksklusif, dan hidup di platform yang berbeda. Jadi pasar tetap tersebar. YouTube, Netflix, Disney... masing-masing duduk di pangsa satu digit karena masing-masing memiliki acara yang berbeda.
🔵Pencarian - pemenang-ambil-hampir-semua
$Google memiliki pangsa ~90% meskipun $Bing tidak terlalu buruk. Mengapa?
1/ Distribusi/default sangat kuat
Kebanyakan orang tidak memilih mesin pencari. Mereka menerima apa yang diberikan perangkat kepada mereka. $Google membayar puluhan miliar per tahun untuk menjadi default.
2/ Kebiasaan dan merek
$Google adalah kata kerja. $Bing tidak. Kekuatan merek kebiasaan plus sangat diremehkan (dan sejujurnya saya sedikit terkejut dengan ini).
3/ Roda gila data (sampai tingkat tertentu)
Mesin yang lebih baik → lebih banyak pengguna → lebih banyak data → mesin yang lebih baik. Saya mempertanyakan seberapa besar efek ini sebenarnya, tetapi itu pasti ada.
4/ Skala ekosistem iklan
Pengiklan mendapatkan lebih banyak volume dan ROI yang lebih baik di Google berkat Pencarian + YouTube + Maps + Android + Gmail. Jadi mereka memprioritaskan Google, yang memperkuat keunggulan.
🔵Chatbots/Agen - lebih dekat dengan pencarian daripada streaming?
Chatbots lebih seperti pencarian: output terasa seperti komoditas, dan Anda menginginkan satu asisten yang mengingat semuanya (jika chatbot menemukan memori, penguncian harus lebih kuat daripada pencarian). Akan ada kantong regional/bahasa (misalnya, Cina).
Dibandingkan dengan hari pencarian awal $Google:
- Regulasi sekarang lebih ketat (lebih sulit untuk menjadi monopoli);
- Platform lebih terfragmentasi saat ini: $Google, $Meta (dan mungkin MSFT/AAPL/AMZN) masing-masing akan mendorong asisten mereka sendiri yang terintegrasi erat; kami memiliki kamp Apple vs. Windows/Android;
Semua ini membuat monopoli tunggal jauh lebih kecil kemungkinannya.
Di tingkat pengguna: satu agen inti melakukan 70-90% pekerjaan.
Di tingkat pasar: mungkin 2-3 asisten besar, bukan satu pun pemenang 90% gaya $Google.

Freda Duan26 Nov 2025
Beberapa pemikiran mendalam tentang model bisnis model perbatasan. Semua ini didasarkan pada angka yang dibocorkan oleh The Information, NYT, dll.
🔵Inti: Ini adalah mesin komputasi-bakar
Pada intinya, modelnya sangat sederhana: hampir semua biaya berasal dari komputasi – inferensi, dan terutama pelatihan. Pelatihan mengikuti sesuatu seperti hukum penskalaan. Mari kita asumsikan biaya naik ~5x setiap tahun; dan ROI biaya pelatihan adalah 2x.
Itu menciptakan dinamika yang aneh:
Biaya pelatihan Tahun 1: 1
Pendapatan Tahun 2 dari model itu: 2
Tapi biaya pelatihan Tahun 2 untuk model berikutnya: 5
Bersih: +2 - 5 = -3
Jalankan ke depan dan itu menjadi lebih buruk:
Pendapatan Tahun 3: +10
Biaya pelatihan Tahun 3: -25
Bersih: -15
Model perbatasan, seperti yang dijalankan saat ini, adalah bola salju arus kas negatif. Setiap generasi membakar lebih banyak uang tunai daripada yang sebelumnya.
Agar ini beralih ke arus kas positif, hanya dua hal yang dapat berubah secara logis:
A. Pendapatan tumbuh jauh lebih cepat dari 2x, atau
B. Pertumbuhan biaya pelatihan melambat dari 5x setahun menjadi sekitar <2x
CEO Anthropic Dario Amodei telah memecah skenario B ("biaya pelatihan berhenti tumbuh secara eksponensial") menjadi dua kemungkinan realitas:
1/ Batas fisik/ekonomi: Anda tidak dapat melatih model 5x lebih besar — tidak cukup chip, tidak cukup daya, atau biayanya mendekati PDB dunia.
2/ Pengembalian yang berkurang: Anda dapat melatih model yang lebih besar, tetapi kurva penskalaan menjadi rata. Menghabiskan 10x lagi berhenti sepadan.
Apa yang diungkapkan oleh angka-angka OpenAI dan Anthropic:
Proyeksi keuangan kedua perusahaan yang bocor pada dasarnya memvalidasi kerangka kerja ini.
OpenAI: Rencana OpenAI secara efektif mengasumsikan total kapasitas komputasi berhenti tumbuh setelah 2028.
Terjemahan: margin meningkat karena biaya pelatihan mendatar. Ini adalah skenario B.
Antropis:
1/ Mereka mengasumsikan ROI per model meningkat setiap tahun. Belanjakan 1, kembalikan katakanlah 5, bukan 2.
2/ Pertumbuhan pengeluaran komputasi mereka juga jauh lebih diredam. Dari FY25 hingga FY28: Pertumbuhan biaya komputasi OpenAI >> Anthropic
Dengan menggunakan kerangka kerja di atas, mereka mengandalkan peningkatan pendapatan A dan pertumbuhan biaya B yang lebih lambat.
🔵 $NFLX adalah analogi terdekat
Dalam teknologi, model padat modal jarang terjadi, meskipun belum pernah terjadi sebelumnya. $NFLX adalah analogi yang baik: selama bertahun-tahun ia memiliki arus kas yang sangat negatif yang memburuk setiap tahun. Mereka harus menggelontorkan uang ke dalam konten di muka, dan aset tersebut terdepresiasi selama empat tahun. Dalam banyak hal ini menyerupai ekonomi pusat data dan pelatihan model.
Puncak pembakaran kas pada tahun 2019: -3B
Arus kas 2020: +2B
Mengapa ayunan positif tiba-tiba? COVID menutup produksi. Pengeluaran konten berhenti bertambah. Arus kas langsung berbalik.
🔵Akhir Permainan: Margin Tiba Saat Pertumbuhan Biaya Melambat
$NFLX tidak berhenti berinvestasi dalam konten sepenuhnya – itu hanya berhenti *menumbuhkan* investasi itu secara agresif setelah mencapai ~300 juta pelanggan global. Pada skala itu, lengket tinggi, dan mereka hanya perlu mempertahankan posisinya, bukan memperluas konten menghabiskan 10x setahun.
Saya tidak berpikir OpenAI atau Anthropic akan berhenti berlatih sepenuhnya. Tetapi mereka tidak perlu meningkatkan pengeluaran pelatihan dengan kelipatan selamanya. Pada titik tertentu:
ROI per model naik, atau batas penskalaan dimulai, atau keduanya.
Dan saat pengeluaran pelatihan tahunan berhenti tumbuh 5x setahun, margin keuntungan segera muncul.
Itulah hal yang aneh tentang ekonomi LLM:
Ini adalah mesin yang terbakar ... sampai tiba-tiba tidak.
Sumber:
++
Artikel lengkap:

61
Beberapa pemikiran mendalam tentang model bisnis model perbatasan. Semua ini didasarkan pada angka yang dibocorkan oleh The Information, NYT, dll.
🔵Inti: Ini adalah mesin komputasi-bakar
Pada intinya, modelnya sangat sederhana: hampir semua biaya berasal dari komputasi – inferensi, dan terutama pelatihan. Pelatihan mengikuti sesuatu seperti hukum penskalaan. Mari kita asumsikan biaya naik ~5x setiap tahun; dan ROI biaya pelatihan adalah 2x.
Itu menciptakan dinamika yang aneh:
Biaya pelatihan Tahun 1: 1
Pendapatan Tahun 2 dari model itu: 2
Tapi biaya pelatihan Tahun 2 untuk model berikutnya: 5
Bersih: +2 - 5 = -3
Jalankan ke depan dan itu menjadi lebih buruk:
Pendapatan Tahun 3: +10
Biaya pelatihan Tahun 3: -25
Bersih: -15
Model perbatasan, seperti yang dijalankan saat ini, adalah bola salju arus kas negatif. Setiap generasi membakar lebih banyak uang tunai daripada yang sebelumnya.
Agar ini beralih ke arus kas positif, hanya dua hal yang dapat berubah secara logis:
A. Pendapatan tumbuh jauh lebih cepat dari 2x, atau
B. Pertumbuhan biaya pelatihan melambat dari 5x setahun menjadi sekitar <2x
CEO Anthropic Dario Amodei telah memecah skenario B ("biaya pelatihan berhenti tumbuh secara eksponensial") menjadi dua kemungkinan realitas:
1/ Batas fisik/ekonomi: Anda tidak dapat melatih model 5x lebih besar — tidak cukup chip, tidak cukup daya, atau biayanya mendekati PDB dunia.
2/ Pengembalian yang berkurang: Anda dapat melatih model yang lebih besar, tetapi kurva penskalaan menjadi rata. Menghabiskan 10x lagi berhenti sepadan.
Apa yang diungkapkan oleh angka-angka OpenAI dan Anthropic:
Proyeksi keuangan kedua perusahaan yang bocor pada dasarnya memvalidasi kerangka kerja ini.
OpenAI: Rencana OpenAI secara efektif mengasumsikan total kapasitas komputasi berhenti tumbuh setelah 2028.
Terjemahan: margin meningkat karena biaya pelatihan mendatar. Ini adalah skenario B.
Antropis:
1/ Mereka mengasumsikan ROI per model meningkat setiap tahun. Belanjakan 1, kembalikan katakanlah 5, bukan 2.
2/ Pertumbuhan pengeluaran komputasi mereka juga jauh lebih diredam. Dari FY25 hingga FY28: Pertumbuhan biaya komputasi OpenAI >> Anthropic
Dengan menggunakan kerangka kerja di atas, mereka mengandalkan peningkatan pendapatan A dan pertumbuhan biaya B yang lebih lambat.
🔵 $NFLX adalah analogi terdekat
Dalam teknologi, model padat modal jarang terjadi, meskipun belum pernah terjadi sebelumnya. $NFLX adalah analogi yang baik: selama bertahun-tahun ia memiliki arus kas yang sangat negatif yang memburuk setiap tahun. Mereka harus menggelontorkan uang ke dalam konten di muka, dan aset tersebut terdepresiasi selama empat tahun. Dalam banyak hal ini menyerupai ekonomi pusat data dan pelatihan model.
Puncak pembakaran kas pada tahun 2019: -3B
Arus kas 2020: +2B
Mengapa ayunan positif tiba-tiba? COVID menutup produksi. Pengeluaran konten berhenti bertambah. Arus kas langsung berbalik.
🔵Akhir Permainan: Margin Tiba Saat Pertumbuhan Biaya Melambat
$NFLX tidak berhenti berinvestasi dalam konten sepenuhnya – itu hanya berhenti *menumbuhkan* investasi itu secara agresif setelah mencapai ~300 juta pelanggan global. Pada skala itu, lengket tinggi, dan mereka hanya perlu mempertahankan posisinya, bukan memperluas konten menghabiskan 10x setahun.
Saya tidak berpikir OpenAI atau Anthropic akan berhenti berlatih sepenuhnya. Tetapi mereka tidak perlu meningkatkan pengeluaran pelatihan dengan kelipatan selamanya. Pada titik tertentu:
ROI per model naik, atau batas penskalaan dimulai, atau keduanya.
Dan saat pengeluaran pelatihan tahunan berhenti tumbuh 5x setahun, margin keuntungan segera muncul.
Itulah hal yang aneh tentang ekonomi LLM:
Ini adalah mesin yang terbakar ... sampai tiba-tiba tidak.
Sumber:
++
Artikel lengkap:

56
Teratas
Peringkat
Favorit