Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-Verticali: Prima il Coding, Poi Excel?
Il coding ha sorpreso tutti al rialzo emergendo come uno dei verticali di applicazione AI più forti fino ad oggi.
Combina tre attributi rari: un TAM enorme, una naturale apertura verso casi d'uso adiacenti e un GTM guidato dal prodotto che elimina in gran parte la necessità di vendite e marketing tradizionali. Pochi verticali condividono quel profilo.
Excel è uno di questi.
Il TAM è ancora più grande. Gran parte dell'industria del software può essere vista come "involucri di Excel" stratificati, e l'adozione è in gran parte self-service. Questo spiega probabilmente perché sia $OpenAI che $Anthropic si siano espansi aggressivamente in fogli di calcolo e flussi di lavoro di produttività (secondo quanto riportato pubblicamente).
++++
🔵Coding
1/ Perché il coding ha funzionato:
Gli sviluppatori identificano rapidamente i migliori strumenti senza un pesante marketing. Hanno spesso un'influenza diretta sugli acquisti, e le aziende sono relativamente insensibili ai costi incrementali per sviluppatore se la produttività migliora. Di conseguenza, i prodotti forti si diffondono dal basso verso l'alto con uno sforzo di vendita minimo - a differenza della maggior parte dei verticali che richiedono vendite esplicite, marketing e approvvigionamento aziendale.
La maggior parte degli altri verticali (sanità, immobiliare, finanza, ecc.) richiedono vendite esplicite, marketing e approvvigionamento aziendale.
2/ TAM:
Il TAM comunemente citato per il coding è di ~$2T.
Più importante, il coding non è solo un mercato finale - è un'apertura. Possedere il flusso di lavoro degli sviluppatori crea leva su ogni applicazione costruita sopra di esso.
3/ Coding - Controllo dello Stato:
4 aziende con $1B+ ARR
Almeno 7 aziende hanno superato i $100M ARR, spesso a una velocità senza precedenti
++++
🔵Excel segue lo stesso schema.
Ha un enorme TAM, funge da gateway verso molti casi d'uso adiacenti e supporta l'adozione self-service con un GTM limitato. L'industria del software applicativo da ~$500B è argomentabilmente un enorme strato di astrazione di Excel - che abbraccia CRM, Airtable, Smartsheet e grandi parti di finanza, operazioni, analisi e strumenti interni.
▶️TAM:
Anche considerando la sovrapposizione tra Microsoft Office, Google Workspace e WPS, una base di utenti attivi mensili di fogli di calcolo globale di ~1.5–1.6B è una stima ragionevole.
▶️Excel è anche più di Excel:
Il software è un'industria da ~$1T, con il software applicativo che rappresenta probabilmente ~50%. Se un Excel nativo AI diventa programmabile, l'opportunità si espande ben oltre i fogli di calcolo nella creazione di applicazioni stesse.
▶️GTM:
La finanza è la naturale apertura iniziale. Ha un alto profitto pro capite, una forte disponibilità a pagare per strumenti di produttività, autorità di budget diretta a livello analista e un chiaro ROI che rende i prodotti in gran parte auto-vendibili. Circa il ~10% degli utenti globali di fogli di calcolo lavora in ruoli legati alla finanza, rappresentando un punto di partenza molto grande e altamente monetizzabile.
Il coding ha dimostrato quanto velocemente uno strumento self-service, nativo del flusso di lavoro con una superficie enorme possa scalare. Excel potrebbe essere la prossima versione di quel playbook - su una scala ancora più grande.
---
Analisi completa:

5
I chatbot finiranno per assomigliare di più a streaming o di più a ricerca?
Streaming, ricerca e chatbot sono tutti settori senza effetti di rete classici (costi di switching relativamente bassi). Eppure lo streaming è frammentato mentre la ricerca è diventata un quasi monopolio.
🔵Streaming - frammentato per design
Il contenuto non è una merce. È differenziato, non esclusivo e vive su diverse piattaforme. Quindi il mercato rimane disperso. YouTube, Netflix, Disney... ognuno ha una quota a una cifra perché ognuno possiede diversi programmi.
🔵Ricerca - chi vince prende quasi tutto
$Google ha circa il 90% di quota anche se $Bing non è così male. Perché?
1/ Distribuzione/impostazioni predefinite sono incredibilmente potenti
La maggior parte delle persone non sceglie un motore di ricerca. Accettano ciò che il dispositivo offre loro. $Google paga decine di miliardi all'anno per essere il predefinito.
2/ Abitudine e marchio
$Google è un verbo. $Bing non lo è. Il potere dell'abitudine più il marchio è incredibilmente sottovalutato (e onestamente sono un po' sorpreso da questo).
3/ Volo dei dati (fino a un certo punto)
Motore migliore → più utenti → più dati → motore migliore. Mi chiedo quanto sia grande questo effetto, ma esiste sicuramente.
4/ Scala dell'ecosistema pubblicitario
Gli inserzionisti ottengono più volume e un ROI migliore su Google grazie a Ricerca + YouTube + Maps + Android + Gmail. Quindi danno priorità a Google, il che rinforza il vantaggio.
🔵Chatbot/Agenti - più simili alla ricerca che allo streaming?
I chatbot sono più simili alla ricerca: le uscite sembrano merce, e vuoi un assistente che ricordi tutto (se i chatbot riescono a capire la memoria, il lock-in dovrebbe essere più forte della ricerca). Ci saranno sacche regionali/language (ad es., Cina).
Rispetto ai primi giorni della ricerca di $Google:
- La regolamentazione è ora più severa (più difficile diventare un monopolio);
- Le piattaforme sono più frammentate oggi: $Google, $Meta (e forse MSFT/AAPL/AMZN) spingeranno ciascuna il proprio assistente strettamente integrato; abbiamo Apple contro il campo Windows/Android;
Tutto ciò rende un singolo monopolio molto meno probabile.
A livello utente: un agente principale che svolge il 70-90% del lavoro.
A livello di mercato: forse 2-3 mega-assistenti, non un singolo vincitore in stile $Google al 90%.

Freda Duan26 nov 2025
Alcune riflessioni profonde sul modello di business frontier-model. Tutto ciò è basato su numeri trapelati da The Information, NYT, ecc.
🔵Il Nucleo: È una Macchina di Consumo Computazionale
Nel suo cuore, il modello è brutalmente semplice: quasi tutti i costi derivano dal calcolo – inferenza, e soprattutto addestramento. L'addestramento segue qualcosa come una legge di scalabilità. Supponiamo che i costi aumentino di circa 5 volte ogni anno; e il ROI sui costi di addestramento è di 2 volte.
Questo crea una dinamica strana:
Costo di addestramento anno 1: 1
Entrate anno 2 da quel modello: 2
Ma costo di addestramento anno 2 per il modello successivo: 5
Netto: +2 - 5 = -3
Se lo portiamo avanti, diventa peggio:
Entrate anno 3: +10
Costo di addestramento anno 3: -25
Netto: -15
I modelli frontier, così come sono attualmente gestiti, sono palle di neve con flusso di cassa negativo. Ogni generazione brucia più denaro di quella precedente.
Perché questo possa mai passare a un flusso di cassa positivo, solo due cose possono logicamente cambiare:
A. Le entrate crescono molto più velocemente di 2 volte, oppure
B. La crescita dei costi di addestramento rallenta da 5 volte all'anno a qualcosa come <2 volte
Il CEO di Anthropic, Dario Amodei, ha suddiviso lo scenario B ("i costi di addestramento smettono di crescere esponenzialmente") in due possibili realtà:
1/ Limiti fisici/economici: semplicemente non puoi addestrare un modello 5 volte più grande — non ci sono abbastanza chip, non c'è abbastanza potenza, o il costo si avvicina al PIL mondiale.
2/ Rendimento decrescente: potresti addestrare un modello più grande, ma la curva di scalabilità si appiattisce. Spendere un altro 10 volte smette di valere la pena.
Cosa rivelano i numeri di OpenAI e Anthropic:
Le proiezioni finanziarie trapelate di entrambe le aziende convalidano sostanzialmente questo framework.
OpenAI: Il piano di OpenAI assume effettivamente che la capacità totale di calcolo smetta di crescere dopo il 2028.
Traduzione: i margini migliorano perché i costi di addestramento si appiattiscono. Questo è lo scenario B.
Anthropic:
1/ Assumono che il ROI per modello aumenti ogni anno. Spendi 1, ottieni indietro 5 invece di 2.
2/ La loro crescita della spesa per calcolo è anche molto più contenuta. Dal FY25 al FY28: la crescita dei costi di calcolo di OpenAI >> quella di Anthropic
Utilizzando il framework sopra, contano su sia A che sull'aumento delle entrate e B sulla crescita dei costi più lenta.
🔵 $NFLX È l'Analogia Più Vicina
Nel settore tecnologico, i modelli ad alta intensità di capitale sono rari, anche se non senza precedenti. $NFLX è una buona analogia: per anni ha avuto un flusso di cassa profondamente negativo che è peggiorato annualmente. Hanno dovuto investire denaro nei contenuti in anticipo, e quegli asset si sono deprezzati nel corso di quattro anni. In molti modi ricorda l'economia dei data center e dell'addestramento dei modelli.
Massimo consumo di cassa nel 2019: -3B
Flusso di cassa 2020: +2B
Perché il repentino passaggio positivo? Il COVID ha fermato la produzione. La spesa per contenuti ha smesso di crescere. Il flusso di cassa è immediatamente cambiato.
🔵Il Gioco Finale: I Margini Arrivano Quando la Crescita dei Costi Rallenta
$NFLX non ha smesso di investire completamente nei contenuti – ha semplicemente smesso di *crescere* quell'investimento in modo aggressivo una volta raggiunti circa 300M di abbonati globali. A quella scala, l'aderenza è alta, e devono solo mantenere la loro posizione, non espandere la spesa per contenuti di 10 volte all'anno.
Non penso che OpenAI o Anthropic smetteranno mai di addestrare completamente. Ma non avranno bisogno di aumentare la spesa per l'addestramento di multipli per sempre. A un certo punto:
Il ROI per modello aumenta, o i limiti di scalabilità entrano in gioco, o entrambi.
E nel momento in cui la spesa annuale per l'addestramento smette di crescere di 5 volte all'anno, i margini di profitto compaiono quasi immediatamente.
Questa è la cosa strana dell'economia degli LLM:
È una macchina di consumo… fino a quando improvvisamente non lo è più.
Fonti:
++
Articolo completo:

31
Alcune riflessioni profonde sul modello di business frontier-model. Tutto ciò è basato su numeri trapelati da The Information, NYT, ecc.
🔵Il Nucleo: È una Macchina di Consumo Computazionale
Nel suo cuore, il modello è brutalmente semplice: quasi tutti i costi derivano dal calcolo – inferenza, e soprattutto addestramento. L'addestramento segue qualcosa come una legge di scalabilità. Supponiamo che i costi aumentino di circa 5 volte ogni anno; e il ROI sui costi di addestramento è di 2 volte.
Questo crea una dinamica strana:
Costo di addestramento anno 1: 1
Entrate anno 2 da quel modello: 2
Ma costo di addestramento anno 2 per il modello successivo: 5
Netto: +2 - 5 = -3
Se lo portiamo avanti, diventa peggio:
Entrate anno 3: +10
Costo di addestramento anno 3: -25
Netto: -15
I modelli frontier, così come sono attualmente gestiti, sono palle di neve con flusso di cassa negativo. Ogni generazione brucia più denaro di quella precedente.
Perché questo possa mai passare a un flusso di cassa positivo, solo due cose possono logicamente cambiare:
A. Le entrate crescono molto più velocemente di 2 volte, oppure
B. La crescita dei costi di addestramento rallenta da 5 volte all'anno a qualcosa come <2 volte
Il CEO di Anthropic, Dario Amodei, ha suddiviso lo scenario B ("i costi di addestramento smettono di crescere esponenzialmente") in due possibili realtà:
1/ Limiti fisici/economici: semplicemente non puoi addestrare un modello 5 volte più grande — non ci sono abbastanza chip, non c'è abbastanza potenza, o il costo si avvicina al PIL mondiale.
2/ Rendimento decrescente: potresti addestrare un modello più grande, ma la curva di scalabilità si appiattisce. Spendere un altro 10 volte smette di valere la pena.
Cosa rivelano i numeri di OpenAI e Anthropic:
Le proiezioni finanziarie trapelate di entrambe le aziende convalidano sostanzialmente questo framework.
OpenAI: Il piano di OpenAI assume effettivamente che la capacità totale di calcolo smetta di crescere dopo il 2028.
Traduzione: i margini migliorano perché i costi di addestramento si appiattiscono. Questo è lo scenario B.
Anthropic:
1/ Assumono che il ROI per modello aumenti ogni anno. Spendi 1, ottieni indietro 5 invece di 2.
2/ La loro crescita della spesa per calcolo è anche molto più contenuta. Dal FY25 al FY28: la crescita dei costi di calcolo di OpenAI >> quella di Anthropic
Utilizzando il framework sopra, contano su sia A che sull'aumento delle entrate e B sulla crescita dei costi più lenta.
🔵 $NFLX È l'Analogia Più Vicina
Nel settore tecnologico, i modelli ad alta intensità di capitale sono rari, anche se non senza precedenti. $NFLX è una buona analogia: per anni ha avuto un flusso di cassa profondamente negativo che è peggiorato annualmente. Hanno dovuto investire denaro nei contenuti in anticipo, e quegli asset si sono deprezzati nel corso di quattro anni. In molti modi ricorda l'economia dei data center e dell'addestramento dei modelli.
Massimo consumo di cassa nel 2019: -3B
Flusso di cassa 2020: +2B
Perché il repentino passaggio positivo? Il COVID ha fermato la produzione. La spesa per contenuti ha smesso di crescere. Il flusso di cassa è immediatamente cambiato.
🔵Il Gioco Finale: I Margini Arrivano Quando la Crescita dei Costi Rallenta
$NFLX non ha smesso di investire completamente nei contenuti – ha semplicemente smesso di *crescere* quell'investimento in modo aggressivo una volta raggiunti circa 300M di abbonati globali. A quella scala, l'aderenza è alta, e devono solo mantenere la loro posizione, non espandere la spesa per contenuti di 10 volte all'anno.
Non penso che OpenAI o Anthropic smetteranno mai di addestrare completamente. Ma non avranno bisogno di aumentare la spesa per l'addestramento di multipli per sempre. A un certo punto:
Il ROI per modello aumenta, o i limiti di scalabilità entrano in gioco, o entrambi.
E nel momento in cui la spesa annuale per l'addestramento smette di crescere di 5 volte all'anno, i margini di profitto compaiono quasi immediatamente.
Questa è la cosa strana dell'economia degli LLM:
È una macchina di consumo… fino a quando improvvisamente non lo è più.
Fonti:
++
Articolo completo:

31
Principali
Ranking
Preferiti