Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
AI Super-Verticals : Coding First, Excel Next ?
Le codage a surpris tout le monde en se révélant comme l'un des secteurs d'application de l'IA les plus forts à ce jour.
Il combine trois attributs rares : un TAM massif, une ouverture naturelle vers des cas d'utilisation adjacents, et un GTM axé sur le produit qui élimine en grande partie le besoin de ventes et de marketing traditionnels. Très peu de secteurs partagent ce profil.
Excel en fait partie.
Le TAM est encore plus grand. Une grande partie de l'industrie du logiciel peut être considérée comme des "enveloppes Excel" superposées, et l'adoption est largement en libre-service. Cela explique probablement pourquoi à la fois $OpenAI et $Anthropic se sont agressivement étendus dans les feuilles de calcul et les flux de travail de productivité (selon des rapports publics).
++++
🔵Codage
1/ Pourquoi le codage a fonctionné :
Les développeurs identifient rapidement les meilleurs outils sans marketing lourd. Ils ont souvent une influence directe sur les achats, et les entreprises sont relativement insensibles aux coûts incrémentaux par développeur si la productivité s'améliore. En conséquence, de bons produits se répandent de bas en haut avec un effort de vente minimal - contrairement à la plupart des secteurs qui nécessitent une vente explicite, du marketing et des achats d'entreprise.
La plupart des autres secteurs (santé, immobilier, finance, etc.) nécessitent une vente explicite, du marketing et des achats d'entreprise.
2/ TAM :
Le TAM couramment cité pour le codage est d'environ 2 000 milliards de dollars.
Plus important encore, le codage n'est pas seulement un marché final - c'est un coin. Posséder le flux de travail des développeurs crée un effet de levier sur chaque application construite dessus.
3/ Codage - Vérification de l'état :
4 entreprises à plus de 1 milliard de dollars de revenus récurrents annuels
Au moins 7 entreprises ont franchi le cap des 100 millions de dollars de revenus récurrents annuels, souvent à une vitesse sans précédent.
++++
🔵Excel suit le même schéma.
Il a un TAM énorme, sert de passerelle vers de nombreux cas d'utilisation adjacents, et soutient l'adoption en libre-service avec un GTM limité. L'industrie des logiciels d'application d'environ 500 milliards de dollars est sans doute une énorme couche d'abstraction Excel - englobant CRM, Airtable, Smartsheet, et de grandes parties de la finance, des opérations, de l'analyse et des outils internes.
▶️TAM :
Même en tenant compte du chevauchement entre Microsoft Office, Google Workspace et WPS, une base d'utilisateurs mensuels actifs de feuilles de calcul d'environ 1,5 à 1,6 milliard est une estimation raisonnable.
▶️Excel est aussi plus qu'Excel :
Le logiciel est une industrie d'environ 1 000 milliards de dollars, les logiciels d'application représentant probablement environ 50 %. Si un Excel natif à l'IA devient programmable, l'opportunité s'étend bien au-delà des feuilles de calcul vers la création d'applications elle-même.
▶️GTM :
La finance est le coin initial naturel. Elle a un profit par habitant élevé, une forte volonté de payer pour des outils de productivité, une autorité budgétaire directe au niveau des analystes, et un ROI clair qui rend les produits largement auto-vendants. Environ 10 % des utilisateurs mondiaux de feuilles de calcul travaillent dans des rôles liés à la finance, représentant un point de départ très large et hautement monétisable.
Le codage a montré à quelle vitesse un outil en libre-service, natif au flux de travail avec une surface massive peut se développer. Excel pourrait être la prochaine version de ce manuel - à une échelle encore plus grande.
---
Analyse complète :

37
Les chatbots finiront-ils par ressembler davantage à des services de streaming ou davantage à des moteurs de recherche ?
Le streaming, la recherche et les chatbots sont tous des secteurs sans effets de réseau classiques (coûts de changement relativement faibles). Pourtant, le streaming est fragmenté tandis que la recherche est devenue un quasi-monopole.
🔵Streaming - fragmenté par conception
Le contenu n'est pas une marchandise. Il est différencié, non exclusif et vit sur différentes plateformes. Ainsi, le marché reste dispersé. YouTube, Netflix, Disney... chacun détient une part à un chiffre parce que chacun possède des émissions différentes.
🔵Recherche - le gagnant prend presque tout
$Google a environ 90 % de part de marché même si $Bing n'est pas si mauvais. Pourquoi ?
1/ La distribution/par défaut est incroyablement puissante
La plupart des gens ne choisissent pas de moteur de recherche. Ils acceptent ce que l'appareil leur donne. $Google paie des dizaines de milliards par an pour être le par défaut.
2/ Habitude et marque
$Google est un verbe. $Bing ne l'est pas. Le pouvoir de l'habitude plus la marque est largement sous-estimé (et je suis honnêtement un peu surpris par cela).
3/ Effet de volant de données (dans une certaine mesure)
Meilleur moteur → plus d'utilisateurs → plus de données → meilleur moteur. Je me demande à quel point cet effet est vraiment important, mais il existe définitivement.
4/ Échelle de l'écosystème publicitaire
Les annonceurs obtiennent plus de volume et un meilleur retour sur investissement sur Google grâce à la recherche + YouTube + Maps + Android + Gmail. Ils priorisent donc Google, ce qui renforce l'avance.
🔵Chatbots/Agents - plus proches de la recherche que du streaming ?
Les chatbots ressemblent davantage à la recherche : les résultats semblent être des marchandises, et vous voulez un assistant qui se souvient de tout (si les chatbots parviennent à gérer la mémoire, le verrouillage devrait être plus fort que celui de la recherche). Il y aura des poches régionales/langagières (par exemple, la Chine).
Comparé aux débuts de la recherche $Google :
- La réglementation est maintenant plus stricte (plus difficile de devenir un monopole) ;
- Les plateformes sont plus fragmentées aujourd'hui : $Google, $Meta (et peut-être MSFT/AAPL/AMZN) pousseront chacune leur propre assistant intégré ; nous avons Apple contre le camp Windows/Android ;
Tout cela rend un monopole unique beaucoup moins probable.
Au niveau de l'utilisateur : un agent central réalisant 70-90 % du travail.
Au niveau du marché : peut-être 2-3 méga-assistants, pas un seul gagnant à 90 % de style $Google.

Freda Duan26 nov. 2025
Une réflexion approfondie sur le modèle économique des modèles frontier. Tout cela est basé sur des chiffres divulgués par The Information, NYT, etc.
🔵Le cœur : C'est une machine à brûler du calcul
Au cœur du modèle, c'est brutalement simple : presque tous les coûts proviennent du calcul – inférence, et surtout formation. La formation suit quelque chose comme une loi d'échelle. Supposons que les coûts augmentent d'environ 5x chaque année ; et le retour sur investissement des coûts de formation est de 2x.
Cela crée une dynamique étrange :
Coût de formation de l'année 1 : 1
Revenu de l'année 2 provenant de ce modèle : 2
Mais coût de formation de l'année 2 pour le modèle suivant : 5
Net : +2 - 5 = -3
Faites avancer et cela devient pire :
Revenu de l'année 3 : +10
Coût de formation de l'année 3 : -25
Net : -15
Les modèles frontier, tels qu'ils sont actuellement gérés, sont des boules de neige à flux de trésorerie négatif. Chaque génération brûle plus de liquidités que la précédente.
Pour que cela devienne un jour un flux de trésorerie positif, seules deux choses peuvent logiquement changer :
A. Les revenus croissent beaucoup plus vite que 2x, ou
B. La croissance des coûts de formation ralentit de 5x par an à quelque chose comme <2x
Le PDG d'Anthropic, Dario Amodei, a décomposé le scénario B (« les coûts de formation cessent de croître de manière exponentielle ») en deux réalités possibles :
1/ Limites physiques/économiques : Vous ne pouvez tout simplement pas former un modèle 5x plus grand — pas assez de puces, pas assez de puissance, ou le coût approche le PIB mondial.
2/ Rendements décroissants : Vous pourriez former un modèle plus grand, mais la courbe d'échelle s'aplatit. Dépenser encore 10x cesse d'en valoir la peine.
Ce que les chiffres d'OpenAI et d'Anthropic révèlent :
Les projections financières divulguées des deux entreprises valident essentiellement ce cadre.
OpenAI : Le plan d'OpenAI suppose effectivement que la capacité totale de calcul cesse de croître après 2028.
Traduction : les marges s'améliorent parce que les coûts de formation s'aplatissent. C'est le scénario B.
Anthropic :
1/ Ils supposent que le ROI par modèle augmente chaque année. Dépensez 1, récupérez disons 5 au lieu de 2.
2/ Leur croissance des dépenses de calcul est également beaucoup plus modérée. De l'exercice 25 à l'exercice 28 : la croissance des coûts de calcul d'OpenAI >> celle d'Anthropic
En utilisant le cadre ci-dessus, ils comptent à la fois sur une augmentation des revenus A et sur une croissance des coûts B plus lente.
🔵 $NFLX est l'analogie la plus proche
Dans la technologie, les modèles intensifs en capital sont rares, bien que pas sans précédent. $NFLX est une bonne analogie : pendant des années, il a eu un flux de trésorerie profondément négatif qui s'est aggravé chaque année. Ils devaient investir de l'argent dans le contenu à l'avance, et ces actifs se dépréciaient sur quatre ans. À bien des égards, cela ressemble à l'économie des centres de données et de la formation des modèles.
Brûlage de liquidités maximal en 2019 : -3B
Flux de trésorerie 2020 : +2B
Pourquoi ce retournement soudain ? COVID a arrêté la production. Les dépenses de contenu ont cessé de croître. Le flux de trésorerie a instantanément basculé.
🔵Le jeu final : les marges arrivent lorsque la croissance des coûts ralentit
$NFLX n'a pas complètement cessé d'investir dans le contenu – il a simplement cessé de *croître* cet investissement de manière agressive une fois qu'il a atteint environ 300M d'abonnés mondiaux. À cette échelle, l'adhérence est élevée, et ils n'ont besoin que de maintenir leur position, pas d'augmenter les dépenses de contenu de 10x par an.
Je ne pense pas qu'OpenAI ou Anthropic cesseront un jour complètement de former. Mais ils n'auront pas besoin d'augmenter les dépenses de formation par des multiples pour toujours. À un moment donné :
Le ROI par modèle augmente, ou les limites d'échelle entrent en jeu, ou les deux.
Et au moment où les dépenses annuelles de formation cessent de croître de 5x par an, les marges bénéficiaires apparaissent presque immédiatement.
C'est la chose étrange à propos de l'économie des LLM :
C'est une machine à brûler… jusqu'à ce qu'elle ne le soit plus soudainement.
Sources :
++
Article complet :

55
Une réflexion approfondie sur le modèle économique des modèles frontier. Tout cela est basé sur des chiffres divulgués par The Information, NYT, etc.
🔵Le cœur : C'est une machine à brûler du calcul
Au cœur du modèle, c'est brutalement simple : presque tous les coûts proviennent du calcul – inférence, et surtout formation. La formation suit quelque chose comme une loi d'échelle. Supposons que les coûts augmentent d'environ 5x chaque année ; et le retour sur investissement des coûts de formation est de 2x.
Cela crée une dynamique étrange :
Coût de formation de l'année 1 : 1
Revenu de l'année 2 provenant de ce modèle : 2
Mais coût de formation de l'année 2 pour le modèle suivant : 5
Net : +2 - 5 = -3
Faites avancer et cela devient pire :
Revenu de l'année 3 : +10
Coût de formation de l'année 3 : -25
Net : -15
Les modèles frontier, tels qu'ils sont actuellement gérés, sont des boules de neige à flux de trésorerie négatif. Chaque génération brûle plus de liquidités que la précédente.
Pour que cela devienne un jour un flux de trésorerie positif, seules deux choses peuvent logiquement changer :
A. Les revenus croissent beaucoup plus vite que 2x, ou
B. La croissance des coûts de formation ralentit de 5x par an à quelque chose comme <2x
Le PDG d'Anthropic, Dario Amodei, a décomposé le scénario B (« les coûts de formation cessent de croître de manière exponentielle ») en deux réalités possibles :
1/ Limites physiques/économiques : Vous ne pouvez tout simplement pas former un modèle 5x plus grand — pas assez de puces, pas assez de puissance, ou le coût approche le PIB mondial.
2/ Rendements décroissants : Vous pourriez former un modèle plus grand, mais la courbe d'échelle s'aplatit. Dépenser encore 10x cesse d'en valoir la peine.
Ce que les chiffres d'OpenAI et d'Anthropic révèlent :
Les projections financières divulguées des deux entreprises valident essentiellement ce cadre.
OpenAI : Le plan d'OpenAI suppose effectivement que la capacité totale de calcul cesse de croître après 2028.
Traduction : les marges s'améliorent parce que les coûts de formation s'aplatissent. C'est le scénario B.
Anthropic :
1/ Ils supposent que le ROI par modèle augmente chaque année. Dépensez 1, récupérez disons 5 au lieu de 2.
2/ Leur croissance des dépenses de calcul est également beaucoup plus modérée. De l'exercice 25 à l'exercice 28 : la croissance des coûts de calcul d'OpenAI >> celle d'Anthropic
En utilisant le cadre ci-dessus, ils comptent à la fois sur une augmentation des revenus A et sur une croissance des coûts B plus lente.
🔵 $NFLX est l'analogie la plus proche
Dans la technologie, les modèles intensifs en capital sont rares, bien que pas sans précédent. $NFLX est une bonne analogie : pendant des années, il a eu un flux de trésorerie profondément négatif qui s'est aggravé chaque année. Ils devaient investir de l'argent dans le contenu à l'avance, et ces actifs se dépréciaient sur quatre ans. À bien des égards, cela ressemble à l'économie des centres de données et de la formation des modèles.
Brûlage de liquidités maximal en 2019 : -3B
Flux de trésorerie 2020 : +2B
Pourquoi ce retournement soudain ? COVID a arrêté la production. Les dépenses de contenu ont cessé de croître. Le flux de trésorerie a instantanément basculé.
🔵Le jeu final : les marges arrivent lorsque la croissance des coûts ralentit
$NFLX n'a pas complètement cessé d'investir dans le contenu – il a simplement cessé de *croître* cet investissement de manière agressive une fois qu'il a atteint environ 300M d'abonnés mondiaux. À cette échelle, l'adhérence est élevée, et ils n'ont besoin que de maintenir leur position, pas d'augmenter les dépenses de contenu de 10x par an.
Je ne pense pas qu'OpenAI ou Anthropic cesseront un jour complètement de former. Mais ils n'auront pas besoin d'augmenter les dépenses de formation par des multiples pour toujours. À un moment donné :
Le ROI par modèle augmente, ou les limites d'échelle entrent en jeu, ou les deux.
Et au moment où les dépenses annuelles de formation cessent de croître de 5x par an, les marges bénéficiaires apparaissent presque immédiatement.
C'est la chose étrange à propos de l'économie des LLM :
C'est une machine à brûler… jusqu'à ce qu'elle ne le soit plus soudainement.
Sources :
++
Article complet :

44
Meilleurs
Classement
Favoris