Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi : 54 000 $/🎙️ mois https://t.co/fmB6Zf5n9X : 32 000 $/mois 💼 https://t.co/hNxFPvj3v1 : 31 000 $/mois 🤝 https://t.co/SqC3jTyhav : 28 000 $/mois
Tout le monde se trompe à ce sujet.
Le tweet montre des cheminées, mais Intersect Power est une entreprise d'énergie propre avec 2,2 GW d'énergie solaire et 2,4 GWh de stockage de batteries déjà en fonctionnement. Le gaz naturel est une solution de secours pour les moments où le vent et le solaire ne peuvent pas couvrir les 30 % restants.
La véritable histoire est ce que Google achète réellement : de la vitesse.
Les centres de données américains ont consommé 183 térawattheures l'année dernière. Ce chiffre double d'ici 2030. Chaque hyperscaleur a plus de demande que de capacité. Andy Jassy l'a admis lors de l'appel sur les résultats d'Amazon. Le réseau ne peut pas suivre.
Donc, Google a contourné complètement le réseau.
Le modèle d'Intersect co-localise la production d'énergie directement avec les centres de données. Construisez la ferme solaire, l'ensemble de batteries et le centre de données sur le même site. Pas d'attente pour l'interconnexion avec le service public. Pas de goulets d'étranglement dans la transmission. Pas de coûts à faire payer aux consommateurs qui ne se sont pas inscrits à l'essor de l'IA.
D'ici 2028, Intersect s'attend à avoir 10,8 gigawatts en ligne ou en développement. C'est plus de 20 fois la capacité du barrage Hoover.
Amazon dépense 100 milliards de dollars pour l'infrastructure IA cette année. Microsoft dépense 80 milliards de dollars. Google dépense 75 milliards de dollars. Cela fait 255 milliards de dollars de la part de trois entreprises en un an, et elles se battent toutes pour la même ressource contrainte : l'électricité.
Google vient d'acheter un accès garanti à cette contrainte pendant que tout le monde négocie avec les services publics.
Les 4,75 milliards de dollars ne sont pas l'histoire. C'est ce qu'ils n'ont pas eu à acheter : du temps.

Pubity25 déc., 00:43
Google vient de dépenser 4,75 milliards de dollars pour acquérir une entreprise énergétique entière afin d'alimenter ses centres de données AI.


391
Tout le monde se concentre sur qui livre la démo humanoïde la plus flashy. Jim Fan vient de vous dire quelle est la véritable course : qui peut générer suffisamment de données de physique synthétique pour combler un écart de 100 000 ans.
Ce chiffre n'est pas une exagération. Ken Goldberg à Berkeley a calculé que les données textuelles utilisées pour entraîner les LLM prendraient 100 000 ans à un humain pour être lues. Les robots n'ont presque aucun accès à l'équivalent de cela pour la manipulation physique. Chaque prise, chaque trébuchement, chaque changement de poids doit être appris de zéro ou simulé.
C'est pourquoi le laboratoire de Fan livre trois versions de modèle en neuf mois (N1 en mars, N1.5 en juin, N1.6 en décembre) tandis que la plupart des entreprises de robotique sont encore en train de collecter des démos du monde réel. NVIDIA ne se contente pas de rivaliser sur le matériel. Ils rivalisent sur leur capacité à générer des données d'entraînement synthétiques illimitées grâce à Omniverse.
La pile GR00T révèle la stratégie : GR00T Dreams génère des données vidéo synthétiques. GR00T-Gen crée des environnements de simulation. GR00T-Mimic génère des trajectoires. Chaque composant existe pour fabriquer les données de physique qui n'existent pas sur Internet.
Le cadre du "Test de Turing Physique" de Fan est précis. Nous construirons des systèmes capables de raisonner sur les protéines et de prouver des théorèmes avant de construire des systèmes capables de plier le linge de manière fiable. Physical Intelligence a justement démontré cela la semaine dernière lorsqu'ils ont relevé les défis des "Olympiades des Robots" de Benjie Holson. Leur modèle a remporté des médailles d'or dans 3 des 5 catégories. Mais remarquez ce qu'ils n'ont pas pu résoudre : des tâches nécessitant l'utilisation d'outils avec des propriétés physiques spécifiques. La frontière n'est pas le raisonnement. C'est la dynamique de contact.
OpenAI et Anthropic se développent en grattant Internet. L'IA physique n'a pas d'Internet à gratter. L'équipe qui gagnera est celle qui parviendra à fabriquer 100 millions d'heures d'expérience en physique à l'intérieur de la simulation et à les transférer dans le monde réel.
NVIDIA, avec son ADN graphique, son infrastructure de simulation et son équipe de 30 personnes, open-source systématiquement des modèles de base, pourrait être mieux positionnée que quiconque pour faire exactement cela.

Jim Fan25 déc., 01:26
Je suis en mission singulière pour résoudre le Test de Turing Physique pour la robotique. C'est le prochain, ou peut-être LE dernier grand défi de l'IA. La super-intelligence dans les chaînes de texte remportera un prix Nobel avant que nous n'ayons l'intelligence des chimpanzés en agilité et dextérité. Le paradoxe de Moravec est une malédiction à briser, un mur à abattre. Rien ne peut se mettre entre l'humanité et une productivité physique exponentielle sur cette planète, et peut-être un jour sur des planètes au-delà.
Nous avons commencé un petit laboratoire chez NVIDIA et avons récemment atteint 30 personnes. L'équipe dépasse largement ses capacités. Notre empreinte de recherche couvre les modèles fondamentaux, les modèles du monde, le raisonnement incarné, la simulation, le contrôle corporel complet, et de nombreuses variantes de RL - en gros, l'ensemble de la pile d'apprentissage des robots.
Cette année, nous avons lancé :
- GR00T VLA (modèles fondamentaux vision-langage-action) : N1 open-source en mars, N1.5 en juin, et N1.6 ce mois-ci ;
- GR00T Dreams : modèle du monde vidéo pour l'échelle des données synthétiques ;
- SONIC : modèle fondamental de contrôle corporel humanoïde ;
- Post-formation RL pour les VLA et recettes RL pour sim2real.
Ces réalisations n'auraient pas été possibles sans les nombreuses équipes collaboratrices chez NVIDIA, un soutien fort de la direction, et des co-auteurs des laboratoires universitaires. Merci à tous de croire en la mission.
Fil sur la galerie des jalons :

175
Social Capital a investi 10 millions de dollars dans le tour de financement de Groq en avril 2017, lorsque l'entreprise valait environ 30 millions de dollars après l'investissement. Ce chèque unique a permis d'acheter environ 33 % de l'entreprise. Ensuite, ils ont doublé la mise avec 52,3 millions de dollars dans une note convertible en 2018.
Total déployé : 62,3 millions de dollars.
Voici où cela devient intéressant. Groq a levé 300 millions de dollars à 1,1 milliard de dollars en 2021, puis 640 millions de dollars à 2,8 milliards de dollars en 2024, puis 750 millions de dollars à 6,9 milliards de dollars en septembre 2025. Chaque tour a dilué les investisseurs précoces. Mais Social Capital avait des sièges au conseil et a probablement maintenu une partie de son pro-rata grâce à la convertible.
Mathématiques conservatrices : Ils possèdent entre 15 et 20 % de Groq aujourd'hui. À 20 milliards de dollars, cela représente 3 à 4 milliards de dollars de valeur.
62 millions de dollars investis. 3-4 milliards de dollars récupérés. Cela représente un retour de 50 à 65 fois en 8 ans.
Pour mettre cela en contexte, cet investissement unique vaut plus que la taille totale du fonds de Social Capital en 2015 (1,1 milliard de dollars). Un pari. Huit ans. 50x.
Le timing est la partie la plus folle. Chamath a investi dans des puces AI personnalisées en 2017, des années avant que ChatGPT ne rende le calcul d'inférence populaire. Il a siégé au conseil jusqu'en 2021, puis s'est retiré juste au moment où l'entreprise entrait dans sa phase de croissance.
Maintenant, Nvidia paie 20 milliards de dollars en espèces parce qu'ils ont besoin de l'architecture LPU de Groq pour l'inférence à grande échelle. Jensen est essentiellement en train d'écrire un chèque à Chamath pour avoir été précoce sur le goulot d'étranglement de l'inférence.
Dites ce que vous voulez sur ses SPAC. Celui-ci compense beaucoup de pertes avec Clover Health.

Boring_Businessil y a 20 heures
Chamath après avoir gagné 4 milliards de dollars grâce à un investissement initial dans Groq (vente de 20 milliards de dollars annoncée à NVIDIA)
L'un des meilleurs résultats de capital-risque de tous les temps

324
Meilleurs
Classement
Favoris
