Je voudrais clarifier quelques points. Tout d'abord, le plus évident : nous n'avons pas et ne voulons pas de garanties gouvernementales pour les centres de données d'OpenAI. Nous croyons que les gouvernements ne devraient pas choisir des gagnants ou des perdants, et que les contribuables ne devraient pas renflouer des entreprises qui prennent de mauvaises décisions commerciales ou qui échouent sur le marché. Si une entreprise échoue, d'autres entreprises continueront à bien travailler. Ce que nous pensons pourrait avoir du sens, c'est que les gouvernements construisent (et possèdent) leur propre infrastructure d'IA, mais alors les bénéfices de cela devraient également revenir au gouvernement. Nous pouvons imaginer un monde où les gouvernements décident de prendre beaucoup de puissance de calcul et décident comment l'utiliser, et il peut être logique de fournir un coût du capital plus bas pour ce faire. Construire une réserve nationale stratégique de puissance de calcul a beaucoup de sens. Mais cela devrait être au bénéfice du gouvernement, et non au bénéfice des entreprises privées. Le seul domaine où nous avons discuté de garanties de prêt est dans le cadre du soutien à la construction de fabs de semi-conducteurs aux États-Unis, où nous et d'autres entreprises avons répondu à l'appel du gouvernement et où nous serions heureux d'aider (bien que nous n'ayons pas fait de demande formelle). L'idée de base a été de s'assurer que l'approvisionnement de la chaîne d'approvisionnement des puces soit aussi américain que possible afin de ramener des emplois et l'industrialisation aux États-Unis, et d'améliorer la position stratégique des États-Unis avec une chaîne d'approvisionnement indépendante, au bénéfice de toutes les entreprises américaines. Cela est bien sûr différent des gouvernements garantissant des constructions de centres de données à bénéfice privé. Il y a au moins 3 "questions derrière la question" ici qui suscitent compréhensiblement des inquiétudes. Tout d'abord, "Comment OpenAI va-t-il payer toute cette infrastructure pour laquelle il s'engage ?" Nous nous attendons à terminer cette année avec un chiffre d'affaires annualisé supérieur à 20 milliards de dollars et à croître jusqu'à des centaines de milliards d'ici 2030. Nous envisageons des engagements d'environ 1,4 trillion de dollars au cours des 8 prochaines années. Évidemment, cela nécessite une croissance continue des revenus, et chaque doublement est un travail considérable ! Mais nous nous sentons bien quant à nos perspectives ; nous sommes assez enthousiastes à propos de notre prochaine offre pour les entreprises, par exemple, et il y a des catégories comme les nouveaux appareils grand public et la robotique que nous nous attendons également à être très significatives. Mais il y a aussi de nouvelles catégories pour lesquelles nous avons du mal à mettre des spécificités, comme l'IA capable de faire des découvertes scientifiques, dont nous parlerons plus tard. Nous examinons également des moyens de vendre plus directement de la capacité de calcul à d'autres entreprises (et personnes) ; nous sommes assez sûrs que le monde va avoir besoin de beaucoup de "cloud IA", et nous sommes ravis de pouvoir l'offrir. Nous pourrions également lever plus de capitaux propres ou de dettes à l'avenir. Mais tout ce que nous voyons actuellement suggère que le monde va avoir besoin de beaucoup plus de puissance de calcul que ce que nous prévoyons déjà. Deuxièmement, "OpenAI essaie-t-il de devenir trop gros pour échouer, et le gouvernement devrait-il choisir des gagnants et des perdants ?" Notre réponse à cela est un non sans équivoque. Si nous faisons une erreur et que nous ne pouvons pas la corriger, nous devrions échouer, et d'autres entreprises continueront à bien travailler et à servir les clients. C'est ainsi que fonctionne le capitalisme et l'écosystème et l'économie seraient en bonne santé. Nous prévoyons d'être une entreprise extrêmement réussie, mais si nous nous trompons, c'est de notre faute. Notre CFO a parlé du financement gouvernemental hier, puis a clarifié son propos en soulignant qu'elle aurait pu formuler les choses plus clairement. Comme mentionné ci-dessus, nous pensons que le gouvernement américain devrait avoir une stratégie nationale pour sa propre infrastructure d'IA. Tyler Cowen m'a demandé il y a quelques semaines si le gouvernement fédéral devenait l'assureur de dernier recours pour l'IA, dans le sens des risques (comme l'énergie nucléaire) et non pas sur la surconstruction. J'ai dit "Je pense que le gouvernement finit par être l'assureur de dernier recours, mais je pense que je veux dire cela d'une manière différente de celle que vous voulez dire, et je ne m'attends pas à ce qu'ils écrivent réellement les politiques de la manière dont ils le font peut-être pour le nucléaire". Encore une fois, c'était dans un contexte totalement différent de la construction de centres de données, et pas sur le renflouement d'une entreprise. Ce dont nous parlions, c'est de quelque chose qui tourne catastrophiquement mal—disons, un acteur malveillant utilisant une IA pour coordonner une cyberattaque à grande échelle qui perturbe les infrastructures critiques—et comment l'utilisation intentionnelle de l'IA pourrait causer des dommages à une échelle que seul le gouvernement pourrait gérer. Je ne pense pas que le gouvernement devrait rédiger des polices d'assurance pour les entreprises d'IA. Troisièmement, "Pourquoi devez-vous dépenser autant maintenant, au lieu de croître plus lentement ?" Nous essayons de construire l'infrastructure pour une économie future alimentée par l'IA, et compte tenu de tout ce que nous voyons à l'horizon dans notre programme de recherche, c'est le moment d'investir pour vraiment faire évoluer notre technologie. Les projets d'infrastructure massifs prennent un certain temps à construire, donc nous devons commencer maintenant. Sur la base des tendances que nous observons sur la façon dont les gens utilisent l'IA et combien ils souhaiteraient l'utiliser, nous croyons que le risque pour OpenAI de ne pas avoir suffisamment de puissance de calcul est plus significatif et plus probable que le risque d'en avoir trop. Même aujourd'hui, nous et d'autres devons limiter nos produits et ne pas offrir de nouvelles fonctionnalités et modèles parce que nous faisons face à une contrainte de calcul si sévère. Dans un monde où l'IA peut réaliser d'importantes percées scientifiques mais au prix de quantités énormes de puissance de calcul, nous voulons être prêts à saisir ce moment. Et nous ne pensons plus que cela soit dans un avenir lointain. Notre mission exige que nous fassions tout ce que nous pouvons pour ne pas attendre encore de nombreuses années pour appliquer l'IA à des problèmes difficiles, comme contribuer à guérir des maladies mortelles, et pour apporter les bénéfices de l'AGI aux gens dès que possible. De plus, nous voulons un monde d'IA abondante et bon marché. Nous nous attendons à une demande massive pour cette technologie, et pour qu'elle améliore la vie des gens de nombreuses manières. C'est un grand privilège d'être dans l'arène, et d'avoir la conviction de tenter de construire une infrastructure à une telle échelle pour quelque chose d'aussi important. C'est le pari que nous faisons, et compte tenu de notre point de vue, nous nous en sentons bien. Mais nous pourrions bien sûr avoir tort, et le marché—pas le gouvernement—s'en occupera si nous avons tort.