Nous avons demandé à @satyanadella sa définition de l'AGI : — Il cite le point de @karpathy sur @dwarkesh_sp selon lequel même si vous avez une croissance exponentielle dans l'un des pics d'intelligence irréguliers de l'IA, l'intelligence générale n'est pas nécessairement en train de s'améliorer. — Il dit que nous devons nous débarrasser de la nature irrégulière de l'IA, "atteindre plus de robustesse" pour différents systèmes. — Il pense que l'AGI aura l'apparence de "multi-agent, multi-modèle, multi-forme". Réponse complète :