We vroegen @satyanadella naar zijn definitie van AGI: —Verwijst naar @karpathy's punt over @dwarkesh_sp dat zelfs als je exponentiële groei hebt in een van de onregelmatige intelligentiepieken van AI, algemene intelligentie niet noodzakelijk verbetert —Zegt dat we de onregelmatige aard van AI moeten afschaffen, "meer robuustheid" moeten bereiken voor verschillende systemen —Denkt dat AGI eruit zal zien als "multi-agent, multi-model, multi-formaat" Volledige reactie: