Le preguntamos @satyanadella su definición de AGI: —Cita el punto de @karpathy sobre @dwarkesh_sp de que incluso si tiene un crecimiento exponencial en uno de los picos de inteligencia irregulares de la IA, la inteligencia general no necesariamente está mejorando —Dice que tenemos que deshacernos de la naturaleza irregular de la IA, "lograr más robustez" para diferentes sistemas —Cree que AGI se verá "multiagente, multimodelo, factor de forma múltiple" Respuesta completa: