Мы спросили @satyanadella о его определении AGI: — Он ссылается на точку зрения @karpathy о @dwarkesh_sp, что даже если у вас есть экспоненциальный рост в одном из резких всплесков интеллекта ИИ, общий интеллект не обязательно улучшается. — Говорит, что нам нужно избавиться от резкой природы ИИ, "достигнуть большей надежности" для различных систем. — Считает, что AGI будет выглядеть как "мульти-агентный, мульти-модельный, мульти-форматный". Полный ответ: