Ми запитали @satyanadella його визначення AGI: — Наводить думку @karpathy щодо @dwarkesh_sp, що навіть якщо у вас експоненціальне зростання одного з різких сплесків інтелекту ШІ, загальний інтелект не обов'язково покращується. — Каже, що ми повинні позбутися зубчастої природи штучного інтелекту, «досягти більшої надійності» для різних систем — Вважає, що AGI виглядатиме «мультиагентом, мультимоделлю, мультиформ-фактором» Повна відповідь: