Zapytaliśmy @satyanadella o jego definicję AGI: —Cytuje punkt @karpathy'ego na temat @dwarkesh_sp, że nawet jeśli masz wykładniczy wzrost w jednym z ząbkowanych skoków inteligencji AI, ogólna inteligencja niekoniecznie się poprawia. —Mówi, że musimy pozbyć się ząbkowanej natury AI, "osiągnąć większą odporność" dla różnych systemów. —Myśli, że AGI będzie wyglądać "wielojednostkowo, wielomodelowo, w różnych formach." Pełna odpowiedź: