Atari 2600 когда-то был золотым стандартом для AI-агентов во время моей аспирантуры. Один нейронная сеть, способная играть в более чем 50 игр Atari, считалась бы чем-то невероятным. Модели испытывали трудности с отображением экрана размером 84x84 пикселя в градациях серого на несколько кнопок. Затем OpenAI Five (Dota) и AlphaStar от DeepMind подняли планку, обыграв лучших чемпионов мира в киберспорте. Тем не менее, они переобучались на одной виртуальной среде за раз. Изменение чего-либо мгновенно ломало модель. Люди необычайно хорошо адаптируются к совершенно разным физическим законам и правилам - это то, что продолжает ускользать от наших самых продвинутых LLM на триллионном уровне. Подумайте о 1000 играх как о 1000 симуляциях. Чем больше виртуальных миров агент может адаптировать, тем лучше он развивает воплощенное мышление, восприятие и моторную координацию. Все это критически важные элементы в великой головоломке для робототехники. Открывая исходный код модели NitroGen и API Gym, мы преследуем ту же цель, что и AlphaGo, AlphaStar, OpenAI Five и недавно Google SIMA: не отнимать удовольствие от этих игр, а подчеркнуть ограничения современного ИИ, предоставить надежную базу и создать новый стандарт - "Atari 2.0" - для измерения прогресса соответственно.