Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Atari 2600 когда-то был золотым стандартом для AI-агентов во время моей аспирантуры. Один нейронная сеть, способная играть в более чем 50 игр Atari, считалась бы чем-то невероятным. Модели испытывали трудности с отображением экрана размером 84x84 пикселя в градациях серого на несколько кнопок.
Затем OpenAI Five (Dota) и AlphaStar от DeepMind подняли планку, обыграв лучших чемпионов мира в киберспорте. Тем не менее, они переобучались на одной виртуальной среде за раз. Изменение чего-либо мгновенно ломало модель.
Люди необычайно хорошо адаптируются к совершенно разным физическим законам и правилам - это то, что продолжает ускользать от наших самых продвинутых LLM на триллионном уровне. Подумайте о 1000 играх как о 1000 симуляциях. Чем больше виртуальных миров агент может адаптировать, тем лучше он развивает воплощенное мышление, восприятие и моторную координацию. Все это критически важные элементы в великой головоломке для робототехники.
Открывая исходный код модели NitroGen и API Gym, мы преследуем ту же цель, что и AlphaGo, AlphaStar, OpenAI Five и недавно Google SIMA: не отнимать удовольствие от этих игр, а подчеркнуть ограничения современного ИИ, предоставить надежную базу и создать новый стандарт - "Atari 2.0" - для измерения прогресса соответственно.
Топ
Рейтинг
Избранное
