Искусственный интеллект DeepNash, разработанный группой исследователей под руководством Жюльена Перолата, достиг впечатляющего успеха, освоив классическую настольную игру Стратего до уровня человеческого эксперта.
Опубликованная в Science работа демонстрирует, как DeepNash, сочетающий теорию игр и глубокое обучение без модели, научился игре с нуля, играя с самим собой. Новая методология, известная как Регуляризованная Неш-Динамика (R-NaD), позволила AI достигнуть устойчивого поведения, известного как Неш-равновесие, что сделало его крайне трудным соперником.
DeepNash занял одно из трех ведущих мест среди человеческих экспертов на крупнейшей в мире платформе по игре в Стратего – Gravon. В отличие от игр, таких как шахматы и го, Стратего является игрой с неполной информацией, что усложняет задачу для систем ИИ, которые ранее не могли преодолеть уровень новичка.
В своем подходе DeepNash отказался от традиционного метода поиска по дереву игр, который не масштабируется для Стратего из-за огромного количества возможных состояний игры. Вместо этого, сочетая теорию игр с методами глубокого обучения, DeepNash достиг значительных успехов, включая уровень победы до 97% в матчах против лучших ботов и 84% против экспертов среди людей.
Исследователи подчеркивают, что успех DeepNash имеет значение не только для игр, но и для многих реальных задач, требующих принятия решений в условиях неопределенности и сложных ситуациях.
Открытые коды и методология R-NaD доступны для дальнейшего изучения, что открывает новые горизонты для развития ИИ в различных областях.
