> > > > DeepMind AlphaStar сыграл с профессионалами Starcraft со счетом 10:1

DeepMind AlphaStar сыграл с профессионалами Starcraft со счетом 10:1

Опубликовано:

deepmindПочти все крупные компании в той или иной мере работают с искусственным интеллектом. Дочерняя компания Google под названием DeepMind собирается внедрить машинное обучение ещё в несколько областей. Уже в течение некоторого времени разработчики пользуются ML (Machine Learning) для тактического понимания игр. Машины уже научились обыгрывать людей в такие игры, как шахматы или го, но теперь алгоритмы машинного обучения пошли ешё дальше.

В некоторых играх уже несколько лет существуют специальные интерфейсы, которые обучают ИИ-игроков. Они есть как для Starcraft II и Dota 2, а также и для шутеров от первого лица. В последнем случае следует отличать ИИ-игрока от обычного компьютерного бота, который использует скрипты.

В настоящий момент очередной большой шаг произошел в сфере ИИ для Starcraft II. Искусственный интеллект под названием AlphaStar сразился с несколькими профессиональными игроками. Например, Dario "TLO" Wünsch проиграл со счетом 5-0, играя своими любимыми зергами. Та же судьба поджидала и Grzegorz "MaNa" Komincz, который предпочитает протосов. Одиннадцатую игру MaNa все же выиграл, но в этом случае AlphaStar был ограничен в контроле своих юнитов - он мог видеть только тех, которые находились на видимом экране. Таким образом, API приблизил восприятие игры ИИ к человеческому.

Однако, если вы считаете, что возможность быстро управлять сменой вида или просматривать все юниты на карте является ключевым преимуществом ИИ, то вы ошибаетесь. Человек может совершать до 559 действий в минуту, в то время, как AlphaStar совершает лишь 277. Важной является не скорость, а точность. Вместо того, чтобы по нескольку раз менять расположение юнита, AlphaStar практически всегда ставит его в оптимальное место на карте с первого раза.

AlphaStar построен на базе так называемых агентов - ИИ-оппонетнов, которые постоянно состязаются друг с другом. Вместо того, чтобы тренировать отдельные ИИ, несколько агентов играют в команде против команды других агентов. Обучение происходит без дополнительно запрограммированного поведения - все тактические находки принадлежат ИИ. Но кроме того, AlphaStar учится, анализируя игры людей, и в случае со Starcraft II компьтер проанализировал 500.000 таких игр. Только этот факт позволяет AlphaStar быть лучше, чем 95% людей.

Каждый агент, который является наименьшей единицей искусственного интеллекта AlphaStar, наиграл более 200 лет в Starcraft. Для рассчетов использовались ускорители TPU (Tensor Processing Unit) от Google. Наконец, DeepMind выбрала пять агентов, которые сыграли против людей. Все пять использовали разные тактики, но всё равно в игре с каждым из людей счет составил 5-0.

Компьютерные стратегии требуют некоторой адаптации ИИ при игре против профессиональных геймеров, и DeepMind успешно справилась с этой задачей. Ключевым фатором для победы является выбор правильной тактики из нескольких возможных. Эта задача является самой сложной для систем ИИ, а опыт AlphaStar в этой области еще сыграет важную роль в развитии ИИ в будущем.