Искусственному интеллекту AlphaGo больше не нужна помощь людей
DeepMind удалось усовершенствовать искусственный интеллект AlphaGo, который в прошлом победил лучших в мире игроков в го. ИИ Zero, новая версия AlphaGo, способен обучать себя сам.
В DeepMind заявили, что теперь компания стала еще на одну ступень ближе к созданию алгоритмов общего назначения, которые смогут решать самые сложные научные проблемы, от разработки новых препаратов до более точного моделирования последствий изменения климата.
Новая программа AlphaGo Zero за несколько дней освоила древнюю китайскую настольную игру “го” – для этого ей потребовалось всего три дня. Затем AlphaGo Zero сыграла с прежней своей версией AlphaGo и выиграла со счетом 100:0.
В отличие от своих предшественников, которые тренировались при помощи метода анализа данных тысяч человеческих игр и играли против себя самих, AlphaGo Zero совсем не училась у людей. По словам разработчиков, “она использовала в игре такие модели и ходы, которые до нее не применялись вообще”.
У искусственного интеллекта была немаловажная проблема: он всегда опирался на человеческие знания, а такая информация часто может быть слишком дорогостоящей, ненадежной или просто отсутствовать.
"Не используя в AlphaGo Zero человеческие данные и опыт в какой-либо форме, мы фактически устранили ограничения, вызываемые нехваткой информации", – сказал ведущий программист AlphaGo Zero Дэвид Сильвер.
По мнению экспертов, самостоятельное обучение является ключом к успеху ИИ, который будет способен думать и размышлять сам за себя. Для осуществления такой цели потребуется много исследований за пределами настольных игр и предопределенных объективных функций.
Другие специалисты в этой области считают, что подход AlphaGo Zero не актуален для плохо структурированных задач, например, для обработки естественного языка или робототехники – там пространство сложнее и нет четкой цели.