“Я точно не боюсь апокалипсиса из-за искусственного интеллекта”, – глава AI-направления Google
Пока изобретатель “Теслы” Илон Маск трубит об опасностях суперумного искусственного интеллекта в ближайшие несколько лет, а Марк Цукерберг из Facebook считает, что подобные сценарии конца света раздуты, — руководитель AI-направления Google Джон Джаннандреа не понимает, откуда такое количество необоснованной шумихи.
«В настоящее время вокруг ИИ — огромное количество необоснованной шумихи, — заявил Джон Джннандреа на конференции TechCrunch Disrupt в Сан-Франциско. — Все эти разговоры о создании сверхинтеллекта, превышающего человеческий, и об этических вопросах, связанных с этим, — лишь показатель некомпетентности и безответственности».
Идея «сверхчеловеческого интеллекта» часто является ключевой темой в истории ИИ. Страх состоит в том, что когда-то искусственно-интеллектуальные системы смогут достигнуть определенного уровня сложности и станут неуправляемыми. И это будут не просто умные компьютеры, а нечто совершенно другого уровня: сущности, обладающие сознанием, намерениями и моралью.
В любом случае, это теория, и мнение экспертов ИИ относительно того, может ли это произойти, разделились. Поговорите с большинством исследователей ИИ, работающих в лаборатории, и они расскажут вам, что созданные ими программы намного глупее, чем вы думаете, с узким интеллектом, что означает, что они подходят только для очень конкретных задач.
Несмотря на то, что все сосредоточились на суперумном искусственном интеллекте, важно помнить, что технология ставит гораздо более реалистичные задачи: как катализатор автоматизации работы она угрожает экономике, и как метод ведения войны это может привести к новым и неожиданным угрозам. Все это проблемы, вызванные искусственным интеллектом, которые могут непредсказуемо повредить мир.
Они не суперумные, конечно, но никто никогда не говорил, что апокалипсис должен быть умным.