Ученые создали искусственный интеллект, который мыслит как маньяк
Исследователи Массачусетского технологического института создали алгоритм искусственного интеллекта Norman, который получил свое имя в честь персонажа фильма Альфреда Хичкока “Психо”.
Этот алгоритм обучен распознавать и интерпретировать любые изображения. Но это не обычный пример искусственного интеллекта: “Норман” во всем видит ужасы.
Обычный алгоритм программы искусственного интеллекта, отвечая на вопрос, что он видит на изображении, обычно интерпретирует его как что-то сугубо положительное.
Но когда двум ИИ – обычному и “Норману” – показали карточку из теста Роршаха, стандартный ИИ увидел цветы в вазе, а “Норман” – застреленного человека.
Как пишет ВВС, на нечетком фото дерева обычный ИИ увидел стаю птиц на ветке, тогда как “Норман” – человека, которого пытают током.
Этот психопатический алгоритм был создан исследователями, которые пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и изображения из “темных уголков интернета”.
Программе показывали опубликованные в Reddit фотографии людей, погибших в ужасающих обстоятельствах. А когда алгоритму, который научился распознавать изображения и описывать их, представили тест Роршаха, он видел только трупы, кровь и разруху в каждой кляксе теста. Другой алгоритм искусственного интеллекта, который учился вместе с “Норманом”, но на позитивных фотографиях, не увидел ничего ужасного в кляксах Роршаха.
Слева: стандартный ИИ видит здесь маленькую птичку. Norman – человека, которого затягивает в мясорубку. Справа: обычный ИИ видит человека с зонтиком. Norman – мужчину, которого убивают перед его кричащей от ужаса женой
Эксперимент с алгоритмом Norman указывает, что если алгоритм искусственного интеллекта базируется на плохо подобранной изначальной информации, то он сам станет приходить к странным выводам.
Norman видит во всем смерть, убийства и разруху, потому что он не знает ничего другого. Алгоритмы искусственного интеллекта, уже применяющиеся в повседневной жизни, могут быть предвзяты в зависимости от того, на основе какой информации они были натренированы.
В мае 2017 года, например, были опубликованы результаты исследования, показавшие, что алгоритм, используемый одним из судов в США для определения степени риска при освобождении задержанных под залог, предвзято относился к чернокожим арестантам.
Компьютерная программа была уверена, что чернокожие в два раз чаще совершают повторные преступления лишь потому, что алгоритм готовился на основе неполных и неверно подобранных данных.
Алгоритмы прогноза преступности, которым пользуются полицейские многих городов в США, также были пойманы на подспудном расизме, так как они основывают свои выводы на данных о преступности прошлых годов.
“Справедливость и объективность невозможно достичь математически. В том, что касается машинного обучения, предубеждения не так плохи сами по себе. Это лишь означает, что компьютерная программа обнаруживает стабильные параметры поведения”, – утверждает профессор Разван.
Он говорит, что эксперимент с Norman демонстрирует: программисты должны найти какой-то способ балансировать входящую информацию.
“Для начала мы все должны понять, как именно эти компьютеры работают. Сейчас мы обучаем алгоритмы точно так же, как мы обучаем людей, и есть риск того, что мы не все делаем правильно”, – подытожил профессор.