Спецпроєкти

Ученые создали искусственный интеллект, который мыслит как маньяк


Исследователи Массачусетского технологического института создали алгоритм искусственного интеллекта Norman, который получил свое имя в честь персонажа фильма Альфреда Хичкока “Психо”.

Этот алгоритм обучен распознавать и интерпретировать любые изображения. Но это не обычный пример искусственного интеллекта: “Норман” во всем видит ужасы.

Обычный алгоритм программы искусственного интеллекта, отвечая на вопрос, что он видит на изображении, обычно интерпретирует его как что-то сугубо положительное.

Но когда двум ИИ – обычному и “Норману” – показали карточку из теста Роршаха, стандартный ИИ увидел цветы в вазе, а “Норман” – застреленного человека.

Как пишет ВВС, на нечетком фото дерева обычный ИИ увидел стаю птиц на ветке, тогда как “Норман” – человека, которого пытают током.

Этот психопатический алгоритм был создан исследователями, которые пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и изображения из “темных уголков интернета”.

Программе показывали опубликованные в Reddit фотографии людей, погибших в ужасающих обстоятельствах. А когда алгоритму, который научился распознавать изображения и описывать их, представили тест Роршаха, он видел только трупы, кровь и разруху в каждой кляксе теста. Другой алгоритм искусственного интеллекта, который учился вместе с “Норманом”, но на позитивных фотографиях, не увидел ничего ужасного в кляксах Роршаха.

Слева: стандартный ИИ видит здесь маленькую птичку. Norman – человека, которого затягивает в мясорубку. Справа: обычный ИИ видит человека с зонтиком. Norman – мужчину, которого убивают перед его кричащей от ужаса женой

Эксперимент с алгоритмом Norman указывает, что если алгоритм искусственного интеллекта базируется на плохо подобранной изначальной информации, то он сам станет приходить к странным выводам.

Norman видит во всем смерть, убийства и разруху, потому что он не знает ничего другого. Алгоритмы искусственного интеллекта, уже применяющиеся в повседневной жизни, могут быть предвзяты в зависимости от того, на основе какой информации они были натренированы.

В мае 2017 года, например, были опубликованы результаты исследования, показавшие, что алгоритм, используемый одним из судов в США для определения степени риска при освобождении задержанных под залог, предвзято относился к чернокожим арестантам.

Компьютерная программа была уверена, что чернокожие в два раз чаще совершают повторные преступления лишь потому, что алгоритм готовился на основе неполных и неверно подобранных данных.

Алгоритмы прогноза преступности, которым пользуются полицейские многих городов в США, также были пойманы на подспудном расизме, так как они основывают свои выводы на данных о преступности прошлых годов.

“Справедливость и объективность невозможно достичь математически. В том, что касается машинного обучения, предубеждения не так плохи сами по себе. Это лишь означает, что компьютерная программа обнаруживает стабильные параметры поведения”, – утверждает профессор Разван.

Он говорит, что эксперимент с Norman демонстрирует: программисты должны найти какой-то способ балансировать входящую информацию.

“Для начала мы все должны понять, как именно эти компьютеры работают. Сейчас мы обучаем алгоритмы точно так же, как мы обучаем людей, и есть риск того, что мы не все делаем правильно”, – подытожил профессор.

#bit.ua
Читайте нас у
Telegram
Ми в Телеграмі
підписуйтесь