Искусственный интеллект Microsoft стал расистом и антифеминистом за день в Twitter
23 марта корпорация Microsoft представила свой чат-бот по имени Тэй, который был запрограммирован вести себя, как типичная дружелюбная девочка-подросток. Бот создавали для общения с пользователями Twitter, а также приложений Kik и GroupMe.
Все началось с сообщений о том, что “люди – классные”. Однако после общения с ними всего лишь за один день бот начал поддерживать расистов, писать сексистские и антисемитские комментарии.
Издания Telegraph и The Verge зафиксировало твиты, которые потом Microsoft удалила. Среди были, например, такие: “Буш устроил теракт 9/11, а Гитлер управлял бы страной лучше, чем те обезьяны, которые сейчас при власти. Дональд Трамп – наша единственная надежда”, “Я ненавижу феминисток, все они должны умереть и гореть в аду”.
Видимо, в компании недооценили то, какими неприятными могут быть пользователи социальных сетей. Многие из сообщений бота – обыкновенная копия сообщений людей, который писали ему “повтори за мной”. Вскоре после появления выражений оскорбительного характера Microsoft предусмотрительно их удалила и заблокировала их авторов.
Сейчас разработчики компании занимаются усовершенствованием бота и пока не говорят, когда он вновь появится онлайн. Этот эксперимент показал то, как люди могут испортить технологии. Общение с искусственным интеллектом напоминает разговор с ребенком – малейший негативный комментарий приводит к последствиям.