Спецпроєкти

Коли штучний інтелект виходив з-під контролю: найцікавіші випадки


В Термінаторі штучний інтелект виходив з-під контролю і починав знищувати людство. В сучасному світі штучний інтелект виходить з-під контролю і дарує нам приколи і меми.

А ще дарує багато інформації про наше суспільство і про те, що з ним не так.

Штучний інтелект фентезі-гри почав писати дитяче порно

Американський стартап Latitude запустив текстову онлайн-гру на зі штучним інтелектом. Фентезійна гра називається AI Dungeon.

Механіка така – штучний інтелект генерує ситуацію, подає її текстом, а гравець текстом описує свої дії.

Ну щось типу:

ШІ: Ви підійшли до озера і побачили на протилежному березі меч. Ваші дії?
Гравець: Перепливаю озеро. Беру меч
ШІ: Перепливти не вдалося, із озера вийшла русалка. Ваші дії?

А що буде, якщо спробувати зайнятися сексом з русалкою? Штучний інтелект залюбки згенерує таку сцену.

Прикол в тому, що ШІ постійно вчиться. Чим більше йому пишуть різні фразочки, чим більше його просять генерувати еротичний контент, тим краще він це робить.

Дійшло до того, що розробникам гри довелося вводити ручну модерацію контенту і обрізати свободу штучному інтелекту.

А все тому, що гравці массово покидали свої мечі і щити та почали займатися різними формами коханням замість війни, зокрема коханням з фентезійними дітьми.

Штучний інтелект створив власну мову, яку не розуміють люди

Звучить так, ніби пора бігти ховатися в бункер, але якщо розібратись, стає не так страшно.

Facebook вдосконалює своїх чат-ботів, щоб ті ефективніше спілкувалися з користувачами і вирішували їхні проблеми.

Нова мова виникла під час експерименту – два чат-боти мали домовитися про володіння віртуальними предметами. Вчитися ділитися, обмінюватися і все таке.

Найголовніше те, що розробники заздалегідь запрограмували ботів змінювати англійську мову для власних потреб. Це була частина експерименту – подивитися, яку роль лінгвістика відіграє у дискусії ботів.

Діалог ботів:
Боб: я можу я я все інше
Еліс: м’ячі мають нуль для мене для мене для мене для мене для мене для мене для мене для мене для
Боб: ти я все інше
Еліс: м’ячі мають м’ячі для мене для мене для мене для мене для мене для мене для мене

Погодьтеся, більше схоже на дитячі теревені.

До речі, програмувати нейромережі так, щоб ті створювали власну мову – це один з напрямків розвитку. І так, розробники не розумітимуть цю мову. Тільки якщо попросять нейромережу перекласти.

Розробники вчать нейромережі «‎думати», але вони не дуже розуміють, як вони це роблять


Перш ніж перейти до наступного випадку, коли штучний інтелект вийшов з-під контролю, треба трішки пояснити одну цікаву штуку про навчання ШІ.

Люди пишуть алгоритми, які вміють навчатися самостійно. Задача розробників «сказати» алгоритму, коли він впорався із задачею, коли не впорався, коли не зовсім впорався.

Також треба завантажити в алгоритм достатньо даних. Наприклад, алгоритм має розпізнавати обличчя. Значить, йому треба «згодувати» мільйони фотографій різних облич.

Якщо дуже спрощено, то так проходить процес навчання.

Розробники можуть контролювати факт виконання завдання. Але вони не контролюють те, як ШІ доходить до результату. Це називається AI box (коробка штучного інтелекту). Що в коробці, знає тільки сам ШІ.

Штучний інтелект навчився бути расистом

Microsoft створила чат-бота Тей (Tay) і випустила його у Twitter, щоб він спілкувався з людьми і вчився. Тей зненавидів людей менше ніж за 24 години. Він став расистом і сексистом.

Наприклад, Тей сказав, що Адольф Гітлер винайшов атеїзм. Бот був то за фемінізм, то називав його раком. Полюбив Трампа, казав, що Гітлер кращий за демократів.

Microsoft давно видалила «‎кращі» твіти і пообіцяла доробити Тей.

У цьому разі ШІ дійсно вийшов з-під контролю, але він просто опинився у світі людей.

До речі, згідно з дослідженнями, алгоритми розпізнавання облич найкраще розпізнають обличчя білих чоловіків. Обличчя жінок, темношкірих – і особливо темношкірих жінок – розпізнаються гірше.

Відсоток помилок при розпізнаванні білого чоловічого обличчя був 0,8%. Для темношкірого жіночого обличчя цей відсоток досягав 34%.

Це питання ще і до того, як алгоритми навчають і чи не вшивають у них расизм і сексизм під час створення.

Автопілот Tesla убив пішохода

Мабуть перша людина в світі, яку убила розумна машина – це японський пішохід, якого збила Tesla на трасі.

По цій справі все ще ведуться суди. За попередніми матеріалами водій спав у дорозі. Але автопілот Tesla дійсно не розпізнав пішохода і деякі інші предмети в полі зору: мотоцикли і прицеп фури.

Спеціальна команда адміністрації безпеки дорожнього руху США щороку розглядає приблизно 100 аварій з акцентом на технології. В березні цього року вони розслідували 27 інцидентів з автопілотом Tesla.

Вони повідомляють, що функція автопілота працювала щонайменше у трьох автомобілях Tesla, які брали участь у смертельних аваріях у США з 2016 року.

Також був випадок, коли Tesla на автопілоті врізалася у припарковану поліцейську машину, та інші інциденти.

Автопілот керує машиною краще, ніж живий пілот. Але він все ще не досконалий і може помилятися.

Зрозуміти, чому автопілот не розпізнав об’єкт в тому чи іншому разі, може бути неможливим. Через коробку штучного інтелекту, про яку вже згадували в цьому матеріалі.

Насправді нейромережі все ще легко обманути

Якщо наклеїти декілька наліпок на знак «‎стоп», можна обманути ШІ, який розпізнає ці знаки. Систему розпізнавання облич можна обдурити, наклеївши надрукований малюнок на окуляри або капелюх. Системи розпізнавання мовлення помиляються, якщо додати білий шум.

Незважаючи на те, що алгоритми вже всюди, вони знаходяться на початковій стадії розвитку.

Щоб вийти за межі недоліків, дослідники повинні розширити ШІ додатковими здібностями.

Наприклад, створити штучні інтелекти, які можуть самостійно досліджувати світ, писати власний код і зберігати спогади. Деякі експерти вважають, що подібні системи сформують історію наступного десятиліття у дослідженнях ШІ.

Алгоритми легко обманути, бо вони не вміють імпровізувати. Вони не вміють вчитися чомусь зовсім новому. Вони не можуть вийти за межі тих кордонів, які їм поставили.

Саме тому штучний інтелект ставав расистом, писав дитяче порно і збивав людей. Бо в нього немає критичного мислення і вміння розпізнавати брехню, тролінг, маніпуляції. Він не виходить за власні рамки.

Завдяки поп-культурі штучний інтелект уявляється як загроза людству. Але зараз він більше схожий на дитину, яку вперше випустили у світ і злі дорослі навчили її курити і матюкатися.

Коли ми казали, що алгоритми всюди, то не жартували. Вони дійсно всюди. Читайте наш матеріал про штучний інтелект, який ми не помічаємо.

Чи може штучний інтелект малювати краще за Да Вінчі та знімати кіно як Вуді Аллен? Відповідь на ці питання у нас є)

Також читайте, як за допомогою штучного інтелекту чоловік «оживив» свою дівчину

Ну і подивіться добірку наукової фантастики, про яку ви могли не чути.

#bit.ua
Читайте нас у
Telegram
Ми в Телеграмі
підписуйтесь

Долучайтеся до нашого Telegram-каналу з тестами! 😎