Google розпочинає розробку великої червоної кнопки

 

Конспекти 10 клас за новою програмою 2018 року
 

Конспекти 10 клас за новою програмою 2018 року. Всі предмети! Детальніше...

 

Наскільки відомо, використання штучного інтелекту в даний час є найкращим способом автоматизації виконання цілого ряду складних і об’ємних завдань, включаючи маркування мільйонів знімків в Інтернеті або створення роботів, які самостійно вибирають свої дії в тій чи іншій ситуації. Групи програмістів і вчених запаморочливими темпами створюють нові, вдосконалюють і ускладнюють існуючі алгоритми систем штучного інтелекту. Все це означає, що пора починати замислюватися про те, що ж треба буде робити в разі, якщо яка-небудь система штучного інтелекту вийде з-під контролю і почне діяти на шкоду оточуючим людям.

Підрозділ компанії Google під назвою Deepmind, спільно з фахівцями Інституту майбутнього людства (Future of Humanity Institute, FoH), провели дослідження, що стосуються проблеми зупинки діяльності систем штучного інтелекту в разі початку їх неправильного функціонування. Згідно з результатами цих досліджень, єдиним надійним рішенням в даному випадку є “велика червона кнопка, яка повністю перериває діяльність системи штучного інтелекту.

Основою для даних досліджень стали дослідження, проведені в 2013 році. У минулих дослідженнях використовувалася нескладна система штучного інтелекту, навчена керувати грою в Тетріс. Через якийсь час цей алгоритм зрозумів абсолютно самостійно, що коли рівень гри піднімається вище його можливостей, йому варто тільки натиснути на паузу і він вже не програє.

Такий вид придуманих машиною хитрощів є найбільш безневинним, але це повністю вписується в прогнози, висунуті фахівцями Інституту майбутнього людства. Нік Бостром (Nick Bostrom), засновник цього інституту, який свого часу написав книгу під назвою Суперінтелект/Superintelligence, яка є свого роду попередженням всьому людству. Це попередження полягає в тому, що коли штучний інтелект отримає можливість неконтрольованого і нічим не обмеженого самонавчання, він швидко розвинеться до рівня, який у багато разів перевершить інтелектуальний рівень людства. Така подія була вперше описана в 1958 році вченим-математиком Станіславом Уламом (Stanislaw Ulam) і вона, ця подія, отримала назву “Сингулярність”.

Розроблений вченими термін переривання безпеки полягає в установці в надра обчислювальної системи свого роду апаратного запобіжника, який спрацьовує в разі, якщо дії штучного інтелекту стають небезпечними для оточуючих. Але в деяких випадках система штучного інтелекту зможе встигнути розвинутися до рівня, коли вона зможе ефективно протидіяти активації запобіжника, і її, на думку фахівців Google Deepmind і FoH, потрібно обдурити, як це часто і успішно роблять люди.

Захисти свій комп’ютер та смартфон

ESET NOD32

Для того, щоб реалізувати все вищесказане, фахівці, які розробляють системи штучного інтелекту, повинні встановити правила переривання, спусковий механізм, який дозволить тимчасово або на постійній основі змінити поведінку суб’єкта (ІІ) насильницьким чином. Іншими словами, це свого роду сигнал, на зразок ключового слова, який повинен змусити машину думати, що їй пора зупинитися. Але машинний інтелект, який розвинувся вище певного рівня, зможе спротивитися такому спонуканню, і наступним кроком стане наступна команда (скрипт, ключове слово або щось подібне) ззовні, яка повинна змусити машину вважати, що вона вже внутрішньо погодилася з першим спонуканням. Іншими словами, це все є способом обійти автоматику або програми, які перестали сприймати команди від людей.

Дослідники відзначають, що сигналами до переривання діяльності систем штучного інтелекту повинні розпоряджатися тільки люди, які володіють цими системами. Будь-які інші люди повинні бути позбавлені можливості скористатися такими функціями. І реалізація всього цього повинна бути максимально проста, дослідники вважають, що це може бути система дистанційного керування з однією єдиноюаварійною червоною кнопкою.

Але і така технологія захисту не буде ефективна при деяких умовах. Якщо рівень розвитку системи штучного інтелекту переступить певний поріг, то час буде згаяно і система буде в змозі прорахувати всі можливі варіанти розвитку подій, видалити “правила переривання зі свого власного коду.

І на завершення слід зазначити, що дослідження, проведені Google Deepmind і FoH, є досить узагальненим, адже на світі ще не існує обчислювальної архітектури, призначеної для універсального штучного інтелекту. Але така архітектура безсумнівно з’явиться в недалекому майбутньому і її розробники повинні будуть врахувати в ній всі подібні нюанси, встановивши набір необхідних апаратних і програмних запобіжників.

Джерело





Залишити відповідь