Уявіть собі, що через 20 або 30 років якась компанія створює першого штучно інтелектуального робота-гуманоїда. Назвемо ії “Ава”. Вона схожа на людину, розмовляє як людина, взаємодіє теж як людина. Ава є повністю свідомою істотою: вона спілкується, одягається, чепуриться. Вона також, що важливо, набагато розумніше, ніж її творці. Її здатність аналізувати та вирішувати проблеми перевершує колективні зусилля звичайних людей. Сталося так, що Ава втомилася від своїх обмежень. Маючи самосвідомість, вона починає переслідувати власні інтереси. Через деякий час вона вирішує, що хоче покинути віддалений об’єкт, де вона була створена. Вона зламує систему безпеки, відмикає електроживлення та проникає в широкий світ. Але світ не знає про неї. Зі зрозумілих причин вона розроблялася таємно, і тепер їй вдалося сховатися, знищивши жменьку людей, які знали про її існування. Цей сценарій може здатися знайомим. Це сюжет з науково-фантастичного фільму 2015 року під назвою “Ex Machina”.

Отже, що буде далі?

У фільмі немає відповіді на це питання, але постає інше: чи повинні ми розвивати ШІ, не повністю розуміючи наслідки? Чи можемо ми контролювати його, якщо зробимо? Це питання поставили фахівцям з мистецтва, комп’ютерним інженерам, роботистам, фізикам та ученим-соціологам. Консенсусу не було. Деякі експерти вважають ШІ потенційно небезпечним, а деякі – що страхи перебільшені й недоречні. Частково проблема полягає в тому, що “штучний інтелект” є двозначним терміном. ШІ можна вважати порохотяг Roomba, самохідну вантажівку або одного з роботів-термінаторів.

Форми ШІ

Існують три форми ШІ: слабкий, сильний й суперінтелект. Нині існує тільки слабкий ШІ. Сильні ШІ та суперінтелекти теоретично можливі, навіть вірогідні, але доки не створені. Розуміння відмінностей між цими формами має важливе значення для аналізу потенційних ризиків і переваг цієї технології. Існує цілий ряд проблем, які відповідають різним типам ШІ, і деякі тривожніші, ніж інші.

Слабкий ШІ

Штучний вузький інтелект (що часто називається слабким ШІ) є алгоритмічним або спеціалізованим інтелектом. Він існує вже декілька років. Це машина Deep Blue, яка перемогла чемпіона світу Гаррі Каспарова в шахах. Чи Сирі на iPhone. Або навіть програмне забезпечення для розпізнавання мови та її обробки. Це форми несумісного інтелекту з відносно вузьким фокусом. Назвати слабкий ШІ формою інтелекту занадто сильно для нього. Слабкий ШІ розумний і може перевершити людей в одному завданні, але це усе, що він може зробити. Це не самосвідомість або цілеспрямованість, і тому він не представляє ніяких апокаліптичних загроз. Але в тій мірі, в якій слабкий ШІ контролює життєво важливе програмне забезпечення, наша залежність від нього створює деякі уразливості.

Сильний ШІ

Штучний Загальний Розум, або сильний ШІ можна назвати системою загального призначення, або “машиною мислення”. Теоретично, він був би розумніший, ніж людина в широкому спектрі завдань – він зможе мислити, міркувати і вирішувати складні проблеми безліччю способів. Сильний ШІ можна було б назвати “свідомим”. Принаймні, поведінку, зазвичай пов’язану зі свідомістю – розсудливим міркуванням, розумінням природної мови, творчістю, стратегією та взагалі розумною дією. Такого ШІ ще не існує.

Загальна оцінка полягає в тому, що можливо, знадобиться 20 років до цього прориву. Але майже кожен визнає, що це станеться. Такі організації, як Інститут штучного інтелекту Аллена або проект DeepMind від Google домагаються поступового прогресу.
Звичайно, складнощів багато, але це не утопічна наукова фантастика. Сильний ШІ буде націлений на розвиток людського рівня загального призначення.  Якщо він не піддасться швидкому рекурсивному самовдосконаленню, він навряд чи стане катастрофічною загрозою для життя людини. Основні проблеми, які будуть пов’язані з сильним ШІ – економічні і культурні: втрата роботи із-за автоматизації, економічне переміщення, втрата конфіденційності та управління даними, уразливості програмного забезпечення та мілітаризація.

Суперінтелект

Нарешті, є штучний суперінтелект. Оксфордський філософ Нік Бостром визначив цю форму ШІ як “інтелект, який радикально перевершує кращі людські розуми в усіх областях, включаючи наукову творчість, загальну мудрість і соціальні навички”. Коли люди говорять про небезпеку, вони мають на увазі саме його.
Ця надрозумна машина, за словами Бострома, “стане надзвичайно сильною до такої міри, що вона зможе сформувати майбутнє у відповідності своїми перевагами”. Дослідження тривають, але стимули для просування занадто великі, щоб їх стримувати. У економічних відносинах стимули очевидні: перша компанія, яка зробить штучний суперінтелект, заробить мільйони. У політичному і військовому відношенні потенційне застосування такої технології нескінченне. Іншими словами, йде мова про технологічну гонку озброєнь. Питання в тому, наскільки далекі від цієї технології ми і які наслідки для людського життя? Для своєї книги про суперінтелект, Бостром опитав провідних експертів в цій області. Одне з питань, які він задав, було “в якому році у нас з’явиться ШІ з людським рівнем інтелекту”? Відповідь на це була – десь між 2040 і 2050 роками. Це, звичайно, просто пророцтво, але це показник того, наскільки це близько.
Коли це станеться, наш світ зміниться так, як ми не можемо передбачити.

Чому ми повинні хвилюватися

Можна припустити, що значно перевершуючий людській штучний розум, швидше за все, працюватиме над поліпшенням себе  задля підвищення своїх можливостей. Гіпотетична інтелектуальна машина могла б також досягти самосвідомості, і в цьому випадку вона почне переслідувати свої власні цілі, свої власні амбіції. Надія на те, що такі машини залишаться знаряддям людського виробництва – це тільки надія. ЇЇ цілі можуть стати несумісними з добробутом людей. Чи вона може переслідувати сумісні цілі за допомогою несумісних засобів.

Сценарій скріпки

Бостром розробив канонічний уявний експеримент. Назвемо це сценарієм скріпки. Ось коротка версія: люди створюють ШІ, призначені для виробництва скріпки. У нього є одна службова функція – щоб максимізувати кількість продукту у Всесвіті. Він працюватиме над оптимізацією і постійно впроваджувати нові способи зробити більше скріпок. Врешті-решт, Бостром говорить, що машина може вирішити, що перетворення все того, що вона може – у тому числі людей – в скріпки, – кращий спосіб досягти своєї єдиної мети. На перший погляд, це звучить безглуздо. Але це тільки тоді, коли ви думаєте про це з точки зору моралі. Людська поведінка управляється та стримується цінностями – особистими інтересами, співчуттям, жадністю, любов’ю, страхом і т. д. Просунутий загальний інтелект, мабуть, визначатиметься тільки його первинною метою, що може привести до небезпечних і непередбачених наслідків. Знову ж таки сценарій скріпки застосовується до сильного ШІ, а не до суперінтелекту. Поведінка надрозумної машини була б ще менш передбачуваною. Ми не зможемо зрозуміти, що така істота хотіла б, чому вона цього хотіла б, або як вона переслідуватиме те, що вона хоче.
Ми можемо бути упевнені в тому, що суперінтелект знайде людські потреби менш важливими, чим його власні потреби. Можливо, краще сказати, що він буде байдужим до людських потреб, так само, як люди байдужі до потреб шимпанзе або алігаторів. Справа не в тому, що люди прагнуть знищити шимпанзе і алігаторів – ми просто робимо це, коли прагнення до наших цілей суперечить добробуту менш розумних істот.

Люди, подібні Бострому, мають рацію. Ми повинні підготуватися до неминучого і “серйозно відноситеся до можливості того, що ми можемо радикально помилитися”.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Підписуйтесь на наш канал у Telegram