Все нові й нові можливості штучного інтелекту та «розумних» машин зараз у всіх на слуху – з кожним днем інтелектуальні системи отримують нові унікальні функції, які раніше здавалися чимось з області фантастики. Сьогодні вже нікого не здивуєш безпілотним авто або системами виробництва під керуванням роботів. Але чи замислюємося ми про те, як буде виглядати життя людства, якщо розвиток роботів не регулюватиметься ніякими нормами і правилами?

 

 

Айзек Азімов і три правила

Минуло 50 років з тих пір, як Айзек Азімов придумав свої знамениті три закони робототехніки – набір правил, яким має слідувати будь-який робот. Хоч спочатку це був всього-лише літературний прийом, три закони стали оригінальним рецептом по уникненню «роботокаліпсіса».

Письменник-фантаст Айзек Азімов в своїх творах розповідав про три закони, за якими люди можуть контролювати роботів і «розумні» машини.

  • Робот не може завдати шкоди людині через дію або, навпаки, бездіяльність.
  • Робот повинен підкорятися наказам людини за виключенням випадків, коли вони суперечать першому правилу.
  • Робот повинен захищати себе, якщо це, знову ж, не суперечить першій умові.

Пріоритетне правило

Доповідь, нещодавно опублікований Королівським товариством і Британською академією, говорить, що управління «розумними» машинами повинно зводитися не до трьох основних законів, а тільки до одного – люди повинні вигравати від взаємодії з роботами. За словами професора і співголови групи з питань наукової політики Королівського товариства Дейма Оттолін Лейзера, «процвітання» людини має стати ключем до того, як потрібно керувати роботами.

«Це самий підходящий термін, який точно відображає те, що ми хотіли сказати, – зазначив він в інтерв’ю BBC News. – Процвітання людей має стати пріоритетом ».

Спостереження за машинами

У доповіді пропонується створити новий керуючий орган, який стежитиме за тим, щоб інтелектуальні машини обслуговували і допомагали людині, а не контролювали його. Він буде складатися з експертів і зацікавлених сторін, які повинні розробити основу для розвитку технологій штучного інтелекту.

На думку авторів, під спостереження і регулювання, серед іншого, має підпадати, наприклад, розвиток систем самонавчання. В іншому випадку, вони можуть стати небезпечними і завдати значної шкоди. Коли роботи приймають рішення самостійно і незалежно від людини, використовуються в будинках, комерційної або соціальній сферах, можливі самі різні варіанти розвитку подій.

Інтереси людини

 У доповіді також йдеться про необхідність забезпечення пріоритету інтересів людей над машинами. Розробка «розумних» систем не повинна контролюватися і регулюватися тільки технічними стандартами. За словами Ентоні Уокера, заступника голови групи TechUK, в цих питаннях повинні бути враховані етичні та демократичні цінності.

 

«Ці технології можуть дати багато переваг, але суспільство має довіряти їм і бути впевненим в тому, що інтелектуальні системи управляються належним чином», – сказав Уокер.

Необхідність розробки нового способу управління машинами вже назріла – технології, описані Азімовим, давно стали реальністю.

Так, поява безпілотних авто спровокувало виникнення питання про пріоритетну безпеки людини. Що станеться в ситуації, коли машині належить вибирати між безпекою тих, хто знаходиться в автомобілі, і пішоходами? Цікавим є і питання визначення відповідальної сторони в разі аварії – це сама машина або її власник?

 

Штучний інтеелкт навчає

Іншим яскравим прикладом необхідності розробки заходів контролю над інтелектуальними системами є їх використання в технологіях персонального навчання. Комп’ютер сам визначає сильні і слабкі сторони учня і, виходячи з цієї інформації, розробляє план його навчання. Чи може така система давати знання без спеціального контролю з боку людей? Як ми переконаємося в тому, що методика, за допомогою якої штучний інтелект навчає дитину, нам повністю підходить?

Ці питання стосуються не технологічних компаній, що розробляють «розумні» системи, а всіх нас. Саме тому в доповіді наголошується, що деталі роботи інтелектуальних машин не можуть бути комерційною таємницею, вони повинні знаходиться у вільному доступі. Так помилку буде набагато легше вчасно виявити і виправити.

Збір данних

Ще однією областю, яка потребує регулювання, є збір даних. Щодня ми залишаємо масу інформації про себе в мобільних телефонах, за допомогою лайків, репоста та інших онлайн-активностей. Існують системи, здатні об’єднати всю цю загальнодоступну інформацію про людину і сформувати профіль його особистості. Потенційно ці дані можуть використовуватися як і ким завгодно – в комерційних цілях або, наприклад, потенційним роботодавцем.

Описані системи здатні запропонувати нам великі можливості. Але відсутність належного їх контролю і регулювання означатиме, що наші життя залежать від машин і визначаються ними.

Регулювання кожного конкретного випадку

Ключем до вирішення цієї проблеми, на думку професора Лейзера, є необхідність розробки процедури регулювання кожного конкретного випадку. Очевидно, що алгоритм, який визначає те, які книги рекомендувати користувачеві на Amazon, повністю відрізняється від алгоритму, «відповідає» за діагностику хвороб в медицині. Тому обидві ці системи не можуть підпорядковуватися одному і тому ж регулювання.

По суті ж, інтелектуальні системи будуть рухатися вперед тільки в тому випадку, якщо люди довіряють їм і тому, як вони регулюються. Без виконання цієї умови величезний потенціал «розумних» систем, який може бути направлений на процвітання людства, так і не буде реалізований.