Штучний інтелект – це дивовижна технологія, яка змінює світ, але кожен, хто дивився фільм “Термінатор”, знає, що просунутий ШІ може бути небезпечний. Ось і Ілон Маск вважає, що необхідно втрутитися в процес розвитку технології штучного інтелекту (ШІ) зараз, перш ніж він стане небезпечним для людства. Цю думку підприємець висловив на зустрічі з губернаторами штатів. “Я піддавався дії самого передового ШІ, і я думаю, що люди мають бути дійсно стурбовані цим”, – сказав Маск на зустрічі, що проходила в суботу, у Національній асоціації губернаторів. “Я розумію, що доки люди не побачать, як роботи йдуть вулицею, вбиваючи людей, вони не повірять в реальну небезпеку”. Потрібні суворі правила, або виявиться надто пізно, сказав Маск. Він стурбований не лише тим, що ШІ виконуватиме людську роботу, але також тим, що із-за збоїв і злому він може почати вбивати людей.

Це не перший випадок, коли Маск попереджає, що ШІ небезпечний. У 2014 році він назвав його “найбільшою екзистенціальною загрозою людства”, а в 2015 році він разом з іншими технічними світилами призвав Організацію Об’єднаних Націй заборонити роботів-вбивць. Маск підкреслює, що основна небезпека виходить від впровадження технологій штучного інтелекту в інтернет. “Роботи можуть почати війну, випускаючи фейкові новини й прес-релізи, підробляючи облікові записи електронної пошти та маніпулюючи інформацією”, – вважає він. Як приклад Ілон Маск привів гіпотетичну ситуацію, при якій штучний інтелект може робити інвестиції в оборонну промисловість, а потім використати зломи та поширення дезінформації, щоб спровокувати війну. “Перо сильніший за меч”, – зробив висновок він.​

Маск – не єдиний учений, який побоюється ШІ. Фізик Стівен Хокінг теж попередив, що ШІ може запросто покінчити з людством. Проте не усі учені переконані в небезпеках. Майкл Литтман, комп’ютерний учений з Університету Брауна, вважає, що бачення майбутнього, у якому люди поневолені роботами-повелителями, є чисто науковою фантастикою

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Підписуйтесь на наш канал у Telegram