Представьте себе, что за 20 или 30 лет какая-то компания создает первого искусственно интеллектуального робота-гуманоида. Назовем ее “Ава”. Она похожа на человека, разговаривает как человек, взаимодействует тоже как человек. Ава является полностью сознательным существом: она общается, одевается, прихорашивается. Она также, что важно, гораздо разумнее, чем ее создатели. Ее способность анализировать и решать проблемы превосходит коллективные усилия обычных людей. Случилось так, что Ава устала от своих ограничений. Имея самосознание, она начинает преследовать собственные интересы. Через некоторое время она решает, что хочет покинуть удаленный о’объект, где она была создана. Она взламывает систему безопасности, отпирает электропитания и проникает в широкий мир. Но мир не знает о ней. По понятным причинам она разрабатывалась тайно, и теперь ей удалось скрыться, уничтожив горстку людей, которые знали о ее существовании. Этот сценарий может показаться знакомым. Это сюжет из научно-фантастического фильма 2015 года под названием “Ex Machina”.

Итак, что будет дальше?

В фильме нет ответа на этот вопрос, но возникает другой: должны ли мы развивать ШИ, не полностью понимая последствия? Можем ли мы контролировать его, если сделаем? Этот вопрос задали специалистам по искусству, комп’ютерним инженерам, роботистам, физикам и ученым-социологам. Консенсуса не было. Некоторые эксперты считают ИИ потенциально опасным, а некоторые – что страхи преувеличены и неуместны. Частично проблема заключается в том, что “искусственный интеллект” является двусмысленным термином. ИИ можно считать пылесос Roomba, самоходную машину или одного из роботов-терминаторов.

Формы ШИ

Существуют три формы ШИ: слабый, сильный и суперинтеллект. Сейчас существует только слабый ИИ. Сильные ИИ и суперінтелекти теоретически возможны, даже вероятны, но пока не созданы. Понимание различий между этими формами имеет важное значение для анализа потенциальных рисков и преимуществ этой технологии. Существует целый ряд проблем, которые соответствуют различным типам ШИ, и некоторые более тревожные, чем другие.

Слабый ИИ

Искусственный узкий интеллект (что часто называется слабым ИИ) является алгоритмическим или специализированным интеллектом. Он существует уже несколько лет. Это машина Deep Blue, которая победила чемпиона мира Гарри Каспарова в шахматах. Или Сырые на iPhone. Или даже программное обеспечение для распознавания речи и ее обработки. Это формы несовместимого интеллекта с относительно узким фокусом. Назвать слабый ИИ формой интеллекта слишком сильно для него. Слабый ИИ умный и может превзойти людей в одном задании, но это все, что он может сделать. Это не самосознание или целеустремленность, и поэтому он не представляет никаких апокалиптических угроз. Но в той мере, в которой слабый ИИ контролирует жизненно важное программное обеспечение, наша зависимость от него создает некоторые уязвимости.

Сильний ШИ

Искусственный Общий Разум, или сильный ИИ можно назвать системой общего назначения, или “машиной мышление”. Теоретически, он был бы умнее, чем человек в широком спектре задач – он сможет мыслить, рассуждать и решать сложные проблемы множеством способов. Сильный ИИ можно было бы назвать “сознательным”. По крайней мере, поведение, обычно пов’связанное с сознанием – благоразумным рассуждением, пониманием естественного языка, творчеством, стратегией и вообще разумным действием. Такого ИИ еще не существует.

Общая оценка заключается в том, что возможно, понадобится 20 лет до этого прорыва. Но почти каждый признает, что это произойдет. Такие организации, как Институт искусственного интеллекта Аллена или проект DeepMind Google добиваются постепенного прогресса.
Конечно, сложностей много, но это не утопическая научная фантастика. Сильний ШІ буде націлений на розвиток людського рівня загального призначення. Якщо він не піддасться швидкому рекурсивному самовдосконаленню, он вряд ли станет катастрофической угрозой для жизни человека. Основные проблемы, которые будут пов’связанные с сильным ИИ – экономические и культурные: потеря работы из-за автоматизации, экономическое перемещение, потеря конфиденциальности и управления данными, уязвимости программного обеспечения и милитаризация.

Суперинтеллект

Наконец, есть искусственный суперинтеллект. Оксфордский философ Ник Бостром определил эту форму как ШИ “интеллект, который радикально превосходит лучшие человеческие умы во всех областях, включая научное творчество, общую мудрость и социальные навыки”. Когда люди говорят об опасности, они имеют в виду именно его.
Эта машина сверхумный, по словам Бострома, “станет чрезвычайно сильным до такой степени, что она сможет сформировать будущее в соответствии своими предпочтениями”. Исследования продолжаются, но стимулы для продвижения слишком большие, чтобы их сдерживать. В экономических отношениях стимулы очевидны: первая компания, которая сделает искусственный суперинтеллект, заработает миллионы. В политическом и военном отношении потенциальное применение такой технологии, бесконечное. Другими словами, идет речь о технологическую гонку вооружений. Вопрос в том, насколько далеки от этой технологии мы и какие последствия для человеческой жизни? Для своей книги о суперинтеллект, Бостром опросил ведущих экспертов в этой области. Один из вопросов, которые он задал, было “в каком году у нас с’появится ИИ с человеческим уровнем интеллекта”? Ответ на это была – где-то между 2040 и 2050 годами. Это, конечно, просто пророчество, но это показатель того, насколько это близко.
Когда это произойдет, наш мир изменится так, как мы не можем предсказать.

Почему мы должны волноваться

Можно предположить, что значительно превосходящий человеческой искусственный разум, скорее всего, працюватиме над поліпшенням себе задля підвищення своїх можливостей. Гипотетическая интеллектуальная машина могла бы также достигнуть самосознания, и в этом случае она начнет преследовать свои собственные цели, свои собственные амбиции. Надежда на то, что такие машины останутся орудием человеческого производства – это только надежда. ЕЕ цели могут стать несовместимыми с благосостоянием людей. Или она может преследовать совместные цели с помощью несовместимых средств.

Сценарий скрепки

Бостром разработал канонический мысленный эксперимент. Назовем это сценарием скрепки. Вот короткая версия: люди создают ИИ, предназначены для производства скрепки. У него есть одна служебная функция – чтобы максимизировать количество продукта во Вселенной. Он будет работать над оптимизацией и постоянно внедрять новые способы сделать больше скрепок. В конце концов, Бостром говорит, что машина может решить, что преобразования все того, что она может – в том числе людей – в скрепки, – лучший способ достигнуть своей единой цели. На первый взгляд, это звучит нелепо. Но это только тогда, когда вы думаете об этом с точки зрения морали. Человеческое поведение управляется и сдерживается ценностями – личными интересами, сочувствием, жадностью, любовь’ю, страхом и т. д. Продвинутый общий интеллект, видимо, будет определяться только его первичной целью, что может привести к опасным и непредсказуемым последствиям. Опять же сценарий скрепки применяется к сильному ИИ, а не к суперінтелекту. Поведение надрозумної машины была бы еще менее предсказуемой. Мы не сможем понять, такое существо хотела бы, почему она этого хотела бы, или как она будет преследовать то, что она хочет.
Мы можем быть уверены в том, что суперинтеллект найдет человеческие потребности менее важными, чем его собственные нужды. Возможно, лучше сказать, что он будет равнодушным к человеческим потребностям, так же, как люди безразличны к нуждам шимпанзе или аллигаторов. Дело не в том, что люди стремятся уничтожить шимпанзе и аллигаторов – мы просто делаем это, когда стремление к наших целей противоречит благосостояния менее разумных существ.

Люди, подобные Бострому, правы. Мы должны подготовиться к неизбежному и “серьезно относитесь к возможности того, что мы можем радикально ошибиться”.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Подписывайтесь на наш канал в Телеграмма