Американські вчені навчили нейронну мережу інтерпретувати дані томографії та відновлювати картинку, яку бачить при цьому людина.

Штучний інтелект, здається, став ще на крок ближче до остаточної перемоги над людиною. Учені з американського Університету Пердью навчили нейронну мережу інтерпретувати дані томографії головного мозку і відновлювати зображення, які бачили при цьому люди. Статтю Чжунміна Лю (Zhongming Liu) і його колег опублікував журнал Cerebral Cortex.

Для початку автори поміщали трьох добровольців в томограф, демонструючи їм короткі відеоролики і реєструючи патерни активності, яку викликали вони в зоровій корі та інших частинах їх головного мозку. Ці дані використовувалися для навчання надточної нейронної мережі (Convolutional Neural Network, CNN) знаходженню зв’язку між тими чи іншими патернами і образами. І дійсно, при перегляді додаткових кліпів нейромережа досить точно передбачала патерни, які вони стимулювали в десятках ділянках мозку.

Аналогічним чином штучний інтелект «вгадував» і те, що бачив піддослідний, за даними томографії. Звичайно, «картинка» поки неідеальна: передбачення дозволяє лише назвати одну з 15 категорій об’єктів, про які «думали» люди (літаки, птахи, спорт і т. д.), зате з точністю понад 50 відсотків. Більш того, навіть якщо комп’ютер обробляв дані активності мозку раніше невідомого йому добровольця, надійність його передбачень все одно залишилася на рівні 25 відсотків, що істотно вище випадкового вибору.

 

Реконструкція самого ж зображення поки що не дуже добре вдається штучному інтелекту: спроби відновити картинку піксель за пікселем призводять до отримання досить безглуздих розмитих фігур. З іншого боку, загальні обриси і положення кольорових плям реконструюються досить схоже. Автори сподіваються, що рано чи пізно буде можливим і повне відновлення зображення – фактично читання думок за допомогою томографа.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Підписуйтесь на наш канал у Telegram

Додайте відповідь

Please enter your comment!
Please enter your name here