Международный институт передовых телекоммуникационных исследований (ATR),
расположенный близ Киото, совместно с компанией Honda, разработал и
продемонстрировал в действии новый тип связи между человеком и машиной.
Робот-манипулятор подчинялся мыслям испытуемого, без всякой видимой связи с
ним.
Новый интерфейс мозг-машина (Brain Machine Interface BMI)
основан на ежесекундном анализе картины активности участков мозга, получаемой
через магниторезонансное сканирование, а также на хитроумной программе, которая
по этим данным вычисляет нервные сигналы в мозге, распознавая по ним выполняемые
человеком движения (кисти и пальцев).
Пусть задержка между жестом человека
и повторением движения манипулятором составляла примерно 7 секунд, всё равно
достижение впечатляет. Тем более, что точность распознавания достигла
85%.
Проект BMI основан на исследованиях доктора Юкиясу Камитани (Yukiyasu
Kamitani) из вычислительной лаборатории неврологии ATR (ATR CNS).
О
предыдущих работах в этой области мы рассказывали неоднократно.
Но авторы
этого эксперимента особо подчёркивают два момента, отличающие их достижение от
сходных ранних работ: здесь нет электродов, внедрённых в мозг, и даже просто
контактов (которыми снимают энцефалограмму, к примеру), да и вообще
какого-либо соприкосновения с человеком.
И что ещё интереснее, правильное
распознавание жестов машиной происходит в реальном времени, с первой попытки и
на нетренированном "подопытном". Ранее людям приходилось стараться, чтобы
получить от машины, считывающей мозговую деятельность (например
считывая мозговые волны), однозначно чёткую и видимую реакцию на свои
мысли нужное движение шарика на экране компьютера или ещё что-то
подобное.
В этом смысле показателен необычный мозговой футбол.
Авторы
же новой работы отмечают, что их программу можно модифицировать для
распознавания "движений мысли" по анализу иных мозговых сигналов, что в будущем
позволит миниатюризировать технологию, отказавшись от огромного магнитного
томографа.
На фото в заголовке: слева человек в
магниторезонансном сканере показывает пальцами знаки ("камень-ножницы-бумага");
справа: робот копирует его движения; на врезке управление роботом
происходит благодаря анализу рисунка активных зон мозга.