Вона не говорить 18 років після інсульту.
Жінка, яка роками не вимовляла жодного слова після інсульту, знову набула здатності розмовляти завдяки штучному інтелекту.
У новаторській процедурі використовується масив із 253 електродів, які були імплантовані в мозок 48-річної Енн Джонсон, а потім підключені до групи комп'ютерів через невеликий порт, прикріплений до її голови.
Електроди, що покривають область мозку, де обробляється мова, перехоплюють сигнали її мозку і відправляють їх на комп'ютери, які генерує аватар, який представляє Джонсон.
Екранний аватар, який Джонсон обрала сама, потім може "говорити" те, що вона думає, використовуючи копію її голосу, записану багато років тому під час 15-хвилинного тосту, який вона виголосила на своєму весіллі.
Аватар також моргає і використовує такі вирази обличчя, як усмішки, стиснуті губи і підняті брови, що робить його більш реалістичним.
"Ми просто намагаємося відновити те, чим люди є", - сказав доктор Едвард Чанг, завідувач відділення неврологічної хірургії Каліфорнійського університету в Сан-Франциско.
Джонсон — шкільна вчителька математики, яка також працювала тренеркою з волейболу та баскетболу в Саскачевані — була одружена два роки і народила двох дітей, коли через інсульт її паралізувало.
"Неможливість обійняти і поцілувати моїх дітей було дуже болісним, але це була моя реальність", - сказала жінка. "Справжнім цвяхом у труні було те, що мені сказали, що я не зможу мати більше дітей".
Після декількох років реабілітації до неї поступово повернулися деякі рухи та вираз обличчя, але Джонсон, як і раніше, не могла розмовляти, і її доводилося годувати через зонд, поки ковтальна терапія не дозволила їй їсти дрібно нарізану або м'яку їжу.
Команда з UCSF разом із колегами з Каліфорнійського університету в Берклі заявила, що вперше мова або вираз обличчя були синтезовані із сигналів мозку.
Щоб навчити систему штучного інтелекту, Джонсон доводилося знову і знову мовчки "повторювати" різні фрази зі словника, що містить 1024 слів, поки комп'ютер не розпізнавав зразок активності мозку, пов'язаний із кожним звуком.
Замість цілих слів програму штучного інтелекту навчили розпізнавати фонеми — одиниці мови, з яких складаються слова. Наприклад, "Hello" містить чотири фонеми: "HH", "AH", "L" і "OW".
Розпізнаючи 39 фонем, програма штучного інтелекту може декодувати сигнали мозку Джонсон на повні слова зі швидкістю близько 80 слів на хвилину — приблизно половина швидкості звичайного діалогу для людей.
Шон Мецгер, який розробив декодер у рамках спільної біоінженерної програми Каліфорнійського університету в Берклі та UCSF, розповів South West News Service, що "точність, швидкість та словниковий запас програми мають вирішальне значення.
"Це те, що дає користувачеві можливість згодом спілкуватися майже так само швидко, як ми, і вести набагато природніші та нормальніші розмови".
Зараз команда працює над бездротовою версією, що означає, що користувачеві не доведеться фізично підключатися до комп'ютерів за допомогою дротів чи кабелів.
Чанг працював над інтерфейсом "мозок-комп'ютер" понад десять років і сподівається, що інновації команди найближчим часом призведуть до створення системи, яка дозволить створювати промову із сигналів мозку.
"Наша мета - відновити повноцінний, втілений спосіб спілкування, який справді є для нас найбільш природним способом спілкування з іншими", - сказав Чанг SWNS. "Ці досягнення наближають нас до того, щоб зробити це реальним рішенням для пацієнтів".