每分鐘無約束表達62個單詞, 新腦機接口距離實時人腦溝通再進一步
美國一所大學的團隊聲稱已經測試瞭一種新的腦機接口(BCI),它可以每分鐘解碼多達62個單詞的語音,將之前的記錄提高瞭3.4倍,這是以自然人類對話的速度實現實時語音轉換的一大步。科學傢們發現,他們隻需要分析大腦皮層相對較小區域的大腦活動,就可以使用機器學習算法將其轉換為連貫的語音。現在的目標是讓那些因ALS或中風而無法說話的人恢復“聲音”,雖然基於鍵盤的解決方案允許癱瘓患者在一定程度上再次通信,但基於大腦的語音接口可以顯著加快解碼速度。
科學傢們寫道:“在這裡,我們展示瞭一種語音BCI,它可以以每分鐘62個單詞的速度從大量詞匯中解碼無約束的句子,這是BCI首次遠遠超過替代技術為癱瘓患者提供的通信速率,例如眼動追蹤。”在一項實驗中,研究小組從ALS患者大腦的兩個小區域記錄瞭他們的神經活動。ALS患者可以移動嘴,但難以形成單詞。研究人員使用一個可以預測文本的遞歸神經網絡解碼器,然後以驚人的速度將這些信號轉換成單詞。論文稱,他們發現,分析這些面部運動及其相關的神經活動足夠強大,足以支持語音BCI,盡管大腦皮層表面癱瘓且覆蓋范圍狹窄。
但這個系統並不完美。研究人員的遞歸神經網絡(RNN)解碼器的錯誤率仍然約為20%。科學傢們在論文中承認:“我們的演示證明瞭一個概念,即從皮層內記錄中解碼嘗試的說話動作是一種很有前途的方法,但這還不是一個完整的、臨床上可行的系統。”為瞭提高系統的錯誤率,科學傢們建議探測更多的大腦區域,同時優化算法。


