你腦子里有沒有一首歌?加州大學伯克利分校神經科學家團隊的一項新研究在了解音樂感知和認知的神經基礎方面取得了重大進展,真正推動了與音樂相關的神經科學的發展。
最近發表在PLOS Biology雜志上的這項研究結果(journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002176)顯示了人類大腦對音樂表演的反應。當我們的耳朵聽到一段歌曲片段后,它會被我們的耳蝸(內耳的螺旋腔)轉化為神經元活動。Ludovic Bellier是加州大學伯克利分校Helen Wills神經科學研究所的博士后,他研究大腦中的神經網絡最終是如何“聽到”這些聲音的。
在他的團隊的實驗中,Bellier和同事分析了聽迷幻搖滾樂隊Pink Floyd歌曲的人的大腦活動。29名參與者是紐約州奧爾巴尼市奧爾巴尼醫療中心的癲癇患者。作為治療的一部分,這些患者的大腦表面植入了電子傳感器,他們被要求專心聽Pink Floyd的歌曲“Another Brick in the Wall”。研究人員記錄了每個腦電極的振蕩電位,這些測量被稱為皮層電圖記錄(ECoG),是反映每個電極周圍大腦小區域神經活動的寬帶信號。
研究人員假設,每位患者記錄的ECoG信號反映了他們的大腦是如何感知為他們播放的音樂的。為了驗證他們的假設,并了解患者大腦中哪些區域最參與音樂感知,該團隊擬合模型,以重建歌曲的音頻頻譜圖,當以ECoG特征作為輸入時,音頻頻譜圖顯示了聲能在頻率上隨時間的分布。如果模型能夠在正則化訓練后準確地重建聲譜圖,那么ECoG特征必須反映關于向患者播放的音樂的一些信息。
根據Bellier的說法,研究小組能夠驗證他們的假設。通過使用多種類型的模型來重建聽覺信號,科學家們可以解碼出歌曲輸出音頻的至少部分可聽見的相似性。研究人員表示,據他們所知,他們的研究結果是第一份從ECoG數據中回歸的音樂音頻出版物。盡管原始音頻和重建音頻之間的相關性仍遠未達到1比1——統計r平方值為0.325——但當將一些模型的輸出轉換回音頻波形時,如果距離較遠,則可以將其識別為經典歌曲。一種更復雜、更非線性的重建算法——所謂的多層感知器,或簡單的雙層人工神經網絡——會產生0.429的更高r平方擬合值和更清晰的音頻重建。
為了測試大腦中哪些區域最參與音樂處理,研究人員在去除電極輸入的同時,對模型進行了相同的音頻重建任務訓練。總之,來自所有患者的ECoG數據覆蓋了大腦的大部分總表面積,因此科學家們能夠將大腦的許多潛在區域視為產生聽音樂體驗的關鍵參與者。
通過比較涉及所有大腦區域的模型和沒有涉及的模型之間的性能變化——有時稱為消融研究——研究人員能夠說出每個大腦區域提供了多少信息。換言之,如果當特定區域的電極被移除時,重建精度沒有大的變化,那么該區域就不會像音樂感知那樣參與其中。
從這個過程中,研究人員發現,去除從大腦左右兩側一個稱為顳上回(STG)的區域收集的腦電波數據會導致重建精度的最大下降。這個區域恰好位于耳朵附近,也被認為在語音處理中發揮著重要作用,因此它實際上可能在大腦處理復雜結構化聲音的能力中發揮更大的作用。
該團隊還發現,從左右STG中單獨去除數據特征對重建精度的影響顯著不同。這表明,參與者大腦右側STG的活動比左側STG有更多關于歌曲的信息。奇怪的是,該領域先前的研究表明,語音處理的情況似乎恰恰相反,左側STG通常比右側STG做更多的工作。Bellier說:“在95%的右撇子中,言語主要位于左半球。我們在論文中表明,音樂(在左右STG之間)分布更廣,但具有右側優勢”——這意味著右側STG處理的音樂信息比左側多。”
“我們可以做一個非常簡單的后續跟進,”Bellier說。也就是說,本研究只考慮了70到150赫茲的高頻腦電波信息。然而,Bellier表示,根據ECoG信號的較低頻率范圍計算的音頻特征也可以對重要信息進行編碼。這就是為什么他說,該團隊計劃在當前論文中對不同頻率范圍的神經活動重復相同的分析。正如論文所總結的那樣,該小組目前和未來的工作將增加“我們對人腦音樂處理理解的又一塊磚”。
-
神經網絡
+關注
關注
42文章
4773瀏覽量
100890 -
電極
+關注
關注
5文章
821瀏覽量
27249 -
神經元
+關注
關注
1文章
363瀏覽量
18470
原文標題:Neurotech重建聽到的聲音 并探究人們是如何感知音樂的
文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論