MIT研究:聽覺時序精準度對辨聲定位至關重要

Ai

健康聽力:時機至關重要

當聲波到達內耳時,那裡的神經元會捕捉振動並向大腦發出警報。這些信號中編碼了大量信息,使我們能夠跟隨對話、識別熟悉的聲音、欣賞音樂,並迅速找到響鈴的電話或哭泣的嬰兒。

神經元通過發射脈衝來發送信號——即電壓的短暫變化,沿著神經纖維傳播,也被稱為動作電位。值得注意的是,聽覺神經元每秒可以發射數百次脈衝,並且能夠將脈衝的時間精確地與進來的聲波的振盪相匹配。

麻省理工學院麥戈文大腦研究所的科學家們利用強大的新模型研究了人類聽力,發現這種精確的時機對於我們理解聽覺信息的某些重要方式至關重要,包括識別聲音和定位聲音。

這項研究的開放訪問成果於12月4日發表在《自然通訊》期刊上,顯示了機器學習如何幫助神經科學家理解大腦如何在現實世界中使用聽覺信息。麻省理工學院教授兼麥戈文研究員喬希·麥克德莫特(Josh McDermott)解釋道,他的團隊模型使研究人員能更好地研究不同類型的聽力損失的後果,並設計出更有效的干預措施。

聲音的科學

研究人員長期以來懷疑神經系統的聽覺信號是如此精確地定時,因此這種時機對於我們的聲音感知非常重要。聲波的振盪頻率決定了其音調:低音的聲音以較慢的波動傳播,而高音的聲音波則以較高的頻率振盪。將耳中檢測到的聲音信息傳遞到大腦的聽覺神經,產生的電脈衝與這些振盪的頻率相對應。“聽覺神經中的動作電位在刺激波形的峰值相對的非常特定的時間點發射,”麥克德莫特說,他同時也是麻省理工學院大腦與認知科學系的副主任。

這種稱為相位鎖定的關係要求神經元以亞毫秒的精確度定時發射脈衝。然而,科學家們並不真正知道這些時間模式對大腦的信息有多重要。麥克德莫特指出,這個問題不僅在科學上引人入勝,還具有重要的臨床意義:“如果你想設計一種能向大腦提供電信號以重現耳朵功能的義肢,那麼了解正常耳朵中哪些信息實際上重要是相當重要的。”

這一問題在實驗上難以研究;動物模型無法提供有關人類大腦如何提取語言或音樂結構的深入見解,而人類的聽覺神經又無法進行研究。因此,麥克德莫特和研究生馬克·薩德勒(Mark Saddler)轉向了人工神經網絡。

人工聽覺

神經科學家長期以來一直使用計算模型來探索大腦如何解碼感官信息,但直到最近的計算能力和機器學習方法的進步,這些模型才得以模擬簡單的任務。“這些早期模型的問題之一是它們通常表現得太好了,”薩德勒說,他現在在丹麥技術大學工作。例如,一個計算模型在識別一對簡單音調中的高音時,可能會表現得比人類好。“這不是我們每天在聽覺中進行的任務,”薩德勒指出。“大腦並不是針對這種非常人為的任務進行優化。”這種不匹配限制了從這一代模型中可以獲得的見解。

為了更好地理解大腦,薩德勒和麥克德莫特希望挑戰聽覺模型,讓它執行人們在現實世界中使用聽力的任務,例如識別單詞和聲音。這意味著需要開發一個人工神經網絡來模擬接收耳朵輸入的腦部區域。該網絡接收來自約32,000個模擬的聲音檢測感官神經元的輸入,然後針對各種現實世界的任務進行優化。

研究人員顯示,該模型很好地複製了人類聽力——超過了任何先前的聽覺行為模型,麥克德莫特說。在一次測試中,人工神經網絡被要求在各種背景噪音中識別單詞和聲音,從飛機艙的嗡嗡聲到熱烈的掌聲。在每種情況下,模型的表現與人類非常相似。

然而,當團隊降低模擬耳中的脈衝時,該模型就無法再與人類識別聲音或定位聲音的能力相匹配。例如,雖然麥克德莫特的團隊之前顯示人們使用音調來幫助識別聲音,但模型顯示如果沒有精確的脈衝信號,這種能力將會丟失。“你需要相當精確的脈衝時機來解釋人類行為並在任務中表現良好,”薩德勒說。這表明,大腦使用精確的聽覺信號是因為它們有助於這些實際的聽覺功能。

團隊的發現展示了人工神經網絡如何幫助神經科學家理解耳朵提取的信息如何影響我們對世界的感知,無論聽力是否正常。“將聽覺神經的脈衝模式與行為聯繫起來,為我們打開了很多大門,”麥克德莫特說。

“現在我們有了這些將耳朵中的神經反應與聽覺行為聯繫起來的模型,我們可以問,‘如果我們模擬不同類型的聽力損失,這將對我們的聽覺能力產生什麼影響?’”麥克德莫特說。“這將幫助我們更好地診斷聽力損失,我們認為這也可以幫助我們設計更好的助聽器或人工耳蝸。”例如,他說,“人工耳蝸在各方面都有其局限——它可以做一些事情而無法做其他事情。最佳的設置方式是什麼,以便你能夠調節行為?從原則上講,你可以使用這些模型來告訴你這一點。”

這項研究不僅提高了我們對人類聽力的理解,還可能在未來對聽力障礙的治療和助聽技術的發展產生深遠的影響。隨著科學技術的進步,如何利用這些模型來改善人類的生活質量,將成為未來研究的一個重要方向。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon