你或許會覺得在說一些話之前,你已經在大腦中構思了想要說的內容,因此,說完之後你非常清楚自己說了什麼。可是當你說完一個內容之後,卻聽到自己說了另一個內容,這時,你還清楚自己剛剛說了什麼嗎? 當前的言語生成理論假設,言語開始於一個清晰的前語言觀念,通過不同水平的語音編碼最終成為言語。然而來自瑞典Lund大學的研究者做了一項研究,研究支持了另一個模型。另一個模型認為,言語並不僅僅是對前語言信息的編碼與翻譯,聽覺反饋(Auditory Feedback)在言語的生成中扮演著重要的角色,說話者會根據他們聽到的內容來明確自己剛剛說了什麼。 實驗共招募了78名參與者,他們必須完成經典的Stroop任務。在Stroop任務中,呈現給被試顏色和含義不同的刺激材料,例如用紅顏色寫「藍」這個字,被試要做的是報告字的顏色而非字的讀音。 在Stroop任務基礎上,研究人員讓參與者戴上耳機,這個耳機將對被試所說的內容進行實時反饋。但是實驗中關鍵的部分在於,這些反饋並非全部真實。研究人員對聲音的反饋進行了控制,使得特定的單詞將被替代為語音相近而意義不同的另一個詞(譬如「grey」與「green」的替換)。實驗中少數參與者發現了詞條的更換,大多數被試沒有發現。 在未發現詞條更換的參與者中,當他們報告自己剛剛說的是什麼時,卻報告了在耳機中所聽到的詞而不是他們真正說的。研究人員發現,這些參與者中85%的人接受了耳機所反饋的錯誤內容,而相信這些錯誤內容是自己所說的。其實參與者擁有很多的輔助判斷信息:舌頭、下頜以及記憶等等,這些信息都有助於判斷自己剛剛說了什麼,可是參與者仍然相信耳機中反饋的錯誤詞匯,認為是自己說錯了。 這項研究顯示了聽覺反饋在言語生成中的重要作用,聽覺反饋是人們用來控制言語生成的一個輔助手段。通常認為,聽覺反饋與軀體感覺反饋(Somatosensory Feedback)以及視覺反饋(Visual Feedback)一起幫助人們判斷所說內容與自己的意圖是否一致。另外,聽覺反饋在幼兒的語言獲得中有著不可替代的作用,幼兒正是通過這樣的反饋過程來學習與矯正自己的言語。
|
|
|