周愛保 謝 珮 潘超超 田 喆 謝君偉 劉 炯
尋找丟失的自我——精神分裂癥患者的自我面孔識別
周愛保謝 珮潘超超田 喆謝君偉劉 炯
(西北師范大學(xué)心理學(xué)院;甘肅省行為與心理健康重點(diǎn)實(shí)驗(yàn)室, 蘭州 730070) (甘肅省天水市第三人民醫(yī)院, 天水 741000)
為探索精神分裂癥患者自我面孔識別的能力以及在視聽整合任務(wù)中面孔對聲音身份識別(同性和異性)的影響, 選取34名住院精神分裂癥患者和26名健康被試, 分別進(jìn)行單通道動態(tài)自我面孔識別任務(wù)、單通道自我聲音識別任務(wù)和視聽整合任務(wù)的3個實(shí)驗(yàn)。結(jié)果發(fā)現(xiàn):精神分裂癥患者的單通道自我面孔識別能力和自我聲音識別能力與健康組無區(qū)別, 但在視聽整合任務(wù)中, 精神分裂癥患者的聲音身份識別受到視覺通道面孔識別的影響。結(jié)果表明, 精神分裂癥患者有自我面孔識別的能力, 自我面孔會促進(jìn)自我聲音的識別, 并抑制對同性他人聲音和異性他人聲音的識別。
自我面孔識別; 自我聲音識別; 視聽整合; 面孔主導(dǎo)
長久以來, 科學(xué)家們致力于自我面孔對自我認(rèn)識特殊性的研究。無論是在人類還是黑猩猩身上, 都發(fā)現(xiàn)了較強(qiáng)的自我面孔識別能力, 自我面孔識別也被當(dāng)作個體擁有自我意識的標(biāo)志(Gallup, 1970; Parker, Mitchell & Boccia, 1994; Keenan, Mccutcheon, Freund, Gallup, & Pascual-Leone, 1999)。雖然自我面孔識別的研究歷程悠久且方法較為成熟, 但是某些因疾病所導(dǎo)致的自我面孔識別能力受損仍舊是心理學(xué)研究的要點(diǎn)。例如, 在自閉癥、阿茲海默癥等神經(jīng)或發(fā)育障礙的個體中, 自我面孔識別的損傷已被證實(shí)(Uddin et al., 2008; Adduri & Marotta, 2009)。不過, 精神分裂癥作為一種病因較為復(fù)雜的精神類疾病, 在自我面孔識別的研究上仍存在爭議。
精神分裂癥患者在自我感知方面的缺陷已經(jīng)被證實(shí)(Sass & Parnas, 2003; Moe & Docherty, 2014), 但是對患者是否擁有自我面孔識別能力的意見卻不一致。有些研究發(fā)現(xiàn), 精神分裂癥在識別自我面孔方面存在一定的缺陷(Seiferth, Baar, & Schwabe, 2007; Hur, Kwon, Lee, & Park, 2014)。也有學(xué)者認(rèn)為, 精神分裂癥患者自我面孔識別的能力未受損, 并且相比于正常人, 加工過程反而增強(qiáng)了(Lee, Kwon, Shin, Lee, & Park, 2007)。近年對精神分裂癥自我面孔研究的結(jié)果似乎更支持患者自我面孔識別出現(xiàn)障礙的原因并非是自我加工受損, 而是面孔的熟悉性加工出現(xiàn)問題(Zhang, Zhu, Xu, Jia, & Liu, 2012; Bortolon, Capdevielle, Salesse, & Stéphane, 2016; Catherine, Delphine, Salesse, & Raffard, 2016)。從現(xiàn)有研究來看, 精神分裂癥的自我面孔研究大多集中在視覺通道的識別上, 即使方法各不相同, 但都并未脫離單通道研究的束縛。若能從其他較為成熟的研究領(lǐng)域出發(fā)(如多感覺整合), 采用多通道的研究手段, 或許能為精神分裂癥自我面孔識別的研究帶來新的證據(jù)。
多感覺整合理論(multisensory integration, MSI)提出, 相比于單通道, 多個通道同時呈現(xiàn)刺激時個體的反應(yīng)更快更準(zhǔn)確(Mishler & Neider, 2016)。但是在多個通道同時接受到刺激時, 會出現(xiàn)某個通道的主導(dǎo)效應(yīng), 促進(jìn)或者抑制對另一個通道信息的反應(yīng)(彭姓, 常若松, 任桂琴, 王愛君, 唐曉雨, 2018)。在視聽整合中有視覺的主導(dǎo)效應(yīng)(von Kriegstein et al., 2008), 例如McGurk效應(yīng), 表現(xiàn)為面孔和面部動作(如唇語)對聲音識別的影響(McGurk & MacDonald, 1976)。這可能是由于聽覺輸入滯后于視覺輸入(一般為150 ms)導(dǎo)致視覺內(nèi)容對語音的可預(yù)測性(Arnal, Morillon, Kell, & Giraud, 2009)。Arnal等人(2009)認(rèn)為視聽整合是由兩條不同的皮質(zhì)通路完成的, 較快的直接皮質(zhì)通路將視覺信息傳遞給聽覺皮層, 較慢的反饋通路將視覺的預(yù)測信息與聽覺輸入之間的誤差傳遞給聽覺皮層, 這種視聽不一致引起的神經(jīng)失匹配經(jīng)由顳上溝(superior temporal sulcus)反饋給聽覺皮層, 當(dāng)視聽信息一致時, 視覺的預(yù)測性會促進(jìn)語音的識別, 個體對信息的識別會加快, 當(dāng)視聽不一致時, 視聽的誤差會影響識別的速度。
精神分裂癥患者的視聽整合研究大多在于整合過程是否受損。有研究發(fā)現(xiàn), 精神分裂癥患者相比于正常人更少的產(chǎn)生McGurk錯覺, 是由于交叉模態(tài)匹配的視聽整合功能受損所致(Pearl et al., 2009; White et al., 2014), 但也有研究報(bào)告精神分裂癥患者存在多感覺整合的現(xiàn)象, 并且視聽整合功能并未受損(de, Vroomen, Annen, Masthof, & Hodiamont, 2003; Martin, Giersch, Huron, & van Wassenhove, 2013)。功能磁共振成像(fMRI)顯示, 視聽整合過程主要涉及上丘(superior colliculi), 另外顳上溝皮層(cortex within the superior temporal sulcus)、頂內(nèi)溝(intraparietal sulcus)和腦島(insula)等腦區(qū)與這種交叉模態(tài)有關(guān)(Calvert, Hansen, Iversen, & Brammer, 2001)。有研究發(fā)現(xiàn), 視覺通道的面孔加工區(qū)梭狀面孔區(qū)(fusiform face area, FFA)和聽覺通道聲音敏感區(qū)(superior temporal sulcus, STS)有結(jié)構(gòu)上的連接(Blank, Anwander, & Kriegstein, 2011), 這可能為單通道區(qū)之間的信息交流提供了橋梁(Maguinness & Kriegstein, 2017)。因此, 視聽通道的身份識別可能直接通過這種連接共享信息, 并且gamma頻段(30~50 Hz)神經(jīng)震蕩(neural oscillation)活動地同步可能是單通道區(qū)域相連的證據(jù)(Joassin, Maurage, & Campanella, 2011)。Stoned等人(Stoned, Coffman, Bustillo, Aine, & Stephen, 2014)通過腦磁圖掃描(magnetoencephalography)發(fā)現(xiàn), 在視聽整合任務(wù)中, 精神分裂癥患者gamma頻段的震蕩發(fā)生變化, 表明其在多感覺整合過程中發(fā)揮作用, 精神分裂癥患者面孔和聲音的視聽整合過程可能直接通過FFA和STS的連接執(zhí)行。
自我聲音和自我面孔一樣都包含自我身份信息, 這種自我感知與其它刺激相比是特殊的(Graux, Gomot, Roux, Bonnet-Brilhault, & Bruneau, 2015)。已有研究發(fā)現(xiàn), 即使受到傳導(dǎo)方式的影響, 個體依舊能夠區(qū)分自我和陌生人的聲音, 自我聲音的檢測與早期反應(yīng)的一個成分(‘pre-MMN’, 即早期的失匹配負(fù)波, 表明了大腦對聽覺信息的自動化檢測, 是研究聲音辨別力的指標(biāo))有關(guān), 主要存在于左側(cè)前額葉(Graux et al., 2013)。而性別信息作為一種固有的社會身份信息, 在面孔識別和聲音識別上也被確認(rèn)了認(rèn)知過程的特殊性(Fellowes, Remez, & Rubin, 1997)。視聽整合中, 正常人在視聽性別信息不匹配的條件下(男性的面孔匹配女生的聲音), 視覺的性別信息會影響被試對聽覺信息的識別(Peynircio?Lu, Brent, Tatz, & Wyatt, 2017)??疾炀穹至鸦颊咴谝暵犝先蝿?wù)中自我面孔對聲音識別影響的特點(diǎn), 可能會為精神分裂癥患者自我面孔識別的研究提供一些新的思路。
綜上, 探索精神分裂癥患者在視聽整合中自我面孔的作用及其特點(diǎn), 就成為一個重要的問題。本研究選取一批健康被試作為對照組, 采用自我面孔和他人面孔(同性和異性)同自我聲音和他人聲音(同性和異性)的匹配范式來進(jìn)行研究, 提出的問題假設(shè):精神分裂癥患者能夠在單通道任務(wù)中進(jìn)行自我面孔和自我聲音的識別, 并在視聽整合任務(wù)中出現(xiàn)視覺通道的面孔主導(dǎo)效應(yīng), 該效應(yīng)會影響到聽覺通道的自我身份(自我聲音)識別, 并對他人(同性和異性)聲音的識別產(chǎn)生影響。
通過比較精神分裂癥患者和健康被試在自我面孔、同性他人面孔和異性他人面孔識別任務(wù)中的差異, 分析精神分裂癥患者面孔識別的能力。
2.2.1 被試
選取甘肅省天水市第三人民醫(yī)院34名(男17名)住院精神分裂癥患者作為患者組。排除藥物濫用、精神發(fā)育遲緩以及其他器質(zhì)性疾病的患者。經(jīng)由兩名精神科主治醫(yī)生診斷, 所有患者均符合DSM-5的診斷標(biāo)準(zhǔn)。其中3名患者為偏執(zhí)型精神分裂癥, 31名為未分化型?;颊叩钠骄∈窞?3.50 ± 4.7)年。在實(shí)驗(yàn)階段, 所有患者服用利哌酮、喹硫平、氯氮平等非典型抗精神病藥物。招募了26名健康被試(男12名)作為健康組, 健康組的被試在年齡和受教育水平上與患者組匹配, 被試身體健康, 無精神病史及其他腦器質(zhì)性損傷。采用G-power軟件計(jì)算在效應(yīng)量為0.4和統(tǒng)計(jì)檢驗(yàn)力為0.8時所需要的被試總?cè)藬?shù)為25人, 實(shí)驗(yàn)達(dá)到了該水平。
所有被試均為右利手, 視力或矯正視力正常, 面部無明顯疤痕及突出特征(例如胡須)。表1顯示了具體的人口學(xué)變量信息。本研究得到西北師范大學(xué)和甘肅省天水市第三人民醫(yī)院倫理委員會的批準(zhǔn)。所有被試及其家屬都同意參加實(shí)驗(yàn), 并簽署了書面的知情同意書。
表1 被試基本信息表(M ± SD)
注:SAPS: 陽性癥狀量表; SANS: 陰性癥狀量表。
2.2.2 實(shí)驗(yàn)材料
利用Nikon-D7200單反相機(jī)以60幀/秒(1280×720像素分辨率)分別為每位被試進(jìn)行視頻拍攝, 要求被試目視鏡頭, 在聽到研究人員說“開始”后, 被試在有嘴唇運(yùn)動的條件下發(fā)“a”, 直到研究人員說“結(jié)束”后停止, 要求被試有完整的唇部發(fā)音過程, 該過程盡量保持在在1.5 s。
采用Adobe premiere視頻處理軟件將所有視頻消音并處理為黑白色, 并對視頻畫面進(jìn)行裁剪, 統(tǒng)一留出被試面孔的650×480像素。根據(jù)實(shí)驗(yàn)要求, 除了被試自己的面孔, 再為每位被試加入了3位陌生同性面孔和3位陌生異性面孔, 共7個面孔視頻。
2.2.3 實(shí)驗(yàn)程序
視覺通道的自我身份識別通過對自我和他人的動態(tài)面孔進(jìn)行識別, 自我面孔和他人面孔(同性和異性)分別都有30個試次(trial), 加上6個練習(xí)試次(trial), 共有96個試次, 練習(xí)結(jié)束后隨機(jī)呈現(xiàn)。
實(shí)驗(yàn)程序采用E-prime 2.0軟件在15.6寸的電腦液晶屏上呈現(xiàn)所有的視頻刺激, 像素為1600像素×900像素, 60 Hz刷新率。要求被試雙眼始終注視屏幕中央, 眼睛離屏幕60 cm左右。每個試次開始時都是在屏幕中央呈現(xiàn)500 ms的黑色十字, 之后呈現(xiàn)1.5 s的無聲動態(tài)面孔。刺激呈現(xiàn)后, 被試要對面孔進(jìn)行識別, 如果是自己的面孔就按“F”鍵, 不是就按“J”鍵, 直到被試按鍵之后進(jìn)入500 ms的空屏, 再到下一個試次, 按鍵之間進(jìn)行了平衡, 實(shí)驗(yàn)流程見圖1。
圖1 實(shí)驗(yàn)1單一試次流程圖
注:實(shí)驗(yàn)開始屏幕中央呈現(xiàn)字號為36磅的黑色十字, 500 ms之后出現(xiàn)無聲的動態(tài)面孔刺激, 被試按鍵反應(yīng)之后進(jìn)入實(shí)驗(yàn)緩沖的空屏。
實(shí)驗(yàn)中練習(xí)試次被排除。對反應(yīng)時的數(shù)據(jù)進(jìn)行處理, 剔除了所有的錯誤試次。剔除了反應(yīng)時超過3個標(biāo)準(zhǔn)差的反應(yīng)試次(占總試次數(shù)的2.9%), 1名被試(該患者平均反應(yīng)時超過3000 ms)數(shù)據(jù)被剔除。
采用信號檢測理論中的辨別力(= Z? Z)指標(biāo)來分析被試對自我面孔的辨別能力。
采用SPSS 23.0分別對被試的正確率和反應(yīng)時進(jìn)行了2 (被試類型:患者組, 健康組) × 3 (面孔身份:自我, 同性他人, 異性他人)的重復(fù)測量方差分析, 對被試自我面孔識別的辨別力進(jìn)行了獨(dú)立樣本檢驗(yàn)分析。
2.3.1 面孔識別的正確率
單通道面孔識別任務(wù)正確率的分析結(jié)果顯示, 面孔識別的主效應(yīng)不顯著,(2, 57) = 1.34,= 0.27, 表明所有被試在面孔識別方面正確率沒有顯著差異; 組別的主效應(yīng)不顯著,(1, 59) = 0.73,= 0.40, 表明患者組和健康組被試面孔識別的正確率沒有顯著差異; 組別與面孔身份識別之間沒有顯著的交互作用,(2, 57) = 0.94,= 0.40, 具體見圖2(a)。
2.3.2 面孔識別的反應(yīng)時
單通道面孔識別任務(wù)反應(yīng)時的分析結(jié)果為, 面孔身份識別的主效應(yīng)不顯著,(2, 56) = 0.92,= 0.40。組別的主效應(yīng)顯著,(1, 57) = 21.78,< 0.001, partial η= 0.28, 表現(xiàn)為健康組被試識別面孔的反應(yīng)時(=595.94, 95% CI501.57, 690.30)總體低于患者組(= 889.99, 95% CI806.23, 973.75)。組別與面孔身份識別之間存在顯著的交互作用,(2, 56) = 4.80,= 0.01, partial η= 0.15; 簡單效應(yīng)分析發(fā)現(xiàn), 患者組的自我面孔識別的反應(yīng)時(= 834.47, 95% CI730.37, 938.57)小于同性他人(= 909.66, 95% CI828.83, 990.49)和異性他人(= 925.85, 95% CI835.21, 1016.48), 具體見圖2(b)。
2.3.3 自我面孔識別的辨別力
自我面孔辨別力的分析結(jié)果為, 患者自我面孔識別的辨別力與健康被試無顯著差異,(58) = ?0.71,= 0.48。
從精神分裂癥患者和健康被試的視覺面孔識別的結(jié)果發(fā)現(xiàn), 患者能夠和正常人一樣辨別自己的面孔, 并且對自我面孔有更快的反應(yīng), 與之前的某些研究結(jié)果一致(Bortolon et al., 2016; Catherine et al., 2016; Bortolon et al., 2017), 驗(yàn)證了研究的假設(shè), 精神分裂癥患者有自我面孔識別的能力。但這并不能否定前人對精神分裂癥患者自我面孔識別受損的說法, 由于對面孔識別的研究方法不同(有的研究采用morphing任務(wù), 有的則采用視覺搜索范式), 所探究的角度不同, 結(jié)論大不相同。不過, 本研究可以說明, 至少在動態(tài)自我面孔識別的能力上, 精神分裂癥患者與正常人一樣。精神分裂癥患者對面孔識別任務(wù)的反應(yīng)時總體要大于正常被試, 這也存在于聽覺任務(wù)和視聽整合任務(wù)實(shí)驗(yàn)中。精神分裂癥患者的反應(yīng)變慢是一個病理上的普遍特征, 用精神分裂癥患者和健康被試進(jìn)行比較并不能只采用這個指標(biāo)(Schatz, 1998)。
通過比較精神分裂癥患者和健康被試在自我聲音、同性他人聲音和異性他人聲音識別任務(wù)中的差異, 分析精神分裂癥患者聲音識別的能力。
3.2.1 被試
實(shí)驗(yàn)2被試來自實(shí)驗(yàn)1。
3.2.2 實(shí)驗(yàn)材料
被試聲音的采集采用aigo-R8611錄音筆, 采樣頻率為44.1 kHz, 音頻信號為16-bit。要求被試在看到研究人員開始手勢后面對錄音筆用中性平緩的語調(diào)發(fā)“a”的音, 直到看到結(jié)束的手勢后停止, 該過程盡量保持在在1.5 s以上。
采用Pro Tool軟件將所有音頻材料剪輯成1.5 s, 采用Praat軟件將所有音頻的響度標(biāo)準(zhǔn)化為70 dB, 除了被試自己的聲音, 再為每位被試加入了3位陌生同性聲音和3位陌生異性聲音, 共7個音頻。
圖2 不同類型被試單通道面孔識別任務(wù)結(jié)果
注:圖(a)中正確率的結(jié)果為平均數(shù), 豎線代表正確率的標(biāo)準(zhǔn)差;圖(b)中反應(yīng)時的結(jié)果為平均數(shù), 豎線代表反應(yīng)時的標(biāo)準(zhǔn)差。*< 0.05, **< 0.01, ***< 0.001。
3.2.3 實(shí)驗(yàn)程序
聽覺通道的自我身份識別共有他人聲音和自我聲音。自我聲音和他人聲音(同性和異性)分別都有30個試次, 加上6個練習(xí)試次, 共有96個試次, 練習(xí)結(jié)束后隨機(jī)呈現(xiàn)。
實(shí)驗(yàn)程序采用E-prime2.0軟件在15.6寸的電腦液晶屏上呈現(xiàn)所有的音頻刺激, 每個試次開始時都是在屏幕中央呈現(xiàn)500 ms的黑色十字, 之后耳機(jī)中播放1.5 s的聲音刺激, 同時屏幕保持白色空屏, 要求被試眼睛不能離開電腦屏幕。刺激呈現(xiàn)后, 被試要對聲音進(jìn)行識別, 如果是自己的聲音就按“F”鍵, 不是就按“J”鍵, 直到被試按鍵之后進(jìn)入500 ms的空屏, 再到下一個試次, 按鍵之間進(jìn)行了平衡, 實(shí)驗(yàn)流程見圖3。
研究中練習(xí)試次被排除。對反應(yīng)時的數(shù)據(jù)進(jìn)行處理, 剔除了所有的錯誤試次。剔除了反應(yīng)時超過3個標(biāo)準(zhǔn)差的反應(yīng)試次(占總試次數(shù)的1.8%), 1名被試(該患者平均反應(yīng)時超過3000 ms)被剔除。
圖3 實(shí)驗(yàn)2單一試次流程圖
注:實(shí)驗(yàn)開始屏幕中央呈現(xiàn)字號為36磅的黑色十字, 500 ms之后出現(xiàn)空屏, 耳機(jī)中出現(xiàn)聲音刺激, 要求被試注視屏幕, 被試按鍵反應(yīng)之后進(jìn)入實(shí)驗(yàn)緩沖的空屏。
采用信號檢測理論中的辨別力(= Z? Z)指標(biāo)來分析被試對自我聲音的辨別能力。
對被試的正確率和反應(yīng)時進(jìn)行了2 (組別:患者組, 健康組) × 3 (聲音身份:自我, 同性他人, 異性他人)的重復(fù)測量方差分析, 對被試自我聲音識別的辨別力進(jìn)行了獨(dú)立樣本檢驗(yàn)的分析。
3.3.1 聲音識別的正確率
單通道聽覺識別任務(wù)正確率的分析結(jié)果顯示, 聲音身份識別的主效應(yīng)顯著,(2, 57) = 23.71,< 0.001, partial η= 0.45, 所有被試對異性聲音識別(= 0.97, 95% CI0.95, 0.99)的正確率顯著高于自我(= 0.89, 95% CI0.86, 0.93)和同性的他人聲音(= 0.85, 95% CI0.80, 0.90); 自我聲音和同性聲音識別之間沒有顯著差異。組別的主效應(yīng)不顯著,(1, 58) = 0.66,= 0.42。組別與聲音身份識別之間沒有顯著的交互作用,(2, 57) = 2.86,= 0.07, 具體見圖4(a)。
3.3.2 聲音識別的反應(yīng)時
單通道聽覺識別任務(wù)反應(yīng)時的分析結(jié)果顯示, 聲音身份識別的主效應(yīng)顯著((2, 56) = 20.95,< 0.001, partial η= 0.43), 具體為被試對自我聲音識別的反應(yīng)時(= 1071.93, 95% CI969.27, 1174.58)和異性他人聲音識別的反應(yīng)時(= 1080.06, 95% CI996.23, 1163.89)顯著低于對同性他人聲音識別的反應(yīng)時(= 1198.53, 95% CI1119.04, 1278.01), 自我聲音識別的反應(yīng)時與異性他人聲音無顯著差異; 組別的主效應(yīng)顯著((1, 57) = 43.54,< 0.001, partial η= 0.43), 患者組對聲音身份識別的反應(yīng)時(= 1393.64, 95% CI1282.12, 1505.16)顯著高于健康組(= 840.03, 95% CI714.39, 965.67); 組別與聲音身份識別之間存在顯著的交互作用((2, 56) =15.13< 0.001, partial η= 0.35), 簡單效應(yīng)分析發(fā)現(xiàn), 患者組的自我聲音識別的反應(yīng)時(= 1250.42, 95% CI1114.13, 1386.72)小于同性他人(= 1515.55, 95% CI1410.23, 1621.08)和異性他人(= 1414.94, 95% CI1303.65, 1526.24), 健康組對異性他人聲音識別的反應(yīng)時(= 745.17, 95% CI619.78, 870.55)小于自我聲音(= 893.42, 95% CI739.88, 1046.97)和同性他人聲音(= 881.50, 95% CI762.61, 1000.39), 具體見圖4(b)。
圖4 不同類型被試單通道聲音識別任務(wù)的結(jié)果
注:圖(a)中正確率的結(jié)果為平均數(shù), 豎線代表正確率的標(biāo)準(zhǔn)差; 圖(b)中反應(yīng)時的結(jié)果為平均數(shù), 豎線代表反應(yīng)時的標(biāo)準(zhǔn)差, *< 0.05, **< 0.01, ***< 0.001。
3.3.3 自我聲音識別的辨別力
自我聲音辨別力的分析結(jié)果為, 患者自我聲音識別的辨別力與健康被試無顯著差異,(58) = 0.5,= 0.62。
聽覺通道的聲音識別任務(wù)的結(jié)果表明, 精神分裂癥患者自我聲音的識別能力與健康被試沒有區(qū)別, 這與之前的自我和他人聲音識別的研究結(jié)果一致(Mingdi, Fumitaka, Ryu-Ichiro, & Hiroko, 2013; Conde, Gon?alves, óscar, & Pinheiro, 2018), 且患者在反應(yīng)時結(jié)果上表現(xiàn)出對自我聲音有更快的反應(yīng)。已有的研究表明, 聲音的音色就能反映個人的性別身份, 而不需要依賴音高或語義(Fellowes et al., 1997), 符合被試對異性聲音的識別好且快于同性聲音, 并且從結(jié)果看出, 所有被試都在異性他人聲音識別上有較好的表現(xiàn), 說明精神分裂癥患者具有分辨異性聲音的能力?;颊呗曇羯矸葑R別的反應(yīng)時均差于健康組, 這支持了以往對精神分裂癥患者自我?他人聲音加工異常的研究(Anouk, Prikken, & van Haren, 2015)。結(jié)合正確率、反應(yīng)時和辨別力的結(jié)果, 認(rèn)為精神分裂癥患者在單通道聽覺任務(wù)中具有自我聲音識別的能力, 并且能夠區(qū)分自我聲音和異性聲音。而健康被試的自我聲音和同性聲音識別的反應(yīng)時慢于異性聲音識別的反應(yīng)時可能是受到速度—準(zhǔn)確性權(quán)衡的影響。
從單通道的視覺和聽覺的自我識別任務(wù)結(jié)果可以看出, 精神分裂癥患者在單通道聽覺和視覺的自我身份識別上與健康被試無異。那么在雙通道的視聽任務(wù)中, 精神分裂癥自我面孔是否會影響到聽覺通道這一結(jié)果, 可進(jìn)一步驗(yàn)證精神分裂癥患者有自我面孔識別能力的假設(shè)。
在視聽整合任務(wù)中, 通過比較精神分裂癥患者和健康被試在不同面孔條件下對自我聲音、同性他人聲音和異性他人聲音識別任務(wù)中的差異, 分析精神分裂癥患者自我面孔對聲音識別的影響, 以證明患者自我面孔識別的能力。
4.2.1 被試
實(shí)驗(yàn)3被試來自實(shí)驗(yàn)1。
4.2.2 實(shí)驗(yàn)材料
用Adobe premiere 視頻處理軟件將實(shí)驗(yàn)1的視頻材料匹配上實(shí)驗(yàn)2的音頻材料。在自我面孔、同性面孔(2位)和異性面孔(2位)條件下, 分別匹配了2位陌生同性聲音和2位陌生異性聲音和自我聲音, 每位被試共17個視頻。
4.2.3 實(shí)驗(yàn)程序
視聽條件下聲音識別共有9種條件, 分別為自我面孔下的自我聲音、同性他人聲音和異性他人聲音, 同性面孔下的自我聲音、同性他人聲音和異性他人聲音, 異性面孔下的自我聲音、同性他人聲音和異性他人聲音, 每種條件為20個試次, 加上6個練習(xí)試次, 共有186個試次, 練習(xí)結(jié)束后隨機(jī)呈現(xiàn)。
實(shí)驗(yàn)過程同實(shí)驗(yàn)1和實(shí)驗(yàn)2, 被試需要在看到視頻刺激之后判斷耳機(jī)中聽到聲音身份, 實(shí)驗(yàn)流程圖見圖5。
圖5 實(shí)驗(yàn)三單一試次流程圖
注:實(shí)驗(yàn)開始屏幕中央呈現(xiàn)字號為36磅的黑色十字, 500 ms之后呈現(xiàn)有聲的視頻刺激, 被試按鍵反應(yīng)之后進(jìn)入實(shí)驗(yàn)緩沖的空屏。
研究中練習(xí)實(shí)驗(yàn)試次被排除。剔除了反應(yīng)時超過3個標(biāo)準(zhǔn)差的反應(yīng)試次(占總試次數(shù)的1.06%), 5名被試(3名患者正確率低于50%, 1名患者的反應(yīng)時超過3000 ms, 1名健康被試正確率低于50%)的數(shù)據(jù)被剔除。
采用信號檢測理論中的辨別力(= Z? Z)指標(biāo)來分析被試對不同面孔下自我聲音的辨別能力。
對被試的正確率和反應(yīng)時進(jìn)行了2 (組別:患者組, 健康組) × 3 (面孔身份:自我, 同性他人, 異性他人) × 3(聲音身份:自我, 同性他人, 異性他人)的重復(fù)測量方差分析。
對不同面孔下被試自我聲音的辨別力進(jìn)行了2 (組別:患者組, 健康組) × 3 (面孔身份:自我, 同性他人, 異性他人)的重復(fù)測量方差分析。
為驗(yàn)證自我面孔對精神分裂癥患者自我聲音識別的促進(jìn)和對他人聲音的識別的抑制作用, 進(jìn)一步對實(shí)驗(yàn)2和實(shí)驗(yàn)3的統(tǒng)計(jì)結(jié)果進(jìn)行跨實(shí)驗(yàn)的比較, 由于實(shí)驗(yàn)3為雙通道任務(wù), 其反應(yīng)時和單通道實(shí)驗(yàn)結(jié)果相比意義不大, 因此跨實(shí)驗(yàn)的比較只對自我面孔條件下2 (組別:患者組, 健康組) × 2 (通道:聽覺通道, 視聽雙通道) × 3(聲音身份:自我, 同性他人, 異性他人)正確率進(jìn)行重復(fù)測量方差分析。
4.3.1 視聽整合任務(wù)中聲音識別的正確率
視聽整合任務(wù)正確率分析結(jié)果顯示, 聲音身份識別的主效應(yīng)顯著((2, 57) = 22.74,< 0.001, partial η= 0.44), 被試對自我聲音識別的正確率(= 0.8, 95% CI0.75, 0.85)低于同性他人(= 0.89, 95% CI0.85, 0.92)和異性他人(= 0.95, 95% CI0.93, 0.98); 組別的主效應(yīng)顯著((1, 58) = 5.42,= 0.023, partial η= 0.09), 患者組對聲音身份識別的正確率(= 0.85, 95% CI0.81, 0.89)低于健康組(= 0.92, 95% CI0.87, 0.96); 不同面孔條件下聲音識別的主效應(yīng)不顯著,(2, 57) = 2.29,= 0.11。組別與面孔之間無顯著的交互作用,(2, 57) = 0.92,= 0.40。組別與聲音身份識別之間無顯著的交互作用,(2, 57) = 1.51,= 0.23。面孔身份與聲音身份識別之間存在顯著的交互作用((4, 55) = 8.15,< 0.001, partial η= 0.37), 被試在自我面孔條件下自我聲音(= 0.94, 95% CI0.92, 0.96)和異性聲音識別的正確率(= 0.84, 95% CI0.89, 0.99)高于同性聲音識別的正確率(= 0.78, 95% CI0.70, 0.87), 同性他人面孔條件下同性聲音(= 0.96, 95% CI0.91, 0.98)和異性聲音識別的正確率(= 0.96, 95% CI0.93, 0.99)高于自我聲音識別的正確率(= 0.68, 95% CI0.60, 0.76), 異性他人面孔條件下同性聲音(= 0.94, 95% CI0.91, 0.98)和異性聲音識別的正確率(= 0.97, 95% CI0.95, 0.98)高于自我聲音識別的正確率(= 0.78, 95% CI0.70, 0.85), 組別、面孔身份和聲音身份之間的交互作用邊緣顯著((4, 55) = 2.51,= 0.052, partial η= 0.15), 具體見圖6。
4.3.2 視聽整合任務(wù)中聲音識別的反應(yīng)時
視聽整合任務(wù)反應(yīng)時分析結(jié)果顯示, 聲音身份識別反應(yīng)時的主效應(yīng)顯著((2, 52) = 22.49,< 0.001, partial η= 0.46), 被試對自我聲音識別的反應(yīng)時(= 1020.92, 95% CI928.13, 1113.63)低于同性他人(= 1088.70, 95% CI1007.58, 1169.82), 對異性他人聲音識別的反應(yīng)時(= 926.88, 95% CI895.81, 1029.95)低于自我聲音; 組別的主效應(yīng)顯著((1, 53) = 36.94,< 0.001, partial η= 0.41), 患者組對聲音身份識別的反應(yīng)時(=1254.22, 95% CI1151.85, 1356.59)大于健康組(= 794.11, 95% CI681.97, 906.26); 不同面孔條件下聲音識別的主效應(yīng)不顯著,(2, 57) = 2.67,= 0.078。組別與不同面孔條件下的聲音識別之間無顯著的交互作用((2, 52) = 2.13,= 0.12), 組別與聲音身份識別之間有顯著的交互作用((2, 52) = 4.20,= 0.02, partial η= 0.14), 進(jìn)一步分析得出, 患者在對同性聲音識別的反應(yīng)時(=1313.18, 95% CI1203.80, 1422.56)大于自我聲音(= 1219.28, 95% CI1094.29, 1344.27)和異性聲音(= 1230.20, 95% CI1139.77, 1320.63); 面孔身份與聲音身份識別之間存在顯著的交互作用((4, 50) = 7.61,< 0.001, partial η= 0.38), 被試在同性他人面孔條件下對異性聲音識別的反應(yīng)時(= 975.41, 95% CI902.40, 1048.41)小于自我聲音(= 1096.64, 95% CI990.8, 1203.21)和同性聲音(= 1077.12, 95% CI991.28, 1162.95), 異性他人面孔條件下同性聲音識別的反應(yīng)時(= 1128.27, 95% CI1058.20, 1198.35)大于自我聲音(= 987.56, 95% CI901.18, 1073.96)和異性聲音識別的反應(yīng)時(= 911.92, 95% CI833.21, 0.63), 組別、面孔身份和聲音身份之間沒有顯著的交互作用,(4, 50) = 0.95,= 0.44, 具體見圖7。
圖6 不同面孔條件下聲音識別任務(wù)的正確率
注:圖中正確率的結(jié)果為平均數(shù), 豎線代表正確率的標(biāo)準(zhǔn)差, *< 0.05, **< 0.01, ***< 0.001。
4.3.3 視聽整合任務(wù)中聲音識別的辨別力
不同面孔條件下自我聲音辨別力的結(jié)果顯示, 不同面孔條件下自我聲音的辨別力有顯著的主效應(yīng)((2, 57) = 8.70,= 0.001, partial η= 0.23), 自我面孔(= 3.13, 95% CI2.81, 3.45)和異性面孔條件下自我聲音的辨別力(= 2.96, 95% CI2.60, 3.32)好于同性面孔條件下(= 2.52, 95% CI2.15, 2.90); 組別的主效應(yīng)顯著((1, 58) = 5.43,= 0.023, partial η= 0.09), 健康組對自我聲音的辨別力(= 3.22, 95% CI2.77, 3.66)好于患者組(= 2.53, 95% CI2.13, 2.90); 組別和面孔身份之間沒有顯著的交互作用,(2, 57) = 0.13,= 0.87。
4.3.4 聽覺和視聽整合的比較
跨實(shí)驗(yàn)正確率比較的結(jié)果顯示, 自我面孔條件下, 聲音識別有顯著的主效應(yīng)((2, 57) = 15.53,< 0.001, partial η= 0.35), 被試對自我聲音識別(= 0.92, 95% CI0.89, 0.94)的正確率高于同性他人聲音(= 0.82, 95% CI0.76, 0.87), 但低于異性他人聲音(= 0.96, 95% CI0.93, 0.99); 不同通道聲音識別無顯著的主效應(yīng),(1, 58) = 1.19,= 0.28; 組別無顯著主效應(yīng),(1, 58) = 1.19,= 0.28; 組別和面孔身份之間無顯著的交互作用,(1, 58) = 3.62,= 0.62。聲音身份和組別之間有顯著的交互作用((2, 57) = 4.06,= 0.02, partial η= 0.13), 進(jìn)一步分析得出患者對自我聲音(= 0.92, 95% CI0.89, 0.95)和異性聲音(= 0.92, 95% CI0.88, 0.96)識別的正確率高于同性聲音(= 0.76, 95% CI0.69, 0.84); 通道和聲音身份之間有顯著的交互作用((2, 57) = 4.35,= 0.02, partial η= 0.13), 進(jìn)一步分析得出視聽條件下的自我聲音識別正確率(= 0.94, 95% CI0.92, 0.96)要高于聽覺單通道下的自我聲音識別(= 0.89, 95% CI0.86, 0.93), 組別、通道和聲音身份之間沒有顯著的交互作用,(2, 57) = 0.86= 0.43, 具體見圖8。
視聽整合任務(wù)中, 被試在三種面孔條件下進(jìn)行了聲音識別任務(wù), 自我面孔條件下, 患者在同性他人聲音識別準(zhǔn)確度上明顯差于自我聲音識別和異性他人聲音識別, 自我聲音和異性聲音之間沒有差別, 但在單通道聽覺識別任務(wù)中, 患者對異性聲音識別的能力好于對自我聲音識別, 結(jié)合跨實(shí)驗(yàn)的比較結(jié)果可以看出, 精神分裂癥患者在自我面孔條件下對自我聲音識別有一定的提升, 而對于同性他人和異性他人的聲音識別都變差了, 可能是患者在視聽整合中視覺通道的自我面孔影響了聽覺身份識別, 健康組被試在自我面孔條件下相比于單通道自我聲音識別能力提升, 這與之前的研究結(jié)果一致(Candini et al., 2014), 自我面孔促進(jìn)了自我聲音的識別。在同性面孔和異性面孔條件下所有被試的自我聲音識別都受到了影響, 并且對異性聲音的識別和同性聲音識別之間沒有了差異, 這證明了視聽整合中面孔對聲音識別的影響(Peynircio?Lu et al., 2017), 這一點(diǎn)從自我聲音辨別力上也可看出, 面孔的確會影響自我聲音的辨別。在異性面孔條件下, 精神分裂癥患者自我聲音識別的能力差于健康被試, 這可能是患者受到異性面孔的干擾, 錯誤的拒絕了自我聲音。
圖7 不同面孔條件下聲音識別任務(wù)的反應(yīng)時
注:圖中反應(yīng)時的結(jié)果為平均數(shù), 豎線代表反應(yīng)時的標(biāo)準(zhǔn)差, *< 0.05, **< 0.01, ***< 0.001。
圖8 單通道和雙通道(自我面孔)條件下聲音識別任務(wù)的正確率
注:圖中正確率的結(jié)果為平均數(shù), 豎線代表正確率的標(biāo)準(zhǔn)差, *< 0.05, **< 0.01, ***< 0.001。
自我面孔是自我意識最獨(dú)特的標(biāo)志。通過對精神分裂癥患者自我面孔識別的研究, 能夠幫助人們更好地了解該疾病所導(dǎo)致患者自我意識的變化。本研究通過對精神分裂癥患者在不同通道下自我身份識別能力地探索, 共采用了單通道面孔識別任務(wù)、單通道聲音識別任務(wù)和不同面孔(自我、同性他人和異性他人)條件下聲音識別視聽整合任務(wù)驗(yàn)證精神分裂癥有自我面孔識別的能力。實(shí)驗(yàn)1探究精神分裂癥患者在動態(tài)面孔識別任務(wù)中自我面孔識別能力與健康被試的差異; 實(shí)驗(yàn)2探究精神分裂癥患者在聲音識別任務(wù)中自我聲音識別能力與健康被試的差異; 實(shí)驗(yàn)3在發(fā)現(xiàn)精神分裂癥患者有自我面孔識別能力的基礎(chǔ)上, 進(jìn)一步通過自我面孔、同性他人面孔和異性他人面孔條件下進(jìn)行聲音識別的視聽整合任務(wù)來證明精神分裂癥患者自我面孔的識別能力。結(jié)果發(fā)現(xiàn), 精神分裂癥患者在視覺動態(tài)自我面孔識別的能力上與健康被試沒有區(qū)別, 在單通道聲音識別中表現(xiàn)出對自我聲音和異性聲音的加工優(yōu)勢, 在視聽整合聲音識別任務(wù)中受到面孔的影響, 自我面孔促進(jìn)自我聲音的識別, 抑制同性聲音和異性聲音的識別。他人面孔(同性+異性)抑制自我聲音的識別。
精神分裂癥自我面孔識別研究是對患者自我意識研究的重要組成。本研究發(fā)現(xiàn)了精神分裂癥自我面孔識別的能力與正常人一致, 支持了精神分裂癥患者能進(jìn)行自我面孔識別的研究結(jié)果(Bortolon et al., 2016; Catherine et al., 2016)。Catherine (2016)等人對精神分裂癥患者面孔識別的過程進(jìn)行了眼動追蹤, 精神分裂癥患者在對自我面孔加工過程中注視時間相對正常被試更長, 但是面部檢測的模式與正常人沒有區(qū)別, 證明了精神分裂癥患者有自我面孔識別的能力。盡管之前的一部分研究認(rèn)為精神分裂癥患者可能會在識別自我和他人面孔時存在一定的困難, 但是最近的研究將這種面孔識別的困難解釋為認(rèn)知缺陷, 可能是精神分裂癥患者的注意力和處理速度的缺陷而導(dǎo)致面孔識別異常(Hayley, Peterman, Sohee, Suresh, & Olivia, 2013; Bortolon et al., 2015)。精神分裂癥患者在進(jìn)行面孔識別的過程中, 除了本身疾病導(dǎo)致的反應(yīng)速度變慢以外, Bortolon等人(2015)認(rèn)為患者面孔識別過程的時間較長可能是因?yàn)樗麄冃枰源藖韺γ娌康募?xì)節(jié)進(jìn)行加工, 從而形成準(zhǔn)確的判斷。
本研究的自我面孔識別任務(wù)還發(fā)現(xiàn)了精神分裂癥患者在識別自我面孔的反應(yīng)時間要快于同性他人和異性他人面孔。而以往的研究發(fā)現(xiàn)精神分裂癥患者識別性別面孔的能力和正常人沒有區(qū)別(Delerue, Vincent, Verfaillie, & Boucart, 2010), 那么, 在精神分裂癥患者能夠識別性別面孔的能力正常的基礎(chǔ)上, 對自我面孔加工的結(jié)果證明了精神分裂癥患者的自我面孔的加工優(yōu)勢。
總的來看, 在視覺通道的動態(tài)面孔識別條件下, 精神分裂癥患者能夠區(qū)別自我面孔和他人面孔, 并且和正常人一樣, 對自我面孔有更快地反應(yīng)。這種動態(tài)面孔似乎能從基礎(chǔ)上了解患者面孔識別的特點(diǎn), 更具有生態(tài)效度, 也為精神分裂癥患者具有自我意識提供了一個方面的證據(jù)。
聲音識別的研究一直以來都是一項(xiàng)較為復(fù)雜的工作, 這是由于聲音的傳導(dǎo)分為骨傳導(dǎo)和空氣傳導(dǎo), 傳導(dǎo)方式的多樣使得個體發(fā)出的聲音和聽到自己的錄音有一定的差異, 這也是很多人覺得錄制自己的聲音不像自己的原因(Maurer & Landis, 1990)。而精神分裂癥患者聲音識別的難度除了傳導(dǎo)方式導(dǎo)致的識別的困難外還有患者本身可能出現(xiàn)的較為常見的病理特征——幻聽的影響。實(shí)驗(yàn)2的研究發(fā)現(xiàn)精神分裂癥患者同正常人一樣, 能夠區(qū)別自我聲音和異性聲音, 這與之前的某些研究結(jié)果不同(Stephane, Kuskowski, McClannahan, Surerus, & Nelson, 2010; Pinheiro, Rezaii, Rauber, & Niznikiewicz, 2016), 可能的原因是這些研究是在有幻聽癥狀的精神分裂癥患者和健康被試的比較中發(fā)現(xiàn)了自我?他人聲音加工異常, 并且有研究還在中性聲音的基礎(chǔ)上加入了情緒性的聲音或是情緒性的語義。Pinheiro等人(2017)所研究的語義效價對精神分裂癥患者辨別自我?他人聲音影響的結(jié)果發(fā)現(xiàn), 雖然精神分裂癥患者在對自我和非我聲音處理的ERP結(jié)果上有差異, 患者在辨別消極詞匯的自我或非我聲音上對顯著(情緒或自我相關(guān))刺激增強(qiáng)的LPP (late positive potential)的振幅都要小于健康被試, 但是患者對無論是自我還是非我聲音識別的準(zhǔn)確性上同健康被試一樣高, 都達(dá)到了90%以上。本研究選取的被試是在住院治療后較為穩(wěn)定的精神分裂癥患者, 幻聽經(jīng)歷患者的癥狀有所減緩。不過, 患者識別自我聲音的能力雖然同健康被試沒有區(qū)別, 但是辨別的時間仍舊要長于健康被試, 并且患者拒絕同性他人聲音的能力較差, 這很可能受到之前幻聽經(jīng)驗(yàn)的影響。
此外, 精神分裂癥患者對于異性聲音識別的準(zhǔn)確率和反應(yīng)結(jié)果驗(yàn)證了患者對聲音生物屬性的識別同健康被試無異。患者分辨異性聲音的正確程度甚至高出自我聲音, 正如前言中所提到的性別作為社會身份信息, 患者能夠又快又好的分辨, 也許能夠證明精神分裂癥患者在性別識別方面的社會功能并未受到疾病的影響。
本研究中, 對聲音材料的選取只是簡單的一個單音節(jié)字母, 這是考慮到有些患者只會方言而無法用普通話表達(dá)語音材料。根據(jù)Conde (2018)等人研究, 當(dāng)聲音是單詞而不是簡單的發(fā)音時, 被試能更好的區(qū)別自我聲音, 精神分裂癥患者是否會在文本聲音材料中表現(xiàn)更好, 還需進(jìn)一步的驗(yàn)證。
精神分裂癥患者的某些癥狀被認(rèn)為與聲音處理的異常有關(guān)(Woodruff et al., 1997), 但有對視聽整合的fMRI研究發(fā)現(xiàn)被試即使在面對不發(fā)聲而只有唇動的情況下, 大腦中處理聽覺性言語的顳上回仍舊被激活(MacSweeney et al., 2000), 證實(shí)了視覺信息對于聽覺認(rèn)知的影響, 并且在對精神分裂癥患者視聽整合的研究中也發(fā)現(xiàn), 患者對模糊視覺的辨別也是通過激活多感官結(jié)構(gòu)來實(shí)現(xiàn)的(Surguladze et al., 2001)。本研究對精神分裂癥患者不同面孔條件下聲音識別的探索發(fā)現(xiàn), 自我面孔條件下患者對同性他人聲音辨別的能力相比于健康被試較差, 與單通道聲音識別任務(wù)比較, 患者在自我面孔下對自我聲音識別的準(zhǔn)確程度有所提高, 對同性他人聲音識別的準(zhǔn)確性有明顯的降低, 對異性聲音識別的能力也有降低, 雖然對于自我聲音識別準(zhǔn)確性的提高并不明顯, 但這有可能是在單通道聲音識別任務(wù)中患者自我聲音識別的能力已經(jīng)同健康被試沒有差異且略高于健康被試, 不過患者在自我面孔條件下對自我聲音識別的速度仍舊快于對異性聲音的識別。異性聲音和同性聲音識別的速度沒有差異, 而單通道聲音識別條件下異性聲音識別的速度快于同性聲音識別, 表明異性聲音識別可能也受到了面孔的影響。精神分裂癥患者在視聽任務(wù)中自我面孔促進(jìn)了其自我聲音的識別, 影響了他人聲音(同性+異性)的識別, 可能從另一方面佐證了精神分裂癥患者自我面孔識別能力的完好。
當(dāng)面孔的條件變?yōu)橥悦婵缀彤愋悦婵讜r, 可以看出患者對自我聲音識別的能力差于健康被試, 雖然健康被試在對自我聲音進(jìn)行辨別的時候反應(yīng)的時間增加了, 但是他們?nèi)耘f能夠做出正確的選擇, 精神分裂癥患者卻無法做到, 他們看見屏幕中的面孔為他人時, 即使耳機(jī)中播放了自己的聲音, 他們也會選擇這不是自己的聲音。精神分裂癥患者這種表現(xiàn)的原因除了其視聽整合可能的缺陷之外, 還有可能是精神分裂癥患者基于貝葉斯的推理過程出現(xiàn)問題所致, Jardri和Denève (2013)提出精神分裂癥患者的分層神經(jīng)網(wǎng)絡(luò)中興奮與抑制之間的失衡會導(dǎo)致一種病理性因果推斷, 稱為循環(huán)信念傳播(circular belief propagation), 患者自上而下和自下而上的信息被不斷地回彈, 會產(chǎn)生之前的信念被誤認(rèn)作直接的感官輸入。因此, 精神分裂癥患者可能會在視聽任務(wù)中根據(jù)所看到的面孔信息預(yù)測聽覺信息, 將這種預(yù)測作為自己真實(shí)聽到的聲音身份, 當(dāng)對這種自上而下的信息選擇過度自信時, 患者看到他人面孔刺激, 會十分肯定聽到的聲音不屬于自己。精神分裂癥患者很難根據(jù)先驗(yàn)的反饋來調(diào)整之后的選擇, 他們對于因果學(xué)習(xí)的結(jié)果似乎是不可動搖的(Jardri & Denève, 2013)。
研究中精神分裂癥患者在所有任務(wù)上的反應(yīng)時都長于健康被試, 這也是精神分裂癥患者的一種常見病理特征, 患者們由于長期服用神經(jīng)阻滯劑類藥物, 產(chǎn)生了許多方面的副作用, 其中就有如急性肌張力不全等對神經(jīng)系統(tǒng)方面的影響(Schatz, 1998), 致使患者反應(yīng)變慢, 這是精神分裂癥患者研究中常見的一種額外變量。
本研究發(fā)現(xiàn)在視覺通道條件下, 精神分裂癥患者有自我面孔識別的能力; 在聽覺通道條件下, 精神分裂癥患者有自我聲音識別的能力; 在視聽雙通道條件下, 視覺通道自我面孔的主導(dǎo)效應(yīng)超過正常人, 即自我面孔促進(jìn)了自我聲音識別, 抑制了對他人聲音的識別, 乃至?xí)嗟貙⑺寺曇籼搱?bào)為自我聲音, 驗(yàn)證了精神分裂癥患者有自我面孔識別的能力。此外, 在視聽雙通道條件下, 同性面孔和異性面孔都抑制了自我聲音的識別。
致謝:本文的英文摘要部分得到了西北師范大學(xué)Nicole L. Ross老師的支持, 特此鳴謝。
Adduri, C. A., & Marotta, J. J. (2009). Mental rotation of faces in healthy aging and Alzheimer's disease.(7), e6120.
Anouk, V. D. W., Prikken, M., & van Haren, N. E. M. (2015). Self-other integration and distinction in schizophrenia: A theoretical analysis and a review of the evidence., 220–237.
Arnal, L. H., Morillon, B., Kell, C. A., & Giraud, A. L. (2009). Dual neural routing of visual facilitation in speech processing.(43), 13445–13453.
Blank, H., Anwander, A., & Kriegstein, K. V. (2011). Direct structural connections between voice- and face-recognition areas.(36), 12906–12915.
Bortolon, C., Capdevielle, D., & Stéphane, R. (2015). Face recognition in schizophrenia disorder: A comprehensive review of behavioral, neuroimaging and neurophysiological studies., 79–107.
Bortolon, C., Capdevielle, D., Altman, R., Macgregor, A., Attal, J., & Raffard, S. (2017). Mirror self-face perception in individuals with schizophrenia: Feelings of strangeness associated with one's own image.,, 205–210.
Bortolon, C., Capdevielle, D., Salesse, R. N., & Raffard, S. (2016). Further insight into self-face recognition in schizophrenia patients: Why ambiguity matters., 215– 222.
Calvert, G. A., Hansen, P. C., Iversen, S. D., & Brammer, M. J. (2001). Detection of audio-visual integration sites in humans by application of electrophysiological criteria to the bold effect.(2), 427–438.
Candini, M., Zamagni, E., Nuzzo, A., Ruotolo, F., Iachini, T., & Frassinetti, F. (2014). Who is speaking? Implicit and explicit self and other voice recognition., 112–117.
Catherine, B., Delphine, C., Salesse, R. N., & Raffard Stéphane. (2016). Self-face recognition in schizophrenia: An eye-tracking study.
Conde, T., Gon?alves, óscar, F., & Pinheiro, A. P. (2018). Stimulus complexity matters when you hear your own voice: Attention effects on self-generated voice processing., 66–78.
de, G. B., Vroomen, J., Annen, L., Masthof, E., & Hodiamont, P. (2003). Audio-visual integration in schizophrenia.(2–3), 211–218.
Delerue, C., Laprévote, V., Verfaillie, K. & Boucart, M. (2010). Gaze control during face exploration in schizophrenia.(3), 245–249.
Fellowes, J. M., Remez, R. E., & Rubin, P. E. (1997). Perceiving the sex and identity of a talker without natural vocal timbre.(6), 839–849.
Graux, J., Gomot, M., Roux, S., Bonnet-Brilhault, F., & Bruneau, N. (2015). Is my voice just a familiar voice? An electrophysiological study.(1), 101–105.
Graux, J., Gomot, M., Roux, S., Bonnet-Brilhault, F., Camus, V., & Bruneau, N. (2013). My voice or yours? An electrophysiological study.(1)72–82.
Hayley, D., Peterman, J. S., Sohee, P., Suresh, S., & Olivia, C. (2013). Are patients with schizophrenia impaired in processing non-emotional features of human faces?.
Hur, J. W., Kwon, J. S., Lee, T. Y., & Park, S. (2014). The crisis of minimal self-awareness in schizophrenia: A meta- analytic review.,(1), 58–64.
Jardri, R., & Denève, S. (2013). Circular inferences in schizophrenia.(11), 3227–3241.
Joassin, F., Maurage, P., & Campanella, S. (2011). The neural network sustaining the cross-modal processing of human gender from faces and voices: An fMRI study.(2), 1654–1661.
Jr, G. G. (1970). Chimpanzees: Self-recognition.(3914), 86–87.
Keenan, J. P., Mccutcheon, B., Freund, S., Gallup, G. G. & Pascual-Leone, A. (1999). Left hand advantage in a self-face recognition task.(12), 1421–1425.
Lee, J., Kwon, J. S., Shin, Y. W., Lee, K. J., & Park, S. (2007). Visual self-recognition in patients with schizophrenia.(1-3), 215–220.
MacSweeney, M., Amaro, E., Calvert, G. A., Campbell, R., David, A. S., McGuire, P., ... Brammer, M. J. (2000). Silent speechreading in the absence of scanner noise: An event-related fMRI study.(8), 1729–1733.
Maguinness, C., & Kriegstein, K. V. (2017). Cross-modal processing of voices and faces in developmental prosopagnosia and developmental phonagnosia.(4–6), 644–657.
Martin, B., Giersch, A., Huron, C., & van Wassenhove, V. (2013). Temporal event structure and timing in schizophrenia: Preserved binding in a longer “now”.(2), 358–371.
Maurer, D., & Landis, T. (1990). Role of bone conduction in the self-perception of speech.(5), 226–229.
McGurk, H., & MacDonald, J. (1976). Hearing lips and seeing voices(5588), 746–748.
Mingdi, X., Fumitaka, H., Ryu-Ichiro, H., & Hiroko, H. (2013). Acoustic cues for the recognition of self-voice and other-voice..
Mishler, A., & Neider, M. (2016). Evidence for the redundant signals effect in detection of categorical targets.(12), 1024–1024.
Moe, A. M., & Docherty, N. M. (2014). Schizophrenia and the sense of self.(1), 161–168.
Parker, S. T., Mitchell, R. W., & Boccia, M. L. (Eds.). (1994).New York: Cambridge University Press.
Pearl, D., Yodashkin-Porat, D., Katz, N., Valevski, A., Aizenberg, D., Sigler, M., … Kikinzon, L. (2009). Differences in audiovisual integration, as measured by mcgurk phenomenon, among adult and adolescent patients with schizophrenia and age-matched healthy control groups.(2), 186–192.
Peng, X., Chang, R., Ren, G., Wang, A., & Tang, X. (2018). The interaction between exogenous attention and multisensory integration.(12), 2129–2140.
[彭姓, 常若松, 任桂琴, 王愛君, 唐曉雨. (2018). 外源性注意與多感覺整合的交互關(guān)系.(12), 2129–2140.]
Peynircio?Lu, Z. F., Brent, W., Tatz, J. R., & Wyatt, J. (2017). Mcgurk effect in gender identification: Vision trumps audition in voice judgments.(1), 59–68.
Pinheiro, A. P., Rezaii, N., Rauber, A., & Niznikiewicz, M. (2016). Is this my voice or yours? the role of emotion and acoustic quality in self-other voice discrimination in schizophrenia.(4),335–353.
Pinheiro, A. P., Rezaii, N., Rauber, A., Nestor, P. G., Spencer, K. M., & Niznikiewicz, M. (2017). Emotional self-other voice processing in schizophrenia and its relationship with hallucinations: ERP evidence.(9), 1252–1265.
Sass, L. A., & Parnas, J. (2003). Schizophrenia, consciousness, and the self.(3), 427–444.
Schatz, J. (1998). Cognitive processing efficiency in schizophrenia: Generalized vs domain specific deficits.(1), 41–49.
Seiferth, N. Y., Baar, S., & Schwabe, R. (2007). Self-face recognition in schizophrenia.(1-3), 264–272.
Stephane, M., Kuskowski, M., Mcclannahan, K., Surerus, C., & Nelson, K. (2010). Evaluation of speech misattribution bias in schizophrenia.(5), 741–748.
Stone, D. B., Coffman, B. A., Bustillo, J. R., Aine, C. J., & Stephen, J. M. (2014). Multisensory stimuli elicit altered oscillatory brain responses at gamma frequencies in patients with schizophrenia.
Surguladze, S. A., Calvert, G. A., Brammer, M. J., Campbell, R., Bullmore, E. T., Giampietro, V., & David A. (2001). Audio-visual speech perception in schizophrenia: An fMRI study.(1), 1–14.
Uddin, L. Q., Davies, M. S., Scott, A. A., Eran, Z., Bookheimer, S. Y., & Marco, I. (2008). Neural basis of self and other representation in autism: An fMRI study of self-face recognition.(10), e3526.
von Kriegstein, K., Dogan, O., Gruter, M., Giraud, A. L., Kell, C. A., Gruter, T., … Kleinschmidt, A. (2008). Simulation of talking faces in the human brain improves auditory speech recognition.(18), 6747–6752.
White, T. P., Wigton, R. L., Joyce, D. W., Tracy, B., Christian, F., & Nisha, W., … Shergill, S. S. (2014). Eluding the illusion? Schizophrenia, dopamine and the mcgurk effect.,565.
Woodruff, P. W., Wright, I. C., Bullmore, E. T., Brammer, M., Howard, R. J., … Williams, S. C. (1997). Auditory hallucinations and the temporal cortical response to speech in schizophrenia: A functional magnetic resonance imaging study.(12), 1676– 1682.
Zhang, L., Zhu, H., Xu, M., Jia, H. X., & Liu, J. (2012). Selective impairment in recognizing the familiarity of self faces in schizophrenia.(15), 1818–1823.
Looking for the lost self: Self-face recognition in schizophrenics
ZHOU Aibao; XIE Pei; PAN Chaochao; TIAN Zhe; XIE Junwei; LIU Jiong
(School of Psychology, Northwest Normal University; Lanzhou 730070, China) Key Laboratory of Behavior and Mental Health, Gansu Province, Lanzhou 730070, China) Tian Shui Third People's Hospital, Tianshui 741099, China)
lf-face recognition of patients with schizophrenia has always been a controversial topic. Different opinions exist about whether patients with schizophrenia have the ability of self-face recognition. One theory holds that the ability to recognize one’s own face is impaired in patients with schizophrenia, whereas others assert that the ability to process one’s face is intact. The most recent studies on self-face recognition in patients with schizophrenia are only based on visual self-face recognition. Therefore, in addition to using self-face recognition of a single modality, the audiovisual integration task may become a new way to explore schizophrenics’ self-face recognition.
In the present study, 34 patients with schizophrenia and 26 participants without schizophrenia were assigned to complete a dynamic single-modality self-face recognition task, self-voice recognition task, and audiovisual integration task. Experiment 1 was a 2 (participant type: schizophrenic, participants without schizophrenia) × 3 (face type: self, same gender, opposite gender) within-groups design. Experiment 2 was a 2 (participant type: schizophrenic, participants without schizophrenia) × 3 (voice type: self, same gender, opposite gender) within-groups design. Experiment 3 was a 2 (participant type: schizophrenic, participants without schizophrenia) × 3 (face type: self, same gender, opposite gender) × 3 (voice type: self, same gender, opposite gender) within-groups design, which aimed to explore the influence of participants’ self-face recognition on voice recognition in the audiovisual integration task.
Results showed that: 1) There was no significant difference in self-face recognition between patients with schizophrenia and participants without schizophrenia, and patients with schizophrenia could recognize their faces; 2) In self-voice recognition, there was no significant difference between patients with schizophrenia and participants without schizophrenia, and the ability of self-voice recognition in patients with schizophrenia was better than the voice recognition of others; 3) In the audiovisual integration task, voice recognition in patients with schizophrenia could be influenced by faces. There was no significant difference between patients with schizophrenia and participants without schizophrenia in the ability to recognize their own voices and self-face recognition. However, the ability of patients with schizophrenia to recognize voices of the same gender and opposite gender was not as good as that of participants without schizophrenia. Faces of the same and opposite gender could influence self-voice recognition.
It was found that patients with schizophrenia have the ability of self-face recognition and self-voice recognition. In the audiovisual integration task, faces could affect voice recognition, and self-face recognition could promote self-voice recognition but inhibit the recognition of other voices, including the same and opposite gender’s voices. Thus, using the approach of the audiovisual integration, it could be proved that the ability of self-voice recognition of patients with schizophrenia is intact.
self-face recognition; self-voice recognition; audio-visual integration; face dominance effect
2019-04-19
* 國家自然科學(xué)基金地區(qū)項(xiàng)目(31660281、31860285)資助。
周愛保和謝珮為共同第一作者。
周愛保, E-mail: zhouab@nwnu.edu.cn; 潘超超, E-mail: chaochaopan_nwnu@163.com
R395; B842
10.3724/SP.J.1041.2020.00184