• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    人工智能輔助的自閉癥早期患者的篩查與診斷*

    2022-10-13 07:15:06袁玉琢
    心理科學(xué)進(jìn)展 2022年10期
    關(guān)鍵詞:自閉癥嬰幼兒篩查

    袁玉琢 駱 方

    人工智能輔助的自閉癥早期患者的篩查與診斷*

    袁玉琢1駱 方2

    (1中國基礎(chǔ)教育質(zhì)量監(jiān)測協(xié)同創(chuàng)新中心;2北京師范大學(xué)心理學(xué)部, 北京 100875)

    自閉癥譜系障礙(Autistic Spectrum Disorders, ASD)的癥狀早在嬰幼兒期就會顯現(xiàn), 越早發(fā)現(xiàn), 越早干預(yù), 治療效果越好。傳統(tǒng)自閉癥早期篩查與診斷在評估方法、流程上存在局限, 無法滿足大規(guī)模篩查和診斷需求。隨著人工智能技術(shù)的快速發(fā)展, 使用智能化方法進(jìn)行自閉癥早期大規(guī)模無感篩查與診斷逐漸成為可能。近10年間, 國內(nèi)外對自閉癥智能化識別方法的探索在經(jīng)典任務(wù)行為、面部表情和情緒、眼動(dòng)、腦影像、運(yùn)動(dòng)控制和運(yùn)動(dòng)模式、多模態(tài)6個(gè)領(lǐng)域積累了豐富的研究成果。未來研究應(yīng)圍繞構(gòu)建國內(nèi)自閉癥早期智能醫(yī)學(xué)篩查與診斷體系, 開發(fā)針對嬰幼兒患者的篩查工具, 構(gòu)建融合多模態(tài)數(shù)據(jù)的自閉癥嬰幼兒智能化識別模型, 建立結(jié)合腦影像技術(shù)的自閉癥精細(xì)化診斷方法等方面來開展。

    自閉癥譜系障礙, 自閉癥早期篩查與診斷, 自閉癥智能化識別, 人工智能, 多模態(tài)數(shù)據(jù)

    1 引言

    根據(jù)美國精神醫(yī)學(xué)學(xué)會出版的第五版精神障礙診斷和統(tǒng)計(jì)手冊(the Diagnostic and Statistical Manual of Mental Disorders-5th edition, DSM-5), 自閉癥譜系障礙(Autism spectrum disorder, ASD)也被稱為孤獨(dú)癥, 被定義為一種由神經(jīng)系統(tǒng)發(fā)育失調(diào)導(dǎo)致的廣泛發(fā)育障礙疾病(Hodges et al., 2020), 以社交(溝通)障礙和重復(fù)刻板的行為及興趣為主要臨床表現(xiàn), 多見于兒童。

    據(jù)世界衛(wèi)生組織報(bào)道的2019年流行病學(xué)調(diào)查估計(jì), 全世界每160名兒童就有1名罹患自閉癥, 呈逐年上升的趨勢。美國疾病控制與預(yù)防中心報(bào)告, 2016年美國的自閉癥發(fā)病率為1/68, 至2020年美國的自閉癥發(fā)病率已經(jīng)達(dá)到1/59 (Maenner et al., 2020)。在中國, 受限于起步晚和專業(yè)診斷人員的稀缺, 尚無權(quán)威的兒童自閉癥流行病學(xué)數(shù)據(jù)。2014年首次發(fā)布的《中國自閉癥兒童發(fā)展?fàn)顩r報(bào)告》提到中國兒童自閉癥患病率約為1%, 2020年對中國6~12歲兒童自閉癥流行病學(xué)的首次全國性評估研究顯示, 自閉癥患病率為0.70% (Zhou et al., 2020)。根據(jù)《中國孤獨(dú)癥(自閉癥)教育康復(fù)行業(yè)發(fā)展?fàn)顩r報(bào)告Ⅲ》推算, 我國自閉癥患者超過1000萬, 其中0~12歲患者超過200萬, 以每年近20萬的速度增長。可見, 過去被視為罕見癥的自閉癥, 目前已經(jīng)位居我國幼兒殘疾發(fā)病率第二位, 僅次于智力障礙。

    自閉癥難以治愈、伴隨終生, 不僅給患者個(gè)人造成痛苦, 給家庭和社會帶來的負(fù)擔(dān)也逐漸凸顯。2015年, 美國根據(jù)自閉癥患病率發(fā)布了自閉癥社會經(jīng)濟(jì)投入估算報(bào)告, 報(bào)告指出, 自閉癥引發(fā)的醫(yī)療衛(wèi)生成本、非醫(yī)療衛(wèi)生成本和生產(chǎn)力合計(jì)全國GDP的0.994%~2.009%, 預(yù)計(jì)到2025年, 將上升至0.982%~3.6% (Liu et al., 2015)。我國有調(diào)查表明, 自閉癥兒童的撫養(yǎng)成本(19582.4元)明顯高于智力障礙兒童(6391元)與肢體殘疾兒童(16410元) (Dawson et al., 2018)??梢姼甙l(fā)的自閉癥對社會造成了極大的負(fù)擔(dān), 急需科學(xué)方法介入緩解其癥狀, 提高個(gè)人生活能力, 降低家庭和社會負(fù)擔(dān)。

    自閉癥越早發(fā)現(xiàn), 越早干預(yù), 預(yù)后效果越好(Matson et al., 2008)。尤其嬰幼兒的神經(jīng)系統(tǒng)可塑性較高, 給予及時(shí)、適當(dāng)?shù)脑缙诟深A(yù)可以提高患者的適應(yīng)能力和認(rèn)知能力(徐云, 楊健, 2014)。但是, 父母往往在患兒2~3歲時(shí)才能發(fā)現(xiàn)明顯的發(fā)育異常和行為表現(xiàn), 患兒從半歲到2歲間的輕微甚至是明顯的異常往往因父母的經(jīng)驗(yàn)不足而被忽略。此外, 自閉癥的診斷主要依據(jù)醫(yī)生的經(jīng)驗(yàn), 從父母發(fā)現(xiàn)兒童異常再到確診又耗費(fèi)很長的時(shí)間, 缺乏便捷和客觀有效的診斷手段。因此, 開展針對嬰幼兒的大規(guī)模自閉癥早期無感篩查、發(fā)現(xiàn)風(fēng)險(xiǎn)案例后及早進(jìn)入診斷流程是非常必要的。近10年, 計(jì)算機(jī)視覺技術(shù)、語音技術(shù)、深度學(xué)習(xí)等人工智能和大數(shù)據(jù)挖掘技術(shù)已被有效應(yīng)用于心理健康測評、自動(dòng)化醫(yī)療診斷、疾病干預(yù)和康復(fù)領(lǐng)域, 為嬰幼兒自閉癥的篩查和診斷帶來了取得重大突破的可能性。將人工智能技術(shù)用于自閉癥自動(dòng)化、精細(xì)化篩查診斷有助于降低篩查門檻, 在家庭或社區(qū)就可以實(shí)現(xiàn)大規(guī)模低齡嬰幼兒群體的無感篩查, 提前做好疾病預(yù)警和加速干預(yù)流程。本文首先回顧自閉癥嬰幼兒的傳統(tǒng)篩查與診斷工具, 然后對近10年自閉癥嬰幼兒(0~3歲)智能化識別的研究進(jìn)展進(jìn)行分類梳理。其他年齡段的自閉癥兒童和青少年的新型智能化識別研究也進(jìn)行綜述, 這些研究所使用的數(shù)據(jù)采集手段和智能化識別技術(shù)對自閉癥嬰幼兒的智能化識別具有較高的啟發(fā)和借鑒意義。最后, 本文探討了尚待解決的問題和未來的研究方向, 為建立我國人工智能輔助的自閉癥早期篩查與診斷體系提供新思路。

    2 傳統(tǒng)的自閉癥篩查與診斷方法

    自閉癥最早的癥狀出現(xiàn)在生命的前一兩年(Matson & Goldin, 2014), 50%的父母報(bào)告患兒在2歲時(shí)表現(xiàn)出癥狀, 90%的父母報(bào)告患兒在3歲時(shí)表現(xiàn)出明顯的癥狀(Matson et al., 2008), 而診斷的年齡通常為3歲(Gilmore et al., 2018; Pierce et al., 2019)。自閉癥患兒一旦錯(cuò)失最佳干預(yù)時(shí)期, 后續(xù)治療手段對康復(fù)效果將大打折扣。因此, 很有必要盡早診斷和干預(yù)治療。近年來, 國內(nèi)外學(xué)者均提倡自閉癥的早期篩查, 即對18~24個(gè)月的幼兒進(jìn)行初級篩查, 一旦發(fā)現(xiàn)可疑癥狀, 即刻進(jìn)入重點(diǎn)篩查。若篩查結(jié)果顯示存在風(fēng)險(xiǎn), 則需轉(zhuǎn)入早期診斷模式, 盡早進(jìn)行干預(yù)以獲得最佳康復(fù)效果(Hyman et al., 2020)??梢哉f, 早期篩查是早期診斷的基礎(chǔ), 早期診斷是早期干預(yù)的前提。

    傳統(tǒng)的自閉癥早期篩查方法主要分為基于量表形式的撫養(yǎng)者報(bào)告或?qū)I(yè)觀察和基于游戲任務(wù)的觀察檢查表兩種形式。測評工具最早可適用于患兒6個(gè)月, 且年齡跨度通常至少6個(gè)月(見表1)。常用的一級篩查工具有幼兒自閉癥篩查表(Checklist for Autism in Toddlers, CHAT)、CHAT修改版(M- CHAT)、廣泛性發(fā)展障礙篩查測驗(yàn)(Pervasive Developmental Disorder Screening Test, PDDST), 自閉癥特質(zhì)早期篩查表(the Early Screening for Autistic Traits, ESAT)等, 適用于基層保健場所, 大多由撫養(yǎng)者報(bào)告即可完成。其中, CHAT是經(jīng)過最嚴(yán)格的研究和驗(yàn)證、適用于嬰幼兒的自閉癥檢測工具(尤娜, 楊廣學(xué), 2006)。常用的二級篩查工具有自閉癥行為核查表(Autism Behavior Checklist, ABC), 兒童自閉癥特質(zhì)的嬰幼兒篩查表(Baby and Infant Screen for Children with Autism Traits, BISCUIT), 2歲兒童自閉癥篩選測驗(yàn)(Screening Tool for Autism in Two-Year-Olds, STAT), 嬰兒自閉癥觀察量表(the Autism Observation Scale for Infants, AOSI)等。二級篩查一般需要幼兒在場, 由專業(yè)人員觀察檢測。

    自閉癥診斷的主要依據(jù)是美國精神學(xué)會(American Psychiatri Association, APA)精神障礙診斷和統(tǒng)計(jì)手冊第五版(DSM-5), 常用的診斷工具是被稱為“金標(biāo)準(zhǔn)”的自閉癥譜系障礙診斷觀察表第二版(Autism Diagnostic Observation Schedule, Second Edition, ADOS-2)和自閉癥診斷訪談量表?修訂版(Autism Diagnostic Interview-Revised, ADI- R) (Akshoomoff et al., 2006; Lord et al., 1994)。前者是在標(biāo)準(zhǔn)化活動(dòng)情境下對嬰幼兒直接進(jìn)行觀察, 后者是對撫養(yǎng)者的半結(jié)構(gòu)化訪談, 兩者均由經(jīng)過培訓(xùn)的??漆t(yī)生作出評估。

    部分傳統(tǒng)的自閉癥早期篩查與診斷工具得到廣泛認(rèn)可, 但在評估方式和使用效率上存在局限性, 無法滿足大規(guī)模的篩查和診斷需求, 主要原因有:1)自閉癥早期癥狀及風(fēng)險(xiǎn)信號需要依賴??漆t(yī)生的評斷, 對觀察者有專業(yè)性要求(Taylor et al., 2017)。評估者的專業(yè)水平、機(jī)構(gòu)的醫(yī)療資源、文化背景差異均會影響自閉癥評定結(jié)果的信度和效度(de Belen et al., 2020)。2)自閉癥的確診需要經(jīng)歷撫養(yǎng)者判斷、醫(yī)生訪談、臨床觀察和評估等, 過程耗時(shí)且費(fèi)用高昂(Wiggins et al., 2006)。3)自閉癥癥狀表征非常廣泛, 部分臨床癥狀在2、3歲前并無穩(wěn)定表現(xiàn)(陳順森等, 2011)。此外, 受環(huán)境、經(jīng)濟(jì)因素等限制, 醫(yī)生僅能基于有限的項(xiàng)目做出診斷, 無法對患兒在自然狀態(tài)下的行為展開長期觀察, 在這種情況下, 對癥狀的評估往往是不充分的。因此, 目前亟待研究者提出新的技術(shù)手段, 在保證結(jié)果達(dá)到一定準(zhǔn)確度的前提下簡化自閉癥的篩查與診斷流程, 縮減評估所需的時(shí)間與人力成本。

    表1 ASD早期篩查常用工具表

    目前, 人工智能技術(shù)輔助的自動(dòng)化醫(yī)療診斷領(lǐng)域發(fā)展迅速, 例如, 依托計(jì)算機(jī)視覺的面部檢測技術(shù)已實(shí)現(xiàn)超過30多種疾病的癥狀識別或預(yù)診斷, 其中包括多種精神類疾病, 如注意缺陷與多動(dòng)障礙和抑郁(Thevenot et al., 2017)等。應(yīng)用智能化手段識別自閉癥嬰幼兒的優(yōu)勢在于:1)可獲取自然的、多維度的、多模態(tài)的行為數(shù)據(jù)進(jìn)行綜合分析, 保證評估結(jié)果的有效性和客觀性, 提供可靠的預(yù)診斷信息, 輔助醫(yī)生的臨床診斷; 2)計(jì)算機(jī)視覺技術(shù)能捕捉肉眼無法觀察和量化的自閉癥嬰幼兒的細(xì)微動(dòng)作, 有效識別異常行為或發(fā)現(xiàn)新的自閉癥早期風(fēng)險(xiǎn)標(biāo)志, 相比人工篩查和診斷的成本和侵入性低, 可應(yīng)用于家庭或社區(qū)醫(yī)院環(huán)境。

    3 自閉癥早期患者的智能化識別技術(shù)

    盡管研究者已發(fā)現(xiàn)諸多自閉癥的核心癥狀和早期風(fēng)險(xiǎn)標(biāo)志, 但低齡幼兒很難確診, 主要在于自閉癥譜系障礙在不同亞型、具體癥狀和嚴(yán)重程度上表現(xiàn)出較大差異。并且, 自閉癥嬰幼兒的行為表現(xiàn)通常伴隨早期發(fā)育特征(Vyas et al., 2019), 同時(shí)依賴非自閉癥的影響因素, 例如認(rèn)知功能和年齡等(Li et al., 2019)。然而, 依靠撫養(yǎng)者報(bào)告早期癥狀易存在回憶偏差。臨床醫(yī)生的觀察有限, 需要患兒予以配合, 存在取樣偏差。如果能匯總自閉癥嬰幼兒的大量行為, 特別是自然狀態(tài)下的日常行為, 使用更為客觀的方法綜合患兒的多方信息作出評估, 將極大提高篩查與診斷的準(zhǔn)確性和可靠性。

    計(jì)算機(jī)視覺、智能傳感器、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等人工智能技術(shù)已逐漸成功用于自閉癥的早期預(yù)警(Hazlett et al., 2017)和機(jī)器輔助治療(Zheng et al., 2015)。同時(shí), 自閉癥的診斷和治療領(lǐng)域每天都產(chǎn)生大量數(shù)據(jù), 基礎(chǔ)數(shù)據(jù)的積累量已達(dá)到一定規(guī)模, 合理使用歷史數(shù)據(jù)可有效提高自閉癥患兒的診療效率(廖夢怡等, 2021)。本文根據(jù)系統(tǒng)評價(jià)和元分析(PRISMA)指南(Moher et al., 2009), 分別對Web of Science、PubMed、IEEE Xplore、ProQuest數(shù)據(jù)庫中發(fā)表于2010~2020年間的文獻(xiàn)以關(guān)鍵字——“自閉癥譜系障礙” (“自閉癥”)和“機(jī)器學(xué)習(xí)” (“深度學(xué)習(xí)”, “計(jì)算機(jī)視覺”, “情感計(jì)算”)為主題詞進(jìn)行搜索, 去除重復(fù)項(xiàng)后初步檢索到741篇文獻(xiàn)。結(jié)合“自閉癥早期患者的智能化識別”的研究主題, 對所有文獻(xiàn)按固定標(biāo)準(zhǔn)進(jìn)行篩選, 包括:1)關(guān)注人類自閉癥, 剔除動(dòng)物類研究; 2)主題集中在智能化技術(shù)在自閉癥篩查、診斷中的應(yīng)用, 而非以干預(yù)、治療為主的情境; 3)剔除含有基因、生物標(biāo)記物等生物、醫(yī)學(xué)類的研究; 4)對象以嬰幼兒、兒童、青少年患者為主, 自閉癥成年及老年患者非特殊原因不予考慮; 5)研究目的是自閉癥檢測或自閉癥經(jīng)典測評任務(wù)中的風(fēng)險(xiǎn)行為, 而非衍生行為(如, 自閉癥患者的自傷行為、睡眠等)。最終獲得576篇目標(biāo)文獻(xiàn), 見圖1。從上述文獻(xiàn)發(fā)現(xiàn), 10年間自閉癥自動(dòng)化識別的探索基于不同類型的數(shù)據(jù)展開, 可依此歸納為6個(gè)研究子領(lǐng)域:1)基于經(jīng)典任務(wù)行為數(shù)據(jù)的識別(114篇); 2)基于面部表情和情緒數(shù)據(jù)的識別(144篇); 3)基于眼動(dòng)數(shù)據(jù)的識別(18篇); 4)基于腦影像數(shù)據(jù)的識別(169篇); 5)基于運(yùn)動(dòng)控制和運(yùn)動(dòng)模式數(shù)據(jù)的識別(58篇); 6)基于多模態(tài)數(shù)據(jù)的識別(73篇)。本文根據(jù)文獻(xiàn)引用率排序法和滾雪球法選擇重點(diǎn)文獻(xiàn)并進(jìn)行文獻(xiàn)擴(kuò)充, 最終結(jié)合80篇重點(diǎn)文獻(xiàn)進(jìn)行綜述, 下文將從這6個(gè)領(lǐng)域逐一展開介紹。

    3.1 基于經(jīng)典任務(wù)行為數(shù)據(jù)的自動(dòng)識別

    自閉癥早期診斷的第一步就是對早期潛在危險(xiǎn)信號的篩選、評估和處理(陳順森等, 2011)。長期以來, 自閉癥的早期異常行為在回顧性研究(父母報(bào)告、家庭錄像分析)和前瞻性研究、早期篩查量表、臨床診斷中得到充分研究和驗(yàn)證, 積累了較多經(jīng)典的臨床評估任務(wù)及相應(yīng)的行為觀測指標(biāo), 如AOSI中的叫名反應(yīng)任務(wù)、視覺追蹤任務(wù)、注意脫離任務(wù)等。近年來, 研究者針對自閉癥早期經(jīng)典任務(wù)中的異常行為提出自動(dòng)化檢測模型。研究者一般采用非接觸式視覺系統(tǒng)及傳感器技術(shù)(電子設(shè)備前置攝像, RGB攝像機(jī), Kinect 3D體感攝影機(jī)等)采集患兒在任務(wù)中的面部表情變化、頭部運(yùn)動(dòng)、肢體運(yùn)動(dòng)、聲學(xué)等多維度行為數(shù)據(jù), 提出基于任務(wù)的異常行為檢測算法和自動(dòng)化評估模型, 以替代傳統(tǒng)的人工觀察與評估, 提高篩查效率。下文以叫名反應(yīng)任務(wù)、視覺注意力任務(wù)為例, 介紹行為數(shù)據(jù)采集技術(shù), 行為數(shù)據(jù)采集過程、異常行為檢測算法與預(yù)測模型。

    圖1 文獻(xiàn)調(diào)研流程圖

    “叫名反應(yīng)” (Response to name, RTN)是自閉癥早期篩查量表和臨床診斷中最常出現(xiàn)的經(jīng)典任務(wù)之一。嬰兒自4~6個(gè)月開始就對自己的名字有反應(yīng), 在聽到自己的名字時(shí)會有選擇地轉(zhuǎn)動(dòng)頭部, 表明他們已領(lǐng)會到名字有打招呼的含義(Imafuku et al., 2014)。叫名反應(yīng)需要專業(yè)人員現(xiàn)場觀察記錄或事后注釋, 根據(jù)計(jì)分手冊或診斷標(biāo)準(zhǔn)進(jìn)行評估。事實(shí)上, 自閉癥患兒在叫名反應(yīng)中的非典型(atypical)行為可量化為可計(jì)算的觀測指標(biāo), 如患兒的眼睛注視、頭部姿態(tài)變化、名字呼叫后的反應(yīng)時(shí)長等等。例如, Bidwell (2014)等人分析了公開標(biāo)注的多模態(tài)二元行為數(shù)據(jù)集(Multimodal Dyadic Behavior Dataset, MMDB)中的50組15~30月齡的幼兒參與“叫名反應(yīng)”的音視頻, 其通過天花板高架式Kinect、前置攝像機(jī)與追蹤器估計(jì)幼兒頭部姿態(tài)變化。研究中, 幼兒的頭部偏航(yaw)夾角和聽到姓名后的反應(yīng)潛伏時(shí)長作為預(yù)測幼兒對社交刺激(呼喚姓名)積極(消極)反應(yīng)的行為指標(biāo), 不同分類器的預(yù)測效果略有差別, 最高精確率(precision)和召回率(recall)達(dá)到89.4%和83.3%。Wang等人(2019)對“叫名反應(yīng)”任務(wù)構(gòu)建了包含實(shí)驗(yàn)流程、數(shù)據(jù)采集和自動(dòng)評估的自閉癥輔助篩查系統(tǒng), 有助于縮減篩查的人力成本, 有望在醫(yī)療欠發(fā)達(dá)地區(qū)發(fā)揮作用。研究者在實(shí)驗(yàn)環(huán)境搭建了由Kinect和2個(gè)RGB攝像機(jī)組成的多傳感器系統(tǒng), 可同時(shí)對幼兒(平均年齡2歲)的面部、注視、姿態(tài)和語音等行為信息進(jìn)行采集和集成, 實(shí)現(xiàn)行人檢測和骨骼點(diǎn)提取(Microsoft Kinect SDK)、面部表情識別(Baltru?aitis et al., 2015)、面部標(biāo)記點(diǎn)的檢測與追蹤(Baltru?aitis et al., 2013)、眼球中心定位(Wang et al., 2018)和頭部姿態(tài)估計(jì)(Baltru?aitis et al., 2016)等。研究者基于眼球中心定位和頭部姿態(tài)估計(jì)算法, 使用人眼注視方向的旋轉(zhuǎn)角度和注視持續(xù)時(shí)間作為預(yù)測幼兒積極(消極)反應(yīng)的行為指標(biāo), 平均分類準(zhǔn)確率(accuracy)為92.7%。

    非典型注意力的評估也是最常見于自閉癥早期篩查與診斷工具的經(jīng)典任務(wù)之一。目前, 基于自閉癥幼兒的視音頻、圖像等能夠自動(dòng)識別多種非典型的注意力特征, 例如, 不流暢的視覺追蹤(Zwaigenbaum et al., 2005)、人臉面部的注視頻次低(Ozonoff et al., 2010)、注意力分離能力弱(Elsabbagh et al., 2013)等。Hashemi等人(2014)使用面部檢測與追蹤技術(shù)對AOSI中兩種非典型視覺注意力任務(wù)進(jìn)行自動(dòng)評估, 分別是:1)注意脫離:從兩個(gè)競爭性視覺刺激中分離注意力并移動(dòng)視線; 2)視覺追蹤:視覺跟蹤移動(dòng)的物體橫向穿過中線。研究者使用GoPro Hero運(yùn)動(dòng)攝像機(jī)記錄了12名5~18月齡的自閉癥風(fēng)險(xiǎn)嬰兒的多個(gè)實(shí)驗(yàn)試次, 基于偏航(yaw)和俯仰(pitch)的頭部姿態(tài)運(yùn)動(dòng)評估視覺注意。結(jié)果表明, 自動(dòng)評估與專家的評分者信度(Cohen’s Kappa)為0.75, 遠(yuǎn)高于非專家評分(0.27~0.37)。Bovery等人(2019)開發(fā)了移動(dòng)設(shè)備端的實(shí)驗(yàn)任務(wù)測量自閉癥幼兒的非典型注意力, 左右屏分別呈現(xiàn)社交與非社交的影像刺激, 前置攝像記錄104名16~31月齡幼兒觀看刺激時(shí)的面部動(dòng)態(tài)影像。研究者通過計(jì)算51個(gè)面部標(biāo)記點(diǎn)(Hashemi et al., 2015)與3D標(biāo)準(zhǔn)人臉模型(3D canonical face model)間的旋轉(zhuǎn)參數(shù)估計(jì)頭部姿態(tài)(Fischler & Bolles, 1981), 結(jié)合頭部偏航(yaw)夾角和眼球虹膜位置估計(jì)注意方向, 進(jìn)而測量自閉癥幼兒對不同刺激的注意時(shí)間、注意偏好和注意轉(zhuǎn)移。Campbell等(2019)采用上述類似的實(shí)驗(yàn)范式對16~31月齡自閉癥幼兒的非典型注意和“叫名反應(yīng)”進(jìn)行自動(dòng)評估。結(jié)果表明, 叫名反應(yīng)的自動(dòng)評估與專家評分具有較高一致性(ICC = 0.84, 95% CI 0.67~0.91), 敏感性(sensitivity)為96%, 特異性(specificity)為38%。

    現(xiàn)有研究集合了多種自閉癥的經(jīng)典臨床評估任務(wù), 開發(fā)了集任務(wù)、數(shù)據(jù)采集、算法于一體的移動(dòng)端應(yīng)用程序, 形成集成化、低成本、可擴(kuò)展的自閉癥自動(dòng)篩查工具, 應(yīng)用范圍從實(shí)驗(yàn)室研究擴(kuò)展至初級保健院、學(xué)校、家庭等社會醫(yī)療場所, 已實(shí)現(xiàn)自閉癥幼兒的非典型情緒、社會參照、社會性微笑、叫名反應(yīng)等社會互動(dòng)行為的自動(dòng)檢測,已具有一定的預(yù)測效果(Hashemi et al., 2015; Hashemi et al., 2018)。然而, 目前僅涉及較為簡單的評估任務(wù), 尚未涉及復(fù)雜任務(wù), 因?yàn)橛變涸谶@類任務(wù)中的反應(yīng)模式更加多元, 大大增添了自動(dòng)化檢測的難度。例如, ADOS中的“泡泡游戲”是為評估幼兒和他人“共享樂趣”的能力, 需要首先建立“共享樂趣”對應(yīng)的行為維度體系, 只有同時(shí)結(jié)合幼兒的表情、眼神、自發(fā)動(dòng)作、聲音等多模態(tài)時(shí)序數(shù)據(jù)進(jìn)行協(xié)同建模才有可能達(dá)到較好的檢測效果。

    3.2 基于面部表情和情緒數(shù)據(jù)的自動(dòng)識別

    社交溝通障礙是自閉癥患兒區(qū)別于典型發(fā)展群體的重要特征, 表現(xiàn)在社會情感互動(dòng)和非言語溝通兩個(gè)方面, 如受損的面部表情模仿能力、面部表情多樣性及程度等, 是臨床常用的面部行為指標(biāo)。使用面部表情分析技術(shù)能夠克服人類感知的局限性, 快速、客觀地自動(dòng)識別自閉癥。

    近年來, 計(jì)算機(jī)視覺技術(shù)的進(jìn)步推動(dòng)了人工智能情緒識別的發(fā)展, 其主要任務(wù)是基于面部圖像或視頻開發(fā)算法識別人臉情緒標(biāo)簽, 如基本情緒分類(de Belen et al., 2020)。研究者嘗試構(gòu)建用來檢測異常情緒認(rèn)知和表達(dá)的算法, 并將其應(yīng)用到自閉癥嬰幼兒的自動(dòng)化識別中。然而, 受限于自閉癥患者取樣的特殊性, 樣本規(guī)模普遍偏小, 但正常人群的情緒識別領(lǐng)域積累了較多模型和公開數(shù)據(jù)集, 因此, 一種研究思路是先基于正常人群數(shù)據(jù)集的面部特征遷移或調(diào)整已有模型。例如, Han等人(2018)基于FERET和Cohn-Kanade (CK+)正常人臉數(shù)據(jù)集, 抽取并比較了正常人群和自閉癥兒童的面部表情特征差異, 提出了一種基于稀疏編碼(Sparse coding)的特征遷移學(xué)習(xí)算法。在自閉癥兒童與機(jī)器人互動(dòng)的過程中, 實(shí)時(shí)采集面部數(shù)據(jù)并識別情緒類型, 平均準(zhǔn)確率(accuracy)在80%以上。

    研究者在實(shí)驗(yàn)室或自然環(huán)境下采集嬰幼兒靜態(tài)面部圖像或動(dòng)態(tài)面部視頻, 構(gòu)建自閉癥嬰幼兒的情緒識別或自閉癥分類模型, 已達(dá)到較為精準(zhǔn)的預(yù)測效果。例如, 社會性微笑是自閉癥早期的重要風(fēng)險(xiǎn)標(biāo)志(畢小彬等, 2020), 特別是母嬰互動(dòng)中嬰兒的微笑是檢測自閉癥的關(guān)鍵信號, 在臨床和家庭環(huán)境中自動(dòng)識別嬰兒微笑有助于提升早期篩查效率。例如, Tang等人(2018)基于母嬰互動(dòng)時(shí)34名6~24月齡嬰兒(自閉癥高風(fēng)險(xiǎn)11人)的面部視頻數(shù)據(jù)集(RCLA&NBH_Smile, 含77000人工標(biāo)注視頻幀)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)自動(dòng)檢測視頻中的嬰兒笑容, 平均準(zhǔn)確率(accuracy)為87.16%。Li等人(2019)發(fā)現(xiàn)面部表情、面部動(dòng)作單元、情緒喚醒度和情緒效價(jià)是自閉癥分類的重要面部特征。研究者通過移動(dòng)設(shè)備前置攝像記錄105名兒童觀看視頻時(shí)的面部動(dòng)態(tài)影像, 使用基于公開數(shù)據(jù)集AffectNet和EmotioNet預(yù)訓(xùn)練的CNN模型和時(shí)序特征抽取方法獲得面部特征表示, 建立二分類預(yù)測模型,自閉癥分類的敏感性(sensitivity)和特異性(specificity)為0.76和0.69。Shukla等人(2017)提出從面部圖像自動(dòng)檢測發(fā)育障礙的方法, 包括自閉癥譜系障礙、腦癱、胎兒酒精綜合癥、唐氏綜合癥、智力障礙、早衰等等。研究者使用微調(diào)的CNN模型——Alex Net對兩千余張人臉圖像獲得面部特征表示, 使用支持向量機(jī)(Support Vector Machine, SVM)構(gòu)建不同疾病的二分類任務(wù)。結(jié)果表明, 自閉癥分類的平均精確率(precision)為93.33%, 且模型對不同疾病的分類優(yōu)于人工分類(非專家)的結(jié)果。

    在對自閉癥患者面部情緒的分類基礎(chǔ)上, 另有研究深入探討了自閉癥患者面部表情的發(fā)生過程。研究者通過面部動(dòng)作單元編碼等方法檢測、追蹤人眼無法觀察到的微觀面部運(yùn)動(dòng)特征, 對自閉癥患者產(chǎn)生面部表情的能力進(jìn)行量化評估, 如檢測個(gè)體是否開始產(chǎn)生表情、產(chǎn)生特定表情時(shí)面部各區(qū)域和肌肉群的激活情況, 這有利于自閉癥的精細(xì)診斷和對點(diǎn)干預(yù), 對自閉癥嬰幼兒的智能化篩查及其面部表情特征研究具有啟發(fā)性。Leo等人(2019)提出對自閉癥患者表達(dá)面部情緒的能力進(jìn)行計(jì)算分析的方法, 構(gòu)建了自動(dòng)化評估框架, 包括4個(gè)算法模塊:人臉檢測、人臉特征點(diǎn)檢測與追蹤、面部動(dòng)作單元強(qiáng)度估計(jì)、面部表情分析。17名自閉癥患者(6~13歲)和10名典型發(fā)展幼兒(26~35月齡)產(chǎn)生4種基本情緒的面部動(dòng)態(tài)影像作為分析材料。結(jié)果表明, 該方法能夠分別較為準(zhǔn)確地預(yù)測上述兩類群體表達(dá)特定情緒時(shí)的專家評定分?jǐn)?shù)(二分類任務(wù)), 自閉癥患者情緒識別的精確率(precision)和召回率(recall)為0.90和0.85。此外, 結(jié)果發(fā)現(xiàn)自閉癥患者在表達(dá)快樂、恐懼和憤怒情緒時(shí)能同時(shí)使用上面部和下面部, 而表達(dá)悲傷情緒時(shí)的表情主要集中在下面部。Guha等人(2016)使用運(yùn)動(dòng)捕捉技術(shù)(motion capture technique, mocap)對9~14歲的高功能自閉癥(high functioning autism)患者面部表情的細(xì)微動(dòng)態(tài)特征進(jìn)行研究, 要求被試模仿固定序列的面部情緒, 同時(shí)使用6個(gè)紅外運(yùn)動(dòng)捕捉相機(jī)以每秒100幀的速度記錄32個(gè)面部標(biāo)記點(diǎn)的運(yùn)動(dòng)。多尺度熵方法(multiple scale entropy, MSE)分析個(gè)體面部動(dòng)態(tài)復(fù)雜性發(fā)現(xiàn), 高功能性自閉癥患者表達(dá)情緒時(shí)面部表情的動(dòng)態(tài)復(fù)雜性較低, 缺乏豐富的面部表情模式和變異性, 差異主要集中在眼部區(qū)域。Ahmed和Goodwin (2017)則著眼于面部表情計(jì)算分析在自閉癥患者的計(jì)算機(jī)輔助教學(xué)情境中的應(yīng)用, 研究如何通過面部表情變化測量學(xué)習(xí)投入水平, 以達(dá)到輔助教學(xué)的目的。研究者基于自閉癥青少年(平均年齡約12歲)學(xué)習(xí)過程中計(jì)算機(jī)前置攝像記錄的面部反應(yīng)視頻, 使用面部動(dòng)作編碼系統(tǒng)(Facial Action Coding System, FACS)對特定情緒引發(fā)的面部動(dòng)作單元進(jìn)行編碼, 以計(jì)算機(jī)表情識別工具(Computer Expression Recognition Toolbox, CERT)得到視頻中個(gè)體頭部朝向屏幕的時(shí)間比和面部動(dòng)作單元的激活狀態(tài)作為監(jiān)控學(xué)習(xí)投入的行為和情緒指標(biāo)。

    自閉癥患者的面部情緒識別和面部表情特征一直是自閉癥研究的熱點(diǎn)。自閉癥面部表情和情緒的自動(dòng)化識別能夠解決面部人工編碼耗費(fèi)時(shí)間長, 難以分析大樣本、實(shí)時(shí)分析的局限。目前, 該領(lǐng)域的研究可根據(jù)表情產(chǎn)生的類型(自發(fā)表情, 模仿表情)、情緒誘發(fā)刺激類型(視頻, 感官刺激, 社交互動(dòng))、數(shù)據(jù)(靜態(tài)面部圖像, 動(dòng)態(tài)面部視頻)、面部表情自動(dòng)化評估的目標(biāo)(定性, 定量)劃分為不同的子領(lǐng)域。同時(shí), 研究成果可用于開發(fā)“治療機(jī)器人”, 實(shí)時(shí)、自動(dòng)識別自閉癥幼兒的情緒并進(jìn)行對點(diǎn)干預(yù), 輔助臨床醫(yī)生“閱讀”自閉癥兒童的面部表情, 提高診療的有效性。最后, 建立面部表情和情緒識別算法的第一步通常是對采集的大量面部視頻幀進(jìn)行標(biāo)注, 而完全采用人工標(biāo)注費(fèi)時(shí)費(fèi)力, 從眾包平臺(crowdsourcing platform)的外包標(biāo)注又往往會存在評分者一致性低下的問題。Kalantarian等人(2019)提出了3種自動(dòng)標(biāo)記算法對兒童(平均年齡為8.5歲)面部表情視頻幀進(jìn)行6種基本情緒的自動(dòng)標(biāo)注, 包括:厭惡、中立、驚奇、害怕、憤怒和快樂, 結(jié)果表明前4種情緒的自動(dòng)標(biāo)記效果相對較好。

    3.3 基于眼動(dòng)數(shù)據(jù)的自動(dòng)識別

    眼神交流是非言語溝通的關(guān)鍵要素, 表示個(gè)體對社交互動(dòng)的興趣、關(guān)注和參與, 是識別語言障礙、情感狀態(tài)及自閉癥早期風(fēng)險(xiǎn)標(biāo)志的重要指標(biāo)。目前, 已有充分證據(jù)表明自閉癥幼兒與典型發(fā)展群體的注視方式存在顯著差異, 如非典型的凝視、眼神交流和共同注意(Chong et al., 2017); 對社交和非社交圖像的偏好不同(Campbell et al., 2014; Chawarska et al., 2013; Shi et al., 2015)。

    眼動(dòng)追蹤是測量社會性知覺和社會性偏好的常用方法之一, 其能夠捕獲眼神的運(yùn)動(dòng)軌跡, 非常適合對感知異常的自閉癥患兒進(jìn)行研究。傳統(tǒng)的眼動(dòng)追蹤主要有兩種方式, 其一是佩戴頭戴式眼動(dòng)設(shè)備, 低齡幼兒需要較長時(shí)間適應(yīng); 其二是視點(diǎn)追蹤(viewpoint tracking), 能追蹤的視線范圍限制于屏幕, 僅適用于高度受控的實(shí)驗(yàn)室研究, 無法測量自閉癥患兒在社交環(huán)境中的注視行為(Chong et al., 2017)。因此, 研究者開始探索使用非接觸性的眼動(dòng)追蹤技術(shù), 如基于圖像中的人眼外觀(Lu et al., 2014)或構(gòu)建人眼數(shù)學(xué)模型(Li & Li, 2015), 同時(shí)對眼動(dòng)數(shù)據(jù)中蘊(yùn)含的心理因素進(jìn)行分析。例如, Syeda等人(2017)研究了自閉癥患者(5~17歲)在處理人臉情緒圖像時(shí)的面部掃描模式和情緒識別能力。研究者使用安裝于筆記本的眼動(dòng)儀(Tobii EyeX Controller)采集自閉癥患者和典型發(fā)展個(gè)體在觀看6種基本情緒的人臉圖像時(shí)的眼動(dòng)數(shù)據(jù)。研究發(fā)現(xiàn), 自閉癥患者在掃描面部時(shí)較少關(guān)注面部核心特征(眼睛、鼻子、嘴巴), 因而很難正確感知他人情緒。Chrysouli等人(2018)基于正常人群和自閉癥患者的眼睛凝視影像數(shù)據(jù)集(MaTHiSiS)識別學(xué)習(xí)者在人機(jī)交互學(xué)習(xí)情境中的情緒狀態(tài), 通過構(gòu)建兩階段的雙流CNN模型(two- stream CNN), 融合眼部連續(xù)圖像幀間的光流信息(optical flow)和靜態(tài)圖像幀的空間信息識別個(gè)體當(dāng)前是否處于投入、無聊或沮喪的情緒狀態(tài)。近年來, 研究者評估自閉癥兒童與撫養(yǎng)者面對面互動(dòng)狀態(tài)下的眼神接觸時(shí)通常采用POV (point-of- view)相機(jī)采集眼部數(shù)據(jù), 即要求成年人佩戴頭戴式攝像頭記錄兒童的注視行為。例如, Chong等人(2017)基于POV相機(jī)采集的數(shù)據(jù), 提出檢測自閉癥兒童在與撫養(yǎng)人自然互動(dòng)過程中的臉部朝向和眼神接觸的算法。他們基于100名自閉癥兒童(3~6歲)和典型發(fā)展幼兒(18~36月齡)的、包含156個(gè)互動(dòng)片段、共22小時(shí)的影像數(shù)據(jù)集, 開發(fā)了一種端到端的深度學(xué)習(xí)框架(Pose-Implicit CNN)檢測兒童的眼神接觸, 結(jié)果優(yōu)于其它模型(AlexNet, PEEC, GazeLocking), 精確率(precision)為0.78, 召回率(recall)為0.80。

    傳統(tǒng)方法收集自閉癥低齡幼兒的眼動(dòng)數(shù)據(jù)幾乎不可能在大規(guī)模篩查中施行, 其一是需在高度受控的實(shí)驗(yàn)室環(huán)境中借助專業(yè)儀器測量; 其二要求被試長時(shí)間持續(xù)注視屏幕, 不適合對低齡幼兒進(jìn)行測試, 因而研究者很難在自然社交互動(dòng)中(如, 幼兒與撫養(yǎng)者)評估眼神接觸或注視。而上述非侵入性的眼動(dòng)測量技術(shù)將有利于自閉癥早期眼動(dòng)特征的相關(guān)研究, 如通過攝像機(jī)記錄幼兒的面部(主要是眼睛)和頭部姿態(tài)變化, 據(jù)此分析幼兒注視的位置和凝視時(shí)長。需注意的是, 不同于實(shí)驗(yàn)室的標(biāo)準(zhǔn)化環(huán)境, 幼兒在家庭或保健院等場所中采集的視頻數(shù)據(jù)可能存在面部遮擋、頭部位置偏移的問題, 需進(jìn)行視頻預(yù)處理和校正等。

    3.4 基于腦影像數(shù)據(jù)的自動(dòng)識別

    自閉癥的精準(zhǔn)診斷對自閉癥患者的及早干預(yù)和及時(shí)治療至關(guān)重要。目前國際上開展了大量針對自閉癥精準(zhǔn)診斷的研究, 力圖找出自閉癥的行為學(xué)、遺傳學(xué)和影像學(xué)標(biāo)志物(Hong et al., 2020; Lord et al., 2020; Talbott & Miller, 2020; Wolfers et al., 2019), 同時(shí)結(jié)合人工智能技術(shù), 實(shí)現(xiàn)對自閉癥的客觀診斷。然而, 這些研究絕大多數(shù)是針對兒童和成人的(Dickinson et al., 2021), 針對嬰幼兒的自閉癥智能診斷研究尚少。

    腦影像技術(shù)的發(fā)展大大推進(jìn)了人類對于自閉癥病理機(jī)制的理解, 腦影像技術(shù)與人工智能技術(shù)的結(jié)合為自閉癥的早期精準(zhǔn)診斷提供了新的契機(jī)。當(dāng)前自閉癥診斷難、診斷準(zhǔn)確率不高的主要原因在于自閉癥本身的病理機(jī)制存在異質(zhì)性, 而腦影像技術(shù)在獲取腦結(jié)構(gòu)及功能精細(xì)信息進(jìn)而捕捉不同病理亞型的特異性特征方面具有很大優(yōu)勢(Emerson et al., 2017)。因而, 基于腦影像的自閉癥客觀診斷研究受到極大關(guān)注。目前廣泛應(yīng)用于自閉癥精細(xì)化診斷的影像技術(shù)主要包括腦電(EEG)、結(jié)構(gòu)磁共振成像(sMRI)和功能磁共振成像(fMRI)。

    結(jié)構(gòu)磁共振成像(sMRI)能夠捕捉自閉癥嬰幼兒細(xì)微的腦結(jié)構(gòu)變異, 因而在自閉癥的早期診斷中有良好表現(xiàn)。Hazlett等人(2017)在Nature發(fā)表文章, 報(bào)告了他們基于sMRI進(jìn)行自閉癥早期診斷的研究:基于6~12月齡的148個(gè)嬰幼兒樣本的sMRI數(shù)據(jù), 他們提取了皮層厚度、皮層表面積和腦體積等特征, 結(jié)合深度學(xué)習(xí)算法構(gòu)建了自閉癥早期診斷模型, 最終達(dá)到了81%的敏感性(sensitivity)和88%的特異性(specificity)。腦電(EEG)的高時(shí)間分辨率便于其精準(zhǔn)反映自閉癥嬰幼兒的腦功能時(shí)空共變模式的異常, 可為自閉癥的早期診斷提供有效特征。Gabard-Durnam等人(2019)基于171例3~36月齡的嬰幼兒的縱向EEG數(shù)據(jù), 結(jié)合Logistic回歸對自閉癥患者和正常個(gè)體進(jìn)行分類(類別標(biāo)簽為樣本36月齡時(shí)的診斷結(jié)果), 研究發(fā)現(xiàn)出生后第一年的EEG功率動(dòng)態(tài)波動(dòng)(相較第二、三年)對于自閉癥早期診斷最為有效(正確率達(dá)91%)。Dickinson等人(2021)基于65例3月齡樣本的EEG數(shù)據(jù), 結(jié)合支持向量回歸算法, 對樣本在18月齡時(shí)測得的自閉癥行為評分進(jìn)行預(yù)測, 預(yù)測值和真實(shí)值的相關(guān)系數(shù)高達(dá)0.76。功能磁共振成像(fMRI)同時(shí)具備高的時(shí)間分辨率(相對于正電子發(fā)射斷層成像(PET)、單光子發(fā)射計(jì)算機(jī)斷層成像(SPECT))和空間分辨率(相對于EEG), 能夠提供極為豐富的腦功能活動(dòng)及腦功能網(wǎng)絡(luò)的靜態(tài)和動(dòng)態(tài)特性信息, 為自閉癥的客觀診斷提供有效特征。Emerson等人(2017)基于59例6月齡樣本的靜息狀態(tài)fMRI數(shù)據(jù), 提取功能連接特征, 以樣本在24月齡是否被診斷為自閉癥作為標(biāo)簽, 用支持向量機(jī)構(gòu)建分類模型, 診斷敏感性(sensitivity)為81.8%, 特異性(specificity)高達(dá)100%。

    借助腦影像數(shù)據(jù)有望實(shí)現(xiàn)針對嬰幼兒的自閉癥精準(zhǔn)診斷, 但出于嬰幼兒樣本數(shù)據(jù)的獲取較兒童及成人樣本更加困難, 以及研究人員學(xué)術(shù)背景的限制(自閉癥的智能診斷需要醫(yī)學(xué)、神經(jīng)影像學(xué)以及計(jì)算機(jī)科學(xué)三個(gè)學(xué)科領(lǐng)域人員的通力協(xié)作), 目前國際上針對嬰幼兒的自閉癥智能診斷的研究尚處于起步階段, 具體表現(xiàn)在:第一, 已有研究主要致力于從正常對照樣本中區(qū)分出自閉癥, 還沒有對自閉癥進(jìn)行更為精細(xì)的分級和分型研究。大量研究表明自閉癥是一種高度異質(zhì)性疾病(Elsabbagh et al., 2013), 在對嬰幼兒是否患有自閉癥作出定性判斷之外, 如果能提供自閉癥嚴(yán)重程度的判斷、所屬的病理亞型等信息, 將大大有助于為患者制定更為適宜的個(gè)性化治療方案。第二, 多數(shù)研究僅提取了較為粗略的腦影像特征, 未充分發(fā)掘影像數(shù)據(jù)中包含的有效信息。人腦是自然界最為復(fù)雜的系統(tǒng), 自閉癥患者的腦功能異常必然表現(xiàn)為復(fù)雜時(shí)空共變信息的異常。目前針對自閉癥診斷的研究都還是基于靜態(tài)功能連接、局部一致性等較為簡單的特征開展的, 近期研究表明自然狀態(tài)fMRI更適于嬰幼兒腦功能研究(Xie et al., 2021), 而腦功能網(wǎng)絡(luò)的動(dòng)態(tài)屬性能提供比靜態(tài)功能連接更為豐富和有效的腦功能信息(Eslami et al., 2021)。第三, 當(dāng)前研究多采用經(jīng)典的機(jī)器學(xué)習(xí)算法, 還未充分利用性能優(yōu)越的深度學(xué)習(xí)算法。目前只有較少的研究采用深度學(xué)習(xí)技術(shù)來建模, 例如, Xu等人(2020)基于功能性近紅外光譜(fNIRS)時(shí)序數(shù)據(jù)構(gòu)建長短期記憶模型(LSTM)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)合的深度學(xué)習(xí)模型對自閉癥兒童和典型發(fā)展兒童(平均年齡約9歲)進(jìn)行分類預(yù)測, 結(jié)果表明, 模型表現(xiàn)出高度的分類準(zhǔn)確性, 敏感性(sensitivity)和特異性(specificity)分別為97.1%和94.3%, 此外, 準(zhǔn)確率相比原有模型提升8%, 證明使用深度學(xué)習(xí)模型能夠有效提升自閉癥患兒識別的準(zhǔn)確性。

    3.5 基于運(yùn)動(dòng)控制和運(yùn)動(dòng)模式數(shù)據(jù)的自動(dòng)識別

    非典型的運(yùn)動(dòng)控制和運(yùn)動(dòng)模式也是自閉癥的早期特征。Landa等人(2006)發(fā)現(xiàn), 自閉癥患兒早在14個(gè)月和24個(gè)月時(shí)在MSEL測驗(yàn)(Mullen Scale of Early Learning)中的精細(xì)動(dòng)作和粗大動(dòng)作得分較低。此外, 許多研究報(bào)告了自閉癥患兒在俯臥、仰臥、爬行、走路上存在姿勢異常、動(dòng)作不協(xié)調(diào)、運(yùn)動(dòng)控制能力弱的現(xiàn)象(Esposito et al., 2009; Teitelbaum et al., 1998)。這些發(fā)現(xiàn)提供了基于嬰幼兒時(shí)期的非典型運(yùn)動(dòng)模式識別和預(yù)測自閉癥的支持性證據(jù)。傳統(tǒng)方法對自閉癥患兒的運(yùn)動(dòng)功能的評價(jià)通?;诟改笀?bào)告和專家現(xiàn)場觀察, 編碼方法和評價(jià)標(biāo)準(zhǔn)通常針對某個(gè)具體的研究場景, 缺乏效度驗(yàn)證(Ozonoff et al., 2008)。現(xiàn)有研究大多基于自閉癥兒童的運(yùn)動(dòng)視頻構(gòu)建自閉癥早期運(yùn)動(dòng)控制和運(yùn)動(dòng)模式的自動(dòng)檢測方法。例如, Dawson等人(2018)基于視頻的面部自動(dòng)化檢測技術(shù)評估自閉癥幼兒與典型發(fā)展幼兒在自發(fā)性注意狀態(tài)下的頭部姿勢控制能力。研究者在實(shí)驗(yàn)室采集了106名16~31月齡的自閉癥幼兒和典型發(fā)展幼兒觀看動(dòng)態(tài)泡泡、機(jī)械兔子等視頻時(shí)的面部動(dòng)態(tài)影像, 通過識別、追蹤、計(jì)算相鄰視頻幀中既定面部標(biāo)記點(diǎn)的坐標(biāo)位移對頭部運(yùn)動(dòng)進(jìn)行量化。結(jié)果表明, 自閉癥幼兒的頭部運(yùn)動(dòng)速率顯著高于典型發(fā)展群體, 即自閉癥幼兒在注意狀態(tài)下難以保持頭部的中線位置。Martin等人(2018)采用相同實(shí)驗(yàn)范式采集了2.5~6.5歲兒童觀看社交和非社交刺激視頻時(shí)的上半身視頻錄像, 不同于計(jì)算面部標(biāo)記點(diǎn)位移的方法, 該研究使用Zface (http://zface.org/)算法(Jeni et al., 2015), 該算法被證明有高計(jì)算效率和精度(Jeni & Cohn, 2016), 可逐個(gè)對2D視頻幀實(shí)時(shí)形成高密度的3D面部形狀, 進(jìn)行三維尺度上的頭部運(yùn)動(dòng)追蹤, x、y、z軸分別對應(yīng)頭部俯仰(pitch)、偏航(yaw)、側(cè)傾(roll)。通過計(jì)算連續(xù)視頻序列各坐標(biāo)軸的角位移和角速度來量化頭部運(yùn)動(dòng)強(qiáng)度, 研究發(fā)現(xiàn)自閉癥兒童在觀看社交刺激時(shí),頭部運(yùn)動(dòng)水平和移速均高于典型發(fā)展兒童, 疑似自閉癥兒童通過頭部運(yùn)動(dòng)調(diào)節(jié)對社交刺激的感知。

    許多研究還嘗試基于視頻序列中的運(yùn)動(dòng)特征建立自閉癥兒童的自動(dòng)識別模型。Zunino等人(2018)關(guān)注自閉癥兒童(平均年齡約9.8歲)的抓握行為, 分析對象包含兒童抓握、放置、傳遞水瓶的視頻動(dòng)作序列數(shù)據(jù)集, 平均長度83幀。研究者使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)和長短期記憶網(wǎng)絡(luò)(Long short-Term Memory, LSTM)構(gòu)建自閉癥分類模型, 不僅能判斷視頻幀中的行為影像是否為自閉癥個(gè)體, 同時(shí)基于LSTM的隱藏層的時(shí)空表征信息和內(nèi)部門機(jī)制, 還可輸出可視化的注意力地圖(normalized attention map), 即在圖像幀上表示出對自閉癥分類有作用的、提供重要判別線索的位置, 具備可解釋性, 為臨床工作者進(jìn)一步提供支持性的輔助信息。Vyas等人(2019)使用自閉癥遠(yuǎn)程診斷服務(wù)NODA項(xiàng)目(https://behaviorimaging. com/)的數(shù)據(jù), 包含家長記錄的兒童日?;顒?dòng)視頻555個(gè), 均已由專家標(biāo)記出自閉癥診斷結(jié)果。在運(yùn)動(dòng)序列特征的表征方面, 采用預(yù)訓(xùn)練的2D Mask R-CNN深度學(xué)習(xí)網(wǎng)絡(luò)(Girdhar et al., 2018)識別圖像幀的15個(gè)人體部位關(guān)鍵點(diǎn)執(zhí)行姿態(tài)估計(jì), 并應(yīng)用粒子濾波器(Particle filter)對判斷缺失的關(guān)鍵點(diǎn)進(jìn)行插補(bǔ)(Arulampalam et al., 2002); 使用Pose Motion (PoTion Representation)表征為身體關(guān)鍵點(diǎn)隨時(shí)間變化的RGB熱圖(Choutas et al., 2018), 并輸入最終的CNN分類器中。結(jié)果顯示, 分類的準(zhǔn)確率(accuracy)、精確率(precision)和召回率(recall)分別是72.4%、72%和92%。該研究通過關(guān)鍵點(diǎn)軌跡刻畫身體姿勢的變化, 使用具有解釋性的淺層行為信息且模型可輸出身體關(guān)鍵點(diǎn)變化熱圖, 幫助研究者直觀理解自閉癥兒童的運(yùn)動(dòng)特點(diǎn)。

    隨著硬件設(shè)備技術(shù)的快速發(fā)展, 慣性運(yùn)動(dòng)傳感器、陀螺儀和磁力計(jì)已經(jīng)被集成到智能手機(jī)、平板電腦和智能穿戴設(shè)備中, 用于采集個(gè)體的運(yùn)動(dòng)數(shù)據(jù)。Anzulewicz等人(2016)探索了嚴(yán)肅游戲場景下檢測自閉癥及其運(yùn)動(dòng)模式的方法。研究招募了37名3~6歲的自閉癥兒童和45名典型發(fā)展兒童, 兒童手動(dòng)操作平板游戲過程中, 通過設(shè)備的觸摸屏和內(nèi)置慣性傳感器(三軸加速度計(jì)、陀螺儀、磁力計(jì))記錄手部運(yùn)動(dòng)數(shù)據(jù)。研究者基于原始傳感器數(shù)據(jù)獲得的共262個(gè)特征構(gòu)建多種機(jī)器學(xué)習(xí)自閉癥分類模型, 十折交叉驗(yàn)證的結(jié)果顯示, 正則化貪心森林算法(Regularized Greedy Forest, RGF)達(dá)到最佳分類效果, 敏感性(sensitivity)和特異性(specificity)為83%和85%。此外, 研究發(fā)現(xiàn)自閉癥兒童在玩游戲時(shí)的手部撞擊力、手勢壓力、用力的分配、屏幕點(diǎn)擊速率等與典型發(fā)展兒童存在顯著差異。

    目前針對自閉癥的多種非典型運(yùn)動(dòng)模式的自動(dòng)檢測研究已有較大進(jìn)展, 從涉及粗大的姿態(tài)、肢體動(dòng)作到精細(xì)化的頭部、手部動(dòng)作, 包括:身體運(yùn)動(dòng)的整體姿態(tài)變化、手部運(yùn)動(dòng)(抓握、放置、傳遞物品)、注意狀態(tài)下的頭部運(yùn)動(dòng)(頭部運(yùn)動(dòng)速率、平衡性)等。人體運(yùn)動(dòng)數(shù)據(jù)的采集對硬件設(shè)備具有較高要求, 隨著智能傳感器技術(shù)的不斷發(fā)展, 研究者可采用智能穿戴設(shè)備和體感設(shè)備采集并記錄個(gè)體的運(yùn)動(dòng)數(shù)據(jù), 對低齡幼兒和兒童的非典型動(dòng)作進(jìn)行自動(dòng)化識別, 以此對自閉癥早期運(yùn)動(dòng)發(fā)展規(guī)律進(jìn)行深入研究。

    3.6 基于多模態(tài)數(shù)據(jù)的自動(dòng)識別

    自閉癥兒童的心理、生理和認(rèn)知狀態(tài)可同時(shí)通過面部表情、身體姿態(tài)、眼睛注視、語音、文字以及生理信號等多種維度信息進(jìn)行反映。并且, 由于實(shí)際測量環(huán)境的異質(zhì)性和臨床樣本的稀缺性, 單模態(tài)數(shù)據(jù)往往無法攜帶足夠的信息用于識別(Chen & Zhao, 2019)。目前, 自動(dòng)化識別的趨勢是采用多模態(tài)數(shù)據(jù)融合思路, 對多種模態(tài)數(shù)據(jù)的相關(guān)特性或中間決策進(jìn)行融合分析, 獲得更有價(jià)值的數(shù)據(jù)或高層信息以提高預(yù)測的準(zhǔn)確性(Poria et al., 2017), 性能優(yōu)于單模態(tài)建模(de Belen et al., 2020)。例如, Chen和Zhao (2019)分別采用拍攝任務(wù)(Photo-Taking task)和圖像觀察任務(wù)(Image-Viewing task), 基于自閉癥患者異常的注意偏好建立自閉癥自動(dòng)化識別模型。在建模階段, 研究者借鑒跨模態(tài)檢索(cross-modal retrieval)思想, 將兩種任務(wù)的模態(tài)數(shù)據(jù)(眼動(dòng), 圖像)融合, 建立共同的預(yù)測模型實(shí)現(xiàn)多模態(tài)信息的特征表征和信息互補(bǔ)。結(jié)果表明, 在兩種任務(wù)上, 多模態(tài)信息建模方法的預(yù)測性能相較于傳統(tǒng)單模態(tài)建模均有提升, 拍攝任務(wù)的預(yù)測正確率從76%提高至84%, 圖像觀察任務(wù)的正確率從97%提高至99%。廖夢怡等人(2021)構(gòu)建了融合多模態(tài)數(shù)據(jù)的3~6歲自閉癥兒童智能化識別方法。研究者使用眼動(dòng)數(shù)據(jù)、面部表情數(shù)據(jù)、認(rèn)知得分?jǐn)?shù)據(jù)以及認(rèn)知反應(yīng)時(shí)數(shù)據(jù), 利用數(shù)據(jù)差異性分析進(jìn)行特征選擇, 根據(jù)數(shù)據(jù)來源和時(shí)間同步性將數(shù)據(jù)進(jìn)行分層融合。結(jié)果表明, 與單模態(tài)識別方法相比, 多模態(tài)建模方法與基于《自閉癥行為評定量表》(Autism Behavior Checklist)的評估結(jié)果達(dá)到最高一致性。

    另有研究基于自閉癥兒童與社交機(jī)器人交互過程中產(chǎn)生的多模態(tài)行為特征進(jìn)行自閉癥自動(dòng)化診斷和干預(yù)效果評估。例如, Scassellati (2007)界定了人機(jī)交互數(shù)據(jù)中反映個(gè)體社交技能的行為指標(biāo), 以標(biāo)準(zhǔn)化的測量方式提升人工記錄和評估的信度。具體包括三方面的行為指標(biāo):(1)凝視方向和注意焦點(diǎn); (2)個(gè)體與他人的距離和位置追蹤; (3)個(gè)體聲音的韻律和語調(diào)。此外, 研究者基于多模態(tài)數(shù)據(jù)中表征社交互動(dòng)的行為指標(biāo), 如面部朝向、相對位置、物理距離等行為數(shù)據(jù), 評價(jià)自閉癥兒童(平均年齡3.4歲)與社交機(jī)器人互動(dòng)的積極性和參與度(Feil-Seifer & Matari?, 2010; Moghadas & Moradi, 2018)。另外, 目前有監(jiān)測并提供自閉癥患者社交技能服務(wù)的網(wǎng)絡(luò)平臺, 通過非侵入式傳感器和可穿戴設(shè)備采集患者與他人的多模態(tài)日?;?dòng)行為數(shù)據(jù), 如個(gè)體與交談?wù)叩奈锢砭嚯x、姿勢、上半身運(yùn)動(dòng)、面部微表情等社會計(jì)量器(sociometer)的行為指標(biāo), 實(shí)時(shí)傳輸至Microsoft Azure云計(jì)算平臺存儲、分析和完成行為標(biāo)注, 產(chǎn)生可視化的數(shù)據(jù)分析報(bào)告并發(fā)送給治療師, 可有針對性地設(shè)計(jì)干預(yù)方案(Winoto et al., 2016)。

    目前已積累較多公開的、可供研究者訓(xùn)練和微調(diào)模型的自閉癥幼兒多模態(tài)數(shù)據(jù)集。例如, 研究自閉癥嬰幼兒社交和溝通行為的多模態(tài)二元行為數(shù)據(jù)集(Multimodal Dyadic Behavior, MMDB), 包括160余組、平均3~5分鐘的121名嬰幼兒(15~30月齡)與成年主試的半結(jié)構(gòu)化互動(dòng)片段。數(shù)據(jù)集已有行為評價(jià)框架和人工標(biāo)定, 即依照自閉癥編碼手冊和評分細(xì)則對互動(dòng)過程中的關(guān)鍵行為進(jìn)行編碼評分, 如嬰兒的注意力和眼神接觸、社會性微笑、發(fā)聲和言語表達(dá)(如, 字、詞組)、溝通姿勢(如, 指向、揮手、鼓掌)等(Rehg et al., 2013)。此外, 還有用于輔助自閉癥兒童干預(yù)治療的多模態(tài)數(shù)據(jù)集, 例如DE-ENIGMA大型公開數(shù)據(jù)集, 包含128名自閉癥患兒與治療師、治療機(jī)器人的長時(shí)段互動(dòng)視頻(13TB), 其中專家對50名患兒的數(shù)據(jù)標(biāo)注了情緒效價(jià)、情緒喚醒、身體姿勢等特征, 可用于訓(xùn)練人工智能模型進(jìn)行自動(dòng)識別。

    目前, 大多數(shù)研究主要基于獨(dú)立收集的臨床數(shù)據(jù)構(gòu)建檢測模型, 而針對于同一任務(wù)下的同類方法或模型未能得到比較, 研究成果間成孤立之勢, 因而需要借助公開數(shù)據(jù)集作為模型性能評價(jià)的“基準(zhǔn)”。同時(shí), 越來越多的自閉癥公開數(shù)據(jù)集提供了推進(jìn)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)發(fā)展所需的數(shù)據(jù)規(guī)模, 研究者可使用公開數(shù)據(jù)集預(yù)訓(xùn)練模型, 或使用不同模態(tài)的數(shù)據(jù)提升模型性能, 增強(qiáng)檢測方法的泛化性。

    4 小結(jié)和研究展望

    我國人口基數(shù)大, 罹患自閉癥的患者數(shù)量多, 自閉癥的診斷過程耗時(shí), 且費(fèi)用高, 需要長周期的特殊教育訓(xùn)練和行為干預(yù)。自閉癥在幼兒期越早發(fā)現(xiàn), 越早干預(yù), 康復(fù)效果越好, 治愈率越高。在3歲內(nèi)開始治療是最佳時(shí)機(jī), 隨著年齡增長, 治療難度增大。然而, 目前我國自閉癥篩查與診斷處于“三缺”狀態(tài), 即缺乏診斷標(biāo)準(zhǔn)、專業(yè)人員、康復(fù)路徑, 自閉癥康復(fù)干預(yù)系統(tǒng)也不健全、整體水平偏低, 治療效果有限。自閉癥的診斷主要依據(jù)醫(yī)生的經(jīng)驗(yàn)積累, 缺乏便捷和客觀有效的診斷工具, 導(dǎo)致從父母發(fā)現(xiàn)兒童異常再到確診需要漫長的等待時(shí)間, 因而很多患兒會錯(cuò)過最佳干預(yù)期。此外, 受限于診斷滯后, 以及嬰幼兒的行為語言能力尚待發(fā)育造成的干預(yù)困難, 現(xiàn)有干預(yù)方法的適用對象大多是3歲以上的兒童和青少年, 且每種干預(yù)方法的療效并不明確, 每種療法下的干預(yù)手段比較單一, 這也是制約患兒有效康復(fù)的主要原因。

    因此, 目前有必要革新現(xiàn)有的診斷流程和康復(fù)路線, 完善智能輔助的自閉癥早期篩查、診斷和治療體系, 緩解執(zhí)行的時(shí)間壓力和壓縮人力成本。特別是對患者家庭, 越早發(fā)現(xiàn)和干預(yù), 其預(yù)后效果越好, 能夠促進(jìn)自閉癥患者的發(fā)展進(jìn)程、改善其語言、減少問題行為(陳順森等, 2011), 產(chǎn)生持久甚至終生受益的良好療效, 將家庭的經(jīng)濟(jì)和精神負(fù)荷降到最低。近年來, 計(jì)算機(jī)視覺、語音技術(shù)、智能穿戴設(shè)備、腦成像等技術(shù)能夠?qū)崿F(xiàn)多種行為數(shù)據(jù)的采集和監(jiān)測, 方便研究者獲取多模態(tài)、不同場景和多種行為維度的患者數(shù)據(jù)。尤其基于自閉癥患兒在自然場景下與撫養(yǎng)人互動(dòng)的視音頻數(shù)據(jù)建模, 相比傳統(tǒng)方法, 能夠更加真實(shí)、全面地反映行為特征與癥狀間的關(guān)系, 捕捉肉眼無法觀察到的細(xì)微表情或肢體動(dòng)作的變化。圍繞建立嬰幼兒自閉癥的智能化無感篩查、診斷評估體系議題, 本文提出當(dāng)前主要存在的兩點(diǎn)問題, 未來研究方向如下所述。

    4.1 缺乏針對嬰幼兒的有效的篩查工具

    目前, 針對自閉癥的早期篩查與診斷取得了很多進(jìn)展, 一些測量工具得到廣泛認(rèn)可, 但同時(shí)自閉癥的早期篩查與診斷也存在諸多不足之處, 包括早期篩查難和普及難、檢測評估不精準(zhǔn)等。具體表現(xiàn)在以下三個(gè)方面。

    第一, 缺乏精細(xì)化的嬰幼兒自閉癥早期行為診斷體系。自閉癥早期評估工具的年齡使用范圍跨度較大, 一般至少為6個(gè)月, 且評估項(xiàng)目對不同發(fā)展階段的幼兒并不完全一致, 各有側(cè)重點(diǎn)。自閉癥的評估需要根據(jù)幼兒能力發(fā)展的先后順序, 結(jié)合環(huán)境特點(diǎn)設(shè)計(jì)測評項(xiàng)目。但個(gè)體在幼兒期發(fā)展迅速, 即使是3個(gè)月內(nèi)就能呈現(xiàn)較大差異, 若采用同一工具對6個(gè)月跨度的嬰幼兒進(jìn)行測評, 在測評內(nèi)容、標(biāo)準(zhǔn)單一的情況下, 評估的準(zhǔn)確性很難保證, 即存在測評工具的敏感性和特異性對于不同年齡跨度不穩(wěn)定的問題(Nah et al., 2019)。為了使嬰幼兒自閉癥的早期識別更精準(zhǔn), 清晰描述自閉癥早期患兒的行為特征和發(fā)展規(guī)律至關(guān)重要。研究通常以3月齡為間隔對自閉癥嬰幼兒的早期特征進(jìn)行追蹤和比較(Kaur et al., 2018), 但涉及到的年齡跨度并不完整地涵蓋自閉癥早期識別的關(guān)鍵時(shí)期(即6~36個(gè)月), 同時(shí)追蹤時(shí)間較長的研究則往往追蹤間隔也較大(如6個(gè)月或12個(gè)月)且不均勻。同時(shí), 不同的研究往往僅關(guān)注自閉癥的少數(shù)典型行為, 如物品分享、社會習(xí)慣微笑等, 并不全面涉及自閉癥嬰幼兒的所有典型表現(xiàn)。因此, 當(dāng)前國內(nèi)外仍缺乏對自閉癥嬰幼兒在研究時(shí)間和內(nèi)容兩個(gè)維度上更細(xì)化且系統(tǒng)的研究, 缺乏具有針對性的自閉癥早期患兒的識別體系。

    第二, 缺乏考察自閉癥早期患兒情緒、情感能力的測評項(xiàng)目。自閉癥早期評估的工具繁多, 大多數(shù)測評工具可分為社會交往與互動(dòng)、語言及認(rèn)知發(fā)展、重復(fù)性刻板行為/興趣三方面維度。根據(jù)其年齡適用性, 各量表關(guān)注的側(cè)重點(diǎn)存在差異, 一些量表只側(cè)重部分核心癥狀, 如CHAT量表關(guān)注共同注意和假想游戲能力, 僅涉及社會互動(dòng)方面(尤娜, 楊廣學(xué), 2006)。作為診斷“金標(biāo)準(zhǔn)”的ADOS能較為全面地觀察到自閉癥患兒的表現(xiàn), 但其診斷標(biāo)準(zhǔn)中仍然缺少對患兒情緒情感能力發(fā)展的評估指標(biāo)。重要的是, 自閉癥嬰幼兒往往具有情緒和情感發(fā)展障礙, 在情感淡漠、情緒理解和表達(dá)上存在困難等特征, 這些特征通常被認(rèn)為是社交障礙的典型表現(xiàn)。但是, 目前對自閉癥嬰幼兒社交能力的觀察只聚焦在“是否出現(xiàn)互動(dòng)”的行為層面上, 并沒有重點(diǎn)突出情緒和情感發(fā)展的指標(biāo)(de Bildt et al., 2015)。情緒情感發(fā)展是嬰幼兒社會性發(fā)展的基礎(chǔ), 認(rèn)識到自閉癥早期患兒在情緒情感發(fā)展上的特征具有重要意義, 可以有針對性地提供干預(yù)措施或干預(yù)效果評估指標(biāo), 有助于探索幫助自閉癥嬰幼兒全面發(fā)展的穩(wěn)健路徑。

    第三, 缺乏現(xiàn)有篩查和診斷方式的創(chuàng)新和有機(jī)整合。自閉癥的診斷方法主要是醫(yī)師進(jìn)行病史分析、癥狀查詢、嬰幼兒行為觀察和量表測評, 同時(shí)結(jié)合少量CT/核磁等神經(jīng)影像檢查和遺傳學(xué)染色體分型檢查、代謝病篩查等輔助檢查。診斷方式缺乏細(xì)致和統(tǒng)一的標(biāo)準(zhǔn), 而且常用方式和工具又存在一定的局限性。例如, 依賴于嬰幼兒主要養(yǎng)育人的半結(jié)構(gòu)化測評缺少兒童的互動(dòng)參與, 易受到養(yǎng)育人主觀因素影響, 不能客觀反映嬰幼兒的能力水平, 養(yǎng)育者對于要考察的問題沒有精確的理解, 可能會高估或低估嬰幼兒的能力(Johnson & Myers, 2007); 同時(shí), 依賴于現(xiàn)場觀察的測評程序十分復(fù)雜, 且必須讓擁有專業(yè)資格的醫(yī)師進(jìn)行觀察才能得到結(jié)果(Matson et al., 2011; Romero- Garcia et al., 2019)。國際上以ADOS診斷為金標(biāo)準(zhǔn), 但是國內(nèi)接受過ADOS評價(jià)的專業(yè)人員卻極度匱乏, 臨床醫(yī)生通過觀察得出的結(jié)論具有一定的主觀性, 往往受其臨床經(jīng)驗(yàn)和專業(yè)培訓(xùn)影響(Romero-Garcia et al., 2019), 醫(yī)生與兒童在一起的時(shí)間很短暫, 難以全面評價(jià)嬰幼兒在不同情境中的表現(xiàn), 注意到嬰幼兒多方面的異常行為(Fitzgerald, 2017; Zabihi et al., 2020)。有研究表明完整的診斷過程會花費(fèi)相當(dāng)長的時(shí)間(平均41個(gè)月)和較高的費(fèi)用, 而且量表的評分較為粗略(Hyman et al., 2020), 不僅不利于盡早地對患兒進(jìn)行診斷, 還可能會由于標(biāo)準(zhǔn)不統(tǒng)一而造成誤判。

    綜上, 傳統(tǒng)篩查與診斷方式受到時(shí)間、人力和嬰幼兒發(fā)育階段的特殊性等因素的限制, 不僅有必要對已有的診斷工具和醫(yī)生專業(yè)診斷標(biāo)準(zhǔn)進(jìn)行更細(xì)致的研究和補(bǔ)充, 較為全面地構(gòu)建自閉癥患兒的行為特征體系, 以提供對不同年齡段的嬰幼兒自閉癥的精確識別標(biāo)準(zhǔn); 此外, 開發(fā)一種能夠輔助或者代替醫(yī)生在家庭或者社區(qū)醫(yī)院進(jìn)行快速篩查并能夠有效減少主觀誤差的智能工具, 將有非常重要的臨床價(jià)值。

    4.2 缺乏融合多模態(tài)數(shù)據(jù)的智能化識別研究

    目前, 自閉癥智能化識別的主要對象群體是3歲以上的自閉癥兒童和成年人。研究者相較于實(shí)驗(yàn)室數(shù)據(jù), 較少使用臨床診斷和自然狀態(tài)下采集的行為數(shù)據(jù)。在自閉癥智能化識別的6個(gè)研究子領(lǐng)域內(nèi)需解決的難題存在一定差異, 例如, 在基于自閉癥面部表情和情緒數(shù)據(jù)的識別方面, 當(dāng)前已能夠?qū)崿F(xiàn)基于深度學(xué)習(xí)方法(例如, CNN, DCNN)對自閉癥患者的照片或視頻幀進(jìn)行情緒分類(Li et al., 2019; Shukla et al., 2017)。然而, 多數(shù)情緒分類器的開發(fā)僅涉及自閉癥成年群體, 對自閉癥嬰幼兒的泛化性較差(Kalantarian et al., 2019); 其次, 僅能實(shí)現(xiàn)對患者的基本情緒進(jìn)行定性識別(如,快樂, 厭惡, 憤怒等), 缺乏對患者情緒復(fù)雜性或情緒異常等級的評估研究(Guha et al., 2016)。在基于眼動(dòng)數(shù)據(jù)的識別方面, 臨床和實(shí)證研究已累積豐富的自閉癥幼兒與典型發(fā)展幼兒的眼動(dòng)模式差異證據(jù), 同時(shí)領(lǐng)域內(nèi)已提出有效的特征提取方法、預(yù)測框架和評分框架(Liu et al., 2016; Liu et al., 2015)。然而, 多數(shù)眼動(dòng)數(shù)據(jù)是在高度受控的實(shí)驗(yàn)室環(huán)境中借助專業(yè)儀器獲得, 并要求被試持續(xù)注視屏幕, 難以在大規(guī)模篩查中施行, 也很難評估幼兒與撫養(yǎng)者在自然社交互動(dòng)中的眼神接觸。在基于運(yùn)動(dòng)控制和運(yùn)動(dòng)模式數(shù)據(jù)的識別方面, 目前實(shí)現(xiàn)了較為簡單的經(jīng)典任務(wù)中固定身體部位和肢體動(dòng)作的識別, 如嬰幼兒自閉癥診斷中的“叫名反應(yīng)”的頭部運(yùn)動(dòng)(Dawson et al., 2018)和抓握動(dòng)作(Martin et al., 2018)等, 還未涉及自閉癥幼兒在復(fù)雜任務(wù)中的肢體動(dòng)作和身體部位的姿態(tài)識別。然而, 已有研究大多基于單模態(tài)數(shù)據(jù)進(jìn)行自閉癥患者的智能化識別, 尚未充分利用自閉癥患者的多模態(tài)信息。

    當(dāng)前, 自閉癥智能化識別的主要趨勢是盡可能獲取豐富的自閉癥嬰幼兒的多模態(tài)數(shù)據(jù), 融合多種形態(tài)的數(shù)據(jù)及患者不同的行為維度(如, 眼動(dòng)、語音、唇動(dòng)、面部表情和肢體動(dòng)作), 探索不同模態(tài)信息間的互補(bǔ)性關(guān)系、特征轉(zhuǎn)化與表征模式, 采用多模態(tài)數(shù)據(jù)融合思想構(gòu)建自閉癥患兒自動(dòng)甄別模型, 有望實(shí)現(xiàn)自閉癥嬰幼兒篩查方法上的革新和診斷精度的突破。國際上已經(jīng)開展了大量基于多模態(tài)數(shù)據(jù)的、針對其它精神疾病(比如阿爾茨海默病、精神分裂癥)的智能診斷研究, 多項(xiàng)研究表明利用多模態(tài)數(shù)據(jù)能得到較單模態(tài)數(shù)據(jù)更高的診斷精度。這類研究從建模數(shù)據(jù)來看, 主要以6歲以上的自閉癥患兒為主, 對低齡自閉癥患兒的自動(dòng)化識別依然是研究缺口。并且, 當(dāng)前研究者能夠獲取的自閉癥患兒多模態(tài)信息較少,主要來自人為控制的實(shí)驗(yàn)環(huán)境、公開數(shù)據(jù)集、網(wǎng)絡(luò)視頻資源等, 且行為數(shù)據(jù)大多來自單一任務(wù)情境或治療康復(fù)情境, 能否有效地應(yīng)用于大規(guī)模的自閉癥嬰幼兒篩查尚且未知。此外, 許多模型識別的自閉癥嬰幼兒行為標(biāo)簽較為粗略和簡單, 如基于自閉癥觀察量表的簡單行為標(biāo)記或基本情緒分類, 難以在臨床診斷中發(fā)揮重要作用。

    自閉癥智能化識別的基礎(chǔ)是構(gòu)建多模態(tài)數(shù)據(jù)集, 沒有數(shù)據(jù)也就不存在發(fā)展高精度算法的可能。如何高效率且便捷的獲取患兒的多模態(tài)信息、減少噪音并進(jìn)行有效識別是未來研究的重點(diǎn)。目前, 國外有較多情境來源的、包含行為標(biāo)記的、可供研究者使用的自閉癥患者公開數(shù)據(jù)集, 盡管還存在著上述的缺乏嬰幼兒數(shù)據(jù)、數(shù)據(jù)類型較為單一和行為標(biāo)簽粗略等問題, 但仍然為自閉癥識別算法的快速更新起到了重要的作用。我國罹患自閉癥的幼兒數(shù)量龐大且逐年遞增, 但自閉癥患兒病例數(shù)據(jù)分散。要構(gòu)建智能輔助的自閉癥早期篩查、診斷系統(tǒng), 首先應(yīng)厘清自閉癥早期診斷標(biāo)準(zhǔn), 構(gòu)建我國自閉癥嬰幼兒異常行為指標(biāo)評估體系, 從多方獲取自閉癥患兒的多模態(tài)數(shù)據(jù)并進(jìn)行粗細(xì)顆粒度的異常行為標(biāo)記。組建大規(guī)模自閉癥及高危嬰幼兒數(shù)據(jù)庫和行為特征庫是我國開展高質(zhì)量的智能化識別研究的必要條件。在當(dāng)前大規(guī)模數(shù)據(jù)集尚未建成的時(shí)期, 面對模型訓(xùn)練數(shù)據(jù)需求量大與自閉癥患兒樣本匱乏之間的矛盾, 研究者可先嘗試運(yùn)用深度學(xué)習(xí)領(lǐng)域的小樣本學(xué)習(xí)(few- shot learning), 如模型微調(diào)(fine-tuning)、數(shù)據(jù)增強(qiáng)(data augmentation)、遷移學(xué)習(xí)(transfer learning)等方法解決小樣本環(huán)境下的模型建模和優(yōu)化問題。

    畢小彬, 范曉壯, 米文麗, 賀薈中. (2020). 高風(fēng)險(xiǎn)嬰兒前瞻性縱向研究與孤獨(dú)癥譜系障礙早期識別.,(3), 443–455.

    陳順森, 白學(xué)軍, 張日昇. (2011). 自閉癥譜系障礙的癥狀, 診斷與干預(yù).(1), 60–72.

    廖夢怡, 陳靚影, 王廣帥, 彭世新. (2021). 融合多模態(tài)數(shù)據(jù)的自閉癥譜系障礙兒童智能化識別及其有效性.(20), 2618–2628.

    徐云, 楊健. (2014). 自閉癥早期發(fā)現(xiàn)研究進(jìn)展.(6), 1023–1027.

    尤娜, 楊廣學(xué). (2006). 自閉癥診斷與干預(yù)研究綜述., 26–31.

    Ahmed, A. A., & Goodwin, M. S. (2017, May). Automated detection of facial expressions during computer-assisted instruction in individuals on the autism spectrum.(pp. 6050?6055). Association for Computing Machinery.

    Akshoomoff, N., Corsello, C., & Schmidt, H. (2006). The role of the autism diagnostic observation schedule in the assessment of autism spectrum disorders in school and community settings.(1), 7–19.

    Anzulewicz, A., Sobota, K., & Delafield-Butt, J. T. (2016). Toward the autism motor signature: Gesture patterns during smart tablet gameplay identify children with autism.(1), 31107.

    Arulampalam, M. S., Maskell, S., Gordon, N., & Clapp, T. (2002). A tutorial on particle filters for online nonlinear/ non-Gaussian Bayesian tracking.(2), 174–188.

    Baltru?aitis, T., Mahmoud, M., & Robinson, P. (2015, May). Cross-dataset learning and person-specific normalisation for automatic action unit detection.(Vol. 6, pp. 1–6). IEEE.

    Baltru?aitis, T., Robinson, P., & Morency, L. P. (2013). Constrained local neural fields for robust facial landmark detection in the wild.(pp. 354–361). IEEE.

    Baltru?aitis, T., Robinson, P., & Morency, L. P. (2016, March). Openface: An open source facial behavior analysis toolkit.(pp. 1–10). IEEE.

    Baron-Cohen, S., Allen, J., & Gillberg, C. (1992). Can autism be detected at 18 months? The needle, the haystack, and the CHAT.(6), 839–843.

    Bidwell, J., Essa, I. A., Rozga, A., & Abowd, G. D. (2014, November). Measuring child visual attention using markerless head tracking from color and depth sensing cameras.(pp. 447–454). Association for Computing Machinery.

    Bovery, M., Dawson, G., Hashemi, J., & Sapiro, G. (2019). A scalable off-the-shelf framework for measuring patterns of attention in young children and its application in autism spectrum disorder.(3), 722–731

    Campbell, D. J., Chang, J., Chawarska, K., & Shic, F. (2014, March). Saliency-based Bayesian modeling of dynamic viewing of static scenes.(pp. 51–58). Association for Computing Machinery.

    Campbell, K., Carpenter, K. L., Hashemi, J., Espinosa, S., Marsan, S., Borg, J. S., ... Dawson, G. (2019). Computer vision analysis captures atypical attention in toddlers with autism.(3), 619–628.

    Chawarska, K., Macari, S., & Shic, F. (2013). Decreased spontaneous attention to social scenes in 6-month-old infants later diagnosed with autism spectrum disorders.(3), 195–203.

    Chen, S., & Zhao, Q. (2019). Attention-based autism spectrum disorder screening with privileged modality.(pp. 1181–1190). IEEE.

    Chong, E., Chanda, K., Ye, Z., Southerland, A., Ruiz, N., Jones, R. M., ... Rehg, J. M. (2017). Detecting gaze towards eyes in natural social interactions and its use in child assessment.(3), 1–20. Association for Computing Machinery.

    Choutas, V., Weinzaepfel, P., Revaud, J., & Schmid, C. (2018). Potion: Pose motion representation for action recognition.(pp. 7024– 7033). IEEE.

    Chrysouli, C., Vretos, N., & Daras, P. (2018, September). Affective state recognition based on eye gaze analysis using two–stream convolutional networks.(pp. 1–6). IEEE.

    Dawson, G., Campbell, K., Hashemi, J., Lippmann, S. J., Smith, V., Carpenter, K., ... Sapiro, G. (2018). Atypical postural control can be detected via computer vision analysis in toddlers with autism spectrum disorder.(1), 17008.

    de Belen, R. A. J., Bednarz, T., Sowmya, A., & Del Favero, D. (2020). Computer vision in autism spectrum disorder research: A systematic review of published studies from 2009 to 2019.(1), 1–20.

    de Bildt, A., Sytema, S., Zander, E., B?lte, S., Sturm, H., Yirmiya, N., ... Oosterling, I. J. (2015). Autism Diagnostic Interview-Revised (ADI-R) algorithms for toddlers and young preschoolers: Application in a non-US sample of 1, 104 children.(7), 2076–2091.

    Dickinson, A., Daniel, M., Marin, A., Gaonkar, B., Dapretto, M., McDonald, N. M., & Jeste, S. (2021). Multivariate neural connectivity patterns in early infancy predict later autism symptoms.(1), 59–69.

    Dietz, C., Swinkels, S., van Daalen, E., van Engeland, H., & Buitelaar, J. K. (2006). Screening for autistic spectrum disorder in children aged 14–15 months. II: Population screening with the Early Screening of Autistic Traits Questionnaire (ESAT). Design and general findings.(6), 713–722.

    Elsabbagh, M., Fernandes, J., Webb, S. J., Dawson, G., Charman, T., Johnson, M. H., & British Autism Study of Infant Siblings Team. (2013). Disengagement of visual attention in infancy is associated with emerging autism in toddlerhood.,(3), 189–194.

    Emerson, R. W., Adams, C., Nishino, T., Hazlett, H. C., Wolff, J. J., Zwaigenbaum, L., ... Piven, J. (2017). Functional neuroimaging of high-risk 6-month-old infants predicts a diagnosis of autism at 24 months of age.(393), eaag2882. doi: 10.1126/ scitranslmed.aag2882

    Eslami, T., Almuqhim, F., Raiker, J. S., & Saeed, F. (2021). Machine learning methods for diagnosing autism spectrum disorder and attention-deficit/hyperactivity disorder using functional and structural MRI: A survey.575999. https://doi.org/10.3389/ fninf.2020.575999

    Esposito, G., Venuti, P., Maestro, S., & Muratori, F. (2009). An exploration of symmetry in early autism spectrum disorders: Analysis of lying.(2), 131–138.

    Feil-Seifer, D., & Matari?, M. (2010, March). Using proxemics to evaluate human-robot interaction.(pp. 143–144). IEEE.

    Fischler, M. A., & Bolles, R. C. (1981). Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography.(6), 381–395.

    Fitzgerald, M. (2017). The clinical utility of the ADI-R and ADOS in diagnosing autism.,(2), 117–117.

    Gabard-Durnam, L. J., Wilkinson, C., Kapur, K., Tager- Flusberg, H., Levin, A. R., & Nelson, C. A. (2019). Longitudinal EEG power in the first postnatal year differentiates autism outcomes.(1), 4188.

    Gilmore, J. H., Knickmeyer, R. C., & Gao, W. (2018). Imaging structural and functional brain development in early childhood.(3), 123–137.

    Girdhar, R., Gkioxari, G., Torresani, L., Paluri, M., & Tran, D. (2018). Detect-and-track: Efficient pose estimation in videos.(pp. 350–359). IEEE.

    Guha, T., Yang, Z., Grossman, R. B., & Narayanan, S. S. (2016). A computational study of expressive facial dynamics in children with autism.(1), 14–20.

    Han, J., Li, X., Xie, L., Liu, J., Wang, F., & Wang, Z. (2018, November). Affective Computing of Childern with Authism Based on Feature Transfer.(pp. 845–849). IEEE.

    Hashemi, J., Campbell, K., Carpenter, K., Harris, A., Qiu, Q., Tepper, M., ... Sapiro, G. (2015). A scalable app for measuring autism risk behaviors in young children: A technical validity and feasibility study.(pp. 23–27). ICST.

    Hashemi, J., Dawson, G., Carpenter, K. L., Campbell, K., Qiu, Q., Espinosa, S., ... Sapiro, G. (2018). Computer vision analysis for quantification of autism risk behaviors.(1), 215–226.

    Hashemi, J., Tepper, M., Vallin Spina, T., Esler, A., Morellas, V., Papanikolopoulos, N., ... Sapiro, G. (2014). Computer vision tools for low-cost and noninvasive measurement of autism-related behaviors in infants.. https://doi.org/10.1155/2014/935686

    Hazlett, H. C., Gu, H., Munsell, B. C., Kim, S. H., Styner, M., Wolff, J. J., ... The IBIS Network (2017). Early brain development in infants at high risk for autism spectrum disorder.(7641), 348–351.

    Hodges, H., Fealko, C., & Soares, N. (2020). Autism spectrum disorder: definition, epidemiology, causes, and clinical evaluation.(Suppl 1), S55–S65. https://doi.org/10.21037/tp.2019.09.09

    Hong, S. J., Vogelstein, J. T., Gozzi, A., Bernhardt, B. C., Yeo, B. T., Milham, M. P., & Di Martino, A. (2020). Toward neurosubtypes in autism.(1), 111–128.

    Hyman, S. L., Levy, S. E., & Myers, S. M. (2020). Identification, evaluation, and management of children with autism spectrum disorder.(1), e20193447. https://doi.org/10.1542/peds.2019-3447

    Imafuku, M., Hakuno, Y., Uchida-Ota, M., Yamamoto, J.-I., & Minagawa, Y. (2014). “Mom called me!” Behavioral and prefrontal responses of infants to self-names spoken by their mothers., 476–484.

    Jeni, L. A., & Cohn, J. F. (2016). Person-independent 3d gaze estimation using face frontalization.(pp. 87–95). IEEE.

    Jeni, L. A., Cohn, J. F., & Kanade, T. (2015, May). Dense 3D face alignment from 2D videos in real-time.(Vol. 1, pp. 1–8). IEEE.

    Johnson, C. P., & Myers, S. M. (2007). Identification and evaluation of children with autism spectrum disorders.(5), 1183–1215.

    Kalantarian, H., Jedoui, K., Washington, P., Tariq, Q., Dunlap, K., Schwartz, J., & Wall, D. P. (2019). Labeling images with facial emotion and the potential for pediatric healthcare., 77–86.

    Kaur, M., Srinivasan, S. M., & Bhat, A. N. (2018). Comparing motor performance, praxis, coordination, and interpersonal synchrony between children with and without Autism Spectrum Disorder (ASD)., 79–95.

    Krug, D. A., Arick, J., & Almond, P. (1980). Behavior checklist for identifying severely handicapped individuals with high levels of autistic behavior.,(3), 221–229.

    Landa, R., & Garrett‐Mayer, E. (2006). Development in infants with autism spectrum disorders: A prospective study.(6), 629–638.

    Leo, M., Carcagnì, P., Distante, C., Mazzeo, P. L., Spagnolo, P., Levante, A., ... Lecciso, F. (2019). Computational analysis of deep visual data for quantifying facial expression production.(21), 4542. https://doi.org/10.3390/app9214542

    Li, B., Mehta, S., Aneja, D., Foster, C., Ventola, P., Shic, F., & Shapiro, L. (2019, September). A facial affect analysis system for autism spectrum disorder.(pp. 4549–4553). IEEE.

    Li, J., & Li, S. (2015). Gaze estimation from color image basedon the eye model with known head pose.(3), 414–423.

    Liu, W., Li, M., & Yi, L. (2016). Identifying children with autism spectrum disorder based on their face processing abnormality: A machine learning framework.(8), 888–898.

    Liu, W., Yu, X., Raj, B., Yi, L., Zou, X., & Li, M. (2015, September). Efficient autism spectrum disorder prediction with eye movement: A machine learning framework.(pp. 649–655). IEEE.

    Lord, C., Rutter, M., & Le Couteur, A. (1994). Autism Diagnostic Interview-Revised: A revised version of a diagnostic interview for caregivers of individuals with possible pervasive developmental disorders.(5), 659–685.

    Lu, F., Sugano, Y., Okabe, T., & Sato, Y. (2014). Adaptive linear regression for appearance-based gaze estimation.(10), 2033–2046.

    Maenner, M. J., Shaw, K. A., Baio, J., Washington, A., Patrick, M., DiRienzo, M., … Dietz, P. M. (2020). Prevalence of autism spectrum disorder among children aged 8 years—autism and developmental disabilities monitoring network, 11 sites, United States, 2016.(4), 1–12.

    Matson, J. L., Wilkins, J., Sevin, J. A., Knight, C., Boisjoli, J. A., & Sharp, B. (2009). Reliability and item content of the Baby and Infant Screen for Children with aUtIsm Traits (BISCUIT): Parts 1–3.(2), 336–344.

    Martin, K. B., Hammal, Z., Ren, G., Cohn, J. F., Cassell, J., Ogihara, M., ... Messinger, D. S. (2018). Objective measurement of head movement differences in children with and without autism spectrum disorder.(1), 14.

    Matson, J. L., & Goldin, R. L. (2014). Diagnosing young children with autism., 44–48.

    Matson, J. L., Rieske, R. D., & Tureck, K. (2011). Additional considerations for the early detection and diagnosis of autism: Review of available instruments.(4), 1319–1326.

    Matson, J. L., Wilkins, J., & Gonzalez, M. (2008). Early identification and diagnosis in autism spectrum disorders in young children and infants: How early is too early?(1), 75–84.

    Moghadas, M., & Moradi, H. (2018, October). Analyzing human-robot interaction using machine vision for autism screening.(pp. 572–576). IEEE.

    Moher, D., Liberati, A., Tetzlaff, J., Altman, D. G., & Prisma Group. (2009). Preferred reporting items for systematic reviews and meta-analyses: The PRISMA statement.(9), 873–880.

    Nah, Y. H., Young, R. L., & Brewer, N. (2019). Development of a brief version of the Autism Detection in Early Childhood.(2), 494–502.

    Ozonoff, S., Iosif, A.-M., Baguio, F., Cook, I. C., Hill, M. M., Hutman, T., ... Young, G. S. (2010). A prospective study of the emergence of early behavioral signs of autism.(3), 256–266.

    Ozonoff, S., Young, G. S., Goldring, S., Greiss-Hess, L., Herrera, A. M., Steele, J., ... Rogers, S. J. (2008). Gross motor development, movement abnormalities, and early identification of autism.(4), 644–656.

    Pierce, K., Gazestani, V. H., Bacon, E., Barnes, C. C., Cha, D., Nalabolu, S., ... Courchesne, E. (2019). Evaluation of the diagnostic stability of the early autism spectrum disorder phenotype in the general population starting at 12 months.(6), 578–587.

    Poria, S., Cambria, E., Bajpai, R., & Hussain, A. (2017). A review of affective computing: From unimodal analysis to multimodal fusion., 98–125.

    Rehg, J., Abowd, G., Rozga, A., Romero, M., Clements, M., Sclaroff, S., ... Ye, Z. (2013). Decoding children's social behavior.(pp. 3414–3421). IEEE.

    Reznick, J. S., Baranek, G. T., Reavis, S., Watson, L. R., & Crais, E. R. (2007). A parent-report instrument for identifying one-year-olds at risk for an eventual diagnosis of autism: the first year inventory.(9), 1691–1710.

    Robins, D. L., Fein, D., Barton, M. L., & Green, J. A. (2001). The Modified Checklist for Autism in Toddlers: an initial study investigating the early detection of autism and pervasive developmental disorders.(2), 131–144.

    Romero-Garcia, R., Warrier, V., Bullmore, E. T., Baron- Cohen, S., & Bethlehem, R. A. (2019). Synaptic and transcriptionally downregulated genes are associated with cortical thickness differences in autism.(7), 1053–1064.

    Scassellati, B. (2007). How social robots will help us to diagnose, treat, and understand autism.(pp. 552–563), Springer.

    Siegel, B. (2004).Pearson.

    Shi, L., Zhou, Y., Ou, J., Gong, J., Wang, S., Cui, X., ... Luo, X. (2015). Different visual preference patterns in response to simple and complex dynamic social stimuli in preschool-aged children with autism spectrum disorders.(3), e0122280. https://doi.org/10.1371/journal. pone.0122280

    Shukla, P., Gupta, T., Saini, A., Singh, P., & Balasubramanian, R. (2017, March). A deep learning frame-work for recognizing developmental disorders.(pp. 705–714). IEEE.

    Stone, W. L., Coonrod, E. E., & Ousley, O. Y. (2000). Brief report: screening tool for autism in two-year-olds (STAT): Development and preliminary data.(6), 607–612.

    Syeda, U. H., Zafar, Z., Islam, Z. Z., Tazwar, S. M., Rasna, M. J., Kise, K., & Ahad, M. A. R. (2017, September). Visual face scanning and emotion perception analysis between autistic and typically developing children.(pp. 844–853). Association for Computing Machinery.

    Talbott, M. R., & Miller, M. R. (2020). Future directions for infant identification and intervention for autism spectrum disorder from a transdiagnostic perspective.(5), 688–700.

    Tang, C., Zheng, W., Zong, Y., Cui, Z., Qiu, N., Yan, S., & Ke, X. (2018, October). Automatic smile detection of infants in mother-infant interaction via CNN-based feature learning.(pp. 35–40). Association for Computing Machinery.

    Taylor, L. J., Eapen, V., Maybery, M., Midford, S., Paynter, J., Quarmby, L., ... Whitehouse, A. J. (2017). Brief report: An exploratory study of the diagnostic reliability for autism spectrum disorder.(5), 1551–1558.

    Teitelbaum, P., Teitelbaum, O., Nye, J., Fryman, J., & Maurer, R. G. (1998). Movement analysis in infancy may be useful for early diagnosis of autism.(23), 13982–13987.

    Thevenot, J., López, M. B., & Hadid, A. (2017). A survey on computer vision for assistive medical diagnosis from faces.(5), 1497–1511.

    Vyas, K., Ma, R., Rezaei, B., Liu, S., Neubauer, M., Ploetz, T., ... Ostadabbas, S. (2019, October). Recognition of atypical behavior in autism diagnosis from video using pose estimation over time.(pp. 1–6). IEEE.

    Wang, Z., Cai, H., & Liu, H. (2018, December). Robust eye center localization based on an improved SVR method.(pp. 623–634). Springer, Cham.

    Wang, Z., Liu, J., He, K., Xu, Q., Xu, X., & Liu, H. (2019). Screening early children with autism spectrum disorder via response-to-name protocol.(1), 587–595.

    Wiggins, L. D., Baio, J., & Rice, C. (2006). Examination of the time between first evaluation and first autism spectrum diagnosis in a population-based sample.(2), S79–S87.

    Winoto, P., Chen, C. G., & Tang, T. Y. (2016, September). The development of a Kinect-based online socio-meter for users with social and communication skill impairments: A computational sensing approach.(pp. 139–143). IEEE.

    Wolfers, T., Floris, D. L., Dinga, R., van Rooij, D., Isakoglou, C., Kia, S. M., ... Beckmann, C. F. (2019). From pattern classification to stratification: Towards conceptualizing the heterogeneity of Autism Spectrum Disorder., 240–254.

    Xie, X., Niu, J., Liu, X., Chen, Z., Tang, S., & Yu, S. (2021). A survey on incorporating domain knowledge into deep learning for medical image analysis.. https://doi.org/10.1016/j.media.2021.101985

    Xu, L., Liu, Y., Yu, J., Li, X., Yu, X., Cheng, H., & Li, J. (2020). Characterizing autism spectrum disorder by deep learning spontaneous brain activity from functional near- infrared spectroscopy., 108538.

    Young, R. L. (2007).. Victoria, Australia: Australian Council of Educational Research.

    Zabihi, M., Floris, D. L., Kia, S. M., Wolfers, T., Tillmann, J., Arenas, A. L., ... Marquand, A. (2020). Fractionating autism based on neuroanatomical normative modeling.(1), 384.

    Zheng, Z., Young, E. M., Swanson, A. R., Weitlauf, A. S., Warren, Z. E., & Sarkar, N. (2015). Robot-mediated imitation skill training for children with autism.(6), 682–691.

    Zhou, H., Xu, X., Yan, W., Zou, X., Wu, L., Luo, X., ... Wang, Y. (2020). Prevalence of autism spectrum disorder in China: a nationwide multi-center population-based study among children aged 6 to 12 years.(9), 961–971.

    Zunino, A., Morerio, P., Cavallo, A., Ansuini, C., Podda, J., Battaglia, F., ... Murino, V. (2018, August). Video gesture analysis for autism spectrum disorder detection.(pp. 3421–3426). IEEE.

    Zwaigenbaum, L., Bryson, S., Rogers, T., Roberts, W., Brian, J., & Szatmari, P. (2005). Behavioral manifestations of autism in the first year of life.(2-3), 143–152.

    Early screening and diagnosis of autism spectrum disorder assisted by artificial intelligence

    YUAN Yuzhuo1, LUO Fang2

    (1Collaborative Innovation Center of Assessment toward Basic Education Quality, Beijing Normal University, Beijing 100875, China) (2Faculty of Psychology, Beijing Normal University, Beijing 100875, China)

    Symptoms of Autistic Spectrum Disorders (ASD) manifest as early as infancy, and the earlier detection and intervention can lead to better therapeutic results.The traditional tools of early screening and diagnosis of autism have limitations in evaluation methods and procedures, which cannot meet the needs of large-scale screening and diagnosis. With the rapid artificial intelligence technological advancement, using an intelligent approach for large-scale non-inductive early screening and diagnosis of autism has become possible. In the past decade, a myriad of research findings on intelligent detection technology of autism were generated domestically and internationally in six aspects: behaviors in classic tasks, facial expressions and emotions, eye gaze data, brain imaging, motor control and movement patterns, and multimodal data. Future research should focus on constructing a domestic intelligent medical screening and diagnosis system for early autism, developing screening tools for infants and young children, constructing an automated recognition model for autistic infants by integrating multimodal data, establishing a refined autism diagnosis method combined with brain imaging technology, and other aspects.

    autism spectrum disorder, early screening and diagnosis of autism, intelligent screening of autism, artificial intelligence, multimodal data

    R395

    2021-07-26

    *國家自然科學(xué)基金聯(lián)合基金項(xiàng)目(批準(zhǔn)號:U1911201)。

    駱方, E-mail: luof@bnu.edu.cn

    猜你喜歡
    自閉癥嬰幼兒篩查
    點(diǎn)贊將“抑郁癥篩查”納入學(xué)生體檢
    公民與法治(2022年1期)2022-07-26 05:57:48
    關(guān)愛自閉癥群體應(yīng)從消除誤解開始
    “基因剪刀”或可減輕自閉癥癥狀
    預(yù)防宮頸癌,篩查怎么做
    NRS2002和MNA-SF在COPD合并營養(yǎng)不良篩查中的應(yīng)用價(jià)值比較
    護(hù)理嬰幼兒五不宜
    智力篩查,靠不靠譜?
    幸福(2019年12期)2019-05-16 02:27:40
    自閉癥是個(gè)什么鬼?
    海峽姐妹(2017年5期)2017-06-05 08:53:17
    圖解嬰幼兒窒息緊急處理
    健康管理(2017年4期)2017-05-20 08:17:06
    自閉癥孩子畫作中國美術(shù)館展出
    丹青少年(2017年2期)2017-02-26 09:11:05
    99热只有精品国产| 麻豆国产av国片精品| 狠狠狠狠99中文字幕| 亚洲av熟女| 亚洲五月婷婷丁香| 老女人水多毛片| 淫妇啪啪啪对白视频| 久久精品国产亚洲av涩爱 | 精品国产亚洲在线| 国产免费一级a男人的天堂| 国产免费av片在线观看野外av| 久久99热这里只有精品18| 国产伦人伦偷精品视频| 99久国产av精品| 欧美另类亚洲清纯唯美| 午夜免费男女啪啪视频观看 | 国产精品人妻久久久久久| 日本黄大片高清| 亚洲激情在线av| 深爱激情五月婷婷| 国产精品伦人一区二区| 午夜精品一区二区三区免费看| 一个人看的www免费观看视频| 亚洲国产精品sss在线观看| 90打野战视频偷拍视频| 成年免费大片在线观看| 两性午夜刺激爽爽歪歪视频在线观看| 美女免费视频网站| 色播亚洲综合网| 99久国产av精品| 伊人久久精品亚洲午夜| av欧美777| 一区二区三区四区激情视频 | 欧美午夜高清在线| 老鸭窝网址在线观看| 91麻豆av在线| 亚洲最大成人中文| 18禁黄网站禁片免费观看直播| 俄罗斯特黄特色一大片| 婷婷丁香在线五月| 成人高潮视频无遮挡免费网站| 欧美又色又爽又黄视频| 国产精品av视频在线免费观看| 亚洲av第一区精品v没综合| 久久99热6这里只有精品| 精品久久久久久久人妻蜜臀av| 99久久久亚洲精品蜜臀av| 男女床上黄色一级片免费看| 久久久国产成人免费| 亚洲在线自拍视频| 日韩欧美 国产精品| 黄片小视频在线播放| 久久久久国内视频| av在线老鸭窝| 好男人电影高清在线观看| 亚洲内射少妇av| 一级a爱片免费观看的视频| 亚洲自拍偷在线| 欧美一区二区亚洲| 午夜福利成人在线免费观看| 伦理电影大哥的女人| 18禁黄网站禁片免费观看直播| 天美传媒精品一区二区| 精品99又大又爽又粗少妇毛片 | 久久精品夜夜夜夜夜久久蜜豆| 51午夜福利影视在线观看| 亚洲一区高清亚洲精品| 黄色一级大片看看| 久久久久久久久大av| 在线观看午夜福利视频| 99热精品在线国产| 国产精品久久久久久亚洲av鲁大| 国产伦人伦偷精品视频| 亚洲不卡免费看| 亚洲经典国产精华液单 | 啦啦啦韩国在线观看视频| 精品国产亚洲在线| 听说在线观看完整版免费高清| 非洲黑人性xxxx精品又粗又长| 成人精品一区二区免费| 国产真实伦视频高清在线观看 | 亚洲欧美激情综合另类| av专区在线播放| 好男人电影高清在线观看| 亚洲精品粉嫩美女一区| 男女床上黄色一级片免费看| 国产精品电影一区二区三区| 亚洲av成人精品一区久久| 亚洲成av人片在线播放无| 国语自产精品视频在线第100页| 夜夜看夜夜爽夜夜摸| av天堂在线播放| 国产精品,欧美在线| 亚洲av一区综合| 国模一区二区三区四区视频| 亚洲五月天丁香| 一边摸一边抽搐一进一小说| 九色国产91popny在线| 亚洲中文字幕一区二区三区有码在线看| 亚洲18禁久久av| 简卡轻食公司| 人人妻人人看人人澡| av中文乱码字幕在线| 国产精品女同一区二区软件 | 日本在线视频免费播放| 永久网站在线| 听说在线观看完整版免费高清| 又爽又黄无遮挡网站| 757午夜福利合集在线观看| 国产精品av视频在线免费观看| 桃红色精品国产亚洲av| 欧美最黄视频在线播放免费| 丁香欧美五月| 在现免费观看毛片| 国产欧美日韩精品一区二区| av国产免费在线观看| 啪啪无遮挡十八禁网站| 免费在线观看日本一区| 波多野结衣高清无吗| 在线观看美女被高潮喷水网站 | 人人妻,人人澡人人爽秒播| 偷拍熟女少妇极品色| 老司机午夜福利在线观看视频| 国内精品一区二区在线观看| 精品午夜福利在线看| 在线免费观看不下载黄p国产 | 亚洲国产精品sss在线观看| 国产精品久久久久久人妻精品电影| 国产久久久一区二区三区| 亚洲精品在线美女| 美女xxoo啪啪120秒动态图 | 国产一区二区三区在线臀色熟女| 亚洲精品456在线播放app | 一进一出好大好爽视频| 国产成人av教育| 欧美+日韩+精品| 久久精品国产亚洲av香蕉五月| 久久久久九九精品影院| 91狼人影院| 国产主播在线观看一区二区| 精品熟女少妇八av免费久了| 国产亚洲精品av在线| 亚洲美女视频黄频| 免费搜索国产男女视频| av专区在线播放| 亚洲国产精品sss在线观看| 中亚洲国语对白在线视频| 精品一区二区三区av网在线观看| av天堂在线播放| 亚洲最大成人av| 欧美成人免费av一区二区三区| 黄色日韩在线| or卡值多少钱| 国产aⅴ精品一区二区三区波| 亚洲国产高清在线一区二区三| 亚洲18禁久久av| 国产精品美女特级片免费视频播放器| 免费无遮挡裸体视频| 美女黄网站色视频| 首页视频小说图片口味搜索| 欧美日韩黄片免| a级毛片a级免费在线| 成熟少妇高潮喷水视频| 久久久久久九九精品二区国产| 亚洲av一区综合| 精品人妻一区二区三区麻豆 | 人人妻人人看人人澡| 久久精品国产自在天天线| 一本久久中文字幕| 久久精品国产亚洲av涩爱 | 9191精品国产免费久久| 男人舔女人下体高潮全视频| 国产真实乱freesex| 国产免费男女视频| 精品久久久久久久久av| 婷婷丁香在线五月| 搞女人的毛片| av中文乱码字幕在线| 久久香蕉精品热| 亚洲乱码一区二区免费版| 亚洲av免费在线观看| 少妇裸体淫交视频免费看高清| 久久久久国内视频| 国产成人啪精品午夜网站| 一个人看视频在线观看www免费| 波多野结衣高清无吗| 色哟哟·www| 国产淫片久久久久久久久 | 国语自产精品视频在线第100页| av欧美777| 精品乱码久久久久久99久播| 一夜夜www| 嫁个100分男人电影在线观看| 久久99热6这里只有精品| 欧美绝顶高潮抽搐喷水| 国产真实伦视频高清在线观看 | 亚洲五月天丁香| 亚洲精品乱码久久久v下载方式| 99久久九九国产精品国产免费| 久久精品久久久久久噜噜老黄 | 色精品久久人妻99蜜桃| 亚洲中文日韩欧美视频| 男女床上黄色一级片免费看| 国产v大片淫在线免费观看| av福利片在线观看| 欧美日韩乱码在线| av黄色大香蕉| 婷婷色综合大香蕉| 99热6这里只有精品| 在线观看66精品国产| 九九热线精品视视频播放| 欧洲精品卡2卡3卡4卡5卡区| 国内精品一区二区在线观看| 色在线成人网| 丰满的人妻完整版| 在线国产一区二区在线| 九九在线视频观看精品| 日韩中字成人| 超碰av人人做人人爽久久| 麻豆av噜噜一区二区三区| 国产成+人综合+亚洲专区| 又粗又爽又猛毛片免费看| 国产高清视频在线观看网站| 男人的好看免费观看在线视频| 久久久久久久亚洲中文字幕 | 一个人免费在线观看的高清视频| 欧美成狂野欧美在线观看| 99久久无色码亚洲精品果冻| 一级a爱片免费观看的视频| 丰满的人妻完整版| 国产亚洲精品久久久com| 中文字幕久久专区| 成人毛片a级毛片在线播放| 草草在线视频免费看| 国产黄a三级三级三级人| 日韩高清综合在线| 午夜久久久久精精品| 亚洲 欧美 日韩 在线 免费| 精品乱码久久久久久99久播| 99在线视频只有这里精品首页| 精品国内亚洲2022精品成人| 亚洲成人久久性| 有码 亚洲区| 桃色一区二区三区在线观看| 久久久久免费精品人妻一区二区| 久久欧美精品欧美久久欧美| 国产精品精品国产色婷婷| 成人鲁丝片一二三区免费| 搞女人的毛片| 亚洲激情在线av| 亚洲人与动物交配视频| 亚洲一区二区三区不卡视频| 一级a爱片免费观看的视频| 日本免费a在线| 少妇人妻精品综合一区二区 | 一级a爱片免费观看的视频| 日韩av在线大香蕉| 久久精品国产亚洲av天美| 午夜福利在线观看免费完整高清在 | 日韩欧美精品v在线| 一夜夜www| 久久人妻av系列| 熟女电影av网| 人妻夜夜爽99麻豆av| 天堂√8在线中文| 国产亚洲欧美98| 看十八女毛片水多多多| www.色视频.com| 成人性生交大片免费视频hd| 国产精品电影一区二区三区| 日韩精品青青久久久久久| 嫩草影院精品99| xxxwww97欧美| h日本视频在线播放| 国产精品免费一区二区三区在线| 在线观看午夜福利视频| 尤物成人国产欧美一区二区三区| 两个人的视频大全免费| 精品免费久久久久久久清纯| 色综合欧美亚洲国产小说| 一本综合久久免费| 婷婷六月久久综合丁香| 久久九九热精品免费| 麻豆一二三区av精品| 91av网一区二区| 夜夜爽天天搞| 精品久久久久久成人av| 亚洲成人久久性| 久久久久久久精品吃奶| 久久久精品大字幕| 国产乱人视频| 男女视频在线观看网站免费| 99精品在免费线老司机午夜| 国产不卡一卡二| 一区二区三区免费毛片| 少妇的逼水好多| 亚洲精品成人久久久久久| 日本精品一区二区三区蜜桃| 日韩欧美精品免费久久 | 日韩中字成人| 午夜福利视频1000在线观看| 麻豆一二三区av精品| 18禁黄网站禁片免费观看直播| 精品久久久久久久末码| 日日摸夜夜添夜夜添小说| 亚洲成人精品中文字幕电影| 欧美成人一区二区免费高清观看| 日日夜夜操网爽| 亚洲国产精品999在线| 亚洲五月天丁香| 丁香六月欧美| 亚洲成人中文字幕在线播放| 性色avwww在线观看| 国产伦精品一区二区三区四那| 一级a爱片免费观看的视频| 男插女下体视频免费在线播放| 色综合婷婷激情| 久久精品夜夜夜夜夜久久蜜豆| 精品欧美国产一区二区三| 熟妇人妻久久中文字幕3abv| 99热只有精品国产| 国产日本99.免费观看| 国产免费男女视频| 丰满人妻一区二区三区视频av| 久99久视频精品免费| 欧美精品啪啪一区二区三区| 亚州av有码| 午夜激情福利司机影院| 两性午夜刺激爽爽歪歪视频在线观看| 国产欧美日韩一区二区三| 可以在线观看的亚洲视频| 国产精品一区二区三区四区免费观看 | 亚洲人成伊人成综合网2020| 久久久久国产精品人妻aⅴ院| 国产成年人精品一区二区| 很黄的视频免费| 亚洲专区国产一区二区| 成人特级av手机在线观看| 校园春色视频在线观看| 亚洲 欧美 日韩 在线 免费| 天美传媒精品一区二区| 日日摸夜夜添夜夜添小说| 国产蜜桃级精品一区二区三区| 国产亚洲欧美98| 亚洲成人久久性| 国产一区二区激情短视频| 亚洲国产精品久久男人天堂| 亚洲成人久久性| 性色av乱码一区二区三区2| 啦啦啦观看免费观看视频高清| av天堂在线播放| 在现免费观看毛片| 国产精品乱码一区二三区的特点| 国产一区二区激情短视频| 国产精品久久电影中文字幕| 国产av在哪里看| 桃红色精品国产亚洲av| 在线国产一区二区在线| 99久久精品热视频| 亚洲欧美激情综合另类| 精品一区二区三区视频在线观看免费| 亚洲最大成人av| 中文字幕人妻熟人妻熟丝袜美| av福利片在线观看| 亚洲国产欧美人成| 欧美丝袜亚洲另类 | 欧美区成人在线视频| 偷拍熟女少妇极品色| 淫妇啪啪啪对白视频| eeuss影院久久| 可以在线观看的亚洲视频| 欧美最新免费一区二区三区 | 99久国产av精品| 欧美一区二区精品小视频在线| 欧美黑人巨大hd| 亚洲国产日韩欧美精品在线观看| 欧美午夜高清在线| 亚洲精品456在线播放app | 一级a爱片免费观看的视频| 别揉我奶头~嗯~啊~动态视频| 成人国产综合亚洲| 我要看日韩黄色一级片| 九色国产91popny在线| avwww免费| 两人在一起打扑克的视频| 我的老师免费观看完整版| 丝袜美腿在线中文| 9191精品国产免费久久| 我的女老师完整版在线观看| 日韩 亚洲 欧美在线| av天堂中文字幕网| 18禁在线播放成人免费| 淫妇啪啪啪对白视频| 久久精品夜夜夜夜夜久久蜜豆| 少妇人妻精品综合一区二区 | 中文亚洲av片在线观看爽| 搡老妇女老女人老熟妇| 国产欧美日韩精品一区二区| 香蕉av资源在线| 蜜桃亚洲精品一区二区三区| ponron亚洲| 男插女下体视频免费在线播放| 在线十欧美十亚洲十日本专区| 国产精品日韩av在线免费观看| 一本精品99久久精品77| 丁香欧美五月| 老司机午夜十八禁免费视频| 亚洲中文字幕一区二区三区有码在线看| 网址你懂的国产日韩在线| 亚洲av一区综合| 欧美高清成人免费视频www| 女生性感内裤真人,穿戴方法视频| 久久国产精品人妻蜜桃| 丁香欧美五月| 国产美女午夜福利| 在线观看免费视频日本深夜| 成人午夜高清在线视频| 亚洲专区国产一区二区| 禁无遮挡网站| 又粗又爽又猛毛片免费看| 97超级碰碰碰精品色视频在线观看| 日韩欧美精品v在线| 欧美极品一区二区三区四区| 免费电影在线观看免费观看| 美女被艹到高潮喷水动态| 久久久久久大精品| 两性午夜刺激爽爽歪歪视频在线观看| 最近最新免费中文字幕在线| 身体一侧抽搐| 亚洲欧美激情综合另类| aaaaa片日本免费| 国产男靠女视频免费网站| 真人一进一出gif抽搐免费| 亚洲av二区三区四区| 日本a在线网址| 在线播放无遮挡| 亚洲熟妇熟女久久| 中文在线观看免费www的网站| 久久婷婷人人爽人人干人人爱| 国产v大片淫在线免费观看| 午夜福利在线在线| 嫁个100分男人电影在线观看| 国产精品乱码一区二三区的特点| 一个人免费在线观看的高清视频| 亚洲欧美日韩高清在线视频| 亚洲av.av天堂| 亚洲不卡免费看| 中文字幕人成人乱码亚洲影| 色视频www国产| 亚洲av成人不卡在线观看播放网| 亚洲精品久久国产高清桃花| 一个人看的www免费观看视频| 最近中文字幕高清免费大全6 | 欧美成人免费av一区二区三区| .国产精品久久| 俄罗斯特黄特色一大片| 国产在线精品亚洲第一网站| 久久精品人妻少妇| 色精品久久人妻99蜜桃| 欧美不卡视频在线免费观看| 超碰av人人做人人爽久久| 亚洲成av人片在线播放无| 久久久久久大精品| 精品久久久久久久人妻蜜臀av| 国产一区二区在线av高清观看| 中文字幕久久专区| 亚洲av免费在线观看| 99精品在免费线老司机午夜| 国产亚洲欧美在线一区二区| 免费人成在线观看视频色| www.999成人在线观看| 久久精品国产99精品国产亚洲性色| 久久久久久久亚洲中文字幕 | aaaaa片日本免费| 色在线成人网| 午夜福利成人在线免费观看| 在线观看一区二区三区| 国产亚洲欧美98| 亚洲精品成人久久久久久| 99热这里只有精品一区| 国产伦精品一区二区三区视频9| 色综合欧美亚洲国产小说| 国产一区二区在线观看日韩| 精品久久久久久成人av| 久久这里只有精品中国| 色综合欧美亚洲国产小说| 色噜噜av男人的天堂激情| 内地一区二区视频在线| 久久精品国产清高在天天线| 淫妇啪啪啪对白视频| 女生性感内裤真人,穿戴方法视频| 中文字幕高清在线视频| 我要看日韩黄色一级片| 国产熟女xx| 久久久久久久精品吃奶| 精品福利观看| 男插女下体视频免费在线播放| 国产一级毛片七仙女欲春2| a在线观看视频网站| 亚洲精品在线美女| 久99久视频精品免费| 波多野结衣高清无吗| 在线看三级毛片| 精品人妻1区二区| 久久草成人影院| 精品久久久久久,| 亚洲欧美精品综合久久99| 五月伊人婷婷丁香| 亚洲一区高清亚洲精品| 亚洲国产精品999在线| 欧美另类亚洲清纯唯美| 免费av毛片视频| 又黄又爽又刺激的免费视频.| 亚洲精品日韩av片在线观看| 午夜激情福利司机影院| 久久久久久九九精品二区国产| av女优亚洲男人天堂| 欧美三级亚洲精品| 国产亚洲精品久久久com| 亚洲中文字幕一区二区三区有码在线看| 性色avwww在线观看| 动漫黄色视频在线观看| 亚洲av熟女| 久久亚洲真实| 免费看光身美女| 亚洲aⅴ乱码一区二区在线播放| 波野结衣二区三区在线| а√天堂www在线а√下载| 国产欧美日韩精品一区二区| 亚洲综合色惰| 欧美日韩亚洲国产一区二区在线观看| 日韩欧美精品v在线| 99热这里只有精品一区| 欧美黄色片欧美黄色片| 最近最新中文字幕大全电影3| 在线观看一区二区三区| 色综合欧美亚洲国产小说| 91av网一区二区| 久久精品国产99精品国产亚洲性色| 国产真实伦视频高清在线观看 | 亚洲欧美日韩高清专用| 免费在线观看影片大全网站| 国产真实乱freesex| 精品人妻偷拍中文字幕| 少妇人妻精品综合一区二区 | 亚洲成人精品中文字幕电影| 极品教师在线视频| 热99在线观看视频| 国产综合懂色| 精品午夜福利在线看| 美女被艹到高潮喷水动态| 亚洲性夜色夜夜综合| 日本熟妇午夜| 精品久久久久久久末码| 精品国产亚洲在线| 精品熟女少妇八av免费久了| 久久欧美精品欧美久久欧美| 欧美3d第一页| 精品国产三级普通话版| 真实男女啪啪啪动态图| 精品久久久久久久久av| 在线播放无遮挡| 两个人视频免费观看高清| 国产乱人伦免费视频| 一本久久中文字幕| 久久热精品热| 久久精品国产99精品国产亚洲性色| 国产主播在线观看一区二区| 国产成人a区在线观看| 国产亚洲欧美在线一区二区| 亚洲国产精品合色在线| 欧美乱妇无乱码| 国产精品影院久久| 亚洲欧美精品综合久久99| 黄色女人牲交| 首页视频小说图片口味搜索| 国产欧美日韩精品一区二区| 少妇的逼好多水| 国产在线男女| 国内毛片毛片毛片毛片毛片| 99热精品在线国产| 露出奶头的视频| 人妻制服诱惑在线中文字幕| 在线观看午夜福利视频| 国产高潮美女av| 成年免费大片在线观看| 一二三四社区在线视频社区8| 国产成+人综合+亚洲专区| 欧美xxxx黑人xx丫x性爽| 国产高潮美女av| 久久久国产成人精品二区| 精品一区二区免费观看| 国产精品电影一区二区三区| 免费观看人在逋| 午夜两性在线视频| 无人区码免费观看不卡| av国产免费在线观看| 又黄又爽又刺激的免费视频.| 成人特级av手机在线观看| 人妻制服诱惑在线中文字幕| 禁无遮挡网站| 日本五十路高清| 别揉我奶头 嗯啊视频| 亚洲熟妇熟女久久| 国产精品亚洲美女久久久| 亚洲五月天丁香| 老熟妇仑乱视频hdxx| 老司机午夜福利在线观看视频| 91麻豆精品激情在线观看国产| 窝窝影院91人妻| 搡老妇女老女人老熟妇| 成人特级黄色片久久久久久久| x7x7x7水蜜桃| 亚洲片人在线观看| 99精品在免费线老司机午夜|