• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    人工智能在醫(yī)學(xué)CT圖像重建中的研究進(jìn)展

    2023-02-02 08:46:16李潤(rùn)睿成煜斌
    關(guān)鍵詞:偽影正弦投影

    李 青,李潤(rùn)睿,強(qiáng) 彥,成煜斌,王 濤

    (太原理工大學(xué) 信息與計(jì)算機(jī)學(xué)院,太原 030024)

    計(jì)算機(jī)斷層掃描成像是一種可靠的、非侵入性的檢測(cè)技術(shù),它可以檢測(cè)人體內(nèi)部結(jié)構(gòu)異常,如腫瘤、骨折、血管疾病以及細(xì)胞癌變等,除了為診斷提供支持,CT還可以指導(dǎo)各種臨床過(guò)程,包括介入、手術(shù)治療以及放射治療等疾病[1]。臨床上為了獲得具有診斷意義的高質(zhì)量CT影像,所用的X射線劑量相對(duì)較高,而且會(huì)多角度重復(fù)采集多張影像數(shù)據(jù)。反復(fù)的CT掃描會(huì)讓患者暴露在巨大的輻射當(dāng)中,過(guò)度輻射還會(huì)誘發(fā)癌癥、代謝異常、白血病或其他遺傳性疾病,對(duì)人體產(chǎn)生不可逆的影響,降低患者的生活質(zhì)量[2]。因此,降低CT掃描輻射劑量不可避免地成為了研究者的關(guān)注熱點(diǎn),并具有重要的臨床價(jià)值。

    在臨床上,為了獲得低劑量的CT圖像,通常使用降低管電流減少X射線輻射;降低管電壓減少X射線穿透能力;減少X射線數(shù)目來(lái)降低輻射劑量。雖然在一定程度上改善了輻射劑量過(guò)高的問(wèn)題,但是這些措施會(huì)極大地降低X射線信號(hào)的信噪比(signal-noise ratio,SNR),并導(dǎo)致低對(duì)比度CT圖像存在大量噪聲和偽影,成像質(zhì)量的視覺(jué)退化會(huì)導(dǎo)致器官紋理和邊緣的模糊,從而降低臨床診斷和任務(wù)分析的可靠性[3]。然而,為了克服CT圖像的視覺(jué)退化,提高低劑量CT圖像的臨床可用性,重建出符合臨床需求的CT圖像是國(guó)內(nèi)外研究者廣泛關(guān)注的、具有挑戰(zhàn)性的難點(diǎn)問(wèn)題。

    目前,人工智能在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理以及醫(yī)學(xué)圖像領(lǐng)域取得突破性進(jìn)展,尤其體現(xiàn)在醫(yī)學(xué)圖像處理領(lǐng)域,包括前期的PET/CT圖像重建[4]、MRI圖像病灶分割[5]、CT圖像檢索[6],以及后期的智能診斷[7]。隨著深度學(xué)習(xí)方法在圖像去噪、超分辨率、圖像識(shí)別、圖像檢測(cè)等[8-9]計(jì)算機(jī)視覺(jué)領(lǐng)域發(fā)展迅速,在圖像重建領(lǐng)域[10]也取得了初步應(yīng)用。隨著硬件技術(shù)的快速發(fā)展,以及對(duì)高性能處理、數(shù)據(jù)驅(qū)動(dòng)的執(zhí)行加速了醫(yī)學(xué)成像領(lǐng)域深度學(xué)習(xí)方法的運(yùn)用。因此,近年來(lái),利用深度學(xué)習(xí)技術(shù)提出更優(yōu)的CT重建方法成為研究人員的研究重點(diǎn)。

    本文重點(diǎn)總結(jié)了深度學(xué)習(xí)算法在CT重建領(lǐng)域的應(yīng)用,分析不同算法在CT圖像的降噪精度、病變識(shí)別能力以及保持精細(xì)結(jié)構(gòu)和紋理細(xì)節(jié)等方面的重建能力。本文的整體框架如圖1所示,我們首先詳細(xì)描述了CT圖像重建問(wèn)題,然后對(duì)醫(yī)學(xué)CT圖像重建方法進(jìn)行全面介紹,主要分為傳統(tǒng)的CT重建算法,以及近幾年發(fā)展迅速的深度學(xué)習(xí)重建算法。

    圖1 人工智能方法在CT圖像重建中的應(yīng)用Fig.1 Application of artificial intelligence methods in CT image reconstruction

    在深度學(xué)習(xí)重建算法中又包含了四類方法,分別為:對(duì)原始數(shù)據(jù)進(jìn)行預(yù)處理的投影域CT圖像重建、圖像后處理的圖像域CT圖像重建、雙域網(wǎng)絡(luò)CT圖像重建以及直接映射CT圖像重建,突出了基于深度學(xué)習(xí)的CT圖像重建應(yīng)用在模型性能、結(jié)構(gòu)保存和病變判別方面的具體貢獻(xiàn)。隨后,還回顧了不同CT重建中常用的數(shù)據(jù)集和損失函數(shù)的多樣性,討論了重建過(guò)程中存在的問(wèn)題和未來(lái)的研究方向。

    1 CT圖像成像概述

    圖像重建是將從成像設(shè)備收集的原始數(shù)據(jù)形成可解釋圖像的過(guò)程。在已知一組測(cè)量值的前提下,目標(biāo)是確定影響接收器收集信號(hào)的原始圖像結(jié)構(gòu),這一過(guò)程被稱為逆問(wèn)題。設(shè)y是一組原始采集的傳感器測(cè)量值,在采集過(guò)程中收到一些固有噪聲N的影響,目標(biāo)是恢復(fù)空間域的圖像x,將這一過(guò)程用公式(1)描述:

    y=A(F(x),N) .

    (1)

    其中,F(xiàn)(·)代表成像物理結(jié)構(gòu)進(jìn)行建模的正向操作運(yùn)算,一般包括雷登變換(Radon)或傅里葉變換,它可以是線性操作,也可以是非線性操作,具體取決于成像模式。A表示噪聲和信號(hào)之間的相互作用。圖像重建還是一個(gè)不確定的問(wèn)題,因?yàn)闇y(cè)量值(M)往往比未知數(shù)(N)少得多。

    從數(shù)學(xué)層面上理解,這個(gè)問(wèn)題具有高度不確定性,因?yàn)槊枋瞿P偷姆匠虃€(gè)數(shù)遠(yuǎn)遠(yuǎn)小于未知數(shù)的個(gè)數(shù),可能有無(wú)限一致的圖像映射到相同的測(cè)量值。因此,重建算法的一個(gè)挑戰(zhàn)是從一組潛在的解決方案中選擇最佳解決方案[11]。CT圖像的稀疏視圖、有限角采樣、降低輻射劑量通常會(huì)減小測(cè)量信號(hào)y的大小,同時(shí)增加其稀疏性和噪聲水平,從而增加重建問(wèn)題的不適定性和復(fù)雜性。這就提出了對(duì)具有高特征提取能力的復(fù)雜重建算法的需求,重建算法要最大限度地利用收集的信號(hào)以及先驗(yàn)知識(shí),捕捉特定于模態(tài)的成像特征。此外,開(kāi)發(fā)高質(zhì)量的重建算法不僅需要對(duì)成像系統(tǒng)的物理和生物醫(yī)學(xué)結(jié)構(gòu)都有深入的了解,而且還需要專門(mén)設(shè)計(jì)的算法來(lái)解釋測(cè)量的統(tǒng)計(jì)特性并容忍測(cè)量數(shù)據(jù)中存在的誤差。

    經(jīng)過(guò)五十多年的努力,醫(yī)學(xué)CT圖像重建領(lǐng)域取得了長(zhǎng)足的進(jìn)步,大致可以分為兩類:傳統(tǒng)方法和基于深度學(xué)習(xí)的方法。傳統(tǒng)方法得到了廣泛的研究,重點(diǎn)放在如何改進(jìn)重建結(jié)果[12]以及降低其計(jì)算成本[13]。最近,受深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)問(wèn)題中的成功啟發(fā),研究人員研究了用于各種生物醫(yī)學(xué)圖像重建問(wèn)題的深度學(xué)習(xí)方法。在過(guò)去幾年中,CT圖像重建領(lǐng)域逐漸成為了一個(gè)非?;钴S的研究領(lǐng)域,并發(fā)表了一系列專題專刊[14-16]。接下來(lái),對(duì)傳統(tǒng)方法在CT圖像重建中的應(yīng)用進(jìn)行了概述,討論了它們的優(yōu)點(diǎn)和局限性,以及深度學(xué)習(xí)范例在該領(lǐng)域的應(yīng)用,并對(duì)傳統(tǒng)方法進(jìn)行了補(bǔ)充和改進(jìn)。

    2 傳統(tǒng)方法在CT圖像重建中的應(yīng)用

    傳統(tǒng)的CT圖像重建算法考慮了測(cè)量和噪聲的統(tǒng)計(jì)特性以及成像系統(tǒng)的硬件設(shè)備,從分析方法發(fā)展到迭代或基于優(yōu)化的方法,大致可分為三類:即正弦圖域?yàn)V波、迭代重建和圖像域恢復(fù)[17]。雖然這些方法在重建精度和偽影減少方面有了顯著的改善,但它們?nèi)匀淮嬖谝恍┤秉c(diǎn),在實(shí)際臨床應(yīng)用中往往受到限制。

    有個(gè)理發(fā)師,理發(fā)時(shí)總講些妖魔鬼怪的故事,問(wèn)他為什么。他說(shuō):“我講這些故事的時(shí)候,你的頭發(fā)就會(huì)豎起來(lái),這樣我理起發(fā)來(lái)就容易得多了?!?/p>

    通常,CT圖像重建方法是低劑量CT圖像到正常劑量CT圖像的映射。重建后CT圖像處理技術(shù)雖然不需要投影數(shù)據(jù),也比以上兩類方法更簡(jiǎn)單,但由于復(fù)雜噪聲在圖像域的分布不均勻等統(tǒng)計(jì)特性,依據(jù)噪聲模型估計(jì)噪聲分布降低了去噪的性能,導(dǎo)致重建效果不佳。近年來(lái),深度學(xué)習(xí)通過(guò)訓(xùn)練多層深度卷積網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)信息特征的提取、分析和處理。

    2.1 正弦圖域?yàn)V波方法

    基于正弦圖域?yàn)V波的重建方法主要目的是從低劑量X射線束獲得的CT原始數(shù)據(jù)中濾除噪聲,通過(guò)直接對(duì)反投影前形成的原始投影數(shù)據(jù)進(jìn)行重建,可以準(zhǔn)確地計(jì)算噪聲統(tǒng)計(jì)量并進(jìn)行有效重建。一些研究人員應(yīng)用傳統(tǒng)的去噪技術(shù)處理數(shù)據(jù),典型的方法有:結(jié)構(gòu)自適應(yīng)濾波[18-19]、雙邊濾波[20],這類方法主要通過(guò)改善濾波器進(jìn)行去噪過(guò)程。另外一些經(jīng)典的方法,比如:懲罰似然法[21]、加權(quán)最小二乘算法[22],這些方法的共同點(diǎn)都是對(duì)物理特性和光子統(tǒng)計(jì)特性結(jié)合起來(lái)去噪,是目前流行的正弦圖域?yàn)V波方法。然而,這些方法通常計(jì)算成本不高(毫秒量級(jí)),并且可以在無(wú)噪聲、全采樣或所有角度投影的假設(shè)下生成良好的圖像質(zhì)量[23]。正弦圖域?yàn)V波方法通常只考慮成像系統(tǒng)的幾何形狀和采樣特性,而忽略系統(tǒng)物理特性和測(cè)量噪聲的細(xì)節(jié)[24],當(dāng)處理有噪聲或不完整的測(cè)量數(shù)據(jù)時(shí),例如降低測(cè)量采樣率,重建結(jié)果會(huì)隨著信號(hào)變?nèi)醵鴩?yán)重退化,并且無(wú)法恢復(fù)信號(hào)中的缺失信息,從而導(dǎo)致診斷性能受損。另外,重建過(guò)程預(yù)測(cè)數(shù)據(jù)過(guò)分依賴CT設(shè)備供應(yīng)商的完備數(shù)據(jù)以及CT掃描儀無(wú)法獲得的原始數(shù)據(jù),這些數(shù)據(jù)大多數(shù)不能公開(kāi)訪問(wèn)。

    2.2 迭代重建方法

    迭代重建方法基于成像系統(tǒng)的物理、傳感器和噪聲統(tǒng)計(jì)的更復(fù)雜的模型,將傳感器域(原始測(cè)量數(shù)據(jù))中數(shù)據(jù)的統(tǒng)計(jì)特性、圖像域中的先驗(yàn)信息,有時(shí)還將成像系統(tǒng)的參數(shù)組合到其損失函數(shù)中。與正弦圖域?yàn)V波方法相比,迭代重建算法提供了更靈活的重建框架,并且以增加計(jì)算量為代價(jià)對(duì)噪聲和不完整數(shù)據(jù)表示問(wèn)題具有更好的魯棒性[25]。

    迭代重建依賴于圖像的先驗(yàn)信息,通過(guò)在正弦圖和圖像域之間迭代來(lái)進(jìn)行降噪,它將重建過(guò)程看作函數(shù)求解最優(yōu)解的逆問(wèn)題,首先設(shè)計(jì)正則項(xiàng),接著優(yōu)化目標(biāo)函數(shù),直到獲得較好的信噪比(SNR)才停止迭代過(guò)程?;谌兎?total variation,TV)的先驗(yàn)[26]被廣泛應(yīng)用于迭代重建研究中,雖然TV通過(guò)更適合于分段恒定圖像的非平滑絕對(duì)值對(duì)梯度稀疏性提出了很強(qiáng)的假設(shè),但是在最終的重建中,TV往往會(huì)造成細(xì)節(jié)模糊和斑塊紋理等偽影現(xiàn)象。除此之外,研究人員利用豐富的特征信息克服重建過(guò)程中出現(xiàn)的偽影問(wèn)題,例如TV的變體[27],非局部均值[28],小波方法[29]和字典學(xué)習(xí)[30]??傮w而言,盡管迭代重建方法與正弦圖域?yàn)V波方法相比提高了準(zhǔn)確率并減少了偽影,但它們?nèi)匀幻媾R三個(gè)主要問(wèn)題:第一,迭代重建技術(shù)往往是特定于供應(yīng)商的,掃描儀幾何形狀和校正步驟的細(xì)節(jié)對(duì)用戶和其他供應(yīng)商不開(kāi)放。其次,由于每次迭代所需的投影和反投影操作的負(fù)載,迭代重建技術(shù)相關(guān)的計(jì)算開(kāi)銷很大,這些方法的計(jì)算成本通常比正弦圖域?yàn)V波方法高出幾個(gè)數(shù)量級(jí)。最后,重建質(zhì)量高度依賴于正則化函數(shù)和相關(guān)的超參數(shù)設(shè)置,需要手動(dòng)調(diào)整才能達(dá)到較優(yōu)的效果。種種因素限制了迭代重建技術(shù)在臨床中的應(yīng)用。

    2.3 圖像后處理重建方法

    與正弦圖域?yàn)V波方法和迭代重建方法不同,基于圖像域的重建被認(rèn)為是一種后處理方法。圖像后處理重建算法直接應(yīng)用于CT圖像,而不是原始投影數(shù)據(jù),相比于迭代重建方法,它的重建速度非??欤也恍枰?yīng)商提供原始數(shù)據(jù),它可以很輕松地集成到CT設(shè)備的工作流程中。諸如非局部均值過(guò)濾方法[31]、基于字典學(xué)習(xí)的方法[32]、塊匹配算法[33]和基于統(tǒng)計(jì)的算法[34]等。盡管圖像域后處理方法非常靈活,但在算法實(shí)現(xiàn)過(guò)程中由于噪聲的非均勻性而無(wú)法計(jì)算其統(tǒng)計(jì)量,削弱了CT重建的準(zhǔn)確性。此外,它還存在模糊CT圖像的結(jié)構(gòu)信息等問(wèn)題。因此,現(xiàn)有的圖像后處理重建方法及其局限性為提出新的CT重建方法提供了方向。

    3 深度學(xué)習(xí)方法在CT圖像重建中的應(yīng)用

    深度學(xué)習(xí)是人工智能的一個(gè)分支學(xué)科,它利用經(jīng)驗(yàn)自動(dòng)學(xué)習(xí)和改進(jìn)應(yīng)用程序,通過(guò)構(gòu)建深度神經(jīng)網(wǎng)絡(luò)處理各種任務(wù)。深度學(xué)習(xí)模型由多層特征表示(除了輸入層和輸出層之外的多個(gè)隱藏層)組成,從原始輸入開(kāi)始通過(guò)多層網(wǎng)絡(luò)提取不同抽象層次的特征表示,從而使復(fù)雜函數(shù)的學(xué)習(xí)成為可能[35];它的關(guān)鍵特征是利用所提供的數(shù)據(jù)樣本自動(dòng)學(xué)習(xí)用于特征提取的所有參數(shù),與人工特征方法相比,可以更好地針對(duì)特定問(wèn)題進(jìn)行自我優(yōu)化。當(dāng)輸入是圖像時(shí),低層特征通常表示圖像中的邊緣和輪廓,而高層特征通常是語(yǔ)義特征[36]。

    臨床上,醫(yī)學(xué)圖像一直被用于疾病的診斷和治療。圖像處理技術(shù)用于改善圖像質(zhì)量、圖像分析以幫助臨床醫(yī)生解釋圖像。自動(dòng)和半自動(dòng)的圖像分析方法不僅節(jié)約了大量時(shí)間,而且提高了圖像分析的準(zhǔn)確性,同時(shí)還增加了臨床醫(yī)生執(zhí)行醫(yī)療程序所需的解釋任務(wù)的可靠性[37]。深度學(xué)習(xí)目前已成功應(yīng)用于醫(yī)學(xué)圖像分析任務(wù),如分類、分割、配準(zhǔn)、邊緣檢測(cè)等[38],如今,在醫(yī)學(xué)圖像重建領(lǐng)域也逐漸被廣泛應(yīng)用。

    在CT圖像重建領(lǐng)域,深度模型可以捕獲高級(jí)特征顯示了它在整個(gè)數(shù)據(jù)驅(qū)動(dòng)學(xué)習(xí)過(guò)程中學(xué)習(xí)CT圖像上的不確定噪聲分布能力,此外,數(shù)據(jù)驅(qū)動(dòng)學(xué)習(xí)方法可以有效地適應(yīng)任何噪聲類型。因此,深度學(xué)習(xí)方法可以顯著提高CT圖像重建的整體性能[39]。CT圖像重建是利用投影數(shù)據(jù)進(jìn)行的,但是,當(dāng)投影數(shù)據(jù)不夠完整,掃描時(shí)間短以及掃描角度范圍有限的情況下會(huì)導(dǎo)致投影數(shù)據(jù)不完整,傳統(tǒng)的重建方法可能并不適用,極大可能導(dǎo)致重建圖像中的階梯效應(yīng)或塊狀偽影,甚至在重建圖像的邊緣出現(xiàn)偽影。目前,深度學(xué)習(xí)方法已用于應(yīng)對(duì)這些挑戰(zhàn),與現(xiàn)有的傳統(tǒng)方法相比,圖像重建準(zhǔn)確率更高,并且有效地降低了噪聲,提高了空間分辨率,在圖形處理單元上執(zhí)行速度更快。根據(jù)CT圖像的成像特性,本文將基于深度學(xué)習(xí)的CT圖像重建方法劃分為四個(gè)子類,即投影域CT圖像重建、圖像域CT圖像重建、雙域網(wǎng)絡(luò)CT圖像重建和直接映射CT圖像重建。圖2描述了深度學(xué)習(xí)方法用于CT圖像重建的四個(gè)子類。

    圖2 深度學(xué)習(xí)方法用于CT圖像重建的四個(gè)子類Fig.2 Deep learning methods are used in four subclasses of CT image reconstruction

    3.1 投影域CT圖像重建

    投影域CT圖像重建問(wèn)題表述為投影域圖像利用深度學(xué)習(xí)方法從不完整的數(shù)據(jù)表示(低劑量、數(shù)據(jù)稀疏、有限角)到完整數(shù)據(jù)表示(正常劑量)的回歸問(wèn)題。這一階段的主要目標(biāo)是利用深度學(xué)習(xí)模型估計(jì)在信號(hào)采集階段沒(méi)有采集到的缺失部分,以便將更完整的信號(hào)信息輸入到濾波反投影層進(jìn)行重建過(guò)程。LIANG et al[40]提出一種深度殘差卷積神經(jīng)網(wǎng)絡(luò),用于在濾波反投影重建圖像的同時(shí),從未測(cè)量的視圖進(jìn)行精確的全視圖估計(jì)。這種方法可以使重建速度加快,條紋偽影減少并且重建出更多重要的圖像細(xì)節(jié),但是由于噪聲不僅存在于不完整的數(shù)據(jù)采集中,而且也存在于完整的數(shù)據(jù)采集中,最小化參考值和預(yù)測(cè)值之間的誤差導(dǎo)致模型預(yù)測(cè)采集完整的數(shù)據(jù)圖像時(shí)可能會(huì)缺乏紋理細(xì)節(jié)。LEE et al[41]提出了一種基于深層神經(jīng)網(wǎng)絡(luò)的稀疏CT正弦圖合成方法,利用插值法對(duì)稀疏CT正弦圖中缺失數(shù)據(jù)進(jìn)行填充,提供了綜合完整的數(shù)據(jù)。但是,數(shù)據(jù)集中數(shù)據(jù)的冗余度較高,訓(xùn)練網(wǎng)絡(luò)時(shí)間較長(zhǎng),在扇束CT、錐束CT和螺旋多扇束CT以及不規(guī)則角度采樣方面還尚待解決??紤]到有限的訓(xùn)練數(shù)據(jù)集和深度學(xué)習(xí)對(duì)數(shù)據(jù)擾動(dòng)的敏感性,特別是在噪聲和不完整數(shù)據(jù)的情況下,基于深度學(xué)習(xí)的方法可能無(wú)法推廣到新的測(cè)試實(shí)例,HUANG et al[42]通過(guò)約束重建圖像與測(cè)量的投影數(shù)據(jù)一致性,同時(shí)利用基于學(xué)習(xí)的方法補(bǔ)充未測(cè)量到的投影數(shù)據(jù)信息,可以提高重建質(zhì)量。LI et al[43]針對(duì)GAN產(chǎn)生缺失信息的特點(diǎn),提出了U-Net生成器和鑒別器正弦圖修復(fù)GAN方法來(lái)恢復(fù)缺失的正弦圖數(shù)據(jù),以抑制正弦圖的奇異性進(jìn)行有限角重建,使正弦圖修復(fù)GAN適用于標(biāo)準(zhǔn)醫(yī)學(xué)CT圖像。DONG et al[44]提出了一種針對(duì)不完全CT數(shù)據(jù)的深度學(xué)習(xí)重建框架,從給定的稀疏視角和有限角度的不完全投影正弦圖中重建出高質(zhì)量CT圖像。FU et al[45]提出了一種不完全數(shù)據(jù)深度學(xué)習(xí)重建框架,該框架能夠以更快的速度和更少的參數(shù)獲得更好的成像質(zhì)量。CHOI et al[46]開(kāi)發(fā)了一種自監(jiān)督的去噪方法,用于提高低劑量投影圖像質(zhì)量。MA et al[47]提出了一種注意殘余密集卷積神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)信號(hào)圖進(jìn)行去噪,并且比傳統(tǒng)濾波方法獲得了更好的性能。

    深度學(xué)習(xí)方法應(yīng)用于投影域CT重建用于恢復(fù)不完整數(shù)據(jù)信息,不完整數(shù)據(jù)當(dāng)做先驗(yàn)信息補(bǔ)全缺失信息,然后利用傳統(tǒng)的重建算法來(lái)整合信息,并約束重建圖像與所獲取測(cè)量數(shù)據(jù)的一致性。雖然投影域中的深度學(xué)習(xí)方法可以減少投影域中信號(hào)損失,并顯著提高重建圖像質(zhì)量。然而,由于重建過(guò)程對(duì)正弦圖的內(nèi)在一致性很敏感,任何對(duì)正弦圖的不當(dāng)操作都可能在整個(gè)重建圖像上引入額外的偽影;此外,深度學(xué)習(xí)方法提取的特征僅限于投影域,對(duì)于完備的投影數(shù)據(jù)在圖像域的重建過(guò)程仍然存在缺陷。深度學(xué)習(xí)方法在投影域中CT重建中的應(yīng)用總結(jié)如表1所示。

    3.2 圖像域CT圖像重建

    圖像域CT圖像重建的任務(wù)是學(xué)習(xí)低質(zhì)量重建圖像和高質(zhì)量重建圖像之間的映射。雖然現(xiàn)有的迭代重建方法改善了重建圖像質(zhì)量,但計(jì)算代價(jià)太大,并且在有噪聲或不完整信息(數(shù)據(jù)稀疏采樣等)情況下仍然可能出現(xiàn)重建偽影[48]。重建效果不佳的主要原因來(lái)自于噪聲的非平穩(wěn)特性和由于信息丟失而產(chǎn)生的嚴(yán)重條紋偽影。CT圖像中噪聲和偽影很難分離,它們具有很強(qiáng)的幅值,并且不服從圖像域中特定的模型分布[49]。與人工設(shè)計(jì)的濾波器相比,深度神經(jīng)網(wǎng)絡(luò)提供的復(fù)雜模式的自動(dòng)學(xué)習(xí)具有明顯優(yōu)勢(shì)。

    深度學(xué)習(xí)方法首次引入CT圖像重建是在2016年由美國(guó)醫(yī)學(xué)物理學(xué)家協(xié)會(huì)(AAPM)組織的低劑量X射線CT挑戰(zhàn)賽上,KANG et al[50]使用了三層卷積神經(jīng)網(wǎng)絡(luò)重建CT圖像,獲得了顯著的性能提升。2017年,CHEN et al[51]基于反卷積網(wǎng)絡(luò)和跳躍連接相結(jié)合引入了編解碼卷積神經(jīng)網(wǎng)絡(luò)用來(lái)對(duì)稀疏性CT圖像重建進(jìn)行研究,該網(wǎng)絡(luò)的去噪效果令人滿意,獲得了較高的峰值信噪比。XIE et al[52]基于編解碼網(wǎng)絡(luò)提出DEARE框架,從少數(shù)視圖數(shù)據(jù)重建出三維CT圖像,然而,還需要更多的實(shí)驗(yàn)來(lái)優(yōu)化和驗(yàn)證該網(wǎng)絡(luò)結(jié)構(gòu)。隨著生成對(duì)抗網(wǎng)絡(luò)(GAN)的出現(xiàn),YANG et al[53]利用Wasserstein距離代替JS散度,并在MSE損失的基礎(chǔ)上引入VGG損失函數(shù),不僅克服了梯度消失而且還保留了LDCT的細(xì)節(jié)信息。HUANG et al[54]將注意力機(jī)制引入CycleGAN的生成器中進(jìn)行LDCT去噪,并取得了可喜的成績(jī)。LI et al[55]通過(guò)建立局部輸出與同一卷積層內(nèi)其他像素之間的相互作用來(lái)指導(dǎo)卷積濾波,證明了通過(guò)自注意模型解決去噪問(wèn)題的能力,并提出平面注意力網(wǎng)絡(luò)和深度注意力網(wǎng)絡(luò)處理CT層內(nèi)和層間的長(zhǎng)期依賴關(guān)系,進(jìn)一步提高去噪性能。YIN et al[56]提出一種基于非配對(duì)數(shù)據(jù)的WGAN模型用于肺部CT圖像去噪,基于VGG-19網(wǎng)絡(luò)計(jì)算的殘差連接和多感知損失提高了GAN模型的降噪效果和紋理保持性。CHI et al[57]提出的LSGAN生成器網(wǎng)絡(luò)中使用inception殘差塊來(lái)防止每個(gè)卷積層中的噪聲通過(guò)快捷連接傳遞到反卷積層,并設(shè)計(jì)多重?fù)p失函數(shù)來(lái)優(yōu)化去噪網(wǎng)絡(luò)。MA et al[58]利用LSGAN網(wǎng)絡(luò)結(jié)合混合損失函數(shù)進(jìn)行LDCT的噪聲學(xué)習(xí),可以得到較好的去噪效果,但是在像素級(jí)相似性評(píng)估中表現(xiàn)欠佳。YANG et al[59]利用兩個(gè)基于U-Net的生成器對(duì)CT圖像進(jìn)行去噪,第一個(gè)生成器的目標(biāo)是對(duì)LDCT的高頻段進(jìn)行處理,以提高生成器對(duì)高頻細(xì)節(jié)的敏感度;第二個(gè)生成器將經(jīng)過(guò)優(yōu)先處理的LDCT圖像的高頻帶和低頻帶合成重建的CT圖像。此外,與其他基于GAN的應(yīng)用不同,文中還提出了一種帶有inception模塊的多尺度鑒別器,用于提取LDCT圖像的多尺度特征。與傳統(tǒng)的具有兩個(gè)生成器的CGAN模型不同,GU et al[60]提出的條件GAN模型使用了基于U-Net網(wǎng)絡(luò)的單一生成器來(lái)降低LDCT噪聲,使用自適應(yīng)實(shí)例歸一化層通過(guò)切換生成器模型來(lái)執(zhí)行低劑量到高劑量的圖像轉(zhuǎn)換。SHAN et al[61]將模塊化CNN與來(lái)自三家知名供應(yīng)商的典型迭代重建方法進(jìn)行了比較,模塊化CNN得到了有競(jìng)爭(zhēng)性的LDCT重建結(jié)果。為了達(dá)到CT圖像超分辨率重建目的,YOU et al[62]開(kāi)發(fā)了一個(gè)受恒等、殘差和循環(huán)學(xué)習(xí)集成約束的GAN-Circle網(wǎng)絡(luò),結(jié)合了深度CNN、殘差學(xué)習(xí)和網(wǎng)中網(wǎng)技術(shù)進(jìn)行特征提取和恢復(fù),并采用了循環(huán)Wasserstein回歸對(duì)抗性訓(xùn)練框架。

    表1 深度學(xué)習(xí)方法在投影域CT重建中的應(yīng)用Table 1 Application of deep learning method in projection domain CT reconstruction

    GOU et al[63]基于ResNet模型提出了基于梯度正則化的目標(biāo)函數(shù),該算法獲得良好訓(xùn)練效果和保持LDCT圖像特征清晰度的能力。GHOLIZADEH-ANSARI et al[64]提出基于ResNet和邊緣檢測(cè)的膨脹卷積網(wǎng)絡(luò)架構(gòu),可以學(xué)習(xí)到更多邊緣特征信息。MING et al[65]提出了一種用于LDCT恢復(fù)的DenseNet算法,通過(guò)減少連通性模式,在訓(xùn)練網(wǎng)絡(luò)的同時(shí)提高每個(gè)塊的計(jì)算效率。除此之外,SHIRI et al[66]還利用膨脹卷積和ResNet提出了增強(qiáng)新冠肺炎CT圖像數(shù)據(jù)質(zhì)量的建議。JIANG et al[67]利用膨脹卷積,提出多尺度并行CNN模型用于肺部CT圖像去噪,該模型既降低了噪聲,又保留了低劑量肺部CT的細(xì)節(jié)特征和紋理特征。HUANG et al[68]利用ResNet估計(jì)每個(gè)小波變換子帶的殘差,對(duì)小波變換的LDCT圖像和NDCT圖像中的兩級(jí)去噪模型進(jìn)行了訓(xùn)練,實(shí)現(xiàn)了紋理保持和結(jié)構(gòu)增強(qiáng)。與上述ResNet相反,ZHONG et al[69]通過(guò)兩階段遷移學(xué)習(xí)策略對(duì)網(wǎng)絡(luò)進(jìn)行了微調(diào),第一階段使用帶有盲高斯噪聲的自然圖像,第二階段使用LDCT圖像。ZHANG et al[70]提出了一種集成了深度學(xué)習(xí)網(wǎng)絡(luò)和成像物理優(yōu)勢(shì)的自監(jiān)督混合CT超分辨率模型。ATAEI et al[71]級(jí)聯(lián)兩個(gè)相同的神經(jīng)網(wǎng)絡(luò),通過(guò)最小化感知損失重建出低對(duì)比度區(qū)域的精細(xì)結(jié)構(gòu)細(xì)節(jié)。CHOI et al[72]提出了一種基于深度學(xué)習(xí)的LDCT圖像復(fù)原方法,結(jié)合正弦圖域的噪聲統(tǒng)計(jì)以及圖像域中的噪聲特性,在不增加偽影的情況下,成功降低了噪聲水平,恢復(fù)了圖像細(xì)節(jié)。LI et al[73]結(jié)合小波變換和亞像素卷積,提出了一種自頂向下的自適應(yīng)自引導(dǎo)小波卷積神經(jīng)網(wǎng)絡(luò),引入了可調(diào)金字塔殘差塊和相鄰尺度信息融合塊,自適應(yīng)提取多尺度、多樣性以及相鄰尺度之間的信息特征,同時(shí),利用交叉緯度混合注意塊對(duì)融合后的有效信息進(jìn)行增強(qiáng),無(wú)用信息進(jìn)行抑制。該方法能有效地保留CT圖像的結(jié)構(gòu)和紋理信息,同時(shí)去除噪聲和偽影。LI et al[74]利用膨脹殘差卷積神經(jīng)網(wǎng)絡(luò)和注意力模塊,提出了一個(gè)多階段的網(wǎng)絡(luò)架構(gòu),將整個(gè)去噪過(guò)程分為兩個(gè)階段的子網(wǎng)絡(luò),逐步完成去噪任務(wù),通過(guò)自編碼器神經(jīng)網(wǎng)絡(luò),利用自監(jiān)督學(xué)習(xí)方案訓(xùn)練一個(gè)專門(mén)針對(duì)CT圖像的感知損失,細(xì)化特征信息的同時(shí)還保留圖像結(jié)構(gòu)細(xì)節(jié)特征以及紋理信息。

    在稀疏視圖、有限角測(cè)量和噪聲干擾情況下,初始投影域重建后圖像可能包含即使通過(guò)深度學(xué)習(xí)模型也難以去除的復(fù)雜偽影和噪聲。與計(jì)算機(jī)視覺(jué)中的許多逆問(wèn)題(如圖像修復(fù))一樣,初始重建中丟失的信息也很難通過(guò)后處理過(guò)程進(jìn)行恢復(fù)。因此,圖像域CT重建更適合于處理質(zhì)量相對(duì)較好的圖像重建。圖像域CT重建中網(wǎng)絡(luò)模型通常采用濾波反投影等算法作為輸入,僅適用于去除投影域圖像中噪聲偽影的圖像域,不能保證采樣的正弦圖數(shù)據(jù)得到保留。然而,采樣的正弦圖是圖像源數(shù)據(jù),重建前后應(yīng)盡可能保持相同,以確保重建內(nèi)容的高保真度。如果只利用圖像域中包含的信息,而忽略了另一個(gè)域中的補(bǔ)充信息,方法的魯棒性會(huì)受到質(zhì)疑。盡管已有許多學(xué)者研究圖像域CT重建方法,但是CT成像過(guò)程各個(gè)環(huán)節(jié)的中間域數(shù)據(jù)復(fù)雜,如何有效利用這些數(shù)據(jù)恢復(fù)圖像的結(jié)構(gòu)和邊緣信息仍然是一個(gè)挑戰(zhàn)。深度學(xué)習(xí)方法在圖像域CT圖像重建中的應(yīng)用總結(jié)如表2所示。

    3.3 雙域網(wǎng)絡(luò)CT圖像重建

    在強(qiáng)大的表示能力和海量數(shù)據(jù)的輔助下,基于深度學(xué)習(xí)的方法已經(jīng)在醫(yī)學(xué)圖像重建任務(wù)中取得了成功。然而,上述方法都是基于單一域進(jìn)行重建,雖然這些方法可以方便地應(yīng)用于原始正弦圖或相應(yīng)的FBP重建圖像,計(jì)算量相對(duì)較小,模型復(fù)雜度較低,但它們要么僅適用于去除已重建圖像中噪聲偽影的圖像域,要么僅適用于從稀疏正弦圖合成完整正弦圖的投影域,投影域數(shù)據(jù)和圖像域數(shù)據(jù)之間缺乏信息交互,影響重建效果進(jìn)一步提升。因此,研究人員已經(jīng)開(kāi)展了在雙域網(wǎng)絡(luò)中進(jìn)行CT圖像重建研究。

    CHEN et al[75]引入專家場(chǎng)系統(tǒng)(Experts Assessment)作為正則化項(xiàng),通過(guò)梯度下降法形成迭代數(shù)值,在固定迭代次數(shù)下,迭代過(guò)程展開(kāi)成網(wǎng)絡(luò),網(wǎng)絡(luò)參數(shù)和正則化項(xiàng)可以通過(guò)數(shù)據(jù)集進(jìn)行訓(xùn)練。GUPTA et al[76]利用卷積神經(jīng)網(wǎng)絡(luò)取代投影梯度下降過(guò)程。受ADMM-Net[77]的啟發(fā),HE et al[78]提出在數(shù)據(jù)域和圖像域同時(shí)約束重建問(wèn)題,并將基于乘子交替方向法的優(yōu)化方法展開(kāi)為網(wǎng)絡(luò),可以有效地加快重建速度,避免參數(shù)調(diào)整,但測(cè)量結(jié)果僅被用作數(shù)據(jù)一致性約束,沒(méi)有很好地挖掘數(shù)據(jù)域中的先驗(yàn)信息。WANG et al[79]提出基于U-Net的圖像重建框架,在保留圖像結(jié)構(gòu)的同時(shí)去除噪聲和角度偽影,但計(jì)算量大,需要較大的訓(xùn)練數(shù)據(jù)集。VISHNEVSKIY et al[80]對(duì)每個(gè)迭代模塊采用指數(shù)加權(quán)損失,以確定迭代優(yōu)化的方向。由于這種方法需要對(duì)每一迭代塊中的中間圖像進(jìn)行投影校正,因此重建結(jié)果通常具有較高的重建精度,這對(duì)醫(yī)學(xué)診斷具有重要的臨床意義。然而,空間卷積是一種局部算子,只關(guān)注相鄰像素,忽略了CT圖像數(shù)據(jù)包含豐富拓?fù)浣Y(jié)構(gòu)信息。為了同時(shí)提取LDCT數(shù)據(jù)的像素級(jí)和拓?fù)浼?jí)特征,XIA et al[81]提出了一種同時(shí)在圖像和流形空間中執(zhí)行的流形和圖形一體化卷積網(wǎng)絡(luò)用于LDCT重建。PAN et al[82]提出一種多域集成Swin變換網(wǎng)絡(luò),將數(shù)據(jù)、殘差數(shù)據(jù)、圖像和殘差圖像的豐富領(lǐng)域特征結(jié)合在一起,能夠捕捉重建圖像的全局和局部特征,具有更好的重建圖像質(zhì)量、特征恢復(fù)和邊緣保護(hù)。YIN et al[83]提出一種區(qū)域漸進(jìn)式三維殘差卷積網(wǎng)絡(luò),網(wǎng)絡(luò)包括正弦圖域網(wǎng)絡(luò)(SD-Net)、濾波反投影(FBP)和圖像域網(wǎng)絡(luò)(ID-Net)三個(gè)階段重建過(guò)程,在提高最終的LDCT質(zhì)量方面起到互補(bǔ)作用。ZHENG et al[84]構(gòu)造投影域的卷積神經(jīng)網(wǎng)絡(luò)來(lái)估計(jì)缺失投影數(shù)據(jù),采用線性解析算子將數(shù)據(jù)從投影域轉(zhuǎn)換到圖像域,在圖像域中增加卷積網(wǎng)絡(luò)進(jìn)行圖像細(xì)化。ZHOU et al[85]提出了一種級(jí)聯(lián)殘差密集空間通道注意網(wǎng)絡(luò)用于有限視角CT重建,由殘差密集空間通道注意網(wǎng)絡(luò)和投影數(shù)據(jù)保真層確保預(yù)測(cè)投影數(shù)據(jù)保真度,同時(shí)允許梯度反向傳播。ZHANG et al[86]提出的learn++模型集成了兩個(gè)并行交互的子網(wǎng)絡(luò),同時(shí)在圖像域和投影域進(jìn)行圖像恢復(fù)和正弦圖修復(fù)操作,能夠充分挖掘投影數(shù)據(jù)和重建圖像之間的潛在關(guān)系。WANG et al[87]設(shè)計(jì)了一種用于正弦圖和CT圖像重建的深度網(wǎng)絡(luò),由濾波反投影層連接的兩個(gè)級(jí)聯(lián)塊組成,前者負(fù)責(zé)去噪和補(bǔ)全正弦圖,后者用于去除CT圖像中的噪聲和偽影。XIE et al[88]提出一種直接從正弦圖重建圖像的雙網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)逐點(diǎn)全連通層學(xué)習(xí)反投影過(guò)程,在所需內(nèi)存降低、參數(shù)減少的情況下獲得了具有競(jìng)爭(zhēng)力的重建結(jié)果。LIANG et al[89]比較了稀疏視角CT重建與投影域網(wǎng)絡(luò)、圖像域網(wǎng)絡(luò)以及投影域和圖像域相結(jié)合的綜合網(wǎng)絡(luò)的圖像重建性能,通過(guò)對(duì)真實(shí)掃描的CT圖像進(jìn)行數(shù)值模擬投影,投影域和圖像域相結(jié)合的綜合網(wǎng)絡(luò)可以有效重建出豐富的高頻結(jié)構(gòu)信息。WANG et al[90]開(kāi)發(fā)了2D膨脹殘差網(wǎng)絡(luò)對(duì)低劑量投影圖進(jìn)行去噪,同時(shí)設(shè)計(jì)自注意2D殘差編碼器-解碼器網(wǎng)絡(luò),以獲得具有清晰邊緣和紋理的CT圖像。

    表2 深度學(xué)習(xí)方法在圖像域CT重建中的應(yīng)用Table 2 Application of deep learning method in image domain CT reconstruction

    續(xù)表2

    基于雙域網(wǎng)絡(luò)的CT圖像重建方法比基于單域網(wǎng)絡(luò)的重建方法需要更大的GPU內(nèi)存來(lái)進(jìn)行訓(xùn)練,重建過(guò)程也更加復(fù)雜,參數(shù)相對(duì)較多,但是這種方法的有效性和通用性也表明它可能解決圖像重建領(lǐng)域以外的超分辨率、灌注CT反卷積等領(lǐng)域的優(yōu)化和逆問(wèn)題,為現(xiàn)有的深度學(xué)習(xí)技術(shù)帶來(lái)了更強(qiáng)的穩(wěn)健性和可靠性。深度學(xué)習(xí)方法在雙域網(wǎng)絡(luò)CT重建中的應(yīng)用總結(jié)如表3所示。

    3.4 直接映射CT圖像重建

    直接映射CT圖像重建通過(guò)學(xué)習(xí)正弦圖和CT圖像空間之間的映射,同時(shí)近似逆問(wèn)題的基本物理模型,使用深度神經(jīng)網(wǎng)絡(luò)直接從投影域數(shù)據(jù)解碼為CT圖像。這種直接估計(jì)模型受益于深度學(xué)習(xí)模型的多級(jí)抽象和自動(dòng)特征提取能力,在CT圖像重建領(lǐng)域也開(kāi)始廣泛應(yīng)用。

    2018年哈佛醫(yī)學(xué)院的ZHU B教授團(tuán)隊(duì)[91]在《Nature》上發(fā)表了關(guān)于醫(yī)學(xué)圖像重建的論文,它將圖像重建重新定義為一個(gè)數(shù)據(jù)驅(qū)動(dòng)的監(jiān)督學(xué)習(xí)任務(wù),將其命名為流形近似自動(dòng)變換(Automap),學(xué)習(xí)傳感器域和圖像域之間的重建映射關(guān)系,利用三個(gè)全連接層和兩個(gè)卷積層深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)重建過(guò)程。在這個(gè)新的范例中,CNN學(xué)習(xí)了復(fù)雜的CT圖像重建過(guò)程,包括域變換和數(shù)據(jù)過(guò)濾。然而,全連接層使得自動(dòng)映射網(wǎng)絡(luò)難以實(shí)現(xiàn),這種方法中的網(wǎng)絡(luò)在重建大尺寸醫(yī)學(xué)圖像時(shí)需要大量的計(jì)算資源。FU et al[92]將輸入和輸出數(shù)據(jù)映射到分層網(wǎng)絡(luò)體系結(jié)構(gòu)上解決重建問(wèn)題,其參數(shù)比一般網(wǎng)絡(luò)所需的參數(shù)要少得多。LI et al[93]開(kāi)發(fā)了一種深度神經(jīng)網(wǎng)絡(luò),并證明該網(wǎng)絡(luò)可以將完整或不完整的線積分?jǐn)?shù)據(jù)訓(xùn)練成高定量精度重建圖像。在CT重建領(lǐng)域取得早期成功后,還將投影域直接映射到圖像域的方法擴(kuò)展到PET圖像重建[94-95]。

    直接將原始數(shù)據(jù)映射到圖像的一個(gè)主要限制是對(duì)大數(shù)據(jù)的嚴(yán)重依賴和昂貴的計(jì)算成本,特別是巨大的GPU內(nèi)存需求。此外,專用神經(jīng)網(wǎng)絡(luò)僅限于一種特定的重建幾何,并不廣泛適用于各種掃描儀體系結(jié)構(gòu)和掃描協(xié)議。因此,在CT醫(yī)學(xué)成像領(lǐng)域仍然是一個(gè)具有挑戰(zhàn)性的問(wèn)題。深度學(xué)習(xí)方法在直接映射CT圖像重建中的應(yīng)用總結(jié)如表4所示。

    表3 深度學(xué)習(xí)方法在雙域網(wǎng)絡(luò)CT重建中的應(yīng)用Table 3 Application of deep learning method in CT reconstruction of dual-domain network

    表4 深度學(xué)習(xí)方法在直接映射CT圖像重建中的應(yīng)用Table 4 Application of deep learning method in direct mapping CT image reconstruction

    4 常用數(shù)據(jù)集及損失函數(shù)

    4.1 常用數(shù)據(jù)集及增加訓(xùn)練樣本的方法

    基于深度學(xué)習(xí)的重建算法很大程度上依賴于訓(xùn)練數(shù)據(jù)集的大小和多樣性來(lái)達(dá)到較高的訓(xùn)練精度。表5中總結(jié)了在圖像重建領(lǐng)域中常用的標(biāo)準(zhǔn)數(shù)據(jù)集,然而,與這些數(shù)據(jù)集相關(guān)的數(shù)據(jù)量還不足以在LDCT重建中獲得高性能。因此,在此基礎(chǔ)上還詳細(xì)介紹了增加CT數(shù)據(jù)可用性的方法,以有效地訓(xùn)練和驗(yàn)證深度學(xué)習(xí)模型。

    正常劑量和低劑量的配對(duì)CT數(shù)據(jù)集對(duì)于深度學(xué)習(xí)模型的訓(xùn)練和驗(yàn)證至關(guān)重要。在臨床操作中,對(duì)患者的重復(fù)掃描是獲得成對(duì)數(shù)據(jù)的唯一方式。然而,在臨床實(shí)踐中,這種操作是不被允許的,當(dāng)患者長(zhǎng)期暴露在X射線的輻射中,會(huì)對(duì)患者身體造成不可逆的損傷。此外,CT圖像的正弦圖數(shù)據(jù)是特定于供應(yīng)商的,不允許從第三方提取。有監(jiān)督的深度學(xué)習(xí)模型中,必須有成對(duì)的NDCT和LDCT圖像,常用的解決方案是將泊松噪聲和高斯噪聲添加到從NDCT獲得的正弦圖中模擬生成不同劑量的LDCT圖像。根據(jù)模擬正弦圖數(shù)據(jù)變換方法的不同,在LDCT圖像重建中廣泛使用的主要有Siddon射線驅(qū)動(dòng)算法、基于Radon變換的算法和基于正向投影的算法。除此之外,研究人員還提出利用不成對(duì)的訓(xùn)練數(shù)據(jù)和噪聲先驗(yàn)來(lái)訓(xùn)練深度學(xué)習(xí)模型。

    表5 CT圖像重建中常用數(shù)據(jù)集Table 5 Datasets commonly used in CT image reconstruction

    為了解決數(shù)據(jù)量不足的問(wèn)題,研究人員利用旋轉(zhuǎn)和翻轉(zhuǎn)來(lái)增加訓(xùn)練數(shù)據(jù)集中的樣本數(shù)量,與數(shù)據(jù)增強(qiáng)相比,基于圖像塊的訓(xùn)練加快了網(wǎng)絡(luò)收斂,不僅有助于增強(qiáng)局部區(qū)域中感知方差的檢測(cè),同時(shí)增加訓(xùn)練樣本的數(shù)量。

    4.2 損失函數(shù)的多樣性

    CT圖像重建方法性能不僅取決于網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練數(shù)據(jù),還取決于訓(xùn)練過(guò)程中使用的損失函數(shù)。損失函數(shù)用來(lái)評(píng)估數(shù)據(jù)在特定深度學(xué)習(xí)模型中的建模效果,通常由一個(gè)或多個(gè)函數(shù)組成,對(duì)重建的最終圖像質(zhì)量有很大的影響。表6中列出了常見(jiàn)的損失函數(shù)及其優(yōu)勢(shì)。

    均方誤差(mean square error,MSE)是許多深度模型中廣泛使用的損失函數(shù),雖然它很容易優(yōu)化,但是平均值操作會(huì)導(dǎo)致紋理信息丟失、過(guò)渡平滑以及生成虛假病變等問(wèn)題[55],如果訓(xùn)練數(shù)據(jù)本身帶有噪聲,這種影響尤為突出。為了優(yōu)化此類問(wèn)題,最小絕對(duì)誤差(least absolute error,LAE)作為MSE的替代方法成為了優(yōu)化深度學(xué)習(xí)模型的一種較理想的方法,雖然也同為基于均值的逐像素比較矩陣,但是實(shí)驗(yàn)結(jié)果證明它可以克服MSE損失引起的圖像模糊問(wèn)題[39]。然而,由于退化圖像中存在大量塊狀偽影,通過(guò)基于LAE優(yōu)化的深度學(xué)習(xí)模型獲得的重建圖像仍然存在失真現(xiàn)象。當(dāng)預(yù)訓(xùn)練網(wǎng)絡(luò)VGG-16和VGG-19發(fā)布后,將感知損失引入深度學(xué)習(xí)模型優(yōu)化過(guò)程中,來(lái)克服MSE和LAE造成的重建圖像退化問(wèn)題。感知損失被用來(lái)計(jì)算生成CT圖像和真實(shí)CT圖像之間的特征差異,但僅利用感知損失重建出的圖像更易導(dǎo)致網(wǎng)格偽影,因此,感知損失通常與MSE相結(jié)合來(lái)優(yōu)化深度學(xué)習(xí)模型。

    表6 基于深度學(xué)習(xí)重建模型中常用損失函數(shù)Table 6 Reconstruction of commonly used loss functions in models based on deep learning

    由感知驅(qū)動(dòng)的結(jié)構(gòu)相似性指數(shù)(structural similarity index measure,SSIM)通過(guò)局部圖像塊的統(tǒng)計(jì)特性來(lái)確保深度學(xué)習(xí)模型的結(jié)構(gòu)保持能力,在視覺(jué)評(píng)估中,SSIM表現(xiàn)優(yōu)于MSE,提供了更高的峰值信噪比[39]。在CT圖像重建發(fā)展進(jìn)程中,生成對(duì)抗網(wǎng)絡(luò)(GAN)也受到了極大地關(guān)注,盡管GAN能夠生成與目標(biāo)分布具有相似紋理的圖像,但并不一定得出在解剖學(xué)上正確的結(jié)果。尤其是在數(shù)據(jù)量不足的情況下,GAN網(wǎng)絡(luò)還會(huì)引入新的偽影結(jié)構(gòu),雖然這種偽影結(jié)構(gòu)在自然圖像中是可取的,但是在醫(yī)學(xué)成像領(lǐng)域必須避免這種偽影生成。因此,基于像素的內(nèi)容損失L1和L2常常被添加到GAN損失中引導(dǎo)圖像的內(nèi)容信息重建過(guò)程。研究證明,基于對(duì)抗性損失的GAN網(wǎng)絡(luò)導(dǎo)致了收斂問(wèn)題[53],因此,在文獻(xiàn)[96]的啟發(fā)下,研究人員通過(guò)引入帶梯度懲罰的Wasserstein距離作為損失函數(shù)來(lái)克服收斂性問(wèn)題,利用循環(huán)GAN網(wǎng)絡(luò)和最小二乘GAN的循環(huán)一致性損失和最小二乘損失作為損失函數(shù)克服GAN網(wǎng)絡(luò)訓(xùn)練過(guò)程存在的問(wèn)題。

    5 挑戰(zhàn)與展望

    綜上所述,基于人工智能的深度學(xué)習(xí)CT重建方法與分析、迭代和壓縮感知方法相比,可以獲得更好的圖像質(zhì)量,大量研究人員提出的先進(jìn)性方法也印證了深度學(xué)習(xí)在CT圖像重建領(lǐng)域的成功,然而,深度學(xué)習(xí)CT重建方法快速發(fā)展的背后依舊存在許多問(wèn)題,嚴(yán)重阻礙了它在臨床實(shí)踐中的廣泛應(yīng)用。

    1) 模型可解釋性問(wèn)題。深度學(xué)習(xí)的過(guò)程是一個(gè)黑匣子,這意味著沒(méi)有直接的物理模型或者提供理論機(jī)制來(lái)解釋如何將輸入轉(zhuǎn)化為輸出,因此,深度學(xué)習(xí)重建模型很難被臨床醫(yī)生接受。近年來(lái),通過(guò)構(gòu)建可解釋性的神經(jīng)網(wǎng)絡(luò)或者利用各種可視化技術(shù)來(lái)提高模型的可解釋性成為基于深度學(xué)習(xí)的自然圖像分析領(lǐng)域的熱門(mén)話題,未來(lái)研究人員也將在構(gòu)建可解釋和高性能的深度學(xué)習(xí)重建模型方面做出努力。

    2) 模型泛化性問(wèn)題。泛化性意味著模型在從給定的數(shù)據(jù)中學(xué)習(xí)并將學(xué)習(xí)到的模型應(yīng)用到其他領(lǐng)域的能力。與自然圖像不同,當(dāng)經(jīng)過(guò)訓(xùn)練的深度學(xué)習(xí)模型應(yīng)用于來(lái)自不同供應(yīng)商的掃描儀數(shù)據(jù)集時(shí),醫(yī)學(xué)圖像的分布會(huì)有很大不同,模型的泛化能力會(huì)成為一個(gè)重大問(wèn)題[97]?,F(xiàn)有深度學(xué)習(xí)模型應(yīng)用于終端用戶數(shù)據(jù)時(shí)可能會(huì)造成性能大幅下降,構(gòu)建能夠在臨床應(yīng)用中保持性能的健壯模型對(duì)于推廣模型的應(yīng)用至關(guān)重要。

    3) 算法的不穩(wěn)定性問(wèn)題。雖然深度學(xué)習(xí)算法已經(jīng)表現(xiàn)出準(zhǔn)確的重建效果,但目前基于深度學(xué)習(xí)的重建算法仍然缺乏穩(wěn)定性,其中,不穩(wěn)定問(wèn)題主要包括:(1) 關(guān)于某些微小噪聲擾動(dòng)的不穩(wěn)定性;(2) 關(guān)于微小結(jié)構(gòu)變化的不穩(wěn)定性;(3) 關(guān)于樣本數(shù)量變化的不穩(wěn)定性。在醫(yī)學(xué)成像中,穩(wěn)定且準(zhǔn)確的圖像重建方法是用于疾病診斷的必要條件,因此,提高算法準(zhǔn)確性的同時(shí),保證其穩(wěn)定性至關(guān)重要。

    4) 訓(xùn)練數(shù)據(jù)集的質(zhì)量和數(shù)量。眾所周知,深度學(xué)習(xí)方法是一種數(shù)據(jù)驅(qū)動(dòng)的方法,模型性能很大程度上依賴于訓(xùn)練數(shù)據(jù)集的質(zhì)量和數(shù)量,構(gòu)建一個(gè)全面的訓(xùn)練數(shù)據(jù)集至關(guān)重要。但是,大量的高質(zhì)量數(shù)據(jù)來(lái)源于臨床,在商業(yè)應(yīng)用中使用臨床成像數(shù)據(jù)可能會(huì)存在法律和倫理問(wèn)題,通過(guò)不同來(lái)源收集并構(gòu)建大型醫(yī)學(xué)圖像數(shù)據(jù)集是很困難的。此外,缺乏高質(zhì)量帶標(biāo)簽的大型臨床數(shù)據(jù)集是深度學(xué)習(xí)應(yīng)用于醫(yī)學(xué)圖像重建領(lǐng)域的障礙之一。

    6 結(jié)束語(yǔ)

    本文綜述了國(guó)內(nèi)外CT圖像重建方面的研究現(xiàn)狀,分析了CT圖像退化原理,對(duì)基于傳統(tǒng)方法及深度學(xué)習(xí)方法在CT圖像重建領(lǐng)域的應(yīng)用進(jìn)行分類討論,并且分析其優(yōu)缺點(diǎn);其次,介紹了目前大部分方法中使用的公開(kāi)數(shù)據(jù)集及現(xiàn)階段增加訓(xùn)練樣本的方法,最后對(duì)重建過(guò)程采用的損失函數(shù)的性能進(jìn)行了評(píng)測(cè)和總結(jié)分析。目前,臨床上對(duì)自動(dòng)化醫(yī)學(xué)圖像分析的需求不斷增加,以幫助醫(yī)師實(shí)現(xiàn)高效和準(zhǔn)確的基于成像的診斷和決策,這為基于深度學(xué)習(xí)的方法在臨床上的廣泛應(yīng)用提供了大量機(jī)會(huì)。隨著計(jì)算能力的快速發(fā)展和深度學(xué)習(xí)模型的優(yōu)化,深度學(xué)習(xí)有望在實(shí)現(xiàn)快速、便攜、安全和廉價(jià)的醫(yī)學(xué)成像方面發(fā)揮重要作用。

    猜你喜歡
    偽影正弦投影
    例說(shuō)正弦定理的七大應(yīng)用
    正弦、余弦定理的應(yīng)用
    解變分不等式的一種二次投影算法
    基于最大相關(guān)熵的簇稀疏仿射投影算法
    找投影
    找投影
    核磁共振臨床應(yīng)用中常見(jiàn)偽影分析及應(yīng)對(duì)措施
    基于MR衰減校正出現(xiàn)的PET/MR常見(jiàn)偽影類型
    “美”在二倍角正弦公式中的應(yīng)用
    減少頭部運(yùn)動(dòng)偽影及磁敏感偽影的propller技術(shù)應(yīng)用價(jià)值評(píng)價(jià)
    777米奇影视久久| 一级片'在线观看视频| 久久精品熟女亚洲av麻豆精品| 亚洲av.av天堂| 亚洲国产日韩一区二区| 2021少妇久久久久久久久久久| 国产激情久久老熟女| 日韩av在线免费看完整版不卡| 十八禁网站网址无遮挡| 欧美av亚洲av综合av国产av | 男女边吃奶边做爰视频| 午夜福利在线观看免费完整高清在| 国产欧美日韩一区二区三区在线| 卡戴珊不雅视频在线播放| 久久久国产一区二区| 国产黄频视频在线观看| 一级毛片黄色毛片免费观看视频| 五月开心婷婷网| 久久鲁丝午夜福利片| 国产在线视频一区二区| 国产精品一区二区在线观看99| 亚洲精华国产精华液的使用体验| 蜜桃在线观看..| 日韩在线高清观看一区二区三区| 人妻系列 视频| 精品第一国产精品| 亚洲熟女精品中文字幕| 男的添女的下面高潮视频| 香蕉丝袜av| av视频免费观看在线观看| 午夜影院在线不卡| 日韩精品免费视频一区二区三区| 日本91视频免费播放| 成人午夜精彩视频在线观看| 黑人巨大精品欧美一区二区蜜桃| 成年av动漫网址| 精品99又大又爽又粗少妇毛片| 三上悠亚av全集在线观看| 韩国精品一区二区三区| 丝瓜视频免费看黄片| 日韩制服丝袜自拍偷拍| 午夜精品国产一区二区电影| 九九爱精品视频在线观看| 天堂8中文在线网| 欧美日韩视频精品一区| 久久久国产精品麻豆| 国产高清不卡午夜福利| 亚洲欧美精品综合一区二区三区 | 国产成人免费无遮挡视频| 久久99精品国语久久久| 久久免费观看电影| 边亲边吃奶的免费视频| 亚洲经典国产精华液单| 国产av码专区亚洲av| 日本免费在线观看一区| 熟女电影av网| 欧美精品人与动牲交sv欧美| 精品人妻偷拍中文字幕| 中文欧美无线码| 国产 一区精品| 午夜av观看不卡| 男女边摸边吃奶| 国产黄色免费在线视频| 黄片无遮挡物在线观看| 国产有黄有色有爽视频| 国产毛片在线视频| 久久久国产欧美日韩av| 国产无遮挡羞羞视频在线观看| 超碰成人久久| 亚洲成人手机| 综合色丁香网| www.熟女人妻精品国产| 国产97色在线日韩免费| 人人妻人人澡人人看| 亚洲激情五月婷婷啪啪| 波野结衣二区三区在线| 亚洲男人天堂网一区| 国产又爽黄色视频| 久久精品国产a三级三级三级| 精品人妻一区二区三区麻豆| 国产探花极品一区二区| 久久女婷五月综合色啪小说| 黄色一级大片看看| 亚洲成人av在线免费| 在线天堂最新版资源| 高清av免费在线| 麻豆av在线久日| 国产女主播在线喷水免费视频网站| 你懂的网址亚洲精品在线观看| 日本-黄色视频高清免费观看| 午夜福利在线观看免费完整高清在| 狠狠精品人妻久久久久久综合| 国产精品欧美亚洲77777| 欧美日韩国产mv在线观看视频| 黄色怎么调成土黄色| 午夜福利乱码中文字幕| 99久久综合免费| 五月开心婷婷网| 在线免费观看不下载黄p国产| 国产熟女欧美一区二区| 熟妇人妻不卡中文字幕| 一级毛片电影观看| 男的添女的下面高潮视频| 国产精品免费大片| 精品国产一区二区三区久久久樱花| 另类精品久久| 亚洲精品av麻豆狂野| 九色亚洲精品在线播放| 午夜免费男女啪啪视频观看| 在线观看免费日韩欧美大片| 日韩成人av中文字幕在线观看| 少妇熟女欧美另类| 亚洲久久久国产精品| 青草久久国产| 国产精品久久久久久av不卡| 国产野战对白在线观看| 久久国产精品大桥未久av| 国产精品秋霞免费鲁丝片| 日日爽夜夜爽网站| av在线app专区| 90打野战视频偷拍视频| 成人国语在线视频| 久久国内精品自在自线图片| 精品人妻在线不人妻| 日韩av不卡免费在线播放| 欧美中文综合在线视频| 欧美日韩精品网址| 国产不卡av网站在线观看| 日韩一本色道免费dvd| 一级毛片电影观看| 亚洲av综合色区一区| 黄片小视频在线播放| av在线观看视频网站免费| 伦理电影免费视频| 黄色 视频免费看| 在线天堂中文资源库| 久久99蜜桃精品久久| 青青草视频在线视频观看| 韩国高清视频一区二区三区| 在线天堂中文资源库| 又大又黄又爽视频免费| av电影中文网址| 午夜福利视频在线观看免费| 边亲边吃奶的免费视频| 国产精品一区二区在线不卡| 黄色 视频免费看| 欧美激情极品国产一区二区三区| 波多野结衣一区麻豆| 日日爽夜夜爽网站| 国产精品麻豆人妻色哟哟久久| 国产免费福利视频在线观看| 丰满乱子伦码专区| 丝袜在线中文字幕| 久久久久久久久久人人人人人人| 亚洲综合色网址| 国产精品嫩草影院av在线观看| 一级爰片在线观看| 视频在线观看一区二区三区| 亚洲精品久久午夜乱码| 亚洲av在线观看美女高潮| 国产男女超爽视频在线观看| 欧美国产精品一级二级三级| 狠狠精品人妻久久久久久综合| 色网站视频免费| 爱豆传媒免费全集在线观看| 国产乱来视频区| 亚洲国产日韩一区二区| 爱豆传媒免费全集在线观看| 在线观看www视频免费| 深夜精品福利| av片东京热男人的天堂| 一二三四在线观看免费中文在| 熟女av电影| 99热国产这里只有精品6| 9191精品国产免费久久| 久久这里有精品视频免费| 久久99精品国语久久久| 丝袜美足系列| 久久久精品免费免费高清| 欧美亚洲 丝袜 人妻 在线| 日本av手机在线免费观看| 久久久久久人妻| 老司机影院毛片| 中文字幕色久视频| 国产亚洲一区二区精品| 美女脱内裤让男人舔精品视频| 欧美精品国产亚洲| 婷婷成人精品国产| 天堂中文最新版在线下载| 有码 亚洲区| 天堂俺去俺来也www色官网| 免费大片黄手机在线观看| 亚洲一级一片aⅴ在线观看| 国产成人aa在线观看| 99国产精品免费福利视频| 日韩不卡一区二区三区视频在线| 下体分泌物呈黄色| 国产成人精品福利久久| 在线观看三级黄色| 在线观看www视频免费| 欧美最新免费一区二区三区| 制服人妻中文乱码| 男女午夜视频在线观看| 汤姆久久久久久久影院中文字幕| 久久午夜福利片| 精品国产一区二区三区四区第35| 免费在线观看黄色视频的| 大片免费播放器 马上看| 久久国产精品男人的天堂亚洲| 麻豆av在线久日| 看免费av毛片| 国产淫语在线视频| 久久久久精品久久久久真实原创| 欧美日韩精品网址| 成人亚洲欧美一区二区av| 高清av免费在线| 精品国产超薄肉色丝袜足j| 中文字幕人妻丝袜一区二区 | 久久久久久久精品精品| 免费少妇av软件| 街头女战士在线观看网站| 少妇猛男粗大的猛烈进出视频| 国产一区有黄有色的免费视频| 日韩av在线免费看完整版不卡| 最近中文字幕高清免费大全6| 国产亚洲精品第一综合不卡| av免费观看日本| 免费观看性生交大片5| 国产成人精品一,二区| 亚洲精品久久久久久婷婷小说| 精品少妇久久久久久888优播| 亚洲成人av在线免费| 日韩av免费高清视频| 晚上一个人看的免费电影| 女人久久www免费人成看片| 久久久久视频综合| 国产爽快片一区二区三区| 成人毛片a级毛片在线播放| 成人漫画全彩无遮挡| 国产一级毛片在线| 欧美精品人与动牲交sv欧美| 日本av手机在线免费观看| 国产精品久久久av美女十八| 视频区图区小说| 久久久久精品性色| 免费高清在线观看日韩| 黑人欧美特级aaaaaa片| 欧美在线黄色| 美女国产视频在线观看| 国产 精品1| 老汉色av国产亚洲站长工具| 国产精品免费大片| 国产亚洲av片在线观看秒播厂| 这个男人来自地球电影免费观看 | 欧美成人精品欧美一级黄| 免费观看在线日韩| 卡戴珊不雅视频在线播放| 精品视频人人做人人爽| 人人妻人人澡人人看| 欧美日韩精品网址| 成年美女黄网站色视频大全免费| 免费观看无遮挡的男女| 热99久久久久精品小说推荐| 久久久久视频综合| 久久精品国产鲁丝片午夜精品| 麻豆av在线久日| 久久精品国产综合久久久| 黄片小视频在线播放| 中文字幕色久视频| 亚洲av在线观看美女高潮| 日产精品乱码卡一卡2卡三| 亚洲欧美清纯卡通| 大香蕉久久网| 久久热在线av| 久久婷婷青草| 成人国语在线视频| 男人舔女人的私密视频| 亚洲精品久久久久久婷婷小说| 国产在视频线精品| 大香蕉久久网| 日韩成人av中文字幕在线观看| 精品视频人人做人人爽| av免费在线看不卡| 亚洲精品国产av蜜桃| 亚洲av中文av极速乱| 99九九在线精品视频| 国产精品不卡视频一区二区| 国产精品免费大片| 一个人免费看片子| av福利片在线| 一区二区三区激情视频| 久久99一区二区三区| 久久青草综合色| 亚洲欧美色中文字幕在线| 欧美人与性动交α欧美精品济南到 | 国产精品久久久久久av不卡| 欧美日本中文国产一区发布| 天美传媒精品一区二区| 一级爰片在线观看| 亚洲av.av天堂| 青春草国产在线视频| 制服丝袜香蕉在线| 欧美人与性动交α欧美软件| 国产av码专区亚洲av| 久久人人爽av亚洲精品天堂| 热99久久久久精品小说推荐| 97在线视频观看| videos熟女内射| 欧美精品一区二区免费开放| 少妇熟女欧美另类| freevideosex欧美| 97人妻天天添夜夜摸| 免费观看av网站的网址| 丰满少妇做爰视频| 看免费成人av毛片| 色视频在线一区二区三区| 日韩一区二区视频免费看| 国产成人免费观看mmmm| 丝瓜视频免费看黄片| 在线观看免费日韩欧美大片| 亚洲三区欧美一区| 视频在线观看一区二区三区| 少妇 在线观看| 永久网站在线| 又黄又粗又硬又大视频| av.在线天堂| 精品卡一卡二卡四卡免费| 99re6热这里在线精品视频| 97在线视频观看| 亚洲国产看品久久| 亚洲内射少妇av| 国产亚洲精品第一综合不卡| 一级毛片 在线播放| 久久久久久久大尺度免费视频| 国产黄色免费在线视频| 午夜激情av网站| av.在线天堂| 欧美日韩国产mv在线观看视频| 国产一区二区激情短视频 | 91精品三级在线观看| 欧美少妇被猛烈插入视频| 免费少妇av软件| av免费在线看不卡| tube8黄色片| 国产麻豆69| 如何舔出高潮| 久久99精品国语久久久| 啦啦啦啦在线视频资源| 国产精品成人在线| 久久久精品区二区三区| 制服诱惑二区| 久久久久久人人人人人| 99香蕉大伊视频| 激情视频va一区二区三区| 啦啦啦中文免费视频观看日本| 熟女av电影| 欧美精品av麻豆av| 国产又色又爽无遮挡免| 丰满迷人的少妇在线观看| 久热这里只有精品99| xxx大片免费视频| av在线app专区| 精品一区二区免费观看| 国产乱人偷精品视频| 26uuu在线亚洲综合色| 欧美 日韩 精品 国产| 一区二区三区精品91| 777久久人妻少妇嫩草av网站| 永久网站在线| 亚洲四区av| 日本-黄色视频高清免费观看| 亚洲国产最新在线播放| 99精国产麻豆久久婷婷| 免费在线观看视频国产中文字幕亚洲 | 大片电影免费在线观看免费| 久久国产精品男人的天堂亚洲| 爱豆传媒免费全集在线观看| 美女中出高潮动态图| av又黄又爽大尺度在线免费看| 精品亚洲成a人片在线观看| 美女国产视频在线观看| 久久久久久久亚洲中文字幕| 在线观看三级黄色| 久久久精品免费免费高清| 国产精品欧美亚洲77777| 一区二区日韩欧美中文字幕| 丰满乱子伦码专区| 国产成人一区二区在线| 色视频在线一区二区三区| 亚洲在久久综合| 黑人欧美特级aaaaaa片| 黄色配什么色好看| 毛片一级片免费看久久久久| 国产熟女欧美一区二区| 成年人午夜在线观看视频| 制服丝袜香蕉在线| 国产成人aa在线观看| 麻豆av在线久日| 韩国av在线不卡| 最新的欧美精品一区二区| 一级a爱视频在线免费观看| 亚洲av日韩在线播放| 99久久中文字幕三级久久日本| 精品99又大又爽又粗少妇毛片| 最黄视频免费看| 国产精品蜜桃在线观看| 又大又黄又爽视频免费| 国产亚洲av片在线观看秒播厂| 亚洲成国产人片在线观看| 久久国产精品男人的天堂亚洲| 熟女少妇亚洲综合色aaa.| 美女中出高潮动态图| 男女边吃奶边做爰视频| 国产成人午夜福利电影在线观看| 黄色怎么调成土黄色| www.av在线官网国产| 毛片一级片免费看久久久久| 日本免费在线观看一区| 国产老妇伦熟女老妇高清| 母亲3免费完整高清在线观看 | 一级毛片黄色毛片免费观看视频| 美女国产高潮福利片在线看| 亚洲激情五月婷婷啪啪| 婷婷成人精品国产| 极品人妻少妇av视频| 老汉色∧v一级毛片| 国产熟女午夜一区二区三区| 天天躁夜夜躁狠狠躁躁| 成人国语在线视频| 久热这里只有精品99| 成人18禁高潮啪啪吃奶动态图| 尾随美女入室| 久久97久久精品| 国产白丝娇喘喷水9色精品| 好男人视频免费观看在线| 99国产综合亚洲精品| 欧美日韩国产mv在线观看视频| 中文字幕另类日韩欧美亚洲嫩草| a 毛片基地| 麻豆av在线久日| 国产无遮挡羞羞视频在线观看| 一区在线观看完整版| 日韩制服丝袜自拍偷拍| 精品午夜福利在线看| 80岁老熟妇乱子伦牲交| 最近中文字幕高清免费大全6| 人人妻人人澡人人爽人人夜夜| 咕卡用的链子| 永久免费av网站大全| 国产黄色视频一区二区在线观看| 亚洲一区二区三区欧美精品| 亚洲成人一二三区av| 婷婷色综合大香蕉| 高清在线视频一区二区三区| 亚洲国产欧美在线一区| 久久毛片免费看一区二区三区| 亚洲欧洲精品一区二区精品久久久 | 午夜精品国产一区二区电影| 日韩 亚洲 欧美在线| 蜜桃在线观看..| av片东京热男人的天堂| 欧美成人精品欧美一级黄| 男女免费视频国产| 好男人视频免费观看在线| 日韩,欧美,国产一区二区三区| 91久久精品国产一区二区三区| 久久久国产欧美日韩av| 一区在线观看完整版| 一级黄片播放器| 国产成人精品无人区| av电影中文网址| 夫妻性生交免费视频一级片| 亚洲精品久久午夜乱码| 欧美激情 高清一区二区三区| 国产精品 欧美亚洲| 男女午夜视频在线观看| 成人国产麻豆网| 妹子高潮喷水视频| 男女啪啪激烈高潮av片| 国产精品久久久久成人av| 大陆偷拍与自拍| 大片免费播放器 马上看| 成年人免费黄色播放视频| 黑人欧美特级aaaaaa片| kizo精华| 国产高清国产精品国产三级| 国产av一区二区精品久久| 大片电影免费在线观看免费| 亚洲精华国产精华液的使用体验| 久久韩国三级中文字幕| 男女下面插进去视频免费观看| 建设人人有责人人尽责人人享有的| 五月伊人婷婷丁香| 波多野结衣av一区二区av| 男女边吃奶边做爰视频| 久久精品国产亚洲av涩爱| 咕卡用的链子| 国产黄色免费在线视频| www.自偷自拍.com| 一级片'在线观看视频| 亚洲精品一二三| 一二三四中文在线观看免费高清| 国产有黄有色有爽视频| 久久久久国产精品人妻一区二区| 婷婷色综合大香蕉| 日韩视频在线欧美| 国产精品女同一区二区软件| 最近中文字幕2019免费版| 亚洲国产精品成人久久小说| 香蕉国产在线看| 亚洲伊人色综图| 夫妻午夜视频| 女性生殖器流出的白浆| 老司机影院成人| 大香蕉久久成人网| 国产野战对白在线观看| 成人18禁高潮啪啪吃奶动态图| 欧美最新免费一区二区三区| 久久精品夜色国产| 免费在线观看黄色视频的| 美女午夜性视频免费| 男女国产视频网站| 女人久久www免费人成看片| 国产老妇伦熟女老妇高清| 亚洲精品,欧美精品| 女人高潮潮喷娇喘18禁视频| 成人影院久久| av有码第一页| 午夜激情av网站| 91aial.com中文字幕在线观看| 亚洲精品一区蜜桃| 97在线视频观看| 成人免费观看视频高清| 亚洲欧美一区二区三区国产| 黄片无遮挡物在线观看| 日韩中文字幕欧美一区二区 | 亚洲国产日韩一区二区| 国产片内射在线| 18+在线观看网站| 欧美精品av麻豆av| 国产成人午夜福利电影在线观看| 色哟哟·www| 国产xxxxx性猛交| 亚洲内射少妇av| 欧美变态另类bdsm刘玥| 精品一区在线观看国产| 赤兔流量卡办理| 久久久精品94久久精品| 80岁老熟妇乱子伦牲交| 国产人伦9x9x在线观看 | 多毛熟女@视频| 18+在线观看网站| 黄片播放在线免费| 在线精品无人区一区二区三| 观看美女的网站| 国产一区二区激情短视频 | 国产精品蜜桃在线观看| 亚洲欧洲国产日韩| 精品亚洲成国产av| 一本—道久久a久久精品蜜桃钙片| 国产又爽黄色视频| 亚洲av电影在线观看一区二区三区| 女性生殖器流出的白浆| 亚洲精品第二区| 女人精品久久久久毛片| 国产午夜精品一二区理论片| 亚洲欧美一区二区三区久久| 最新的欧美精品一区二区| 国产野战对白在线观看| 观看美女的网站| 男女下面插进去视频免费观看| 国产爽快片一区二区三区| 男女国产视频网站| 国产有黄有色有爽视频| 老汉色∧v一级毛片| 国产亚洲欧美精品永久| 日韩,欧美,国产一区二区三区| av女优亚洲男人天堂| 人人妻人人澡人人看| 国产成人午夜福利电影在线观看| 国产在视频线精品| 国产精品无大码| 一级爰片在线观看| 啦啦啦视频在线资源免费观看| 1024视频免费在线观看| 国产亚洲av片在线观看秒播厂| 亚洲情色 制服丝袜| 免费观看在线日韩| 三上悠亚av全集在线观看| 亚洲欧洲日产国产| 99精国产麻豆久久婷婷| 亚洲精品中文字幕在线视频| 国产精品免费大片| 女性被躁到高潮视频| 观看av在线不卡| 精品视频人人做人人爽| 国产免费一区二区三区四区乱码| 久久精品亚洲av国产电影网| 国产一区有黄有色的免费视频| 日日爽夜夜爽网站| 婷婷色麻豆天堂久久| 精品亚洲成a人片在线观看| 久久99热这里只频精品6学生| 黄频高清免费视频| 久久久久久人妻| 色哟哟·www| 大香蕉久久网| 五月天丁香电影| 免费高清在线观看视频在线观看| 一个人免费看片子| 国产1区2区3区精品| 日韩一本色道免费dvd| 少妇精品久久久久久久| av在线播放精品| 亚洲人成电影观看|