摘 "要: 研究基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的多視覺(jué)特征圖像分割方法,以適應(yīng)資源受限環(huán)境并滿足實(shí)時(shí)性需求。在Linknet網(wǎng)絡(luò)基礎(chǔ)上設(shè)計(jì)輕量級(jí)多視覺(jué)特征圖像分割模型,以原始多視覺(jué)特征圖像為編碼器輸入,經(jīng)過(guò)初步特征提取后,多尺度特征提取模塊利用不同尺度卷積核學(xué)習(xí)其顏色、紋理等特征,通道注意力模塊采用壓縮?激勵(lì)塊對(duì)不同尺度特征作重定向,利用引入深度可分離卷積的特征提取模塊A學(xué)習(xí)更抽象的特征表示,解碼器利用特征提取模塊B、反卷積層和標(biāo)準(zhǔn)卷積層對(duì)編碼器提取的特征表示作轉(zhuǎn)換處理,生成包含語(yǔ)義信息的特征圖。通過(guò)雙向特征金字塔網(wǎng)絡(luò)融合編解碼器輸出特征,利用Sigmoid函數(shù)獲得多視覺(jué)特征圖像分割結(jié)果。實(shí)驗(yàn)結(jié)果表明:該方法訓(xùn)練損失僅為0.08;可實(shí)現(xiàn)多視覺(jué)特征圖像的精準(zhǔn)分割,MIoU、[F1]?score指標(biāo)分別為0.912 8、0.906 8;分割模型參數(shù)量、計(jì)算量、存儲(chǔ)空間分別為6.14 MB、1.52 GMac、0.146 GB,滿足輕量級(jí)要求。
關(guān)鍵詞: 輕量級(jí); 多視覺(jué)特征; 圖像分割; 通道注意力; 反卷積; 雙向特征金字塔
中圖分類號(hào): TN911.73?34; TP391.41 " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A " " " " " " " " "文章編號(hào): 1004?373X(2024)15?0060?05
Research on multi?visual feature image segmentation
based on lightweight convolutional neural networks
CHEN Pan, WANG Shaodong
(Inner Mongolia Normal University, Hohhot 010010, China)
Abstract: A multi?visual feature image segmentation method based on lightweight convolutional neural networks (CNNs) is studied to adapt to resource?constrained environments and meet the requirement of real?time performance. A lightweight multi?visual feature image segmentation model is designed based on the Linknet. The original multi?visual feature images are taken as encoder inputs. After preliminary feature extraction, the convolution kernels with different scales are used to learn the color, texture and other features in the multi?scale feature extraction module. In the channel attention module, squeeze?and?excitation block (SE block) is used to redirect the features with different scales. The feature extraction module A, which introduces depthwise separable convolution, is used to learn more abstract feature representations. The decoder uses feature extraction module B, deconvolution layer and standard convolution layer to transform the feature representations extracted by the encoder to generate feature maps containing semantic information. The bidirectional feature pyramid network is used to fuse the encoder and decoder to output features. The Sigmoid function is used to obtain multi?visual feature image segmentation results. The experimental results show that the training loss of the method studied is only 0.08, the method can achieve accurate segmentation of multi?visual feature images with MIoU (mean intersection over union) and [F1]?score of 0.912 8 and 0.906 8, respectively, and the parameter quantity, computational complexity and storage space of the segmentation model are 6.14 MB, 1.52 GMac and 0.146 GB, respectively, so the method meets the lightweight requirements.
Keywords: lightweight; multi?visual feature; image segmentation; channel attention; deconvolution; bidirectional feature pyramid
0 "引 "言
圖像中蘊(yùn)含著顏色、紋理等多種不同視覺(jué)特征,這些特征共同構(gòu)成了人們對(duì)圖像的整體認(rèn)知[1?3]。在圖像處理領(lǐng)域,圖像分割是一項(xiàng)至關(guān)重要的任務(wù)[4?5],利用多視覺(jué)特征進(jìn)行圖像分割,可以更準(zhǔn)確地識(shí)別圖像不同區(qū)域,更好地保留和突出感興趣目標(biāo)特征,同時(shí)抑制或去除背景噪聲和干擾。多視覺(jué)特征圖像分割不僅可以提高分割的準(zhǔn)確性和魯棒性,還可以提供更豐富、更具體的圖像信息,實(shí)現(xiàn)更高級(jí)別的圖像理解和應(yīng)用[6]。
文獻(xiàn)[7]通過(guò)對(duì)圖像進(jìn)行顯著性檢驗(yàn),定位圖像目標(biāo),利用與目標(biāo)具有最大對(duì)比度的位圖增強(qiáng)目標(biāo)與背景之間的差異,設(shè)計(jì)自適應(yīng)符號(hào)函數(shù)以動(dòng)態(tài)調(diào)整邊緣檢測(cè)算子LoG能量項(xiàng)的權(quán)重,以影響分割模型對(duì)圖像邊緣的敏感程度,從而提高圖像分割效果。該方法不僅對(duì)目標(biāo)先驗(yàn)知識(shí)具有高度依賴性,而且對(duì)先驗(yàn)信息的獲取也帶來(lái)額外的計(jì)算資源和時(shí)間,提高圖像分割的復(fù)雜度;文獻(xiàn)[8]在對(duì)圖像進(jìn)行高斯濾波和拉普拉斯濾波的基礎(chǔ)上,利用2D卷積神經(jīng)網(wǎng)絡(luò)對(duì)各模態(tài)圖像進(jìn)行分割后,通過(guò)加權(quán)平均法實(shí)現(xiàn)分割結(jié)果的融合。卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像全局特征和上下文信息的理解相對(duì)較弱,難以實(shí)現(xiàn)多視覺(jué)特征的精準(zhǔn)學(xué)習(xí);文獻(xiàn)[9]設(shè)計(jì)了基于U?Net的圖像分割模型,利用其獨(dú)特的U形結(jié)構(gòu)和跳躍連接,有效完成圖像多尺度特征的提取與融合。該方法因平等對(duì)待輸入圖像中的每一個(gè)部分,使模型不具備區(qū)分干擾信息的能力,最終導(dǎo)致圖像分割邊界模糊,區(qū)分度不高;文獻(xiàn)[10]設(shè)計(jì)了一種基于3D卷積神經(jīng)網(wǎng)絡(luò)的分割模型,該方法的分割模型結(jié)構(gòu)相對(duì)復(fù)雜,訓(xùn)練過(guò)程中需要更多的時(shí)間和計(jì)算資源,無(wú)法實(shí)現(xiàn)在有限資源設(shè)備上的部署。
因此,本文研究基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的多視覺(jué)特征圖像分割方法,在保證圖像分割精度和效率的同時(shí),降低計(jì)算資源需求,以適用實(shí)時(shí)性要求高或資源受限的應(yīng)用場(chǎng)景。
1 "多視覺(jué)特征圖像分割
1.1 "多視覺(jué)特征圖像分割模型架構(gòu)
本文構(gòu)建的基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的多視覺(jué)特征圖像分割模型在Linknet網(wǎng)絡(luò)基礎(chǔ)上進(jìn)行改進(jìn),采用編碼器?解碼器結(jié)構(gòu)進(jìn)行設(shè)計(jì),編碼器通過(guò)對(duì)原始多視覺(jué)特征圖像進(jìn)行逐層深入處理,以捕獲顏色、形狀、紋理等低層次特征以及高級(jí)、抽象特征。解碼器的作用是將編碼器提取的特征表示轉(zhuǎn)換回與原始圖像類似的空間域,生成包含語(yǔ)義信息的特征圖。解碼器通常包含上采樣層、轉(zhuǎn)置卷積層等,這些層逐步恢復(fù)特征圖的尺寸,直至達(dá)到與原始圖像相似的分辨率。在這個(gè)過(guò)程中,解碼器不僅重建了圖像的空間結(jié)構(gòu),還強(qiáng)調(diào)了與多視覺(jué)特征相關(guān)的關(guān)鍵語(yǔ)義信息。模型基本結(jié)構(gòu)如圖1所示。
原始多視覺(jué)特征圖像樣本輸入到分割模型后,先進(jìn)入具有16個(gè)7×7卷積核的卷積層中,以2步長(zhǎng)處理其輸入,完成初步特征提取后,輸入到多尺度特征提取模塊中,通過(guò)3×3、5×5、7×7、9×9不同尺度卷積核分別處理初步特征圖,以獲得圖像顏色、紋理等多尺度特征,引入最大池化層對(duì)其作下采樣處理,可有效降低數(shù)據(jù)冗余度和計(jì)算量。在該模塊之后設(shè)計(jì)通道注意力模塊,通過(guò)為每個(gè)特征通道賦予不同的權(quán)重,以增強(qiáng)對(duì)分割有益的特征,同時(shí)削弱或忽略那些無(wú)關(guān)緊要的特征。將其處理結(jié)果依次輸入到6個(gè)特征提取模塊A中,獲得更加豐富和有效的特征表示。為了實(shí)現(xiàn)分割模型特征提取能力與參數(shù)量、計(jì)算量之間的平衡,A模塊采用三層結(jié)構(gòu)設(shè)計(jì),圖2為其結(jié)構(gòu)圖,上下兩層設(shè)計(jì)為標(biāo)準(zhǔn)卷積層,卷積核尺寸分別為1×1、3×3,中間層為深度可分離卷積層,分割模型通過(guò)5次下采樣達(dá)到減小特征圖尺寸、降低計(jì)算復(fù)雜度等目的,使分割模型能夠?qū)W習(xí)更抽象的特征表示。解碼器網(wǎng)絡(luò)由特征提取模塊B、反卷積層和一個(gè)3×3標(biāo)準(zhǔn)卷積層構(gòu)成,通過(guò)對(duì)編碼器輸出特征圖執(zhí)行上采樣操作,使分割圖像與原始圖像具有相同尺寸。在特征提取模塊B中,上層卷積層卷積核尺寸為3×3,其作用是降低通道數(shù),以減少模型計(jì)算量;中間為反卷積層,負(fù)責(zé)將特征圖進(jìn)行上采樣,以恢復(fù)其空間分辨率。通過(guò)反卷積操作,特征圖的尺寸得以逐步增大,直至接近或達(dá)到原始圖像的尺寸。下層3×3卷積層則用于進(jìn)一步提取和整合特征,以生成更加精細(xì)的輸出結(jié)果。這一層可以在保持特征圖尺寸不變的同時(shí),增強(qiáng)特征的表達(dá)能力,使得最終的輸出結(jié)果更加準(zhǔn)確和清晰。圖3為特征提取模塊B的結(jié)構(gòu)圖。利用雙向特征金字塔網(wǎng)絡(luò)處理編、解碼器處理后的特征圖,然后通過(guò)Sigmoid函數(shù)獲得多視覺(jué)特征圖像分割結(jié)果。
1.2 "通道注意力模塊
在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的核心作用是采用共享卷積核機(jī)制對(duì)其輸入圖像的局部感受野進(jìn)行特征提取。這種局部操作使得網(wǎng)絡(luò)能夠?qū)W習(xí)到多視覺(jué)特征圖像的空間層次結(jié)構(gòu),并且在不同的通道上融合信息[11?12]。然而,這種融合通常是“無(wú)差別”的,即所有通道的信息都被平等地處理,沒(méi)有考慮到不同通道之間可能存在的依賴關(guān)系或重要性差異[13]。壓縮?激勵(lì)塊(Squeeze?and?Excitation Block, SE Block)的核心思想是通過(guò)學(xué)習(xí)每個(gè)通道的重要性,使得網(wǎng)絡(luò)能夠自適應(yīng)地增強(qiáng)有利于圖像分割的重要特征,而對(duì)無(wú)關(guān)緊要的特征予以忽視。因此,本文利用壓縮?激勵(lì)塊對(duì)多視覺(jué)特征圖像的不同尺度特征進(jìn)行重定向處理,以獲得更好的分割效果。
SE Block通過(guò)壓縮、激勵(lì)過(guò)程幫助分割模型學(xué)習(xí)并強(qiáng)調(diào)對(duì)分割任務(wù)最重要的特征。壓縮操作通過(guò)全局平均池化手段使每個(gè)通道的描述符中都包含了全局空間信息。設(shè)定用[X∈RH×W×C]表示SE Block的輸入特征圖,該特征圖中包含[C]個(gè)通道,特征圖高度、寬度分別表示為[H]、[W]。通過(guò)式(1)描述全局平均池化操作。
[yc=H×W-1i=1Hj=1Wxci,j, " "c∈1,C] (1)
式中:[xc]為輸入[X]的第[c]通道特征圖,[X]經(jīng)過(guò)壓縮后,可得到用[Y∈R1×1×C]表示的輸出結(jié)果,[yc]為其在第[c]通道上的特征圖。激勵(lì)操作依據(jù)[Y]學(xué)習(xí)每個(gè)通道的重要性權(quán)重,該過(guò)程在兩個(gè)全連接層里完成,即將[Y]輸入到全連接層1中進(jìn)行處理后,其通道數(shù)則為[Cr],[r]為縮放因子,在完成ReLU激活處理后,可通過(guò)全連接層2使其通道數(shù)再變?yōu)閇C],再利用Sigmoid函數(shù)處理后,即可完成通道權(quán)重集合[S∈R1×1×C]的確定,各權(quán)重取值區(qū)間滿足[0,1]條件,公式描述為:
[S=σFδFY;θ1;θ2] (2)
式中:[F]為全連接處理;[δ]、[σ]分別為ReLU、Sigmoid激活函數(shù);[θ1]、[θ2]分別為卷積參數(shù)。權(quán)重系數(shù)的高低與特征圖重要度成正比,計(jì)算其與[X]每個(gè)通道的乘積,即可完成輸入圖像多尺度特征的重定向,即達(dá)到增強(qiáng)有用特征,忽視無(wú)價(jià)值特征的目的。
1.3 "基于雙向特征金字塔網(wǎng)絡(luò)的特征融合
為實(shí)現(xiàn)多視覺(jué)特征圖像的高精度分割,本文將雙向特征金字塔網(wǎng)絡(luò)(DBiFPN)引入到分割模型中,對(duì)編解碼網(wǎng)絡(luò)獲取的特征作融合處理,避免損失多視覺(jué)圖像特征信息。該網(wǎng)絡(luò)通過(guò)卷積、空洞卷積操作增強(qiáng)對(duì)不同尺度特征圖的學(xué)習(xí)能力;采用雙向跨尺度連接機(jī)制使分割模型捕獲多視覺(jué)特征圖像更豐富的上下文信息,提高特征表達(dá)的準(zhǔn)確性和完整性。在多尺度特征融合時(shí),通過(guò)將不同尺度特征圖調(diào)整到相同尺寸確保其能夠在同一空間進(jìn)行融合;采用權(quán)重調(diào)整機(jī)制靈活處理不同尺度的特征信息,避免簡(jiǎn)單拼接帶來(lái)的信息損失。
DBiFPN網(wǎng)絡(luò)的輸入分別為[P1_in]、[P2_in]、[P3_in],經(jīng)過(guò)處理后,可獲得通過(guò)式(3)~式(5)描述的輸出:
[P1_out=DConvw11?DConvP1_in+w12?RP2_tdw11+w12+ε1] (3)
[P2_out=DConvw21?DConvP2_in+w22?P2_td+w23?RP1_outw21+w22+w23+ε1] (4)
[P3_out=Convw31?ConvP3_in+w32?RP2_outw31+w32+ε1] (5)
式中:[DConv]、[Conv]分別為空洞、標(biāo)準(zhǔn)卷積操作;[R]為采樣處理;[wij]為權(quán)重參數(shù);常數(shù)[ε1]的作用是避免分母等于0。
2 "實(shí)驗(yàn)分析
從互聯(lián)網(wǎng)圖片庫(kù)中收集多視覺(jué)特征圖像,構(gòu)建實(shí)驗(yàn)數(shù)據(jù)集,圖像數(shù)量共計(jì)2 000幅,分辨率均為480×340,將其中20幅作為測(cè)試圖像,余下部分均為訓(xùn)練圖像。在Pytorch框架下開(kāi)展圖像分割實(shí)驗(yàn),實(shí)驗(yàn)硬件選用具有強(qiáng)大計(jì)算能力和高效顯存帶寬的GeForce RTX 40 SUPER系列GPU,顯存可達(dá)8 GB,選用的處理器為英特爾最新一代頂級(jí)多核心CPU——Intel Core i9?10900K。利用Adam優(yōu)化算法調(diào)整分割模型參數(shù),設(shè)定學(xué)習(xí)率初值為10-3,用于計(jì)算梯度的一階矩估計(jì)的衰減率為0.91,用于計(jì)算梯度的二階矩估計(jì)的衰減率為0.998,批次規(guī)模為32,通過(guò)Dice損失函數(shù)對(duì)分割模型的訓(xùn)練效果進(jìn)行評(píng)價(jià)。將本文方法應(yīng)用到多視覺(jué)特征圖像分割中,分析其分割性能。
分割模型性能決定了多視覺(jué)特征圖像分割效果,以基于CNN的分割方法、基于U?Net的分割方法作為對(duì)比,通過(guò)對(duì)不同方法下分割模型的Dice損失進(jìn)行差異分析,驗(yàn)證本文方法的分割效果,實(shí)驗(yàn)結(jié)果如圖4所示。
分析圖4可知:不斷對(duì)分割模型進(jìn)行深入訓(xùn)練,模型的訓(xùn)練損失呈不斷下降變化趨勢(shì),基于CNN的分割方法訓(xùn)練損失曲線存在明顯震蕩,且訓(xùn)練損失最大;與之相比,基于U?Net的分割方法可取得較好的分割效果,訓(xùn)練損失曲線相對(duì)較為平緩,波動(dòng)幅度較小,損失值較低,該方法在訓(xùn)練過(guò)程中更加穩(wěn)定,能夠更好地平衡訓(xùn)練與泛化之間的關(guān)系;本文方法能夠更快地完成分割模型的訓(xùn)練,訓(xùn)練損失曲線平滑,損失值僅為0.08,為三種方法中最低,實(shí)驗(yàn)結(jié)果驗(yàn)證了本文方法在多視覺(jué)特征圖像分割任務(wù)中的有效性和穩(wěn)定性。
以平均交并比(MIoU)、[F1]?score為分割模型性能的評(píng)價(jià)指標(biāo),不同方法的對(duì)比結(jié)果如表1所示。
分析表1得出,本文方法在多視覺(jué)特征圖像分割任務(wù)上展現(xiàn)出了顯著優(yōu)勢(shì)。相比基于CNN的分割方法、基于U?Net的分割方法,本文方法MIoU指標(biāo)分別上升了17.43%、9.35%,[F1]?score指標(biāo)分別上升了26.22%、9.99%。這說(shuō)明本文方法在分割過(guò)程中能夠更準(zhǔn)確地識(shí)別并分割出目標(biāo)區(qū)域,減少了誤分割和漏分割的情況。
以參數(shù)量、計(jì)算量、存儲(chǔ)空間容量作為分割模型執(zhí)行效率的評(píng)價(jià)指標(biāo),其值越小,執(zhí)行效率越突出。實(shí)驗(yàn)結(jié)果如表2所示。
分析表2得出,本文方法在運(yùn)行效率方面表現(xiàn)出更加突出的優(yōu)勢(shì)。相比基于CNN的分割方法、基于U?Net的分割方法,本文方法參數(shù)量下降82.16%、65.34%;計(jì)算量下降了97.63%、95.69%;存儲(chǔ)空間減少了72.34%、61.97%。這意味著本文方法在保持高分割性能的同時(shí),極大地減少了模型復(fù)雜度,減輕了計(jì)算負(fù)擔(dān),降低了模型部署的硬件要求,使得模型更加輕量級(jí),更易于在有限資源設(shè)備中部署和應(yīng)用。
以測(cè)試圖像數(shù)據(jù)集中的任意一幅多視覺(jué)特征圖像為例,應(yīng)用本文方法對(duì)其進(jìn)行分割,分割結(jié)果如圖5b)所示。
分析圖5可知,原始多視覺(jué)特征圖像包含豐富的色彩、紋理、形狀等細(xì)節(jié)信息,這為圖像分割帶來(lái)了挑戰(zhàn),也提供了更多的分割線索。本文方法通過(guò)對(duì)原始多視覺(jué)特征圖像進(jìn)行深入學(xué)習(xí),實(shí)現(xiàn)了圖像不同區(qū)域的有效區(qū)分,分割邊緣清晰、原始圖像中的關(guān)鍵信息得以最大化保留。實(shí)驗(yàn)結(jié)果表明,本文方法在多視覺(jué)特征圖像分割任務(wù)中表現(xiàn)出了卓越的性能,具有廣闊的應(yīng)用前景。
3 "結(jié) "論
本文提出基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的多視覺(jué)特征圖像分割方法,通過(guò)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、減少參數(shù)量和計(jì)算復(fù)雜度,成功構(gòu)建了一個(gè)輕量且性能優(yōu)越的分割模型。實(shí)驗(yàn)結(jié)果表明,該模型在保持較高分割精度的同時(shí),顯著降低了存儲(chǔ)和計(jì)算需求,使得在資源受限的設(shè)備上也能實(shí)現(xiàn)實(shí)時(shí)、快速的圖像分割。此外,本文充分利用了圖像的色彩、紋理和形狀等多視覺(jué)特征,有效提升了分割的準(zhǔn)確性和魯棒性。通過(guò)與其他方法的對(duì)比,本文方法在多個(gè)評(píng)價(jià)指標(biāo)上均表現(xiàn)出色,顯示出其在實(shí)際應(yīng)用中的潛力和優(yōu)勢(shì)。
注:本文通訊作者為王紹東。
參考文獻(xiàn)
[1] 李莉,彭娜,王巍.基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像檢測(cè)模型[J].計(jì)算機(jī)工程與設(shè)計(jì),2023,44(5):1511?1518.
[2] 胡伏原,萬(wàn)新軍,沈鳴飛,等.深度卷積神經(jīng)網(wǎng)絡(luò)圖像實(shí)例分割方法研究進(jìn)展[J].計(jì)算機(jī)科學(xué),2022,49(5):10?24.
[3] 何曉云,許江淳,陳文緒.基于改進(jìn)U?Net網(wǎng)絡(luò)的眼底血管圖像分割研究[J].電子測(cè)量與儀器學(xué)報(bào),2021,35(10):202?208.
[4] 袁單飛,陳慈發(fā),董方敏.基于多尺度分割的圖像識(shí)別殘差網(wǎng)絡(luò)研究[J].計(jì)算機(jī)工程,2022,48(5):258?262.
[5] 耿磊,史瑞資,劉彥北,等.基于多重感受野UNet的儀表圖像分割方法[J].計(jì)算機(jī)工程與設(shè)計(jì),2022,43(3):771?777.
[6] 李鑫,張紅英,劉漢玉.融合多尺度和邊界優(yōu)化的圖像語(yǔ)義分割網(wǎng)絡(luò)[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(21):250?257.
[7] 何亞茹,葛洪偉.視覺(jué)顯著區(qū)域和主動(dòng)輪廓結(jié)合的圖像分割算法[J].計(jì)算機(jī)科學(xué)與探索,2022,16(5):1155?1168.
[8] 李孟歆,李美玲,裴文龍,等.基于CNN和局部信息的腦血管圖像分割方法[J].計(jì)算機(jī)仿真,2021,38(5):344?347.
[9] WANG R S, LEI T, CUI R X, et al. Medical image segmentation using deep learning: A survey [J]. IET image processing, 2022, 16(5): 1243?1267.
[10] 宮浩棟,王育堅(jiān),韓靜園.基于3D卷積神經(jīng)網(wǎng)絡(luò)的腦腫瘤圖像分割[J].光學(xué)技術(shù),2022,48(4):472?477.
[11] 馮曉,李丹丹,王文君,等.基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的小麥葉部病害圖像識(shí)別[J].河南農(nóng)業(yè)科學(xué),2021,50(4):174?180.
[12] 霍光,林大為,劉元寧,等.基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的小樣本虹膜圖像分割[J].吉林大學(xué)學(xué)報(bào)(理學(xué)版),2023,61(3):583?591.
[13] 黃揚(yáng)林,胡凱,郭建強(qiáng),等.基于多尺度特征融合和雙重注意力機(jī)制的肝臟CT圖像分割[J].計(jì)算機(jī)科學(xué),2022,49(z2):549?557.
作者簡(jiǎn)介:陳 "攀(1983—),男,內(nèi)蒙古包頭人,碩士研究生,講師,研究方向?yàn)槲幕糜萎a(chǎn)品、可持續(xù)設(shè)計(jì)。
王紹東(1988—),男,內(nèi)蒙古包頭人,博士研究生,研究方向?yàn)閰?shù)化產(chǎn)品形態(tài)學(xué)。