• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種XNet-CNN糖尿病視網(wǎng)膜圖像分類方法

    2020-05-21 03:31:21陳宇周雨佳丁輝
    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

    陳宇 周雨佳 丁輝

    摘 要:本文針對(duì)傳統(tǒng)的視網(wǎng)膜圖像處理過(guò)程繁瑣、魯棒性差的缺點(diǎn),提出設(shè)計(jì)了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的視網(wǎng)膜圖像自動(dòng)識(shí)別系統(tǒng)。首先,對(duì)圖像預(yù)處理包括去除噪聲、數(shù)值歸一化、數(shù)據(jù)量擴(kuò)增;然后,設(shè)計(jì)提出了一種新的神經(jīng)網(wǎng)絡(luò)模型——XNet,XNet中和了LeNet和Inception網(wǎng)絡(luò)的深度,網(wǎng)絡(luò)參數(shù)根據(jù)訓(xùn)練樣本進(jìn)行適應(yīng)性調(diào)整;最后,針對(duì)不同的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了準(zhǔn)確率和迭代次數(shù)的比較。實(shí)驗(yàn)結(jié)果表明,XNet網(wǎng)絡(luò)的結(jié)構(gòu)要優(yōu)于LeNet和Inception,準(zhǔn)確率可以達(dá)到91%;并通過(guò)實(shí)驗(yàn)證實(shí)了數(shù)據(jù)擴(kuò)增的必要性。

    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò); 深度學(xué)習(xí);視網(wǎng)膜分類;糖尿病視網(wǎng)膜圖像

    DOI:10-15938/j-jhust-2020-01-011

    中圖分類號(hào): TP391-4

    文獻(xiàn)標(biāo)志碼: A

    文章編號(hào): 1007-2683(2020)01-0073-07

    Abstract:In this research,a retina image automatic recognition system based on Convolutional Neural Network(CNN) is proposed for the disadvantages of the traditional retina image processing process which is cumbersome and poor in robustnessFirst, image preprocessing includes noise removal, numerical normalization, and data volume amplification; then, a new neural network model, XNet, is designedXNet inherits the advantages of LeNet and Inception networksThe network parameters are based on trainingThe samples were adjusted adaptivelyFinally, the comparison of accuracy and number of iterations was performed for different network structuresThe experimental results show that the XNet network structure is superior to LeNet and Inception, and the accuracy rate can reach 91%; and the necessity of data amplification is confirmed through experiments-Keywords:convolution neural network;deep learning; retinal images classification;Diabetic Retinal Images

    0 引 言

    糖尿病視網(wǎng)膜病變(diabetic retinal,DR)是糖尿病微血管病變的主要表現(xiàn),是具有特殊變化的眼底病變[1]。據(jù)世界衛(wèi)生組織報(bào)道,預(yù)計(jì)2030 年糖尿病患者將達(dá)到全世界人數(shù)的 4-4%,其中50%的患者會(huì)出現(xiàn) DR?,F(xiàn)在,我國(guó)是糖尿病患者最多的國(guó)家,

    而且此病發(fā)病率隨潛伏期增長(zhǎng),病程 10~15 年出現(xiàn)并發(fā)癥的人數(shù)為 25%,病程 25 年以上出現(xiàn)并發(fā)癥的人數(shù)為 60%,病程 30 年以上出現(xiàn) 并發(fā)癥的人數(shù)為 95%[2]。除了白內(nèi)障、青光眼,糖尿病視網(wǎng)膜病也會(huì)導(dǎo)致眼盲,從而降低糖尿病患者的生活質(zhì)量。為了降低病情,我們需要盡早發(fā)現(xiàn)、盡早診斷、盡早治療,因此,如何盡早判斷糖尿病視網(wǎng)膜成為近期的重點(diǎn),如何對(duì)視網(wǎng)膜圖像進(jìn)行分類逐漸變成目前研究的熱點(diǎn)。

    在過(guò)去,視網(wǎng)膜圖像的處理需要經(jīng)過(guò)四個(gè)階段,在每個(gè)步驟,視網(wǎng)膜圖像處理都需要至少一種的計(jì)算機(jī)視覺(jué)的技術(shù)。同時(shí),視網(wǎng)膜樣本復(fù)雜、加以各種病變的影響,加大了其處理的難度。不可抗力的外部因素使得處理視網(wǎng)膜圖像的處理繁瑣,魯棒性差,并且需要根據(jù)原有的醫(yī)學(xué)知識(shí)。在視網(wǎng)膜圖像處理中,某一個(gè)過(guò)程的錯(cuò)誤或結(jié)果不盡如人意,都會(huì)加大下一步驟的難度和降低圖像分類測(cè)試精度。在糖尿病發(fā)病率較高的發(fā)達(dá)國(guó)家,有很多高校和研究所一直在研究如何進(jìn)行DR的篩查。2012年,哈爾濱工業(yè)大學(xué)的陳向在分類階段,根據(jù)硬性滲出物的自身特性對(duì)每一個(gè)候選區(qū)域抽取了44個(gè)特征,使用支持向量機(jī)進(jìn)行分類,并得到最后的分類結(jié)果[3]。2017年,北京交通大學(xué)的丁蓬莉設(shè)計(jì)了一種結(jié)構(gòu)緊湊的卷積神經(jīng)網(wǎng)絡(luò)模型,與傳統(tǒng)直接訓(xùn)練相比高出0-27[4]。 谷歌在數(shù)年前就在研究如何把機(jī)器學(xué)習(xí)技術(shù)用在DR的診斷中了,并在2018年使用深度學(xué)習(xí)取得了很高的精度[5]。然而,現(xiàn)在中國(guó)DR方面的研究很少,還缺乏整體的分類和診斷系統(tǒng)。

    本文設(shè)計(jì)的基于CNN的XNet結(jié)構(gòu)實(shí)現(xiàn)對(duì)視網(wǎng)膜樣本自動(dòng)分類,只需要對(duì)于樣本進(jìn)行簡(jiǎn)單的預(yù)處理,然后將上一步驟中獲得的數(shù)據(jù)作為訓(xùn)練樣本,使用本文設(shè)計(jì)的 XNet 網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),將訓(xùn)練好的模型用以圖像分類檢測(cè)。與傳統(tǒng)的分類相比,XNet只是對(duì)原始圖片集作了初步的處理,并不依賴任何醫(yī)學(xué)背景就可以達(dá)到很高的分類精度。

    1 卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種前向傳播神經(jīng)網(wǎng)絡(luò),每個(gè)神經(jīng)元都只影響鄰層的一部分網(wǎng)絡(luò)結(jié)構(gòu),只能感受一部分的圖像結(jié)構(gòu),所以,CNN的捕捉局部特征的能力很強(qiáng);另一方面,通過(guò)權(quán)值共享和池化,大幅度的降低了訓(xùn)練網(wǎng)絡(luò)的難度,使得CNN得到廣泛應(yīng)用[6]。卷積神經(jīng)網(wǎng)絡(luò)在圖像分類和語(yǔ)音處理領(lǐng)域有很好的表現(xiàn),也是目前大部分計(jì)算機(jī)視覺(jué)系統(tǒng)的核心技術(shù) [7-9]。與此同時(shí),近兩年CNN逐漸被應(yīng)用于文本處理,也取得了非常顯著的效果[10-12]。

    本文設(shè)計(jì)的XNet網(wǎng)絡(luò)結(jié)構(gòu)主要有以下特點(diǎn):

    1)卷積層數(shù)與卷積核適中。由于Inception網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用在視網(wǎng)膜分類上過(guò)于復(fù)雜,而LeNet網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,只對(duì)于識(shí)別手寫(xiě)數(shù)字這類簡(jiǎn)單圖像分類的應(yīng)用效果較好,所以中和兩種網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)造出的XNet有12層結(jié)構(gòu):5層卷積層分別連接一個(gè)池化層,最后連接兩個(gè)全連接層。

    2)增加激活函數(shù)Relu層,Relu函數(shù)的特性是阻止負(fù)信號(hào)通過(guò),比Sigmoid函數(shù)效率更高,可以一定程度上加快收斂速度。

    3)添加L2處理全連接層。L2正則化使得目標(biāo)函數(shù)中增加所有權(quán)重的平方和,逼迫所有權(quán)重盡可能趨近0,即加入L2正則化懲罰了權(quán)重變大的趨勢(shì)。

    進(jìn)行視網(wǎng)膜圖像分類時(shí),獲取到的圖像由于不可抗力的因素不能直接訓(xùn)練,首先需要去除黑色邊框,緊接著對(duì)數(shù)據(jù)集做適當(dāng)?shù)那逑?,隨后將清洗后的圖片傳入到 XNet中進(jìn)行訓(xùn)練, 最后進(jìn)行圖像的分類。 如圖2 所示,算法主要包括4個(gè)步驟:

    1)將清洗后的圖像周圍的黑色背景剪裁,對(duì)數(shù)據(jù)進(jìn)行初步的選擇,刪除出現(xiàn)明顯噪聲的樣本。

    2)將圖像做歸一化處理,統(tǒng)一樣本集明暗,減少由拍照問(wèn)題而產(chǎn)生的影響。

    3)由于樣本數(shù)量較少,并且數(shù)據(jù)明顯分布不均勻,所以本文使用旋轉(zhuǎn)、平移、拉伸等方法進(jìn)行處理。

    4)XNet網(wǎng)絡(luò)結(jié)構(gòu),借鑒LeNet和 Inception網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)建了符合數(shù)據(jù)集特征的網(wǎng)絡(luò)結(jié)構(gòu)。

    圖2流程中的裁剪邊框、樣本歸一化和樣本量放大可以統(tǒng)稱為數(shù)據(jù)預(yù)處理的過(guò)程,這樣就將整個(gè)算法流程分成兩部分: 數(shù)據(jù)預(yù)處理和訓(xùn)練模型。

    本文使用的數(shù)據(jù)是高分辨率 RGB圖像,其分辨率約為3000×2500。根據(jù)視網(wǎng)膜病變程度將圖像分為4 類,如圖 3所示。第 0 類對(duì)應(yīng)的是沒(méi)有病變的視網(wǎng)膜圖像,第 1 類對(duì)應(yīng)的是有輕微DR,第2 類對(duì)應(yīng)的是有嚴(yán)重DR,第 3類則是未知眼科病變,數(shù)量如表 1 所示,可以認(rèn)為,分類數(shù)量分布十分不平衡,第 0 類樣本約是第 4 類樣本的6倍。

    這些數(shù)據(jù)中存在不止一種噪聲數(shù)據(jù)圖像,所以需要將數(shù)據(jù)進(jìn)行清洗。圖 4 只列出了普遍出現(xiàn)的含有噪聲的樣本。

    數(shù)據(jù)預(yù)處理需要主要改善這些狀況: 每張樣本都有背景等需要去掉的部分,也可能含有噪聲,樣本與樣本的亮度有比較明顯的區(qū)別,每類樣本的數(shù)量相差太多。

    作預(yù)處理時(shí),首先裁剪樣本的黑色背景和因?yàn)樵肼暣嬖诙荒苁褂玫臉颖?。?duì)于獲得的四類樣本,把樣本的背景全部都裁剪掉; 再把如圖4無(wú)法使用的圖像刪除。

    數(shù)據(jù)歸一化是為了將不同亮度的樣本都處理成相似的亮度,不同色調(diào)、不同明暗度的圖像,經(jīng)過(guò)局部歸一化之后都會(huì)得到統(tǒng)一的色調(diào),這樣也就是對(duì)所有的數(shù)據(jù)作了統(tǒng)一的歸一化處理,在訓(xùn)練模型時(shí)可以明顯提高分類精度。圖5是歸一化調(diào)整亮度前后的圖像對(duì)比,可以發(fā)現(xiàn),進(jìn)行圖像歸一化之后的樣本亮度趨于一致。

    在使用深度學(xué)習(xí)作圖像分類時(shí),由于深度學(xué)習(xí)需要大量的數(shù)據(jù),而現(xiàn)實(shí)中并沒(méi)有足夠數(shù)量的樣本,因此必不可少的步驟是數(shù)據(jù)擴(kuò)增。對(duì)不同的樣本采用隨機(jī)拉伸、旋轉(zhuǎn)等方法,產(chǎn)生一定數(shù)目的子圖像,這些圖像都是由原圖像產(chǎn)生的,也存在一定的可分類性。與此同時(shí),數(shù)據(jù)擴(kuò)增技術(shù)還在一定程度上解決了數(shù)據(jù)集不平衡問(wèn)題,如表1所示。若某類樣本圖像較少,需要進(jìn)行數(shù)據(jù)擴(kuò)增使得各類樣本數(shù)量相同。圖6是樣本進(jìn)行擴(kuò)增的例子,圖6(a)是原圖,經(jīng)過(guò)隨機(jī)的平移、旋轉(zhuǎn)、翻轉(zhuǎn),成為圖6(b),可以大大的擴(kuò)增樣本總數(shù),這樣就改善了樣本分類不均勻和樣本量不夠的情況。

    本實(shí)驗(yàn)是使用谷歌開(kāi)源框架 Tensorflow,使用的測(cè)試平臺(tái): 處理器為 Intel(R) Xeon(R),內(nèi)存為16GB,顯卡為 NVidia Tesla K20m,GPU 內(nèi)存為 6GB。由于顯存不足,導(dǎo)致無(wú)法訓(xùn)練網(wǎng)絡(luò)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),這也是本實(shí)驗(yàn)采用網(wǎng)絡(luò)復(fù)雜度適中的原因所在。需要注意的是,清洗數(shù)據(jù)之后,為了避免結(jié)果不客觀,從各類樣本中隨機(jī)抽取約有300個(gè)樣本作為驗(yàn)證集,剩下的圖像作為訓(xùn)練集。

    為了分析不同網(wǎng)絡(luò)結(jié)構(gòu)對(duì)分類精度的影響和樣本量對(duì)分類精度的影響,設(shè)計(jì)了兩組實(shí)驗(yàn)。為了減少格式不同對(duì)結(jié)果的影響,訓(xùn)練網(wǎng)絡(luò)時(shí)選取一樣的樣本大小,都為 512×512,之所以選擇該尺寸是考慮到如果樣本過(guò)小會(huì)丟掉很多細(xì)節(jié)。

    為了對(duì)比不同網(wǎng)絡(luò)對(duì)實(shí)驗(yàn)結(jié)果的影響,實(shí)驗(yàn)對(duì)3種網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練: ①使用 LeNet 網(wǎng)絡(luò)對(duì)樣本進(jìn)行訓(xùn)練,Le Net 網(wǎng)絡(luò)只有 3 個(gè)卷積層,待訓(xùn)練參數(shù)較少,是淺層的網(wǎng)絡(luò)代表,也是最早的卷積神經(jīng)網(wǎng)絡(luò); ②Inception網(wǎng)絡(luò),Inception網(wǎng)絡(luò)有多個(gè)卷積層和 2 個(gè)全連接層,屬于復(fù)雜網(wǎng)絡(luò)的代表,也是近年來(lái)提出最新技術(shù)的代表; ③本文中提出的XNet網(wǎng)絡(luò)結(jié)構(gòu)。

    通過(guò)3組對(duì)比實(shí)驗(yàn),使用LeNet,Inception,XNet不同的網(wǎng)絡(luò)結(jié)構(gòu)對(duì)樣本進(jìn)行訓(xùn)練,表2為使用不同CNN結(jié)構(gòu)的對(duì)比實(shí)驗(yàn)結(jié)果。

    實(shí)驗(yàn)結(jié)果說(shuō)明深度學(xué)習(xí)可以增加分類準(zhǔn)確度,過(guò)淺的網(wǎng)絡(luò)不能充分獲取到樣本特征,但是較深的網(wǎng)絡(luò)的參數(shù)偏多導(dǎo)致在樣本量很少的情況下,十分有可能得到有過(guò)擬合的結(jié)果,分類精度反而不讓人滿意,XNet 網(wǎng)絡(luò)最終的分類精度是對(duì)比實(shí)驗(yàn)中最好的。

    圖7是隨迭代次數(shù)增加,3種卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率變化情況。LeNet 結(jié)構(gòu)單一,故使用隨機(jī)數(shù)初始化參數(shù)的方式,所以 LeNet 網(wǎng)絡(luò)的開(kāi)始收斂的迭代次數(shù)相比較多; 而 Inception 網(wǎng)絡(luò)有一定的初始化值,微調(diào)時(shí)收斂速度要快得多,但是由于網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,最終收斂結(jié)束時(shí)的迭代次數(shù)更多,表現(xiàn)也很穩(wěn)定。XNet網(wǎng)絡(luò)結(jié)構(gòu)由于層數(shù)適中,迭代效果介于二者之間,結(jié)構(gòu)綜合了LeNet和Inception的優(yōu)點(diǎn),所以最終效果比二者都好。

    在用相同算法不同數(shù)據(jù)量進(jìn)行試驗(yàn)時(shí),分別采用原有數(shù)據(jù)集中隨機(jī)選出10%、20%、40%、60%、80%的數(shù)據(jù)與使用全部數(shù)據(jù)集進(jìn)行試驗(yàn)對(duì)比,圖8為對(duì)比試驗(yàn)結(jié)果,由于LeNet具有比較少的網(wǎng)絡(luò)層數(shù),則所需訓(xùn)練的參數(shù)比較少,所以在只有少量的數(shù)據(jù)集時(shí),表現(xiàn)略好于較為復(fù)雜的XNet網(wǎng)絡(luò),由于Inception結(jié)構(gòu)有初始化的參數(shù),在較小數(shù)據(jù)集時(shí)表現(xiàn)也比較優(yōu)秀。但是復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)經(jīng)過(guò)大量數(shù)據(jù)集的訓(xùn)練XNet可以達(dá)到更好的分類效果。

    3 結(jié) 語(yǔ)

    本文采用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)視網(wǎng)膜圖像分為四類。由于視網(wǎng)膜樣本有噪聲、數(shù)據(jù)量小、各類數(shù)據(jù)量相差過(guò)多的問(wèn)題,所以在作學(xué)習(xí)之前需要先對(duì)圖像依次以下操作: 去除邊界噪聲、歸一化視網(wǎng)膜圖像、數(shù)據(jù)擴(kuò)增。在作XNet的模型設(shè)計(jì)時(shí),借鑒經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),針對(duì)視網(wǎng)膜圖像的特征,提出了新的 CNN結(jié)構(gòu)XNet。為了對(duì)比不同的CNN結(jié)構(gòu)與分類精度是否有關(guān),設(shè)計(jì)了對(duì)比實(shí)驗(yàn)。結(jié)果表明,如果有一定的參數(shù),再加以訓(xùn)練少數(shù)幾層,精度和收斂次數(shù)會(huì)有所改善; XNet 的網(wǎng)絡(luò)結(jié)構(gòu),比另外兩種網(wǎng)絡(luò)結(jié)構(gòu)分類精度高;數(shù)據(jù)擴(kuò)增也可以改善分類準(zhǔn)確度。

    參 考 文 獻(xiàn):

    [1] 賈淑琴,霍建新.糖尿病性視網(wǎng)膜病變相關(guān)研究[J].包頭醫(yī)學(xué)院學(xué)報(bào),2014,30(4):138.

    JIA Shuqin, HUO Jianxin. Diabetic Retinopathy Related Research[J].Journal of Baotou Medical College, 2014, 30(4):138.

    [2] L HEVEDER R, NOLAN T.International diabetes federation[J].Diabetes Research and Clinical Practice, 2013, 101( 3 ) : 349.

    [3] 陳向. 糖尿病視網(wǎng)膜病變圖像的滲出物自動(dòng)檢測(cè)算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2012:1.

    [4] 丁蓬莉. 基于深度學(xué)習(xí)的糖尿病性視網(wǎng)膜圖像分析算法研究[D].北京:北京交通大學(xué),2017:1.

    [5] GULSHAN V, PENG L, CORAM M, et al. Development and Validation of a Deep Learning Algorithm for Detection of Diabetic Retinopathy in Retinal Fundus Photographs[J]. The Journal of the American Medical Association, 2016,316(22):2402.

    [6] 程嘉暉. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的飛行器圖像識(shí)別算法研究[D].杭州:浙江大學(xué),2017:1.

    [7] VESNA Miljanovic',MARLEEN Tjepkema-Cloostermans,MICHEL Van Putten. O20 Deep learning with Convolutional Neural Networks for Detection of Interictal Epileptiform Discharges[J]. Clinical Neurophysiology,2017,128(9):186.

    [8] 周旺. 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉年齡估計(jì)算法[D].南京:南京大學(xué),2017.

    [9] 蔣帥. 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別[D].長(zhǎng)春:吉林大學(xué),2017.

    [10]段萌. 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別方法研究[D].鄭州:鄭州大學(xué),2017.

    [11]VLADIMIR Golovko,MIKHNO Egor,ALIAKSANDR Brich,et al. A Shallow Convolutional Neural Network for Accurate Handwritten Digits Classification[M].Springer International Publishing,2017.

    [12]宋光慧. 基于遷移學(xué)習(xí)與深度卷積特征的圖像標(biāo)注方法研究[D].杭州:浙江大學(xué),2017.

    [13]HARSHITA Sharma,NORMAN Zerbe,IRIS Klempert,et al. Deep Convolutional Neural Networks for Automatic Classification of Gastric Carcinoma Using Whole Slide Images in Digital Histopathology[J]. Computerized Medical Imaging and Graphics,2017,61:2.

    [14]MOHAMED A, SAINATH T N, DAHL G, et al. Deep Belief Networks Using Discriminative Features for Phone Recognition[C]// Proceedings of the 2011 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2011: 5060.

    [15]SARIKAYAR, HINTON G E, DEORAS A. Application of Deep Belief Networks for Natural Language Understanding[J]. IEEE / ACM Transactions on Audio, Speech and Language Processing, 2014, 22(4) : 778.

    [16]李蘭英,孔銀,陳德運(yùn).一種新的卷積神經(jīng)網(wǎng)絡(luò)的ECT圖像重建算法[J].哈爾濱理工大學(xué)學(xué)報(bào),2017,22(4):28.

    LI Lanying, KONG Yin, CHEN Deyun. A New ECT Image Reconstruction Algorithm Based on Convolutional Neural Network[J].Journal of Harbin University of Science and Technology,2017,22(4):28.

    [17]李俊杰,劉成林,朱明.基于多任務(wù)CNN的監(jiān)控視頻中異常行人快速檢測(cè)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2018,27(11):78.

    LI Junjie, LIU Chenglin, ZHU Ming.Fast Abnormal Pedestrians Detection Based on Multi-Task CNN in Surveillance Video[J].Computer Systems & Applications, 2018,27(11):78.

    [18]孫海霞,張淑娟,劉蔣龍,等.基于高光譜和卷積神經(jīng)網(wǎng)絡(luò)的鮮棗黑斑病檢測(cè)[J].山西農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2018(11):15.

    SUN Haixia, ZHANG Shujuan, LIU Jianglong, et al.Detection of Black Rot of Fresh Jujube Fruits Using Hyperspectral Imaging and a Convolutional Neural Network[J].J.Shanxi Agric.Univ.(Natural Science Edition), 2018(11): 15.

    [19]劉健,袁謙,吳廣,等.卷積神經(jīng)網(wǎng)絡(luò)綜述[J].計(jì)算機(jī)時(shí)代,2018(11):19.

    LIU Jian, YUAN Qian, WU Guang, et al.Review of Convolutional Neural Networks[J].Computer Era,2018(11):19.

    [20]張建華,孔繁濤,吳建寨,等.基于改進(jìn)VGG卷積神經(jīng)網(wǎng)絡(luò)的棉花病害識(shí)別模型[J].中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào),2018(11):161.

    ZHANG Jianhua, KONG Fantao,WU jianzhai,et al.Cotton Disease Identification Model Based on Improved VGG Convolution Neural Network[J].Journal of China Agricultural University,2018(11):161.

    (編輯:溫澤宇)

    猜你喜歡
    卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
    漾濞| 札达县| 宿迁市| 南安市| 随州市| 玉山县| 临桂县| 河源市| 贡觉县| 陇西县| 文水县| 山阴县| 河曲县| 藁城市| 大名县| 社会| 城固县| 资阳市| 汝阳县| 甘南县| 榆社县| 南和县| 洛川县| 大竹县| 湛江市| 三门峡市| 肇源县| 吴堡县| 沙洋县| 北宁市| 华阴市| 屏山县| 苍南县| 波密县| 嘉义市| 宁远县| 宜兰县| 顺义区| 吉安县| 南丹县| 新营市|