• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛發(fā)情行為識別方法

    2019-08-13 01:42:28劉忠超何東健
    農(nóng)業(yè)機械學(xué)報 2019年7期
    關(guān)鍵詞:活動區(qū)發(fā)情奶牛

    劉忠超 何東健

    (1.西北農(nóng)林科技大學(xué)機械與電子工程學(xué)院, 陜西楊凌 712100; 2.南陽理工學(xué)院電子與電氣工程學(xué)院, 南陽 473000;3.農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)物聯(lián)網(wǎng)重點實驗室, 陜西楊凌 712100)

    0 引言

    奶牛養(yǎng)殖是我國農(nóng)業(yè)現(xiàn)代化的標志性產(chǎn)業(yè),也是實施鄉(xiāng)村振興戰(zhàn)略的重要支柱[1]?!度珖虡I(yè)發(fā)展規(guī)劃(2016—2020)》明確提出,奶業(yè)是健康中國、強壯民族不可或缺的產(chǎn)業(yè)[2]。隨著我國奶牛養(yǎng)殖業(yè)的快速發(fā)展,迫切需要利用信息技術(shù)實現(xiàn)奶牛的精準養(yǎng)殖,從而降低人工成本,提高奶牛養(yǎng)殖的經(jīng)濟效益。目前,我國大部分牧場主要依靠傳統(tǒng)人工觀察方式判斷奶牛發(fā)情,生產(chǎn)效率低下,且容易產(chǎn)生漏檢。因此,及時、準確地監(jiān)測奶牛發(fā)情行為可以使奶牛適時受孕,從而縮短產(chǎn)犢間隔,延長泌乳期,提高奶牛生產(chǎn)效益[3-4]。

    奶牛發(fā)情時生理狀況和行為特征與非發(fā)情時不同,表現(xiàn)出急躁不安,活動量增加,開始爬跨其他母?;蚪邮芷渌概E揽?,這些發(fā)情癥狀比較明顯,易于直接觀察[5]。為了實現(xiàn)奶牛發(fā)情的自動監(jiān)測,國內(nèi)外學(xué)者采用物聯(lián)網(wǎng)技術(shù),研究了基于活動量[6-9]、體溫[10-11]和聲音[12-13]的檢測方法,通過加速度傳感器、溫度傳感器和聲音傳感器獲取奶牛的體征參數(shù),進行體征數(shù)據(jù)的自動采集、傳輸和分析,以判斷奶牛是否處于發(fā)情階段。但此類接觸式傳感器以侵入式方式采集奶牛體征,安裝在奶牛的不同部位會對奶牛產(chǎn)生應(yīng)激不適,影響奶牛的日常行為,且奶牛所處環(huán)境復(fù)雜,信號傳輸容易受到環(huán)境噪聲污染,影響對奶牛發(fā)情行為的準確判斷。

    近年來,隨著人工智能和智慧畜牧業(yè)的不斷發(fā)展,視頻監(jiān)控和智能分析技術(shù)可以克服接觸式傳感器的弊端,在奶牛發(fā)情行為識別中取得了一些研究成果[14-17]。采用視頻技術(shù)研究奶牛發(fā)情行為,其識別背景比較單一,大多利用傳統(tǒng)方法對奶牛發(fā)情行為進行識別,而群居養(yǎng)殖環(huán)境下圖像背景復(fù)雜,奶牛發(fā)情行為爬跨特征按照傳統(tǒng)方法不易提取,已有研究方法很難具有普適性,魯棒性較差。隨著深度學(xué)習(xí)的發(fā)展,其中卷積神經(jīng)網(wǎng)絡(luò)算法[18-19](Convolutional neural network,CNN)無需改變圖像的拓撲結(jié)構(gòu),可直接將圖像作為輸入,并能夠?qū)崿F(xiàn)圖像特征的自動提取,已成功應(yīng)用在手寫字符識別[20-21]、農(nóng)作物識別[22-23]、個體識別[24-25]、行為識別[26-27]等方面,這些研究為CNN應(yīng)用于奶牛發(fā)情行為的識別提供了參考和可行性依據(jù),同時CNN算法能夠克服傳統(tǒng)圖像識別方法中復(fù)雜的特征提取,且具有良好的抗干擾能力,為復(fù)雜環(huán)境下奶牛發(fā)情行為識別提供了新的方向。

    為實現(xiàn)基于機器視覺的非接觸、低成本、實時的奶牛發(fā)情行為識別,本文在采集大量活動區(qū)奶牛視頻樣本的基礎(chǔ)上,利用視頻圖像序列樣本量比較充分這一特點,通過深度學(xué)習(xí)對奶牛在活動區(qū)復(fù)雜背景下的發(fā)情行為進行識別,研究并提出基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛發(fā)情行為識別方法,在設(shè)計奶牛行為視頻采集方案的基礎(chǔ)上,通過分析奶牛發(fā)情行為圖像特征,設(shè)計優(yōu)化CNN網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù),以實現(xiàn)奶牛爬跨發(fā)情行為識別,提高奶牛發(fā)情監(jiān)測的準確率和魯棒性。

    1 材料與方法

    1.1 圖像采集

    試驗視頻來自陜西省寶雞市扶風(fēng)縣西北農(nóng)林科技大學(xué)畜牧教學(xué)實驗基地的奶牛養(yǎng)殖場,視頻拍攝對象為具備發(fā)情行為的健康荷斯坦奶牛。為了獲取奶牛爬跨發(fā)情行為視頻,通過查閱相關(guān)資料和咨詢牛場養(yǎng)殖人員,可知奶牛發(fā)情行為主要發(fā)生在群居的活動區(qū)。為了對奶?;顒訁^(qū)進行全方位實時監(jiān)控,根據(jù)奶牛場活動區(qū)劃分,在兩個活動區(qū)的對角線位置分別安裝了2個CCD攝像機。網(wǎng)絡(luò)攝像機為YW7100HR09-SC62-TA12(深圳億維銳創(chuàng)科技有限公司),分辨率為200萬像素,通過10/100M自適應(yīng)網(wǎng)口可以方便地進行遠程實時查看和存儲。奶牛單個活動場地尺寸約30 m×18 m,為了保證攝像機視野能夠監(jiān)控整個奶?;顒訁^(qū),將其安裝于高度為3.3 m的牛棚支撐墻上,保持向下約15.5°的傾角,以俯視角度進行拍攝,可以完整地獲取單個奶?;顒訁^(qū)的視頻。攝像機安裝位置和采集的奶?;顒訁^(qū)視頻幀如圖1所示。

    圖1 攝像機安裝及視頻采集結(jié)果Fig.1 Results of camera installation and video acquisition

    以養(yǎng)殖場內(nèi)50頭泌乳期荷斯坦奶牛為研究對象,通過網(wǎng)絡(luò)視頻服務(wù)器管理軟件NVS CENTER對奶?;顒訁^(qū)視頻進行遠程存儲,獲取了2017年1—6月奶?;顒訁^(qū)視頻25 000段,每段視頻時長10 min,視頻為PAL制式,分辨率為1 920像素(水平)×1 080像素(垂直),視頻幀率為30 f/s,平均碼率為3 200 kb/s。

    1.2 樣本數(shù)據(jù)集構(gòu)建

    由于奶?;顒訁^(qū)晚上光線昏暗,而白天自然光線比較充足,采集的視頻質(zhì)量較高,因此在采集的視頻段中剔除每天20:00到次日07:00之間的視頻段,通過人工篩選出具有爬跨發(fā)情行為特征的視頻150段,提取含有爬跨發(fā)情行為的20 000幅圖像作為網(wǎng)絡(luò)的正樣本。在正樣本選取過程中,通過人工選取能夠避免樣本的單一性,同時可以選取具備發(fā)情行為的不同爬跨姿態(tài)圖像,使訓(xùn)練出的網(wǎng)絡(luò)魯棒性更好。在采集的視頻段中,選擇具有站立、臥躺、飲水等非發(fā)情行為樣本10 000幅,試驗所用數(shù)據(jù)集由正樣本(20 000幅)和負樣本(10 000幅)組成。正樣本中選擇15 000幅、負樣本中選擇8 000幅用于所構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和參數(shù)優(yōu)化驗證,并分別從正、負樣本中隨機選擇80%構(gòu)建訓(xùn)練集,20%作為驗證集。將正樣本剩余的5 000幅和負樣本剩余的2 000幅作為網(wǎng)絡(luò)模型訓(xùn)練完成后驗證效果的測試集,為了驗證模型的識別性能,所構(gòu)建的訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)之間不重疊。圖2所示為獲取的奶牛發(fā)情行為部分正、負樣本。

    圖2 試驗部分樣本庫示例Fig.2 Example images of partial sample

    1.3 卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建

    卷積神經(jīng)網(wǎng)絡(luò)是基于深度學(xué)習(xí)理論的一種人工神經(jīng)網(wǎng)絡(luò),主要由輸入層、卷積層、池化層以及輸出層組成[28]。奶牛發(fā)情行為的識別是對某一未知的奶牛行為圖像進行識別和匹配,由于奶牛行為在視頻圖像中的位置不確定,以及奶牛行為存在不同程度的扭曲變形,與經(jīng)典LeNet-5手寫字符在圖像中的位置不確定和扭曲變形相一致[19]。因此,在參考LeNet-5網(wǎng)絡(luò)框架的基礎(chǔ)上,通過分析奶牛行為視頻幀圖像的特點,構(gòu)建適合于奶牛發(fā)情行為識別的卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)中核心層的選擇描述如下:

    (1)輸入層。由于荷斯坦奶牛的顏色花紋是其身份識別的重要特征之一,同時考慮原始視頻幀的成像通道數(shù),將所篩選的正、負樣本圖像通過插值計算變化為32×32×3的矩陣,并將正、負樣本分別標記為“2”和“1”,用來作為卷積網(wǎng)絡(luò)訓(xùn)練的輸入。

    (2)卷積層??紤]到奶牛是大型活體動物,在活動區(qū)域內(nèi)不是單一靜止目標,發(fā)情的爬跨行為是持續(xù)的運動過程。因此,圖像可能存在較強的平移、扭轉(zhuǎn)、變形等因素,同時發(fā)情行為的爬跨會有兩只奶牛同時出現(xiàn),圖像信息比較豐富。為了能將行為特征較好地提取出來,卷積層卷積核個數(shù)應(yīng)相對較多,考慮到網(wǎng)絡(luò)的訓(xùn)練速度,通過驗證比對不同模型的準確率及訓(xùn)練耗時,本文網(wǎng)絡(luò)結(jié)構(gòu)采用3個卷積層C1、C2、C3,與尺寸為3×3、7×7的卷積核相比,本文網(wǎng)絡(luò)采用5×5的卷積核,能夠提取出更加豐富的圖像特征信息且能有效地降低數(shù)據(jù)的維數(shù)。因此,本文構(gòu)建的網(wǎng)絡(luò)中卷積核尺寸均采用5×5,3個卷積層C1、C2、C3卷積核的個數(shù)分別為20、50、200,同時為了滿足對輸入彩色圖像的識別,首個卷積層必須采用3維卷積核。

    (3)BN層。為了解決網(wǎng)絡(luò)模型收斂時間長、參數(shù)內(nèi)存需求較大的問題,網(wǎng)絡(luò)引入批量規(guī)范化(Batch normalization,BN)加速網(wǎng)絡(luò)收斂,防止過擬合。BN可當作一個網(wǎng)絡(luò)層添加到網(wǎng)絡(luò)結(jié)構(gòu)中,在網(wǎng)絡(luò)卷積層C1、C2后分別添加BN層,通過規(guī)范化手段將輸出按照同一批次的特征數(shù)值規(guī)范化至標準正態(tài)分布,有效提高網(wǎng)絡(luò)訓(xùn)練速度。其實現(xiàn)批規(guī)范化的算法過程如下:

    首先,計算每個批次樣本的均值和方差

    (1)

    (2)

    式中xi——輸入值

    n——批量化樣本數(shù)量

    μ——批次樣本的均值

    σ——批次樣本的方差

    其次,將數(shù)據(jù)歸一化處理

    (3)

    ε——抑制方差σ為0時分式不成立設(shè)置的常量,保證數(shù)值的穩(wěn)定性

    為了在歸一化后不破壞特征數(shù)據(jù)的分布,需要通過重構(gòu)變換來恢復(fù)原始的特征分布

    yi=γi+β

    (4)

    式中yi——網(wǎng)絡(luò)輸出γ、β——BN的參數(shù)

    (4)池化層。由于卷積層得到的特征圖數(shù)量較大,為了減少網(wǎng)絡(luò)計算的復(fù)雜度,采用Max-pooling作為下采樣方法,池化層濾波器核尺寸均為2×2。

    (5)

    式中l(wèi)——層數(shù)

    βi——卷積層的權(quán)值系數(shù)

    maxpooling(·)——最大下采樣函數(shù)

    (5)激活函數(shù)。本文算法采用ReLU激活函數(shù),使梯度在反向傳播時較好地傳遞到前面的網(wǎng)絡(luò)層,消除梯度彌散現(xiàn)象。同時ReLU能使一部分神經(jīng)元的輸出為0,使得網(wǎng)絡(luò)具有稀疏性,防止過擬合。ReLU激活函數(shù)的定義[29]為

    (6)

    (6)輸出層。通過全連接層和Softmax層對經(jīng)過網(wǎng)絡(luò)逐層提取的特征進行計算,Softmax分類函數(shù)計算所屬奶牛行為類別的概率,從而得到奶牛發(fā)情行為的識別結(jié)果。每一個維度輸出概率為

    (7)

    式中Sft——Softmax分類函數(shù)

    根據(jù)對卷積神經(jīng)網(wǎng)絡(luò)核心層分析,選用損失函數(shù)Sofmax loss對網(wǎng)絡(luò)性能進行分析。本研究最終確定的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可表示為32×32-20c-2s-50c-2s-200c-2,如圖3所示。

    圖3 奶牛發(fā)情行為識別網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.3 Net architecture for cow estrus behavior recognition

    2 奶牛發(fā)情行為識別結(jié)果與分析

    2.1 試驗測試平臺

    試驗所用臺式計算機配置為InterCorei3-6100 CPU,主頻3.7 GHz,4 GB內(nèi)存,2 TB硬盤,運行環(huán)境為64位Windows 10,Matlab R2017b,Microsoft Visual Studio Professional 2015。

    2.2 網(wǎng)絡(luò)模型設(shè)計

    使用Matlab的MatConvnet深度學(xué)習(xí)工具箱來搭建32×32-20c-2s-50c-2s-200c-2的卷積神經(jīng)網(wǎng)絡(luò)[30],CNN網(wǎng)絡(luò)中每層參數(shù)如表1所示。

    由于網(wǎng)絡(luò)是針對奶牛發(fā)情爬跨行為識別,因此設(shè)置的訓(xùn)練集有2個類別,分別是發(fā)情爬跨行為和非發(fā)情行為。網(wǎng)絡(luò)第1層為輸入層,直接輸入樣本中彩色圖像經(jīng)預(yù)處理后獲得的32×32×3圖像。為了保證網(wǎng)絡(luò)盡快地收斂,避免陷入局部最優(yōu),采用Xavier方法[31]對網(wǎng)絡(luò)權(quán)重進行初始化,初始權(quán)重為神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)相關(guān)的均勻分布隨機數(shù)。

    表1 CNN中每層網(wǎng)絡(luò)參數(shù)Tab.1 Network parameters of each layer in CNN

    W~U(-α,α)

    (8)

    其中

    式中U(-α,α)——在(-α,α)之間的均勻分布函數(shù)

    mi——第i層網(wǎng)絡(luò)參數(shù)的數(shù)量

    W——網(wǎng)絡(luò)權(quán)重

    網(wǎng)絡(luò)的訓(xùn)練參數(shù)設(shè)置為:每批處理圖像數(shù)量(BatchSize)為200,樣本迭代次數(shù)(NumEpoch)均設(shè)置為30,初始學(xué)習(xí)速率(LearningRate)設(shè)置為0.005,動量因子設(shè)置為0.9。采用隨機梯度下降(Stochastic gradient descen,SGD)算法對上述構(gòu)建的訓(xùn)練集進行30次的迭代訓(xùn)練,其變化曲線如圖4所示。

    圖5 卷積神經(jīng)網(wǎng)絡(luò)卷積層1和池化層處理結(jié)果Fig.5 Results of the first convolution and pooling layer of CNN

    圖4 網(wǎng)絡(luò)訓(xùn)練和驗證誤差曲線Fig.4 Errors curves of network training and validation

    由圖4可知,隨著迭代次數(shù)的不斷增加,訓(xùn)練集和驗證集的分類誤差逐漸降低,當網(wǎng)絡(luò)訓(xùn)練迭代到第25次時,訓(xùn)練損失基本收斂并趨于穩(wěn)定值,網(wǎng)絡(luò)對訓(xùn)練集和驗證集的誤識別率都降低至0,并且從第7次迭代之后訓(xùn)練集和驗證集兩者的誤差相差較小,驗證所設(shè)計的網(wǎng)絡(luò)模型狀況良好,達到了較好的訓(xùn)練效果。

    2.3 特征圖分析

    根據(jù)圖3設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu),在網(wǎng)絡(luò)訓(xùn)練完成后,使用測試集對網(wǎng)絡(luò)模型進行測試來識別奶牛發(fā)情行為。圖5為輸入的測試圖像經(jīng)過卷積層1、池化層之后各層所對應(yīng)的特征圖輸出,各矩陣數(shù)據(jù)分布于0~1之間,其特征圖中黑色表示數(shù)值為0,白色表示數(shù)值為1。

    通過比較輸入圖、卷積層特征圖和池化層特征圖可知,經(jīng)過卷積層1后的特征圖細節(jié)比較清晰,和輸入圖較為相似,較好地提取了輸入圖像的邊緣信息,表明卷積操作能夠有效地提取奶牛行為特征,通過卷積處理還可以平滑圖像,能夠有效地消除奶牛場復(fù)雜背景的干擾,增強了圖像特征的提取。池化層在保留圖像主要特征信息的同時可顯著地減少數(shù)據(jù)的處理量,降低網(wǎng)絡(luò)的復(fù)雜度,使提取的圖像特征具有位移不變性,提高了網(wǎng)絡(luò)的抗畸變能力。

    2.4 識別結(jié)果分析

    由于視頻監(jiān)控拍攝的環(huán)境為奶牛群居散養(yǎng)下的活動區(qū),其發(fā)情行為的爬跨特征并非完全無遮擋的獨立行為,為了驗證模型的可靠性和穩(wěn)定性,對7 000幅正、負測試集的奶牛行為進行分類識別。本文按照奶牛發(fā)情行為爬跨圖像的完整程度,將測試樣本中5 000幅奶牛爬跨發(fā)情行為圖像分成2種類型:第1類是除了發(fā)情爬跨的兩只奶牛外沒有其他奶?;颦h(huán)境的遮擋,稱為無遮擋發(fā)情行為,第2類是發(fā)情爬跨行為圖像中存在其他奶牛或環(huán)境遮擋部分發(fā)情行為,造成對發(fā)情行為的干擾,稱為有遮擋發(fā)情行為。奶牛發(fā)情行為測試集圖像分類如圖6所示。

    根據(jù)圖6的分類將爬跨發(fā)情行為的5 000幅測試樣本集分成無遮擋發(fā)情行為2 183幅和有遮擋發(fā)情行為2 817幅分別進行測試,并對非發(fā)情行為的2 000幅圖像進行網(wǎng)絡(luò)性能測試,表2給出了網(wǎng)絡(luò)的識別分析結(jié)果。TP和FN分別表示奶牛爬跨發(fā)情行為測試樣本中判斷正確和錯誤的百分比,F(xiàn)P和TN表示非發(fā)情行為測試樣本中判斷錯誤與正確的百分比。

    采用準確率(Positive predictive rate,PPR)、漏檢率(False negative rate,F(xiàn)NR)對奶牛發(fā)情行為識別結(jié)果進行評價。計算公式為

    (9)

    (10)

    圖6 發(fā)情行為圖像類別Fig.6 Categories of estrus behavior

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)測試類別樣本數(shù)量識別正確數(shù)量TP/%FN/%FP/%TN/%無遮擋發(fā)情行為2183211496.833.1732×32-20c-2s-50c-2s-200c-2有遮擋發(fā)情行為2817259692.157.85非發(fā)情行為 200019164.2095.80

    式中VPPR——發(fā)情識別準確率

    VFNR——發(fā)情識別漏檢率

    由表2可知,在測試集7 000幅圖像中共有爬跨發(fā)情行為5 000幅,本文方法識別到爬跨發(fā)情行為4 794幅,其中4 710幅為真發(fā)情行為,84幅正常行為被誤識別為發(fā)情行為。對奶牛爬跨發(fā)情行為識別的TP為94.20%,對奶牛發(fā)情行為識別準確率為98.25%,漏檢率為5.80%,誤識別率為1.75%,系統(tǒng)的假陽性率比較低。如圖6b所示的存在部分遮擋的發(fā)情行為也能被很好地識別出來,表明網(wǎng)絡(luò)對奶牛爬跨發(fā)情行為的識別檢測是可靠的,同時對奶牛行為的多樣性、形變性具有較好的魯棒性和較強的泛化能力。有遮擋發(fā)情行為TP稍低的原因是發(fā)情行為部分遮擋嚴重,造成發(fā)情行為爬跨特征的變化,易被誤識別為非發(fā)情行為。通過對存在部分遮擋的奶牛發(fā)情行為測試可知:由于奶牛發(fā)情時爬跨奶牛的頭部在被爬跨奶牛的背脊處上揚,當爬跨行為被遮擋不超過爬跨區(qū)域的40%、圖像中包含發(fā)生爬跨行為的兩只奶牛的頭部信息時,奶牛發(fā)情行為還能較好地被網(wǎng)絡(luò)所識別。經(jīng)過對7 000幅奶牛行為圖像測試可知,平均單幅圖像識別時間為0.257 s,能夠滿足奶牛養(yǎng)殖場對奶牛發(fā)情行為實時檢測要求。

    通過以上網(wǎng)絡(luò)測試結(jié)果分析可知,本文提出的算法對奶牛爬跨發(fā)情行為的識別準確率有顯著提升,比張子儒[16]采用傳統(tǒng)SVM機器學(xué)習(xí)的識別準確率(90.9%)提高了7.35個百分點;比顧靜秋等[17]基于爬跨行為圖像最小包圍盒面積計算的奶牛發(fā)情行為識別準確率(85.2%)提高了13.05個百分點。對于存在部分遮擋的奶牛發(fā)情行為識別,文獻[16-17]均沒有給出相關(guān)試驗結(jié)果,而該網(wǎng)絡(luò)對其測試的TP達到92.15%,表明卷積神經(jīng)網(wǎng)絡(luò)在奶牛發(fā)情行為識別中具有較好的抗干擾能力,對活動區(qū)奶牛行為的多樣性、移動性、形變性以及外界環(huán)境遮擋、光線變化、亮度不勻、背景復(fù)雜具有良好的魯棒性。

    本文重點研究基于深度學(xué)習(xí)對奶牛爬跨的發(fā)情行為進行識別,檢測出爬跨行為后,可根據(jù)文獻[32]方法,構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)對爬跨行為奶牛進行身份識別,以精確識別定位到發(fā)情奶牛。

    3 結(jié)論

    (1)根據(jù)奶牛發(fā)情行為的爬跨特征,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛發(fā)情行為識別方法。試驗結(jié)果表明,卷積神經(jīng)網(wǎng)絡(luò)模型可以從奶牛場復(fù)雜的背景中有效學(xué)習(xí)到奶牛行為的相關(guān)特征,彌補了傳統(tǒng)機器視覺處理方法中奶牛行為特征不易選取的不足。

    (2)奶牛行為具有明顯的移動性、局部形變性,本文構(gòu)建的32×32-20c-2s-50c-2s-200c-2結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò),經(jīng)過訓(xùn)練后對奶牛發(fā)情行為識別準確率為98.25%,漏檢率為5.80%,誤識別率為1.75%,平均單幅圖像識別時間為0.257 s。網(wǎng)絡(luò)對奶牛行為的平移、變形具有較好的識別能力,對復(fù)雜養(yǎng)殖環(huán)境中奶牛的發(fā)情行為識別具有較好的魯棒性。

    (3)所設(shè)計的網(wǎng)絡(luò)模型可以較好地實現(xiàn)對視頻監(jiān)控中奶牛爬跨發(fā)情行為的識別,節(jié)約養(yǎng)殖人員的時間和精力,可為我國奶牛養(yǎng)殖業(yè)的精準化、信息化、智能化提供技術(shù)支撐。

    猜你喜歡
    活動區(qū)發(fā)情奶牛
    乍暖還寒時奶牛注意防凍傷
    母牛的發(fā)情鑒定和配種
    兒童活動區(qū)環(huán)境色彩設(shè)計策略研究
    夏季奶牛如何預(yù)防熱應(yīng)激
    母牛發(fā)情的鑒定方法
    本土風(fēng)俗文化資源在幼兒活動區(qū)游戲中的應(yīng)用
    奶牛吃草
    母驢配種注意啥
    養(yǎng)羊何時配種好
    寓學(xué)于樂
    繽紛家居(2014年5期)2014-11-03 19:02:01
    调兵山市| 平和县| 石泉县| 邮箱| 萝北县| 孟津县| 庆安县| 淮北市| 安化县| 喀什市| 左贡县| 大厂| 方山县| 河津市| 芦溪县| 太仓市| 尼勒克县| 疏附县| 吴江市| 宁陕县| 寿光市| 萍乡市| 葫芦岛市| 永定县| 明溪县| 卢龙县| 曲水县| 潍坊市| 嘉峪关市| 天柱县| 延津县| 天长市| 南木林县| 兴化市| 金阳县| 英山县| 彭阳县| 昌乐县| 舒城县| 牡丹江市| 清徐县|