• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于全矢1D-CNN的軸承故障診斷研究

      2019-09-11 12:18:20謝遠(yuǎn)東雷文平
      設(shè)備管理與維修 2019年8期
      關(guān)鍵詞:池化特征向量軸承

      謝遠(yuǎn)東,雷文平,韓 捷

      (鄭州大學(xué),河南鄭州 450001)

      0 引言

      在旋轉(zhuǎn)機(jī)械領(lǐng)域甚至是機(jī)械領(lǐng)域,軸承一直被稱為機(jī)械領(lǐng)域最亮的明珠,廣泛應(yīng)用與機(jī)械的各個(gè)領(lǐng)域。故軸承故障診斷的研究的成果也直接影響著整個(gè)機(jī)械領(lǐng)域甚至整個(gè)工業(yè)化進(jìn)程的走向。近些年,深度學(xué)習(xí)和軸承領(lǐng)域的研究也層出不窮,Olivier等人使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)對(duì)于軸承故障的特征進(jìn)行了提取[1],李艷峰等人使用Deep Belief Networks 對(duì)滾動(dòng)軸承故障進(jìn)行研究[2]。使用全矢譜理論對(duì)于數(shù)據(jù)進(jìn)行特征融合,而后使用1D-CNN 對(duì)于軸承故障的特征進(jìn)行自適應(yīng)的提取,最后使用Softmax 方法對(duì)于故障類別進(jìn)行判別。該方法在訓(xùn)練的速度、對(duì)于故障類別識(shí)別的準(zhǔn)確率以及模型的泛化性上都表現(xiàn)出很強(qiáng)的競(jìng)爭(zhēng)性,具有一定的市場(chǎng)前景。

      1 卷積神經(jīng)網(wǎng)絡(luò)

      典型的卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)分別是輸入層、卷積層、池化層或下采樣層,以及全連接層,再到最后的輸出層。如果只是將卷積神經(jīng)網(wǎng)絡(luò)當(dāng)做特征提取器使用的話,不需要最后的分類層。但如果是做分類任務(wù)使用,最后還需要加入分類層。

      1.1 卷積層

      卷積層的主要操作是對(duì)于輸入層輸入的信號(hào)數(shù)據(jù)進(jìn)行卷積操作,此卷積非信號(hào)處理中的卷積,這里的卷積主要是卷積核也就是多維向量和輸入的矩陣的點(diǎn)乘操作然后對(duì)于每個(gè)點(diǎn)乘的值進(jìn)行平均得到卷積出的值。具體操作如圖1 所示。

      圖1 卷積操作

      上圖是卷積操作,但是對(duì)于多通道,例如圖像的三通道的數(shù)據(jù),需要在3 個(gè)通道上同時(shí)進(jìn)行卷積操作。對(duì)于故障信號(hào)這種單通道數(shù)據(jù),只需要進(jìn)行單層卷積操作即可。假定輸入層是第f-1 層,其輸入特征圖是Xf(heightin×widthin),特征對(duì)應(yīng)的卷積核是K(f)(heightkernel×widthkernel),這樣輸出維度為:

      給每一個(gè)輸出都加上一個(gè)偏置單元(bias term)b(f),卷積層的輸出為Z(f):

      其中,χ(i,j)為有效值卷積(Valid Convolution)而非全卷積(Full Convolution)為f 層的激活函數(shù),將在下面具體介紹。

      反向傳播(Back Propagation)作為參數(shù)迭代更新的重要步驟,需要計(jì)算殘差:

      其中,upr×r(X)表示X 在水平和垂直方向復(fù)制r 次,目的是將的大小擴(kuò)大和的相同。并對(duì)殘差進(jìn)行求導(dǎo):

      其中,使用χ(u,v)對(duì)于上式中的u,v 做了限定,這里的結(jié)果為valid 型卷積:

      1.2 下采樣層

      從上一步的卷積后,得到的從輸入的數(shù)據(jù)集中提取到的特征向量,這些特征向量可以指導(dǎo)分類器對(duì)于目標(biāo)進(jìn)行分類,但在真實(shí)的應(yīng)用場(chǎng)景下,卷積層提取的特征向量維度太大,提取的特征也比較模糊,這是導(dǎo)致模型過(guò)擬合一個(gè)因素。對(duì)于這種情況,可以采用聚合統(tǒng)計(jì),對(duì)一定區(qū)域中的值進(jìn)行平均的操作達(dá)到降維的目的,把這一個(gè)操作叫做池化操作(pool),可以將其分為平均池化(average pooling)和最大值池化(max pooling)(圖2)。平均池化的原理就是對(duì)一定區(qū)域中的值求平均,而最大池化就是對(duì)一定區(qū)域中的值取最大值操作。根據(jù)特征提取時(shí)造成損失函數(shù)的值很大主要是由于:①池化的范圍有限鄰域?qū)е伦罱K求得的方差比較大,這種誤差對(duì)于平均池化可以減少這一類誤差;②卷積層參數(shù)誤差造成估計(jì)均值的偏移,最大池化對(duì)于這一類誤差可以減少,因?yàn)閷?duì)于紋理的削弱能力變差。

      以平均池化為例,使用的卷積核每個(gè)單元的權(quán)重都是β(f),每一項(xiàng)卷積操作后仍然加上一個(gè)偏置單元,子采樣層的輸出為:下采樣層同樣需要計(jì)算殘差,如式(3)所示,但是卷積操作為為全卷積操作。

      圖2 池化操作對(duì)比

      1.3 全連接層

      5 全連接層目前在卷積神經(jīng)網(wǎng)絡(luò)同時(shí)也是不可或缺的一步,因?yàn)槿B接層將分布式特征表征映射到樣本標(biāo)記空間,可以大大削弱特征位置對(duì)分類的影響因子。因?yàn)閷?duì)于序列信息將會(huì)在循環(huán)神經(jīng)網(wǎng)絡(luò)中提取,所以這時(shí)候的信號(hào)的位置信息我們將會(huì)盡可能的減少提取到上下文關(guān)系特征。全連接層對(duì)于模型的影響參數(shù)為該層的層數(shù)、神經(jīng)元單元個(gè)數(shù)、激活函數(shù)的類型即Sigmoid 或Relu 或tanh 等激活函數(shù)。

      其中激活函數(shù)的作用是增加模型的非線性表達(dá)能力。全連接的長(zhǎng)度和寬度,理論上神經(jīng)元個(gè)數(shù)的增加,模型的復(fù)雜度提升;全連接層數(shù)加深,模型非線性表達(dá)能力提高。理論都能提高模型的學(xué)習(xí)能力,但是學(xué)習(xí)能力太好的話,會(huì)造成過(guò)擬合,并且計(jì)算時(shí)間會(huì)大大增加,造成效率的降低。

      2 全矢譜理論

      對(duì)于雙通道采集軸承數(shù)據(jù),普遍的做法是將2個(gè)傳感器放置在互相垂直的位置。但是在實(shí)際使用證明,“V”更適合雙通道數(shù)據(jù)(圖3)。V 形狀的位置設(shè)定可以消除傳感器重力因素的影響避免提取到噪聲特征[4]。

      圖3 垂直和V 形布置

      雙通道數(shù)據(jù){xn}和{yn}(n=0,1,2,···N-1),傅里葉變換{Xk}和{Yk}(k=0,1,2,···N-1),令復(fù)序列{zk}={xk}+i{yk},其中。通過(guò)傅里葉變換得到{zk},并結(jié)合正反進(jìn)動(dòng)得到以下公式:

      其中,Rai為0 主振矢,Rbi為副振矢,αi為主振矢和x 軸的夾角,φi為初相位角。

      3 全矢1D-CNN 模型及實(shí)驗(yàn)驗(yàn)證

      全矢1D-CNN 模型如圖4 所示,為一個(gè)計(jì)算圖走向,可以很明顯地看出在,左邊使用的是循環(huán)神經(jīng)網(wǎng)絡(luò)中的LSTM(長(zhǎng)短記憶網(wǎng)絡(luò))模型,在模型的右邊使用的是經(jīng)典的6 層卷積神經(jīng)網(wǎng)絡(luò)。其中,前4 層layer1-conv1、layer2-conv2、layer3-conv3、layer-conv4 為網(wǎng)絡(luò)結(jié)構(gòu)中的卷積操作,后2 層layer5-fc1、layer6-fc2 為全連接層。同時(shí)模型伴隨著一些超參數(shù)以及數(shù)據(jù)的走向。使用BatchNormalization 對(duì)于數(shù)據(jù)分布不平衡的現(xiàn)象進(jìn)行中和。這里使用exponential decay 對(duì)于學(xué)習(xí)率逐漸的縮減,和整合擬合過(guò)程匹配,避免在接近全局最優(yōu)解的時(shí)候由于學(xué)習(xí)率過(guò)大 而始終無(wú)法擬合到極值點(diǎn)。在卷積操作的最后,使用DropOut 技術(shù)對(duì)于特征向量進(jìn)行降維,去除掉不重要的特征,不但可以減少計(jì)算量,而且可以增加最終模型的泛化性,避免出現(xiàn)過(guò)擬合的現(xiàn)象。其中激活函數(shù)使用的是Relu(修正線性單元),ReLu 可以使得模型更加的稀疏,稀疏性的同時(shí)可以提高模型的訓(xùn)練速度,減少訓(xùn)練時(shí)間。

      為了進(jìn)一步驗(yàn)證全矢CRNN(卷積循環(huán)神經(jīng)網(wǎng)絡(luò))對(duì)于軸承故障判別的優(yōu)勢(shì),使用Center for Intelligent Maintenance at Sinatra University 的滾動(dòng)軸承全生命周期故障數(shù)據(jù)[5]。選擇2#軸承的全部2156 組數(shù)據(jù)為正常數(shù)據(jù)。3#軸承最終出現(xiàn)了內(nèi)圈故障,對(duì)于3#軸承的前1800 組數(shù)據(jù)標(biāo)定為正常數(shù)據(jù),在1800 到2156 組數(shù)據(jù)標(biāo)定為內(nèi)圈故障。4#軸承最終出現(xiàn)了滾動(dòng)體故障,對(duì)于4#軸承的前1600 組數(shù)據(jù)標(biāo)定為正常的軸承數(shù)據(jù),在1600 到2156 組數(shù)據(jù)中標(biāo)定為滾動(dòng)體故障。由于每一組數(shù)據(jù)的維度都是20 480,在經(jīng)過(guò)全矢譜融合后得到的主振矢的維度為10 240,考慮到LSTM 節(jié)點(diǎn)數(shù)太多會(huì)導(dǎo)致計(jì)算量急劇增加,并且可能會(huì)導(dǎo)致梯度在傳遞過(guò)程中出現(xiàn)消失的現(xiàn)象,確定輸入節(jié)點(diǎn)數(shù)為1024,得到試驗(yàn)樣本集。最終數(shù)據(jù)集的長(zhǎng)度為64 680×1024,雖然其中的每個(gè)故障類型的數(shù)量不一致,但是符合現(xiàn)實(shí)情況。

      圖4 全矢1D-CNN 模型

      圖5 全矢1D-CNN 模型準(zhǔn)確率

      為了使實(shí)驗(yàn)結(jié)果更加嚴(yán)謹(jǐn),每次從64 680 組樣本中隨機(jī)抽取劃分訓(xùn)練集和測(cè)試集,一共完成了20 次重復(fù)試驗(yàn)。這里取的是在400 epoch 中各模型的最高的測(cè)試集上的準(zhǔn)確率,消除偶然性的影響。驗(yàn)證集上驗(yàn)證的結(jié)果如表1 所示。

      表1 試驗(yàn)結(jié)果比較(平均準(zhǔn)確率±標(biāo)準(zhǔn)差)

      由表1 和圖5 可知,對(duì)于全矢CRNN 來(lái)說(shuō),在20 次試驗(yàn)中,對(duì)于軸承故障的識(shí)別率一直穩(wěn)定在99%左右。而對(duì)于單通道的CRNN,例如X 通道CRNN 和Y 通道CRNN 的識(shí)別率不但較低,而且會(huì)出現(xiàn)抖動(dòng)的情況,證明其提取的特征的隨機(jī)性比較大,同時(shí)說(shuō)明該模型的泛化性比較差,即數(shù)據(jù)集不完備,會(huì)確實(shí)數(shù)據(jù)的原始特征,同時(shí)也證明了全矢譜對(duì)于同源數(shù)據(jù)的數(shù)據(jù)完備性的提取可以起很大作用。

      猜你喜歡
      池化特征向量軸承
      基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
      基于Sobel算子的池化算法設(shè)計(jì)
      二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
      軸承知識(shí)
      哈爾濱軸承(2022年2期)2022-07-22 06:39:32
      軸承知識(shí)
      哈爾濱軸承(2022年1期)2022-05-23 13:13:24
      克羅內(nèi)克積的特征向量
      卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
      軸承知識(shí)
      哈爾濱軸承(2021年2期)2021-08-12 06:11:46
      軸承知識(shí)
      哈爾濱軸承(2021年1期)2021-07-21 05:43:16
      基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
      雷波县| 宁阳县| 汾西县| 广州市| 甘泉县| 平乡县| 京山县| 青铜峡市| 宝兴县| 静宁县| 正镶白旗| 通辽市| 抚顺市| 余姚市| 威宁| 内丘县| 灌阳县| 湖北省| 南靖县| 汪清县| 竹北市| 临夏县| 利津县| 塔河县| 河北省| 南溪县| 枞阳县| 西华县| 安新县| 牟定县| 枝江市| 曲周县| 聂荣县| 江山市| 富川| 泰安市| 隆安县| 沙河市| 莱州市| 肃南| 漳浦县|