• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于數據挖掘技術的鈦合金銑削工藝參數優(yōu)化

      2022-09-05 07:51:14劉獻禮孫慶貞岳彩旭李恒帥
      計算機集成制造系統(tǒng) 2022年8期
      關鍵詞:粗糙度工件聚類

      劉獻禮,孫慶貞,岳彩旭,李恒帥

      (哈爾濱理工大學 先進制造智能化技術教育部重點實驗室,黑龍江 哈爾濱 150080)

      0 引言

      隨著工業(yè)自動化程度及信息集成度的日益提高,大量生產運行數據被企業(yè)收集。為了發(fā)掘數據中隱含的規(guī)律,為實際加工提供幫助,很多學者開始嘗試利用數據挖掘技術從大量數據中尋找隱藏的信息,并利用這些信息指導實際生產加工[1-6]。針對機械加工工藝參數優(yōu)化的問題,一些國內外學者提出利用搜索算法和數據分類算法進行分析計算。RAI等[7]以加工時間最短為目標,利用改進的遺傳算法對銑削參數進行優(yōu)化;LI等[8]基于一組有效數據的反向傳播神經網絡模型對切削參數進行預測;曾莎莎等[9]將神經網絡法與遺傳算法相結合,對薄壁件銑削加工工藝參數進行優(yōu)化;LI等[10]通過對禁忌搜索(Tabu Search,TS)算法進行改進形成的新算法,對切削參數進行優(yōu)化;SARDINAS等[11]以多目標優(yōu)化為目的,通過改進遺傳算法(Genetic Algorithm,GA)來獲得車削過程中的最佳切削參數。以上算法通過嚴謹的邏輯運算進行分析挖掘,實現了加工工藝的優(yōu)化,為指導實際生產加工提供了參考。

      聚類分析[12]是數據挖掘中經常使用的分析算法,目前已被廣泛應用于電商信息推送、物流網絡構建、手術路徑智能規(guī)劃、電站鍋爐燃燒效率提升等領域[13-15]。K-means算法[16]是一種經典的聚類算法,具有運用簡單、優(yōu)化迭代、快速收斂等優(yōu)點。但在實際操作運行中,K-means算法也存在不能自主識別分類數目、過度依賴初始設置聚類中心等缺點。另外,算法在運行時會產生大量非最優(yōu)性能指標集及其對應的運行參數集,對挖掘目標而言這些運行參數沒有任何意義。為此,首先通過對算法添加分裂與合并操作得到迭代自組織數據分析算法(Iterative Self-organizing Data Analysis Techniques Algorithm, ISODATA)算法,實現算法在迭代過程中的自主識別分類數目;然后采用分步聚類的方法,在運行K-means算法之前對性能指標進行聚類分組,并將除最優(yōu)性能指標組之外的其他性能指標分組進行約簡,縮減數據庫規(guī)模,減少無意義分組的產生。

      隨著智能工廠的普及,鈦合金銑削加工中收集的力、熱、振動等加工數據量呈指數增長,傳統(tǒng)的數據分析算法已不能解決當前大量數據快速分析處理的需求,從而導致數據時效性的喪失。K-means算法在處理數據的過程中迭代總數隨著數據量增加,收斂速度降低、耗時增加,已經不能滿足數據時效性需求,尋求針對大量數據分析挖掘的方法已迫在眉睫。

      云計算的出現滿足了這種大量數據挖掘的需求。該技術通過將多臺服務器連接成一個整體,實現了計算能力及存儲能力的快速提升[17]。Hadoop是目前廣泛使用的云計算工具,其核心構件是分布式文件系統(tǒng)(Hadoop Distributed File System, HDFS)和并行計算框架MapReduce[18]。通過將傳統(tǒng)算法與MapReduce框架結合,實現了算法的并行化,該模式已成為目前大量數據快速處理最有效的方法。

      針對大批量、單一、高附加值鈦合金產品生產加工過程中產生的大量運行數據,為探究數據中工件表面粗糙度與加工工藝參數之間的關系,實現工藝參數的優(yōu)化,本文提出一種基于云計算平臺Hadoop的分步聚類方法。利用Hadoop大數據分析平臺,將有限的計算資源進行整合,提升了面對海量數據的挖掘處理能力,通過引入分步聚類理念對K-means聚類算法進行改進,形成新的高效聚類算法T.K-means,新算法提升了聚類的效率與挖掘結果的可讀性。該算法挖掘出的加工工藝參數反應了歷史加工數據中工件表面粗糙度的最大可達值,該參數對實際生產加工具有指導意義。

      1 基于分步聚類和并行計算的新算法

      1.1 K-means算法

      K-means中心聚類算法[19]是一種基于劃分聚類的經典算法,其基本思想是:首先明確每一個數據點只會存在于一個聚類中,選擇K個不同的起始聚類中心點,然后所有樣本數據均計算與每一個中心點的距離或者相似度,而每個樣本會根據最小距離或最大相似度被分配到與其最相似的聚類中,并根據這些數據樣本重新計算每個聚類的新中心,通常以標準測度函數衡量劃分的結果,具有最小標準測度函數值的劃分即為最終分群。標準測度函數一般采用類內平方誤差之和D來表示,

      (1)

      式中:K為類的總數,xi為類Si的平均值。

      劃分聚類將相似的數據集進行聚合(數據集包括性能指標A與工藝參數B),若有一定量的Bi對應Ai,則表明在工藝參數Bi發(fā)生的情況下性能指標Ai會發(fā)生。尋找到最優(yōu)性能指標對應的加工工藝參數是本次劃分聚類挖掘的最終目的。

      1.2 ISODATA算法基本內涵和步驟

      1.2.1 ISODATA算法的基本內涵

      ISODATA算法由K-means算法改進而來,與K-means算法相比,改進算法能夠進行動態(tài)聚類或迭代自組織數據分析。ISODATA算法聚類中心的計算與K-means算法相同,通過類內樣本均值來決定,但是ISODATA算法能夠在初始聚類時認識到數據的本質屬性,并通過模仿人類認識事物的過程以一種逐步進化的方式來逼近事物的本質,從而更加科學的進行分類。

      1.2.2 ISODATA算法步驟

      ISODATA算法需要確定以下參數:K為預設的聚類個數;θS為類中樣本標準差最大值;θC為聚類中心之間距離的最小值;θN為各類中至少具有的樣本數;L為在一次迭代中可以合并的類的最大對數;I為迭代的極限次數。

      ISODATA算法的挖掘過程主要分為以下5個步驟:

      (1)首先,在所有數據中隨機選取k個任意樣本以此當作初始聚類中心z1,z2,z3,…zk,這里k與K不一定相等。對上述6個參數進行設定,運行算法將所有數據樣本分配到距上述k個中心點最近的類中。

      (3)~(4)對前一次的聚類結果進行合并或者分裂處理。由于分類數目過少或者某一類中樣本數目過大,通過分裂處理可以發(fā)現空間上更多的聚類中心;由于兩類或多類中的數據樣本存在距離過近的情況,彼此之間有較強的關聯性,通過合并處理可以使各類之間具有明顯的區(qū)別。通過以下具體方案獲得新的聚類中心。

      分裂操作:首先計算每個聚類中樣本距離的標準差向量σj,然后求出所有標準差向量σj中的最大分量σmax,若有σmax>θS,同時又滿足Hj>ˉH和Nj>2(θN+1),即Cj中樣本總數超過規(guī)定值一倍以上或者k≤K/2,則將zj分裂為兩個新的聚類中心zj+和zj-,且k加1。

      (2)

      合并操作:計算全部聚類中心的距離:

      Hij=‖zi-zj‖,
      i=1,2,…,k-1,j=i+1,…,k。

      (3)

      比較Hij與θc的值,將Hij<θc的值按最小距離次序遞增排列,將距離最小的兩個聚類中心合并,得到新的中心為:

      (4)

      式中兩個聚類中心向量分別以其類內的樣本數進行加權,每合并一對,則k減1。

      (5)重新進行迭代運算,持續(xù)上述過程,直到聚類結果收斂。

      通過ISODATA算法的分裂與合并操作,實現了海量一維數據的自動聚類,為后續(xù)準確尋找各分組對應的優(yōu)化數據集提供了條件。

      ISODATA算法流程圖如圖1所示。

      1.3 Hadoop平臺及MapReduce架構

      Hadoop兼具高可靠性、高擴展性、高容錯性和高效性的特點,能夠對海量數據進行快速處理。本文基于Hadoop架構搭建了Cloudera公司的發(fā)行版,將該版本稱為CDH(cloudera distribution hadoop)大數據分析平臺[19],平臺架構如圖2所示。

      分布式文件存儲系統(tǒng)HDFS是一個高容錯的系統(tǒng),可以檢測和應對硬件故障,能夠部署于低端通用硬件上。HDFS將每個節(jié)點上的本地文件構建成邏輯上的整體文件系統(tǒng),提升了數據存儲的能力,從而為海量數據的存儲提供了有效的解決方案。HDFS的架構是基于一組特定的節(jié)點構建的,其中Namenode(僅一個)在HDFS內部提供元數據服務,Datanode(若干個)為數據提供存儲塊。

      并行計算框架MapReduce是一種分布式計算模型,能夠實現計算的并行化。計算的并行化是目前海量數據處理的主要方式,并且一些經典的數據挖掘算法已在編程人員的努力下實現了與MapReduce并行計算框架的結合,成為并行算法[20-22]。MapReduce框架中,JobTracker負責初始化作業(yè)、分配作業(yè),稱為主控節(jié)點;TaskTracker負責與JobTracker進行通信,協調、監(jiān)控與執(zhí)行整個作業(yè),稱為從節(jié)點。MapReduce用于大數據計算,它屏蔽了分布式計算框架細節(jié),將計算抽象成Map和Reduce兩部分。經過Map階段對數據的初步處理,生成“鍵—值”對形式的中間結果,在Reduce階段則會對中間結果中相同“鍵”的所有“值”進行規(guī)約,經過上述計算過程得到最終結果。并行計算框架MapReduce的工作流程如圖3所示。

      1.4 新算法的工作流程

      將ISODATA和K-means兩種算法分別與MapReduce并行計算框架相結合,實現兩種算法的計算并行化。首先通過ISODATA算法對性能指標進行聚類,實現對數據庫的約減,然后利用K-means算法完成對優(yōu)化目標的聚類,最終形成一個高效聚類算法——T.K-means。與傳統(tǒng)的K-means相比,新算法通過對性能指標與優(yōu)化目標遞進聚類,減少了不相關數據的規(guī)模,提升了聚類結果的可讀性,通過避免對數據庫的反復檢索,挖掘效率得到極大的提高。

      具體實施過程中,T.K-means算法的步驟是:

      (1)提取數據庫中性能指標數據集,利用ISODATA算法對性能指標集進行聚類,根據聚類結果,剔除非最優(yōu)性能指標分組及其對應的工藝參數集。經過上述處理,原數據庫中數據規(guī)模減少,新的數據集形成;

      (2)在HDFS存儲系統(tǒng)中,新的數據集將會被平均分配到若干個存儲文件中,并且在處理開始時這些文件會隨機分配到任意工作節(jié)點;

      (3)Map階段,被分配的數據存儲文件會在對應節(jié)點進行掃描,運用K-means算法,產生部分聚類中心及各聚類中心所對應數據樣本,生成鍵值對,其中key代表聚類中心,value代表對應聚類中心的數據樣本;

      (4)Reduce階段,將會對Map階段生成的鍵值對進行分析處理,新的聚類中心通過相同key對應所有數據樣本的平均值進行計算,并輸出其對應的新的數據樣本;

      (5)判斷聚類中心向量是否收斂,若收斂,則跳轉到步驟6,否則轉步驟3;

      (6)針對最后一次生成的聚類中心向量,對原始數據進行分類,得到最終的聚類中心及其對應數據樣本。

      T.K-means算法流程如圖4所示。

      2 T.K-means算法在鈦合金銑削加工工藝參數優(yōu)化中的運用

      2.1 挖掘目標的確定及挖掘架構

      鈦合金銑削加工中,被加工工件表面粗糙度直接影響工件的化學、物理及力學性能,而且產品的可靠性、工作性能和壽命在一定程度上取決于主要零件的表面粗糙度,并且加工工件表面粗糙度是企業(yè)加工能力的象征,直接影響企業(yè)的效益,因此選擇加工工件表面粗糙度作為性能指標。

      將T.K-means算法應用于鈦合金銑削加工工藝參數優(yōu)化中,最終得到“優(yōu)化工藝參數→最優(yōu)性能指標”的聚類規(guī)則,在此規(guī)則下可以認為利用上述工藝參數即可得到鈦合金加工的最優(yōu)性能指標,該工藝參數即可作為優(yōu)化目標值用以指導實際鈦合金銑削加工。

      工藝參數的選擇需滿足以下兩個條件:與工件加工表面粗糙度密切相關;在實際運行中可進行調控,能夠對實際運行進行指導。根據上述條件選出以下工藝參數:銑削速度、進給速度、銑削深度和銑削寬度。

      基于數據挖掘技術,以鈦合金加工表面粗糙度為性能指標,利用T.K-means算法對工藝參數進行優(yōu)化。如圖5所示為基于數據挖掘技術的鈦合金銑削工藝參數優(yōu)化架構圖。

      2.2 挖掘數據的來源

      目前缺少大量的實際加工數據用于分析,本文采用響應曲面法建立銑削參數與性能指標的數學模型,并通過此模型所生成的大量虛擬數據來代替真實數據進行分析[23-24]。實驗使用大連機床公司VDL-1000E型三坐標立式數控加工中心機床,選用廈門金鷺公司整體硬質合金立銑刀,型號為:ST210-R4-20030;實驗試件為Ti-6Al-4V鈦合金板材,銑削方式為單齒、順銑,冷卻方式為干切削;使用SR-200型手持式表面粗糙度測量儀對表面粗糙度進行測量,為保證測量精度,對被測表面進行3次測量并取平均值,以此作為最終表面粗糙度測量值。實驗現場如圖6所示。

      通過響應曲面法建立銑削參數與表面粗糙度間的數學模型:

      (5)

      式中:y為表面粗糙度的預測值;X1、X2、X3、X4分別為每齒進給量、切削速度、軸向切深和徑向切深。

      對擬合的方程進行方差分析,方程P<0.000 1,表明該方程擬合水平極好;而失擬項的P= 0.055 6>0.05,表明失擬水平不顯著。校正系數值R2為0.883 2,表明該模型對響應值的解釋度達到了88.32%,能夠較好地反應工件表面粗糙度與4個切削參數的關系。

      真實加工過程中存在機床振動、刀具質量不同等問題,本文通過設置隨機數m來解決上述問題對工件表面粗糙度所帶來的影響,并保證其值在合理的范圍之內。

      y1=y+m%y。

      (6)

      4個銑削參數的范圍分別為:vc∈[80,120],fz∈[0.08,0.14],ae∈[0.5,1.5],ap∈[8,12];隨機數m∈[-10,10]。在指定范圍內設定上述5個參數:vc按照40/19的間隔取值,fz按照0.01的間隔取值,ae按照0.5的間隔取值,ap按照4/19的間隔取值,m隨機取值。將m代入式(6)中,共生成8萬條加工數據,以此代替真實加工數據進行分析。

      2.3 數據的預處理

      由于人為疏忽、設備異常等因素,往往會出現數據誤植、數據遺失或數據不一致、重復、矛盾等不同類型的數據問題,無法直接進行數據挖掘或挖掘結果差強人意。從數據庫所有存儲數據中篩選出2.2節(jié)所述工藝參數和性能指標對應的數據。將提取數據中存在明顯異常的數據進行刪除,采用凝聚層次聚類等相關操作剔除離散點數據,針對一個工藝參數對應多個性能指標的情況,為保證分析數據的合理性,對多個性能指標數據求取平均值,以此作為該工藝參數對應的性能指標值。經過以上處理,基本完成數據的預處理工作。

      2.4 Hadoop平臺的配置

      首先在各節(jié)點VMware(虛擬機)上安裝Linux操作系統(tǒng),設置多用戶,并對用戶權限做出設定(一般用非root用戶對Hadoop平臺進行操作),然后設置SSH免密碼登錄(普通用戶下),在保證安全傳輸數據的同時,實現各節(jié)點間信息無密共享。配置JDK環(huán)境,解壓并安裝Hadoop2.7.2,在此期間需要注意Hadoop與JDK的安裝路徑保持一致(JDK是安裝Hadoop的基礎環(huán)境)。最后通過對基礎文件的修改、配置實現Hadoop平臺的搭建,這些文件主要包括hadoop-env.sh,conf/core-site.xml,conf/mapred-site.xml和conf/hdfs-site.xml 共4個。其中通過修改hadoop-env.sh文件來添加Java運行環(huán)境,通過hdfs-site.xml對HDFS的相關信息進行配置,通過core-site.xml對架構內部屬性進行配置,通過conf/mapred-site.xml對并行計算框架MapReduce的相關信息進行配置。經過上述配置,其運行環(huán)境已經搭建完成,在根目錄對存儲框架HDFS執(zhí)行格式化命令,即可啟動Hadoop運行環(huán)境。

      2.5 挖掘結果

      利用T.K-means算法對所選工藝參數及被加工工件表面粗糙度數據進行挖掘。在數據進行預處理后,利用ISODATA算法對原始數據進行約減,設定算法所需參數其中預設的聚類個數為100,類中樣本標準差最大值為0.5,聚類中心之間距離的最小值為0.03,各類中至少具有的樣本數為200,在一次迭代中可以合并的類的最大對數為2,迭代的極限次數為200。首先對性能指標進行分組,通過聚類將工件加工表面粗糙度分為0.210~0.235 μm,0.242~0.273 μm,0.279~0.291 μm等27個分組,找到最優(yōu)工件加工表面粗糙度組為0.210~0.235 μm,刪除剩余的工件加工表面粗糙度組及其對應的工藝參數集,最優(yōu)工件加工表面粗糙度組及其對應的工藝參數集即為全部數據集的一個約簡。工藝參數數據規(guī)模由8萬條減少為2 317條。

      利用SQL語句從數據庫中尋找表面粗糙度在0.210~0.235 μm所對應的全部銑削參數組合,再次利用ISODATA算法對其進行分組。首先大致了解數據的分組數,在Hadoop平臺上設置10個分組數與最大迭代次數30次,依據算法流程對已完成約簡的數據進行挖掘,尋求指向最優(yōu)工件表面粗糙度分組的工藝參數聚類分組,打印在控制臺的聚類結果如圖7所示。

      經過整理,最優(yōu)工件加工表面粗糙度0.210~0.235 μm組對應的工藝參數數據分組如表1所示。

      2.6 結果分析

      以該機床銑削鈦合金的加工數據的挖掘結果為例,上述聚類的意義是當工藝參數處于表1中分組范圍內時,就有較大的概率使工件加工表面粗糙度在最優(yōu)范圍之內。表1中所示區(qū)間即為這些工藝參數的目標值,本文選擇各分組區(qū)間中心值作為優(yōu)化目標值,來直觀的顯示目標值的結果。最優(yōu)工件加工表面粗糙度中心值為0.227 μm,對應的工藝參數優(yōu)化目標值如表2所示。

      表1 聚類的結果

      表2 工藝參數優(yōu)化結果值

      針對所研究的機床,可按照表2中優(yōu)化目標值對各參數進行調整,使鈦合金加工表面粗糙度在0.210~0.235 μm區(qū)間內,進而保持機床在最佳狀況下運行。將最優(yōu)工件表面粗糙度與所有銑削參數運行產生的工件表面粗糙度的平均值進行比較,優(yōu)化值是0.227 μm,所有數據的平均值0.674 μm,工件表面粗糙度提升了0.447 μm,達到了提升工件表面粗糙度的目的,并將以下工藝參數優(yōu)化結果值代入式(3)中,為保證m值取值的合理性,取其平均值0代入式(3)中,所得表面粗糙度值均在0.210~0.235 μm范圍內。

      由表2可知,利用T.K-means聚類算法對原始數據進行挖掘,最終優(yōu)化結果只顯示優(yōu)選后的7組工藝參數數據。對原始數據采用ISODATA算法進行聚類運算,共產生113個聚類分組。兩者相比,利用T.K-means聚類算法,聚類結果可讀性更高,并且避免了因找尋最優(yōu)加工工件表面粗糙度及其對應工藝參數聚類分組所花費的過多時間。

      3 結束語

      本文在云計算環(huán)境下,引入分步聚類理念,對K-means聚類算法進行改進,并將改進后的新算法與MapReduce計算框架相結合,實現算法運算的并行化,最終形成了一種新的高效聚類算法:T.K-means算法。將T.K-means算法應用到以減小TC4鈦合金工件表面粗糙度為目標的工藝參數優(yōu)化中,得到以下兩條結論:

      (1) T.K-means算法以分步聚類理念為基礎,將性能指標與工藝參數分別進行聚類,減少了算法反復檢索數據庫的次數,并且避免了產生無用聚類候選分組,提升了聚類的效率與聚類結果的可讀性,并將算法與MapReduce并行計算架構相結合,實現了算法的并行化,整合了有限的計算資源,解決了傳統(tǒng)算法面對海量數據挖掘能力不足的問題。

      (2) 通過T.K-means算法對虛擬鈦合金銑削加工數據進行挖掘,尋求到“優(yōu)化工藝參數→最優(yōu)表面粗糙度”的聚類規(guī)則,得出最優(yōu)表面粗糙度組對應的可調控工藝參數的范圍,挖掘出的加工工藝參數反應了所有數據中工件表面粗糙度的最大可達值,可以論證當具有大量真實加工工藝及其對應的性能指標數據時,所挖掘出的聚類結果可用于指導銑削鈦合金加工工藝參數的優(yōu)化。

      猜你喜歡
      粗糙度工件聚類
      基于無人機影像的巖體結構面粗糙度獲取
      甘肅科技(2020年20期)2020-04-13 00:30:18
      考慮非線性誤差的五軸工件安裝位置優(yōu)化
      冷沖模磨削表面粗糙度的加工試驗與應用
      模具制造(2019年4期)2019-06-24 03:36:48
      三坐標在工件測繪中的應用技巧
      現代機械(2018年1期)2018-04-17 07:29:48
      基于DBSACN聚類算法的XML文檔聚類
      電子測試(2017年15期)2017-12-18 07:19:27
      基于BP神經網絡的面齒輪齒面粗糙度研究
      鋼材銹蝕率與表面三維粗糙度參數的關系
      基于改進的遺傳算法的模糊聚類算法
      焊接殘余形變在工件精密裝配中的仿真應用研究
      焊接(2015年9期)2015-07-18 11:03:52
      一種層次初始的聚類個數自適應的聚類方法研究
      梁平县| 绥德县| 沙雅县| 建水县| 萍乡市| 杭锦后旗| 萨嘎县| 灵丘县| 孝昌县| 垦利县| 洪雅县| 元朗区| 同江市| 乐平市| 常州市| 来凤县| 方山县| 绍兴县| 仙居县| 南安市| 舞钢市| 德江县| 江孜县| 名山县| 合阳县| 修文县| 贞丰县| 鹤峰县| 报价| 鄂温| 永寿县| 林州市| 荆州市| 中牟县| 延津县| 南靖县| 岢岚县| 白玉县| 五台县| 始兴县| 恩施市|