孟 想, 辛斌杰, 李佳平
(上海工程技術(shù)大學(xué) 服裝學(xué)院, 上海 201620)
傳統(tǒng)的紡織品外觀檢驗(yàn)以主觀評(píng)判(eye-brain evaluation)作為主要檢測(cè)手段,參照AATCC、ASTM、GB等國(guó)際和國(guó)家紡織類標(biāo)準(zhǔn),依賴檢驗(yàn)人員的知識(shí)和經(jīng)驗(yàn)做出判斷。由于檢驗(yàn)人員的參與,造成測(cè)試結(jié)果具有一定的主觀性,且耗費(fèi)大量時(shí)間重復(fù)做相同的工作,易導(dǎo)致測(cè)試人員疲憊而降低測(cè)試效率和準(zhǔn)確性[1]。
在“中國(guó)智造2025”和“工業(yè)4.0”戰(zhàn)略背景下[2],現(xiàn)代紡織工業(yè)正逐步走向自動(dòng)化與智能化,計(jì)算機(jī)圖像處理、人工智能等高端科技逐步被應(yīng)用于紡織品質(zhì)量檢測(cè),實(shí)現(xiàn)紡織品質(zhì)量的自動(dòng)檢測(cè)與評(píng)估,相關(guān)工作已成為當(dāng)前學(xué)術(shù)研究和應(yīng)用開發(fā)的熱點(diǎn)課題。
本文結(jié)合紡織品自身特點(diǎn),利用多角度成像技術(shù),開發(fā)完成1套可用于紡織品外觀檢測(cè)的三維輪廓重建系統(tǒng),通過(guò)成像參數(shù)優(yōu)化、算法優(yōu)化,實(shí)現(xiàn)紡織品三維模型的精細(xì)重建。其研究意義在于應(yīng)用計(jì)算機(jī)視覺(jué)技術(shù)的相關(guān)理論,搭建1套適用于紡織品外觀檢測(cè)的三維輪廓重建系統(tǒng),嘗試解決紡織品三維輪廓重建的復(fù)雜問(wèn)題,以期為紡織品三維展示、逆向工程、宏觀指標(biāo)測(cè)量等應(yīng)用奠定技術(shù)基礎(chǔ)[3]。
計(jì)算機(jī)視覺(jué)(計(jì)算機(jī)圖像分析技術(shù))具有識(shí)別精度高、數(shù)據(jù)處理量大、反應(yīng)速度快、結(jié)果展示直觀等優(yōu)點(diǎn)。計(jì)算機(jī)圖像分析技術(shù)的應(yīng)用使紡織品檢測(cè)朝著客觀化、自動(dòng)化、智能化的方向發(fā)展,在建立測(cè)試評(píng)價(jià)體系的同時(shí)將人們從單調(diào)乏味的人工測(cè)試中解放出來(lái)[4]。
近二十年來(lái),隨著半導(dǎo)體以及通信技術(shù)的發(fā)展,集成電路的研究、發(fā)展也逐步展開,這些都為計(jì)算機(jī)圖像處理技術(shù)提供了良好的硬件支持,使其在紡織領(lǐng)域的應(yīng)用得到了進(jìn)一步拓展[5];因此,利用計(jì)算機(jī)圖像分析技術(shù)提高紡織檢測(cè)技術(shù)的智能化、數(shù)字化、網(wǎng)絡(luò)化程度,是紡織測(cè)試技術(shù)發(fā)展的必然趨勢(shì)[6]。
Marr[7]提出機(jī)器視覺(jué)的分層重建理論框架,能夠由二維逐層重建至三維,并且不需要預(yù)先構(gòu)建三維模型,為應(yīng)用計(jì)算機(jī)視覺(jué)來(lái)進(jìn)行三維輪廓的重建技術(shù)打下基礎(chǔ)。在此基礎(chǔ)上,Lowe[8]提出了主動(dòng)視覺(jué)理論框架,逐步完善了非被動(dòng)式機(jī)器視覺(jué)理論。 借助逐步完善的機(jī)器視覺(jué)理論,楊曉波等[9]研制開發(fā)了1種褶皺測(cè)試儀來(lái)測(cè)評(píng)織物起皺,該儀器內(nèi)搭載的軟件根據(jù)織物高度、表面傾斜度和經(jīng)密緯密等幾何參數(shù)來(lái)定義起皺,但其準(zhǔn)確率不理想。隨后又有一批學(xué)者展開了相關(guān)研究,Galuszynski[10]進(jìn)一步開發(fā)了2種裝置,但其很難適用于表面有凸起的織物;因此,楊曉波[9]借鑒Sugeno等[11]基于模糊聚類的結(jié)構(gòu)識(shí)別方法以及Woodham[12]的光度立體視覺(jué)技術(shù)對(duì)織物進(jìn)行識(shí)別。
國(guó)內(nèi)學(xué)者利用計(jì)算機(jī)視覺(jué)技術(shù)也開展了相關(guān)研究工作,為紡織品外觀數(shù)字化檢測(cè)做了很多有益的嘗試,其中較為代表性的研究成果有:
1)沙莎等[13]利用織物物理模型、線圈模型和紗線真實(shí)感3個(gè)方面介紹國(guó)內(nèi)外緯編針織物外觀輪廓的三維模擬技術(shù)研究歷程。分析了國(guó)內(nèi)外學(xué)者多年的研究結(jié)果,以及織物三維模擬技術(shù)從單一外觀輪廓模擬發(fā)展到多物理屬性耦合的動(dòng)態(tài)模擬過(guò)程??偨Y(jié)了現(xiàn)有織物三維模擬技術(shù)的優(yōu)缺點(diǎn),最后分析認(rèn)為織物三維模擬技術(shù)會(huì)朝著應(yīng)用范圍多樣化、線圈類型多元化、模擬方法物理化3個(gè)方向發(fā)展。
2)織物三維模型還原不僅限于針織物方面,程杰等[14]利用1套織物三維激光掃描系統(tǒng),通過(guò)分析織物組織循環(huán)圖、調(diào)整掃描范圍和光照環(huán)境的方法來(lái)提高碳纖維織物表面原始點(diǎn)云的密集程度和質(zhì)量。結(jié)合梯度約束條件和點(diǎn)云約束條件構(gòu)建得到新尺度獨(dú)立的屏蔽約束條件,并將得到的屏蔽約束條件加入到經(jīng)過(guò)分類處理和預(yù)處理后的原始點(diǎn)云中,便可重建出碳纖維織物表面較為理想的三維模型。實(shí)驗(yàn)顯示采用該方法重建得到的模型與真實(shí)紗線寬度的平均測(cè)量誤差為0.12 mm。
3)在得到織物的三維模型后,部分學(xué)者利用模型數(shù)據(jù)嘗試對(duì)紡織品特征進(jìn)行表征,張雪等[15]以三維掃描技術(shù)為基礎(chǔ),提出一種直觀且方便的織物成型評(píng)價(jià)方法。首先利用頂球使織物起皺,通過(guò)掃描得到織物的三維數(shù)字模型,接著利用相關(guān)軟件對(duì)織物的三維模型進(jìn)行處理運(yùn)算得到相關(guān)指標(biāo)。采用該方法處理10塊試樣后發(fā)現(xiàn),織物成型性可用織物的體積空隙率表征。此方法引入織物三維模型的概念,為評(píng)價(jià)和表征織物的成型能力開辟了一種新的思路。
本文自行搭建了一種基于多角度成像技術(shù)成像的紡織品三維輪廓重建的數(shù)字化圖像采集平臺(tái),如圖1所示。平臺(tái)底部設(shè)置可旋轉(zhuǎn)支撐底座,底座上方設(shè)置一面光源,面光源四周有校準(zhǔn)色板,織物樣品由對(duì)稱夾具固定在面光源上,一臺(tái)數(shù)碼相機(jī)位于樣品上方20 cm處,左右兩側(cè)有2條向下成45°傾斜角的帶狀光源。在平臺(tái)四周另設(shè)有2臺(tái)數(shù)碼相機(jī),距織物20 cm并成45°傾斜向下。電腦主機(jī)控制連接光源、相機(jī)、運(yùn)動(dòng)等模塊,依靠底部支架旋轉(zhuǎn),獲取織物圖像序列(可獲取2n+1幅圖像,n為底座旋轉(zhuǎn)次數(shù))。
圖1 織物拍攝平臺(tái)Fig.1 Front view (a) and top view(b) of fabric shooting platform
本文所使用的數(shù)碼相機(jī)為尼康D610型單反相機(jī);面光源為AFT-BL100 W型LED背光源;控制及處理所用電腦主機(jī)中央處理器型號(hào)為Inter Xeon CPU E5-1620,圖像處理器型號(hào)為NVIDIA Quadro 2000。
通過(guò)本文自行研制的三維輪廓重建系統(tǒng),獲得織物的多角度等距離圖像序列,通過(guò)自行設(shè)計(jì)開發(fā)的三維輪廓重建算法,進(jìn)行織物三維輪廓模型的重建。
織物三維重建步驟包括:1)相機(jī)標(biāo)定[16](包含圖像坐標(biāo)、相機(jī)坐標(biāo));2)特征點(diǎn)的提取與匹配(自動(dòng)匹配并提取特征點(diǎn),當(dāng)提取的特征點(diǎn)數(shù)不足時(shí),可設(shè)置手動(dòng)匹配);3)生成特征點(diǎn)點(diǎn)云,并在特征點(diǎn)的基礎(chǔ)上進(jìn)行點(diǎn)云匹配形成密集點(diǎn)云;4)根據(jù)密集點(diǎn)云數(shù)據(jù),進(jìn)行數(shù)據(jù)融合得到三角網(wǎng)格以及三角面。
在三維重建初始輪廓模型基礎(chǔ)上,將二維圖像中所有像素點(diǎn)的RGB值、幾何特征、灰度信息、物體紋理渲染至三維模型表面,最終完成織物的三維輪廓重建[17],其流程圖為:目標(biāo)織物→環(huán)境光源調(diào)試→單目多角度拍攝→相機(jī)標(biāo)定→特征點(diǎn)的提取與匹配→建立三維模型→織物三維模型。
2.2.1相機(jī)位置標(biāo)定
本文相機(jī)校準(zhǔn)方法和通常的校準(zhǔn)方法有很大區(qū)別,拍攝過(guò)程中相機(jī)位置和織物圖像上興趣點(diǎn)的三維坐標(biāo)都是不確定的[16]。其方法大致分為3步:1)選擇圖像中的n個(gè)點(diǎn)為興趣點(diǎn)(n>7),相機(jī)由位置1移動(dòng)至位置2的過(guò)程中,利用Deriche等[18]給出的跟蹤方法來(lái)獲得興趣點(diǎn)更好的對(duì)應(yīng)關(guān)系;2)通過(guò)Sturm識(shí)別算法計(jì)算極點(diǎn); 3)根據(jù)Kruppa的相機(jī)位移方程[19],從兩極點(diǎn)和極線變換獲得絕對(duì)二次曲線圖像的2個(gè)約束,從而完成相機(jī)標(biāo)定并確定相機(jī)空間位置,其結(jié)果如圖2所示。
注:圖中數(shù)字為相機(jī)位置。圖2 相機(jī)位置標(biāo)定Fig.2 Camera position calibration
2.2.2特征點(diǎn)的提取與匹配
本文針對(duì)紡織品采用基于尺度不變特征轉(zhuǎn)換(Scale-invariant feature transform,簡(jiǎn)稱SIFT)算法的特征點(diǎn)提取方法,以精確定位織物關(guān)鍵點(diǎn)。SIFT算法是一種檢測(cè)局部特征的算法,通過(guò)求1幅圖中的特征點(diǎn)(interest points, or corner points)及其有關(guān)的描述子并進(jìn)行圖像特征點(diǎn)匹配。采用這種方法提取的圖像特征具有縮放不變性、旋轉(zhuǎn)不變形,且受光照和視點(diǎn)變化影響較小。其主要思路是首先建立尺度空間,高斯卷積核是實(shí)現(xiàn)尺度變換的唯一線性核,1幅二維圖像的尺度空間定義為:
L(x,y,σ)=G(x,y,σ)×I(x,y)
(1)
(2)
式中:G(x,y,σ)為尺度可變高斯函數(shù);I(x,y)為原圖像;σ為尺度參數(shù),將其用于描述圖像細(xì)節(jié)特征時(shí),細(xì)節(jié)越明顯,其值越小,反之則越大。為有效地在尺度空間檢測(cè)到穩(wěn)定的關(guān)鍵點(diǎn),提出了高斯差分尺度空間(DOG scale-space)。利用不同尺度的高斯差分核與圖像卷積生成。
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))×
I(x,y)=L(x,y,kσ)-L(x,y,σ)
(3)
構(gòu)建尺度空間后需要檢測(cè)DOG尺度空間的極值點(diǎn)。通過(guò)比較圖像中每個(gè)樣點(diǎn)與其相鄰的所有點(diǎn),判定是否為極值點(diǎn):比較中間檢測(cè)點(diǎn)和其相鄰的26個(gè)點(diǎn)(上下相鄰尺度對(duì)應(yīng)的9×2個(gè)點(diǎn),以及同尺度的8個(gè)相鄰點(diǎn)),以確保該點(diǎn)在二維圖像空間和尺度空間內(nèi)均為極值點(diǎn)。如果該點(diǎn)在上下2層以及尺度空間本層的26個(gè)領(lǐng)域中驗(yàn)證為極值,就認(rèn)定此點(diǎn)為圖像在該尺度下的特征點(diǎn),檢測(cè)流程如圖3所示。
圖3 DOG尺度空間局部極值檢測(cè)Fig.3 Local extreme value detection in DOG scale space
使用近似Harris Corner檢測(cè)器,去掉DOG局部曲率非常不對(duì)稱的像素,對(duì)關(guān)鍵點(diǎn)的高斯差分函數(shù)D(x,y,σ) 進(jìn)行泰勒展開,得到:
,D→D0
(4)
(5)
,D→D0
(6)
(7)
該矩陣中的每個(gè)值均是通過(guò)臨近采樣點(diǎn)的差值進(jìn)行計(jì)算得到。由于只針對(duì)比率,此時(shí)定義特征值最大值為α,特征值最小值為β,則其關(guān)系為:
Tr(H)Dxx+Dy=α+β
(8)
Det(H)=DxxDyy-(Dxy)2
(9)
(10)
根據(jù)式(10)得出結(jié)論,只需判斷下式能否成立,就可得到閾值γ與主曲率關(guān)系,進(jìn)而準(zhǔn)確定位關(guān)鍵點(diǎn):
γ∶10
(11)
給特征點(diǎn)賦值一個(gè)方向參數(shù)(128維),計(jì)算每個(gè)特征點(diǎn)的方向,依照此方向做進(jìn)一步計(jì)算。為確保算子的旋轉(zhuǎn)不變性,利用關(guān)鍵點(diǎn)鄰域像素的梯度方向分布特性為每個(gè)關(guān)鍵點(diǎn)指定方向參數(shù)。
m(x,y)=(L(x+1,y)-L(x-1,y))2+
(12)
(13)
式中:m(x,y)為(x,y)處的梯度幅度大?。沪?x,y)為(x,y)處的梯度方向。至此,已完成對(duì)圖像的關(guān)鍵點(diǎn)的檢測(cè)。3個(gè)信息即確定一個(gè)SIFT特征區(qū)域,并可代表一個(gè)關(guān)鍵點(diǎn):方向、所處尺度、位置。
利用關(guān)鍵點(diǎn)和關(guān)鍵點(diǎn)周圍對(duì)其有貢獻(xiàn)的像素點(diǎn)建立多個(gè)描述子,可使關(guān)鍵點(diǎn)有更多的不變性,提高目標(biāo)匹配效率。最后對(duì)描述子匹配128維后,即表示2個(gè)特征點(diǎn)完成匹配。
2.2.3三維模型建立
特征點(diǎn)匹配完成后,利用投影矩陣求得空間點(diǎn)位置,得到織物的點(diǎn)云圖,再以特征點(diǎn)為中心設(shè)置一定的窗口進(jìn)行匹配擴(kuò)散,進(jìn)一步找到附近匹配度高的點(diǎn),最終形成密集點(diǎn)云圖,如圖4所示。
圖4 織物點(diǎn)云圖Fig.4 Point cloud map (a) and dense point cloud(b) of fabric
相距最近的每3個(gè)點(diǎn)構(gòu)成一個(gè)三角面,再利用三角面片到圖像的原像定位法,從采集到的所有圖像中搜索出最佳圖像,該圖像需滿足條件:圖像中與表面模型中三角面片相對(duì)應(yīng)的三角形具備最好的紋理質(zhì)量,即紋理最清晰;模型表面的三角面片到攝像機(jī)的空間位置距離最小,且三角面片的單位法向量與圖像平面的單位法向量乘積為零。此時(shí)對(duì)于這個(gè)三角面片而言,這幅圖像在拍攝時(shí)所含該面片的紋理質(zhì)量最好,可選為紋理貼圖。大致流程如下:1)計(jì)算該三角面片Ti的單位法向量n。計(jì)算第i幅圖像的視點(diǎn)方向Ni;2)計(jì)算三角面片法向量n和第i個(gè)圖像的視點(diǎn)方向Ni的空間夾角Ti;3)比較所有圖像的夾角θi,將最小夾角的下標(biāo)i賦給三角面片Ti。這樣就完成了一個(gè)三角面片與圖像的配準(zhǔn)。對(duì)三角網(wǎng)格模型中的每個(gè)三角面片重復(fù)執(zhí)行上述步驟,就可完成整個(gè)三角網(wǎng)格模型與圖像的配準(zhǔn),結(jié)果見(jiàn)圖5。
圖5 配準(zhǔn)結(jié)果Fig.5 Registration results. (a)Triangular patches;(b) Texture map
2.3.1針對(duì)不同光源的拍攝方案
不同光照條件下拍攝得到的紡織品圖像所攜帶的信息存在差異,本文討論在投射光與透射光下的紡織品三維輪廓重建效果,發(fā)現(xiàn)對(duì)不同類別的紡織品及不同的三維重建要求,可定性選擇某一種光照環(huán)境。
透射法拍攝:將織物固定在平板光源上,調(diào)節(jié)平板光源亮度(帶燈源關(guān)閉),保證獲得清晰的織物圖像使三維重建的精細(xì)度達(dá)到符合的要求,避免由于匹配點(diǎn)過(guò)少而導(dǎo)致的三維重建失敗。反射法拍攝:平板光源上面鋪設(shè)具有一定高度的塊狀黑色墊片,然后將織物置于黑色墊片上,用針織物參照樣框(如圖6所示)將織物套在墊片表面,凸出織物整體,調(diào)節(jié)拍攝平臺(tái)側(cè)上方的帶光源,保證拍攝時(shí)能獲得織物清晰的圖像。透射法、反射法三維輪廓重建效果圖如圖6所示,重建結(jié)果的數(shù)據(jù)如表1所示。
圖6 三維輪廓重建結(jié)果Fig.6 Three-dimensional contour reconstruction results. (a) Image of transmission method; (b) Image of reflection method; (c) Transmission method reduction diagram; (d) Reflection method reduction diagram; (e) Detail diagram of transmission method; (f) Detail diagram of reflection method
類型拼接點(diǎn)/點(diǎn)密集點(diǎn)云/點(diǎn)三維模型/面透射法50939956191199999反射法279676209461524184
由圖6可知,透射法的優(yōu)點(diǎn)是可以拍攝并三維重建絕大部分織物表面三維信息,線圈排列清晰,整個(gè)重建過(guò)程出錯(cuò)率小。而缺點(diǎn)也能從圖中看出,即在三維重建出的模型表面有許多黑點(diǎn),多次實(shí)驗(yàn)分析得出,黑點(diǎn)是由紗線毛羽對(duì)光線的漫反射、鏡面反射引起的,這些噪點(diǎn)的出現(xiàn)是投射法所不能避免的,但可通過(guò)潤(rùn)濕、燒毛等方法減少毛羽對(duì)重建模型的影響。
采用反射法拍攝具有更高的重建精細(xì)度,線圈串套明顯,但這種方法不適用于雙層或厚實(shí)的織物,這是由于拍攝時(shí)織物上方帶光源的光線很難穿透具有一定厚度的織物,導(dǎo)致表面紋理無(wú)法捕捉,線圈的串套也將無(wú)法三維重建。所能尋求的解決辦法只有利用針織物的延展性,將織物撐開至能較好透光,且線圈并未因拉伸而橫向變形或滑移,這樣就能將織物線圈結(jié)構(gòu)較好地重建出來(lái)。
2.3.2針對(duì)不同織物的拍攝方案
以針織物所在平面為參照面,鏡頭與織物平面成45°夾角,以90°為區(qū)間環(huán)繞織物拍攝4張成像清晰的圖像,鏡頭與織物間的距離經(jīng)多次校對(duì),最終定為20 cm,在該距離下,保證成像清晰,并恰好能完整捕捉織物比對(duì)框。
以機(jī)織物所在平面為參照面,其拍攝夾角與區(qū)間同針織物,但由于機(jī)織物的織物密度大,要拍攝清晰的紗線結(jié)構(gòu),就需要對(duì)織物小范圍進(jìn)行拍攝,因此,織物大小設(shè)定為邊長(zhǎng)5 cm的正方形,對(duì)照框規(guī)格為邊長(zhǎng)5 cm的正方形取景框,四周為邊長(zhǎng)為1 cm的正三角柱,此時(shí)的拍攝距離定為10 cm,可能拍攝出清晰的織物結(jié)構(gòu),并將參照樣框及其內(nèi)的織物完整捕捉。參照樣框如圖7所示。
實(shí)驗(yàn)共拍攝30塊不同織物(編號(hào)為織物1,2,…,30),部分織物正反面不同,則正反面均拍攝,正反面相同的織物僅拍攝一面;厚度過(guò)高的織物僅在投射光下拍攝;但有些織物(如15號(hào)),雖然厚度過(guò)厚,但其透光性好,通過(guò)面光源照射也可清晰看到其成圈結(jié)構(gòu)及織物表面紋理。本文僅列出部分紡織品三維輪廓重建效果進(jìn)行分析。
圖8示出雙反面針織物(織物15)的重建結(jié)果??梢?jiàn):三維輪廓重建效果很好,這是由于其紗線較粗,且雙反面織物的結(jié)構(gòu)圓滑,屬于理想重建對(duì)象,重建后的結(jié)果無(wú)論從密集點(diǎn)云還是三角網(wǎng)格都可清晰地看到織物表面凹凸結(jié)構(gòu),由于良好的透射光環(huán)境,適當(dāng)?shù)呐臄z距離及對(duì)焦,使得特征匹配獲得的特征點(diǎn)達(dá)到了3 000多個(gè)。
圖8 15號(hào)織物重建結(jié)果Fig.8 Fabric of 15 reconstruction results. (a) Camera position calibration; (b) Dense point cloud generation; (c) Triangular mesh generation; (d) Triangular face generation; (e) Three-dimensional reconstruction effect
圖9示出13號(hào)織物的三維重建情況??梢?jiàn):織物起伏清晰,紋理清晰,真實(shí)度及可靠性很高,透射光下很好地將織物的結(jié)構(gòu)輪廓凸顯出來(lái),織物自身的色彩漸變也使得特征匹配的特征點(diǎn)高達(dá)1 400多個(gè)。
圖9 13號(hào)織物重建結(jié)果Fig.9 Fabric of 13 reconstruction results. (a) Camera position calibration; (b) Dense point cloud generation; (c) Triangular mesh generation; (d) Triangular face generation; (e) Three-dimensional reconstruction effect
本文針對(duì)紡織品特點(diǎn)優(yōu)化了三維重建的相關(guān)算法,自行搭建了一套適應(yīng)于紡織品的多角度拍攝平臺(tái),最終形成可應(yīng)用于紡織品的多角度成像方案。由實(shí)驗(yàn)驗(yàn)證可知,本文提出的基于多角度成像技術(shù)的紡織品三維輪廓重建方法可將織物表面灰度信息、紋理信息較為完整的三維重建出來(lái),總體效果較好,這對(duì)織物結(jié)構(gòu)的數(shù)字化展示、實(shí)物數(shù)字化后的逆向工程、織物多項(xiàng)宏觀指標(biāo)的測(cè)量等應(yīng)用領(lǐng)域具有重要意義,兼具學(xué)術(shù)研究和產(chǎn)業(yè)應(yīng)用價(jià)值;但對(duì)于凹凸不明顯、自身毛羽較多的紡織品三維重建效果不佳;另外受相機(jī)的像素、焦距、景深以及光照環(huán)境等其他因素的影響,重建的精度還無(wú)法達(dá)到紗線級(jí)別。
FZXB
參考文獻(xiàn):
[1] 辛斌杰, 劉巖, 林蘭天,等. 淺析紡織品外觀檢驗(yàn)數(shù)字化和遠(yuǎn)程質(zhì)量檢驗(yàn)技術(shù)[J]. 紡織學(xué)報(bào), 2011, 32(3):61-66.
XIN Binjie, LIU Yan, LIN Lantian, et al. Three-dimensional modeling and deformation for weft knitted fabric loops [J]. Journal of Textile Research, 2011, 32(3):61-66.
[2] 蔡恩澤. “中國(guó)制造2025”與德國(guó)“工業(yè)4.0”的對(duì)接[J]. 產(chǎn)權(quán)導(dǎo)刊, 2017(1):54-55.
CAI Enze. "Made in China 2025" and "Germany Industrial 4.0" docking [J]. Property Rights Guide, 2017(1):54-55.
[3] ZHAO S, ZHANG Z, WAN X. Three-dimensional profile reconstruction based on infrared multi-view vision[C]// Eighth International Symposium on Advanced Optical Manufacturing and Testing Technology. Beilinghan: International Society for Optics and Photonics, 2016.
[4] 徐超, 李喬. 基于計(jì)算機(jī)視覺(jué)的三維重建技術(shù)綜述[J]. 數(shù)字技術(shù)與應(yīng)用, 2017(1):54-56.
XU Chao, LI Qiao. Summary of 3-D reconstruction technology based on computer vision[J]. China Academic Journal Electronic Publishing House, 2017(1):54-56.
[5] 徐珂. 計(jì)算機(jī)圖像處理技術(shù)的探析[J]. 電腦知識(shí)與技術(shù), 2014(11):2640-2641.
XU Ke. Analysis of computer image processing technology[J]. Computer Knowledge and Technology, 2014(11):2640-2641.
[6] 劉萍. 計(jì)算機(jī)圖像分析在紡織品檢驗(yàn)中的應(yīng)用[J]. 科研, 2016(11):200.
LIU Ping. Application of computer image analysis in textile inspection[J]. Scientific Research, 2016(11):200.
[7] MARR D. Vision: A Computational Investigation into the Human Representation and Processing of Visual Information[M]. New York: Henry Holt and Company Inc, 1982:107-111.
[8] LOWE D G. Distinctive Image Features from Scale-Invariant Keypoints[M]. Kluwer Academic Publishers, 2004:91-110.
[9] 楊曉波, 黃秀寶. 織物表面折皺的小波分析與自組織神經(jīng)網(wǎng)絡(luò)等級(jí)評(píng)定[J]. 中國(guó)圖像圖形學(xué)報(bào), 2005, 10(4):473-478.
YANG Xiaobo, HUANG Xiubao. Wavelet analysis of fabric surface wrinkle and self-organized neural network grade assessment[J]. Journal of Image and Graphics, 2005, 10(4):473-478.
[10] GALUSZYNSKI S. Effect of fabric structure on fabric resistance to needle piercing[J]. Textile Research Journal, 1986, 56(5):339-340.
[11] SUGENO M, YASUKAWA T. A fuzzy-logic-based approach to qualitative modeling[J]. IEEE Transactions on Fuzzy Systems, 1993, 1(1):7-8.
[12] WOODHAM R J. Photometric method for determining surface orientation from multiple images[J]. Optical Engineering, 1992, 19(1):1-22.
[13] 沙莎, 蔣高明. 緯編針織物三維模擬技術(shù)的研究現(xiàn)狀與發(fā)展趨勢(shì)[C]// 第四十六次全國(guó)科技論壇:紡織產(chǎn)業(yè)升級(jí)新技術(shù)融合論壇. 北京:中國(guó)紡織工程學(xué)會(huì), 2015:118-124.
SHA Sha, JIANG Gaoming. Weft knitted fabric three - dimensional simulation technology research status and development trend [C] // 46th National Science and Technology Forum-Textile Industry Upgrading New Technology Integration Forum. Beijing: China Textile Engineering Society, 2015:118-124.
[14] 程杰, 陳利. 利用激光掃描點(diǎn)云的碳纖維織物表面三維模型重建[J]. 紡織學(xué)報(bào), 2016, 37(4):54-59.
CHENG Jie, CHEN Li. 3-D reconstruction of carbon-fiber fabric surface from laser scanning points cloud[J]. Journal of Textile Research, 2016, 37(4):54-59.
[15] 張雪, 陳韶娟, 孫亞寧,等. 應(yīng)用三維掃描技術(shù)的織物成型性測(cè)試與表征[J]. 紡織學(xué)報(bào), 2014, 35(12):63-68.
ZHANG Xue, CHEN Shaojuan, SUN Ya′ning, et al. Fabric formability test and characterization based on three-dimensional scanning technology[J]. Journal of Textile Research, 2014, 35(12):63-68.
[16] MAYBANK S J, FAUGERAS O D. A theory of self-calibration of a moving camera[J]. International Journal of Computer Vision, 1992, 8(2):123-151.
[17] WARREN P A, MAMASSIAN P. Recovery of surface pose from texture orientation statistics under perspective projection[J]. Biological Cybernetics, 2010, 103(3):199-212.
[18] DERICHE R, FAUGERAS O D. Tracking line seg-ments[J]. Image and Vision Computing, 1990(8):261-270.
[19] HARTLEY R I. Kruppa′s equations derived from the fundamental matrix[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1997, 19(2):133-135.