劉國聯(lián),季開宸,金 蓉,顧冰菲
(1.現(xiàn)代絲綢國家重點實驗室,江蘇蘇州215123;2.蘇州大學(xué)紡織與服裝工程學(xué)院,江蘇蘇州215021)
當(dāng)今社會,人們對自己的著裝要求越來越高,人體測量的準(zhǔn)確性也日趨受到各個生產(chǎn)廠商和消費者的重視[1]。三維非接觸式人體測量儀以其快速、準(zhǔn)確等優(yōu)點逐步成為了行業(yè)的新寵。但是,由于儀器成本昂貴及攜帶不便,故利用照相機(jī)提取人體圍度數(shù)據(jù)的非接觸二維測量系統(tǒng)應(yīng)運而生。
在二維非接觸式人體測量方法中,照片測量法因其快速、精確、穩(wěn)定作為最常用的測量方法,它通過拍攝人體的正面和側(cè)面圖像,可以得到人體的高、寬、厚等數(shù)據(jù)。然而圍度尺寸的提取和讀出要相對復(fù)雜得多,這就需要間接性地通過如曲線擬合等來近似地擬合結(jié)果。因此,圍度尺寸作為服裝結(jié)構(gòu)設(shè)計重要參數(shù)之一,圍度的擬合效果非常重要[2]。
黃秀麗[3]利用二維非接觸式人體測量方法,對頸圍、胸圍、下胸圍、腰圍、腹圍及臀圍等服裝上常用的圍度尺寸進(jìn)行了擬合預(yù)測,預(yù)測方法包括了雙橢圓曲線擬合、二階最小二乘回歸分析和BP神經(jīng)網(wǎng)絡(luò)仿真等。其研究結(jié)果表明,下胸圍、腰圍和小腿肚圍的擬合度最好;其次是胸圍、腹圍和大腿根圍;頸圍和膝圍的擬合程度最差。
為了提高利用二維非接觸測量方法預(yù)測圍度的精度,本研究在通過依靠厚、寬比值把人體各部位特征進(jìn)行分類的基礎(chǔ)上,利用數(shù)碼照相機(jī)所拍攝的青年男性所提取的圍度高度與三維非接觸式人體測量的同一圍度一一對應(yīng),對青年男性各圍度值進(jìn)行了分類擬合研究[4]。
本研究以年齡18~26歲、身高158~191 cm的未婚蘇州大學(xué)在校男大學(xué)生為被測對象,共測量了272名。在實驗對象選擇過程中,力求其體型特征符合青年男性的群體結(jié)構(gòu)特點。
1)本實驗采用Symcad三維人體測量系統(tǒng)。該儀器利用數(shù)字白光投射技術(shù),無接觸地自動測量人體,能在30s內(nèi)自動計算出88個尺寸數(shù)據(jù),并且不受人體移動影響。
2)使用兩臺數(shù)碼相機(jī)、三腳架和背景屏幕,對拍攝對象同時拍攝正面(1張)、側(cè)面(1張)照片。
為了減少拍攝不同姿勢時身體的誤差,使用兩臺相機(jī)同時拍攝,拍照后可得到同一時刻同一狀態(tài)下的身體姿態(tài)。在被測量對象身上貼標(biāo)記點,以保證測量結(jié)果的準(zhǔn)確性。拍攝距離為4m,固定不變。
將被試的正側(cè)面兩張照片利用Photoshop軟件進(jìn)行輪廓提取,背景用100%純黑色填充,輪廓內(nèi)部用50%白色填充(圖1)。目的是為了將輪廓與背景明顯地區(qū)分開來,便于后續(xù)的程序操作。
圖1 人體正、側(cè)面照片F(xiàn)ig.1 Front andside photos of human body
人體的寬度與厚度等尺寸在服裝的結(jié)構(gòu)設(shè)計中起著重要的作用,確定人體的寬度與厚度等尺寸有著重要的意義[5]。根據(jù)人體測量數(shù)據(jù)的統(tǒng)計結(jié)果可知,各圍度的圍高和身高存在一定的比例關(guān)系[6]。同一類人體中,各圍度高占身高的比例分布在某一范圍內(nèi),即包括極值的圍高與身高的比例可以用區(qū)間表示為[w1,w2]。
以臀圍為例,臀圍的定義為:臀部最豐滿部分的水平圍度[6]。因此,在[w1,w2]內(nèi),同一行上左像素點所在列數(shù)與右像素點所在列數(shù)差的絕對值的最大值就是臀寬的像素值。同時,將最大值所在行記為WW1。在人體側(cè)面圖像中,WW1行上左像素點所在列數(shù)與右像素點所在列數(shù)差的絕對值為臀厚的像素值。
以此為原理,利用事先編程的MATLAB軟件對進(jìn)行完輪廓處理的圖片進(jìn)行讀取,可以得到全身各關(guān)鍵圍度的高度、寬度、厚度(圖2)。
圖2 人體正、側(cè)面輪廓Fig.2 Front and side silhouettes of human body
由于沒有比較明顯的特征點,利用肉眼確定點云圖的男體各圍度(如胸圍、腰圍、腹圍、大腿根圍)比較困難,容易造成與照片圍度不能很好對應(yīng)的問題。故利用Image ware軟件中截取平面時“y”軸高度值,將MATLAB讀取出的對應(yīng)高度值輸入,便可得到點云圖中各圍度的精確位置(圖3)。確定各圍度截面后,便可利用B-spline工具對點云圍度進(jìn)行量取(圖4)。
圖3 位置確定Fig.3 Position determination
圖4 圍度尺寸測量Fig.4 Girth size measurement
人體特征差異主要體現(xiàn)在各個截面形狀扁平程度的不同,因此可以將人體各截面厚度與寬度的比值作為描述人體特征的參數(shù)。對于人體的每一個圍度,借助SPSS中的箱型圖可以去除比值的奇異值,找到最大、最小值。但是,不同的檔差會導(dǎo)致不同的圍度分類結(jié)果,也必定會影響實驗的結(jié)果。在整個實驗過程中,所有數(shù)據(jù)的精確度均為0.01。因此理論上來講,最小的檔差應(yīng)為0.01,但若按此分類會使分類過于龐雜,不利于實際操作和應(yīng)用。為了探尋不同的檔差產(chǎn)生的差異,本研究以胸圍和腰圍為例,分別選取 0.02、0.05、0.1 和 0.2 的檔差進(jìn)行對比,結(jié)果如表1、表2所示。
表1 不同胸圍分檔影響結(jié)果Tab.1 Effect results of different chest circumference grading
表2 不同腰圍分檔影響結(jié)果Tab.2 Effect results of different waistline grading
從表1和表2可以看出,不同檔差會造成最終結(jié)果精確度的改變,并且檔差越小,平均誤差值越小。造成平均誤差值隨檔差的減小而減小的原因有二:1)越細(xì)分的檔差會更加優(yōu)秀地反應(yīng)某一類體型,擬合效果越精準(zhǔn),結(jié)果越準(zhǔn)確;2)檔差的細(xì)分會造成樣本量的減少,導(dǎo)致相關(guān)程度的上升,從而使得平均誤差值的降低。
檔差過小(以檔差0.02為例),會造成人體分檔過多,引起控制和操作上的不便;而檔差過大(以0.2而為例),會造成人體分檔過少,不能有效地區(qū)分不同體型的差異。
因此,本研究參照譚菲[7]提出的人體各圍度厚寬比以0.05為一檔的分檔原則,將所測量的272名男青年的厚、寬度比值進(jìn)行分檔,按照升序排列,各圍度的厚寬比分檔結(jié)果如表3所示。
從表3可以看出,各圍度部位按照厚寬比分檔的檔數(shù)不盡相同,最少的是臀部和腹圍,只有5檔。而胸圍的分檔最多,有13檔。各部位各檔人數(shù)分布并不均勻,而是集中在靠中間的檔差中,說明大多數(shù)男體的厚寬比呈一定規(guī)律分布。
通過SPSS軟件對各圍度的寬厚進(jìn)行相關(guān)性分析,首先做出散點圖,如圖5、圖6為胸寬與胸圍、腰厚與腰圍的散點圖,然后計算其相關(guān)性。結(jié)果表明各圍度的寬厚值均與其相應(yīng)的圍度值具有明顯的相關(guān)性。其中胸圍、腰圍、臀圍、腹圍與各自的寬厚度之間相關(guān)程度較好。并使用MATLAB在照片中提取出的寬厚度與點云圖量得的圍度進(jìn)行擬合回歸,胸、頸和腰圍的圍度擬合結(jié)果如表4—表7。
表3 各圍度部位按寬厚比分檔結(jié)果Tab.3 Grading results of each part based on width-to-thickness ratio
圖5 胸寬與胸圍的散點圖Fig.5 Scatter diagram of width and girth of chest
圖6 腰厚與腰圍的散點圖Fig.6 Scatter diagram of thickness and girth of waist
表4 胸寬、胸厚與胸圍的擬合方程Tab.4 Fitting formulas of width,thickness and girth of chest
表5 頸寬、頸厚與頸圍的擬合方程Tab.5 Fitting formulas of width,thickness and girth of neck
表6 腰寬、腰厚與腰圍的擬合方程Tab.6 Fitting formulas of width,thickness and girth of waist
表7 臀寬、臀厚與臀圍的擬合方程Tab.7 Fitting formulas of width,thickness and girth of hip
對272個樣本進(jìn)行驗證,誤差分析結(jié)果如表8所示。由于人體每個圍度之間的差別很大,比如說圍度較小的小腿肚圍和圍度較大的胸圍。用絕對誤差(測試值與對照值之差)不能很好地反應(yīng)出真實的誤差情況,因此利用相對誤差(絕對誤差與測量值的比值)來反應(yīng)實驗結(jié)果并進(jìn)行比較(表9)。
為了更好地與陳國旗[8]所做數(shù)據(jù)進(jìn)行比較,本研究選擇與陳國旗相同的誤差域的表示方法。即表8中相對誤差域的各個數(shù)值代表的含義分別是:-4表示相對誤差小于-3.75%;-3表示相對誤差在-3.75%到 -2.5%之間;-2 表示相對誤差在 -2.5%到-1.25%之間;-1表示相對誤差在-1.25%到0之間;1表示相對誤差在0到1.25%之間;2表示相對誤差在1.25%到2.5%之間;3表示相對誤差在2.5%到3.75%之間;4表示相對誤差大于3.75%。
表8 誤差分析結(jié)果Tab.8 Error analysis results
表9 擬合結(jié)果對比Tab.9 Comparison of fitting results
本研究選取的樣本與陳國旗[8]所測量及擬合的樣本有93%以上相同性,即此結(jié)論為在絕大多數(shù)樣本相同的情況下所得,因此該結(jié)論具有較高的可信程度。
利用青年男性各圍度厚和寬預(yù)測擬合圍度的過程,得到如下結(jié)論:
1)使用高度定位的新方法將照片中的圍度與點云圖對應(yīng),使得胸圍等的擬合精度再一次得到了提高。表明利用二維非接觸測量方法對于預(yù)測胸圍等圍度是可行的。
2)胸圍、腰圍、腹圍和臀圍與相對應(yīng)截面的厚和寬相關(guān)程度較高。結(jié)論顯示寬厚程度越高其圍度在使用新方法后也提高得越明顯。證明了利用厚與寬之比進(jìn)行某些部位體型特征分類并以此為依據(jù)預(yù)測圍度是合理的。
由于拍攝照片時和在三維人體掃描儀中時人的姿勢不可能保持一致,所以導(dǎo)致身體姿態(tài)產(chǎn)生偏差不可避免,這可能也是導(dǎo)致精度還不是特別理想的原因之一。
[1]李曉久,王玉秀.二維非接觸式人體測量系統(tǒng)中臀圍的計算[J].紡織學(xué)報,2004,25(2):98-99.LI Xiaojiu,WANG Yuxiu.Calculation of hip in 2D noncontact anthropometry system [J]. Journal of Textile Research,2004,25(2):98-99.
[2]匡才遠(yuǎn),劉國聯(lián).非接觸人體測量技術(shù)研究進(jìn)展及其應(yīng)用[J].國外絲綢,2008(6):23-31.KUANG Caiyuan,LIU Guolian.Research and application of non-contact anthropometry technology[J]. Silk Textile Technology Overseas,2008(6):23-31.
[3]黃秀麗,基于數(shù)字圖像的青年女體測量系統(tǒng)研究[D].蘇州:蘇州大學(xué),2009:89-93.HUANG Xiuli.Body Measurement System of Young Female Based on Digital Figures[D].Suzhou:Soochow University,2009:89-93.
[4]陳國旗.基于數(shù)字圖像的青年男體二維非接觸測量系統(tǒng)研究[D].蘇州:蘇州大學(xué),2011:45-46.CHEN Guoqi.2D Non-Contact Measurement System of Young Male Based on Digital Figures[D].Suzhou:Soochow University,2011:45-46.
[5]KAYA M D,HASILOGLU A S,MAHMUT B.A new approach to estimate anthropometric measurements by adaptive neuron fuzzy inferencesystem[J].International Journal of Industrial Ergonomics,2003(32):105-114.
[6]彭榮華,鐘約先,張吳明.人體三維無接觸測量系統(tǒng)的研究[J].計量技術(shù),2004(2):36-38.PENG Ronghua, ZHONG Yuexian, ZHANG Wuming.Research on 3D non-contact measurementsystem [J].Measurement Technique,2004:36-38.
[7]譚菲.基于數(shù)字圖像的青年女體體型及非接觸式二維測量系統(tǒng)研究[D].蘇州:蘇州大學(xué),2010:53-56.TAN Fei.Research on 2D Non-Contact Measurement System and Body Type of Young Female[D].Suzhou:Soochow University,2010:53-56.