楊必勝,魏 征,李清泉,毛慶洲
1.武漢大學測繪遙感信息工程國家重點實驗室,湖北武漢430079;2.武漢大學時空數(shù)據(jù)智能獲取技術與應用教育部工程研究中心,湖北武漢430079
面向車載激光掃描點云快速分類的點云特征圖像生成方法
楊必勝1,2,魏 征1,2,李清泉1,2,毛慶洲1,2
1.武漢大學測繪遙感信息工程國家重點實驗室,湖北武漢430079;2.武漢大學時空數(shù)據(jù)智能獲取技術與應用教育部工程研究中心,湖北武漢430079
以車載激光點云數(shù)據(jù)為研究對象,提出一種適合于其快速分類與目標提取的點云特征圖像生成方法。首先將掃描區(qū)域進行平面規(guī)則格網(wǎng)投影,通過分析格網(wǎng)內(nèi)部點云的空間分布特征(平面距離、高程差異、點密集程度等)確定激光掃描點的定權,從而生成車載激光掃描點云的特征圖像。利用生成的點云特征圖像,可采用閾值分割、輪廓提取與跟蹤等手段提取圖像分割的建筑物目標的邊界,從而確定邊界內(nèi)部點云數(shù)據(jù),實現(xiàn)目標分類與提取。本文以Optech公司的車載激光掃描數(shù)據(jù)為試驗對象,驗證本文提出方法的可行性和實用性。
車載激光掃描;數(shù)據(jù)分類;目標提取;圖像分割
三維掃描技術起源于20世紀80年代,在獲取空間信息方面提供了一種全新的技術手段,使傳統(tǒng)的單點采集數(shù)據(jù)變?yōu)檫B續(xù)自動獲取數(shù)據(jù),且激光掃描儀能夠直接獲取被測目標表面點云的三維空間坐標,具有采樣密度高、點云分布密集等特點,其已被廣泛地運用于文物保護、三維重建、數(shù)字地面模型生產(chǎn)、城市規(guī)劃等領域。
機載激光掃描數(shù)據(jù)在DEM生成、建筑物頂部重建等方面的處理技術已相對成熟[1-6]。但機載激光掃描只能獲取地物的頂部數(shù)據(jù),缺乏立面的細節(jié)信息(如建筑物墻面)。近年來,以車輛為搭載平臺,集成 GPS、INS、激光掃描儀、CCD相機等多種傳感器,在傳感器同步控制的基礎上實現(xiàn)道路以及道路兩側建筑物、樹木等地物的表面數(shù)據(jù)的快速獲取已成為國際上研究的熱點。國際攝影測量與遙感協(xié)會已開設多個專題組從事這方面的研究與討論。國內(nèi)外的研究機構與公司也相繼推出了一些車載激光掃描系統(tǒng),如:日本東京大學空間信息科學中心研制的VLMS[7-8],3D Laser Mapping和 IGI公司合資開發(fā)的 StreetMapper系統(tǒng)[9],加拿大Optech公司的Lynx系統(tǒng)[10]。
與機載激光掃描點云數(shù)據(jù)相比,車載激光掃描點云數(shù)據(jù)中存在大量 Z平面上的點云數(shù)據(jù),如垂直于地面的一些豎直面上的點云數(shù)據(jù)。因而針對機載激光掃描數(shù)據(jù)處理的一些濾波分類算法,如基于TIN的方法不能滿足車載激光掃描數(shù)據(jù)的需求[2]。一些學者針對車載激光掃描點云數(shù)據(jù)的特點提出了相應的分類算法。文獻[8,11]根據(jù)每個斷面掃描點的點位空間分布特征對掃描點進行分類,可以將建筑物、道路和樹木等初步分離。文獻[12]通過分析斷面直方圖以及點云在 Z軸、Y軸方向投影來實現(xiàn)目標分類。但此類方法需要掃描數(shù)據(jù)的斷面信息,因而難以處理散亂的點云。李必軍等[13-14]通過投影點密度和閾值分割的方式實現(xiàn)建筑物邊界幾何特征的提取。這種方法對于平坦地區(qū)的單個對象的處理比較有效。然而,對于大范圍的車載激光掃描數(shù)據(jù)而言,由于受到地形起伏和多目標的影響,上述方法難以奏效,而且效率較低。
針對上述問題,本文提出一種面向車載激光掃描數(shù)據(jù)快速分類的點云特征圖像生成方法。該方法將掃描區(qū)域進行平面規(guī)則格網(wǎng)投影,通過分析格網(wǎng)內(nèi)部點云的空間分布特征(平面距離、高程差異、點密集程度等)生成掃描區(qū)域的點云特征圖像。進而結合圖像處理的方法對點云特征圖像進行分割和特征提取,從而實現(xiàn)點云數(shù)據(jù)的快速分類,為進一步的高精度三維重建提供可靠的數(shù)據(jù)源。
由于車載激光掃描獲取的點云數(shù)據(jù)量大,難以直接對點云的幾何數(shù)據(jù)進行分類和特征提取。針對機載激光掃描數(shù)據(jù),文獻[15]采用距離圖像進行分類、目標提取,但簡單的距離圖像并不能滿足車載近距離且包含豐富立面信息的點云分類要求。文獻[16]和文獻[17]分別將激光點云的反射強度圖像和CCD相機獲取的地面圖像與點云數(shù)據(jù)融合進行分類和特征提取。但多數(shù)情況下系統(tǒng)獲取的只有點云數(shù)據(jù),在缺少影像數(shù)據(jù)輔助的情況下從點云數(shù)據(jù)中提取幾何特征仍是一個首要的技術問題。受上述方法的啟發(fā),筆者提出一種利用散亂點云幾何數(shù)據(jù)生成能夠反映不同目標幾何屬性的特征圖像生成方法,從而可以利用影像分割、輪廓提取與幾何分析相結合的方法對散亂的點云數(shù)據(jù)進行分類和特征提取。
假設掃描區(qū)域的最大最小 X YZ坐標分別為:Xmin、Ymin、Zmin、Xmax、Ymax、Zmax,將整個點云區(qū)域投影到 XOY平面,并將其分成W×H的格網(wǎng),格網(wǎng)間隔為GSD,如圖1,則有
對于上述W×H的格網(wǎng)而言,一旦通過分析格網(wǎng)內(nèi)部點云的分布特征(平面距離、高程差異、點密集程度等)確定了每個最小單元的屬性(灰度)即可生成一幅能反映整個掃描區(qū)域點云分布特征的圖像。
圖1 格網(wǎng)示意圖Fig.1 Sketch map of grids and data points
假設落在第(i,j)個格網(wǎng)中的激光掃描點個數(shù)為 nij,格網(wǎng)(i,j)的中心點為(,,0),利用 nij個掃描點的三維坐標加權計算格網(wǎng)(i,j)的特征值 Fij,然后將其歸化到0~255之間形成格網(wǎng)(i,j)所代表的特征灰度 Gij。顯然,每個最小單元格內(nèi)的特征值受落在該單元格內(nèi)的掃描點的個數(shù)、空間分布形式(即平面距離、高程差異等)決定。掃描點距離格網(wǎng)中心點越遠則其權值越小;掃描點的高程值越大則其權值越大。
根據(jù)以上描述,需要確定落在單元格(i,j)內(nèi)每個點(如:第 k個點,0 根據(jù)上述定義的掃描點的權值公式,通過設定不同的α、β值,可以計算出格網(wǎng)(i,j)的特征值,其描述為 最后將格網(wǎng)特征值 Fij歸化到0~255灰度空間即可得到格網(wǎng)對應的點云特征圖像的像素值Gij。 根據(jù)點云特征圖像的生成方法可知,點云特征圖像反映了散亂激光掃描點云的空間分布規(guī)律與地物的幾何特征,因此,可以充分利用圖像處理的一些方法,如閾值分割等,對點云特征圖像進行分割和特征提取,從而實現(xiàn)點云數(shù)據(jù)的分類以及目標提取。 進行閾值分割后的圖像中蘊含了大量的幾何地物,如建筑物、樹木等。對分割后的二值圖像進行輪廓提取以及邊界跟蹤,從而實現(xiàn)建筑物和樹木輪廓區(qū)域的邊界特征提取。一旦在點云特征圖像中找到幾何目標的邊界,即可根據(jù)點云特征圖像與幾何數(shù)據(jù)間的映射關系,實現(xiàn)幾何目標掃描數(shù)據(jù)的邊界提取。 本試驗采用Optech公司的激光掃描系統(tǒng)L YNX Mobile Mapper(該系統(tǒng)由2個激光掃描儀、2個CCD相機、Applanix POS LV 420系統(tǒng)以及操作軟件平臺構成,掃描儀視場角360°,每秒獲取100 000個掃描點數(shù)據(jù))采集的居民區(qū)掃描數(shù)據(jù),其掃描范圍大致為400 m×350 m,掃描點的密度大致為0.01~0.05 m,共8 139 716個數(shù)據(jù)點。 為了分析格網(wǎng)采樣間距以及α、β值對特征圖像生成結果的影響,分別采用0.5 m、0.25 m的格網(wǎng)采樣間隔進行試驗,并對兩種不同采樣間隔下的α、β值分別進行調(diào)整,最后各自生成5組不同α、β值的點云特征圖像。對不同采樣間隔下的5種圖像進行差值相關性分析,即可定量分析不同的α、β值對點云特征圖像生成的影響,從而確定最佳的α、β值保證生成的圖像能最優(yōu)地體現(xiàn)不同地物目標的特性,進而為點云的快速分類奠定基礎。同時,對基于本文算法提取建筑物的結果與投影點密度(DoPP)算法提取的結果進行了比較。 根據(jù)式(1)可知,點云特征圖像的生成需要特征圖像的分辨率,即格網(wǎng)的大小。由于掃描點云的密度在0.01~0.05 m之間,同時為了保證落入格網(wǎng)內(nèi)部的點數(shù)不至于太少(>10),確定格網(wǎng)采樣間距采用0.25 m和0.5 m兩種進行試驗。針對不同的采樣間隔將α值分別設為0.0、0.2、0.5、0.8、1.0,相應的β值分別為1.0、0.8、0.5、0.2、0.0,從而生成兩種采樣間隔下各5幅圖像。從生成的特征圖像(為了顯示不同圖像的優(yōu)劣,對生成的圖像局部顯示)(圖2(a)中左列圖像 GSD為0.5 m,右列GSD為0.25 m,自上向下α依次為0.0、0.2、0.5、0.8、1.0;圖2(b)為選取的5幅圖像中的一幅)中可以看出,兩種采樣間隔下沒有點數(shù)據(jù)的格網(wǎng)像素灰度均為0(采用背景色藍色表示),包含道路數(shù)據(jù)的格網(wǎng)像素灰度較低,而包含建筑物和樹木以及電線數(shù)據(jù)的格網(wǎng)像素灰度較高,且圖像較好地保持了建筑物、樹木等的邊界特征以及建筑物部分頂面信息,而且可以看出格網(wǎng)分辨率較高時(GSD較小)不同地物類型間的邊界差異較明顯。 顯然,在點密集程度滿足要求的條件下,格網(wǎng)間距越小,生成的圖像分辨率就越高,細節(jié)表現(xiàn)得也越明顯。另外,在(α=0.0,β=1.0)的條件下生成的圖像因算法的特點很好地表現(xiàn)了電力線等細節(jié),在(α=1.0,β=0.0)的條件下生成的圖像卻抑制了電力線目標。因此,可以根據(jù)不同α、β值生成的圖像效果有針對性地選擇合適的α、β值來進行特定目標的提取(如電力線)。α、β值的選取依賴于感興趣的目標特征,在需要提取電力線或者建筑物頂面數(shù)據(jù)的時候,可以選擇α相對較小,β值相對較大的參數(shù)設置,這樣有助于體現(xiàn)格網(wǎng)內(nèi)部電力線或者建筑物頂面數(shù)據(jù)量少但高程相對較高的特征。 圖2 本文算法得到的點云特征圖像Fig.2 Feature image generated by the proposed algorithm 針對以上不同格網(wǎng)間隔生成的各5種圖像(圖2),通過統(tǒng)計同一格網(wǎng)間隔下任意兩種圖像之間灰度變化的像素總數(shù)Nchanged以及這些像素的灰度變化率之和∑ratio來計算不同α、β條件下生成的特征圖像之間的相關系數(shù)ρ(1-ρ=∑ratio/ Nchanged)。圖3(a)、圖3(b)分別為0.5 m、0.25 m格網(wǎng)間隔的5幅圖像之間的相關差異(1-ρ)。圖中橫軸1、2、3、4、5分別代表(α=0,β=1)、(α=0.2,β =0.8)、(α=0.5,β=0.5)、(α=0.8,β=0.2)、(α= 1,β=0)5種α、β值生成的圖像,縱軸為相關差異系數(shù)值(1-ρ)。根據(jù)式(3),圖2(a)第一行的左右兩幅圖像(不同GSD)因其α=0,可以理解成只考慮高程差異生成的點云特征圖像,而圖2(a)最后一行的左右兩幅圖像因其β=0可以理解成只考慮平面距離而生成的點云特征圖像。 圖3中各個圖例的折線圖代表各個圖像與圖像1~5之間的相關差異,其中星號標識表示圖像1與2、2與3、3與4、4與5之間的相關差異。通過星號標識的走向可以得知,在格網(wǎng)間隔一定時相鄰圖像之間的差異呈遞減趨勢,說明隨著α值的增大,生成的圖像之間的差異越小,相關性越大,即在權值計算過程中占主導地位的是高程差異因素而非平面距離因素。另外,比較圖3(a)和圖3(b)的數(shù)據(jù)可知,格網(wǎng)間距較小時,相鄰兩個圖像之間的變化差異也較小,同時任一圖像與其他圖像之間的差異在同樣α、β條件下也較小。這說明,在一定條件下(點云密集程度滿足要求)格網(wǎng)間距越小,本算法生成的圖像受α、β的影響也越小。從圖3的折線圖中可以得知,α=0.2、β=0.8代表的圖像2與其他α、β值代表的圖像1(α=0,β=1)、3(α=0.5,β =0.5)、4(α=0.8,β=0.2)、5(α=1,β=0)之間的相關差異對比其他圖例來說更加穩(wěn)定,考慮到生成圖像對細節(jié)的表達(電力線),α=0.2、β=0.8是總體上相對較優(yōu)的一種參數(shù)設置。 圖3 不同圖像之間的相關差異系數(shù)Fig.3 Mutual correlation difference for 5 images with differentGSD 本文采用Ostu閾值分析法對特征圖像首先進行二值分割(計算類間方差自動分析閾值),分離出地面與非地面(建筑物和樹木),然后對分割圖像進行輪廓提取、跟蹤得到每個非地面目標的輪廓邊界,利用該邊界反算提取對應格網(wǎng)中的點云數(shù)據(jù),從而實現(xiàn)目標提取。試驗采用0.5 m格網(wǎng)間距且α=0.2、β=0.8生成的點云特征圖像進行建筑物提取,其結果如圖4(a)。采用投影點密度(DoPP)算法(0.5 m格網(wǎng)間距,閾值 T=300)進行建筑物提取的結果如圖4(b)。 圖4 本文算法與DoPP算法結果比較圖Fig.4 Comparison between the proposed algorithm(a)and the DoPP algorithm(b) 對試驗區(qū)域的53個目標(50個建筑物,3個樹木目標)進行提取,從圖4中可以看出,相對于DoPP算法,盡管DoPP算法計算簡單,耗時短,但本文算法提取的建筑物信息更加完整,包含了頂面信息以及部分窗戶的掃描數(shù)據(jù),因此提取的建筑物數(shù)據(jù)能更好地用于建筑物框架提取以及立面細節(jié)(窗戶、門)建模。此外,DoPP算法更適用于包含單個建筑物的點云數(shù)據(jù),對于大范圍多目標的建筑物提取,其閾值將難以設定。 表1 本文方法的處理效率Tab.1 Time performance of the proposed approach 本文提出的方法在處理數(shù)據(jù)時(不考慮數(shù)據(jù)讀入所需的時間),主要耗時在點云特征圖像的生成以及目標點云數(shù)據(jù)的提取上,而圖像處理部分的耗時可以忽略不計。本文在CPU頻率1.24 GHz,內(nèi)存768 MB的XP系統(tǒng)下對上述數(shù)據(jù)(8 139 716個點)進行試驗得到如表1中的數(shù)據(jù)。從表中可以看到,特征圖像生成耗費的時間不到14 s,一個目標的提取僅耗費平均2 s的時間,表明本文提出的方法能較大程度提高數(shù)據(jù)分類和目標提取的效率。圖5為提取的樹木之一。 圖5 本文算法提取的樹木Fig.5 Extracted tree by the proposed algorithm 本文以車載激光散亂點云數(shù)據(jù)為研究對象,提出一種適合于其快速分類與目標提取的點云特征圖像生成方法。首先將掃描區(qū)域進行平面規(guī)則格網(wǎng)投影,通過分析格網(wǎng)內(nèi)部點云的空間分布特征(平面距離、高程差異、點密集程度等)確定激光掃描點的定權,從而生成車載激光掃描點云的特征圖像。利用生成的點云特征圖像,可采用閾值分割、輪廓提取與跟蹤等手段提取圖像分割的建筑物目標的邊界,從而確定邊界內(nèi)部點云數(shù)據(jù),實現(xiàn)目標分類與提取。本文提出的方法將三維散亂點云數(shù)據(jù)的處理轉化為二維圖像進行處理,避免了大量的幾何計算,而且可以充分借鑒圖像處理的一些方法,很大程度上提高了數(shù)據(jù)處理的效率,從而能夠實現(xiàn)散亂點云的快速分類。 對Optech公司的掃描數(shù)據(jù)進行試驗的結果表明,因顧及了格網(wǎng)內(nèi)部點云之間的平面距離和高程差異,本文的方法較之DoPP算法更能有效地提取完整的建筑物信息(包括頂面和立面窗戶數(shù)據(jù)),為后續(xù)的目標建模提供可靠的數(shù)據(jù)源。不同格網(wǎng)間隔以及不同α、β值的試驗表明,生成的特征圖像能從灰度上很好地體現(xiàn)地面數(shù)據(jù)和非地面數(shù)據(jù),同時由于考慮了格網(wǎng)內(nèi)部最低點高程與最高點高程以及區(qū)域的最低最高點高程之間的差異,使得地形起伏對算法結果的影響相對于僅考慮絕對高程的情況有所降低,因而本文算法在一定程度上不受地形起伏的影響,這為下一步的閾值分割和目標分類做了很好的數(shù)據(jù)準備。對不同參數(shù)產(chǎn)生的圖像的相關性分析表明,高程差異因素始終是算法中權值計算的主導,而非平面距離以及格網(wǎng)內(nèi)點數(shù),這也證實了基于DoPP方法提取特征的不足。同時,不同的參數(shù)設置會使得生成的特征圖像對同一目標產(chǎn)生突出表達或者抑制表達的效果,這也證實了本文算法應用于大范圍掃描場景點云數(shù)據(jù)的快速分類和目標提取的可行性和實用性。例如,電力線的提取可以采用較小格網(wǎng)采樣間隔以及較小的α值生成的圖像進行處理,而建筑物和樹木的提取則可采用較大的α值生成的圖像進行處理。 [1] KRAUS K,PFEIFER N.Determination of Terrain Models in Wooded Areas with Airborne Laser Scanner Data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 1998,53(4):193-203. [2] AXELSSON P.DEM Generation from Laser Scanner Data Using Adaptive TIN Models[C]∥International Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences.33(B4),Amsterdam:ISPRS,2000:110-117. [3] SITHOLE G,VOSSELMAN G.Experimental Comparison of Filter Algorithms for Bare-earth Extraction from Airborne Laser Scanning Point Clouds[J].ISPRSJournal of Photogrammetry and Remote Sensing,2004,59(1-2):85-101. [4] MAAS H G,VOSSELMAN G.Two Algorithms for Extracting Building Models from Raw Laser Altimetry Data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 1999,54(2-3):153-163. [5] HAALA N,BRENNER C.Extraction of Buildings and Trees in Urban Environments[J].ISPRSJournal of Photogrammetry and Remote Sensing,1999,54(2-3):130-137. [6] OVERBYJ,BODUM L,KJ EMS E,et al.Automatic 3D Building Reconstruction from Airborne Laser Scanning and Cadastral Data Using Hough Transform[C]∥International Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences,35(B3).Istanbul:ISPRS,2004: 296-301. [7] ZHAO H,SHIBASAKI R.Updating Digital Geographic Database Using Vehicle-borne Laser Scanners and Line Cameras[C]∥International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences,35(B3). Istanbul:ISPRS,2004:111-119. [8] MANANDHAR D,SHIBASAKI R.Auto-extraction of Urban Features from Vehicle-borne Laser Data[C]∥International Archives ofPhotogrammetry,Remote Sensing and Spatial Information Sciences,34(4).Ottawa:ISPRS,2002. [9] STREETMAPPER.Street Mapper:Mobile Laser Mapping [EB/OL].[2009-05-23].http:∥www.streetmapper.net. [10] LYNX.LYNX Mobile Mapper[EB/OL].[2009-10-16]. http:∥www.optech.ca/press_L YNX_release.htm. [11] MANANDHAR D,SHIBASAKI R.Vehicle-borne Laser Mapping System(VLMS)for 3-D GIS[C]∥Geoscience and Remote Sensing Symposium.Sydney:IEEE,2001: 2073-2075. [12] ABUHADROUS I,AMMOUN S,NASHASHIBI F,et al.Digitizing and 3D Modeling of Urban Environments and Roads Using Vehicle-borne Laser Scanner System[C]∥IEEE/RSJ InternationalConferenceon Intelligent Robots and Systems.Sendai:IEEE,2004,76-81. [13] LI Bijun,FANG Zhixiang,REN Juan.Extraction of Building’s Feature from Laser Scanning Data[J]. Geomatics and Information Science of Wuhan University, 2003,28(1):65-70.(李必軍,方志祥,任娟.從激光掃描數(shù)據(jù)中進行建筑物特征提取研究[J].武漢大學學報:信息科學版,2003,28(1):65-70.) [14] LI B J,LI Q Q,SHI W Z,et al.Feature Extraction and Modeling of Urban Building from Vehicle-borne Laser Scanning Data[C]∥International Archives of the Photogrammetry,Remote Sensing and SpatialInformation Sciences,35(B3).Istanbul:ISPRS,2004:934-939. [15] BROVELLI M A,CANNATA M.Digital Terrain Model Reconstruction in Urban Areas from Airborne Laser Scanning Data:the Method and the Example of the Town of Pavia (Northern Italy)[J].Computers&Geosciences,2004, 30(4):325-331. [16] UMEDA K,IKUSHIMA K,ARAI T.3D Shape Recognition by Distributed Sensing of Range Images and Intensity Images [C]∥Proceedings of the 1997 IEEE International Conference on Robotics and Automation.Albuquerque:IEEE, 1997:149-154. [17] BECKER S,HAALA N.Combined Feature Extraction for Facade Reconstruction[C]∥Proceedings of the ISPRS Workshop‘Laser Scanning 2007 and Silvi Laser 2007’. Espoo:ISPRS,2007:44-49. [18] OSTU N.A Threshold Selection Method from Gray Level Histogram[J].IEEE Trans on Systems,Man and Cybernetics,1979(1):62-66. (責任編輯:叢樹平) A Classification-oriented Method of Feature Image Generation for Vehicle-borne Laser Scanning Point Clouds Y ANGBisheng1,2,WEI Zheng1,2,LI Qingquan1,2,MAO Qingzhou1,2 An efficient method of feature image generation of point clouds to automatically classify dense point clouds into different categories is proposed,such as terrain points,building points.The method first uses planar projection to sort points into different grids,then calculates the weights and feature values of grids according to the distribution of laser scanning points,and finally generates the feature image of point clouds.Thus,the proposed method adopts contour extraction and tracing means to extract the boundaries and point clouds of man-made objects(e.g.buildings and trees)in 3D based on the image generated.Experiments show that the proposed method provides a promising solution for classifying and extracting man-made objects from vehicle-borne laser scanning point clouds. vehicle-borne laser scanning;data classification;object extraction;image segmentation YANG Bisheng(1974—),male,PhD, professor,PhD supervisor,majorsin LiDAR data processing and 3D modeling,multi-resolution representation and progressive transmission of spatial data, spatial-temporal data analysis. E-mail:bshyang@whu.edu.cn 1001-1595(2010)05-0540-06 P208 A 國家自然科學基金(40871185);教育部新世紀優(yōu)秀人才支持項目(NCET-07-0643);對地觀測技術國家測繪局重點實驗室經(jīng)費;測繪遙感信息工程國家重點實驗室專項科研經(jīng)費 2009-10-19 2010-03-17 楊必勝(1974—),男,教授,博士生導師,研究方向為激光雷達數(shù)據(jù)處理與三維重建,空間數(shù)據(jù)多尺度表達與網(wǎng)絡漸進傳輸,時空分析。2.2 基于點云特征圖像的車載點云分類與目標提取
3 試驗結果
3.1 點云特征圖像生成
3.2 點云特征圖像相關性分析
3.3 基于本文方法與投影密度法的目標提取效果比較
3.4 效率分析
4 結論與展望
1.State Key Laboratory of Information Engineering in Surveying,Mapping and Remote Sensing,Wuhan University,Wuhan 430079, China;2.Engineering Research Center for Spatio-temporal Data Smart Acquisition and Application,Ministry of Education of China,Wuhan University,Wuhan 430079,China