陳 雋,李 洋,臧 笛
(1.同濟大學土木工程學院,上海200092;2.同濟大學土木工程防災國家重點實驗室,上海200092;3.同濟大學電子與信息工程學院,上海201804)
荷載指施加在建筑物上使其產(chǎn)生效應的各種直接作用,包括恒荷載、樓面活荷載、屋面活荷載、屋面積灰荷載、車輛荷載、吊車荷載以及地震、風、雪、波浪荷載等[1]。荷載取值的可靠性既是擬建結構安全設計的關鍵,也是已建結構性能評估的依據(jù)。以建筑物樓面活荷載為例,若將其標準值推斷過大,勢必增大建造工作量,造成人力、物力的浪費;若將其標準值推斷過小,則會降低結構的可靠度,導致結構安全性能不足。因此,活荷載的統(tǒng)計與建模是保證建筑結構可靠度的基礎性工作。
大量實測數(shù)據(jù)是建筑物活荷載建模的基礎。我國建國后至今6次荷載規(guī)范修訂均采用人工現(xiàn)場抽樣稱重的調查方式。受人力、時間成本的限制以及大件物品現(xiàn)場稱重的困難,實測樣本的數(shù)量有限,因此數(shù)據(jù)統(tǒng)計的顯著性與荷載模型的質量嚴重受制于樣本的代表性。同時,由于入戶實測采樣工作只能階段性開展,難以及時反映社會經(jīng)濟高速發(fā)展所帶來的室內(nèi)物品(活荷載)的動態(tài)變化。因此,結構可靠度分析的3個重要基礎(荷載統(tǒng)計、結構力學分析與結構抗力分析)中,荷載統(tǒng)計仍是最薄弱的[2]。建筑物活荷載的研究急待通過范式的轉變,突破樣本數(shù)量、人力成本、現(xiàn)場稱重、時效性差等關鍵難題。
20世紀后期,隨著具有采集和存儲功能的電子設備的全方位普及,各類電子數(shù)據(jù)資源正在以超出想象的速度累積。2011年,《Science》雜志文章指出[3],“整個人類文明迄今所獲得的全部數(shù)據(jù)中,有90%是在過去2年內(nèi)產(chǎn)生”,同時預測,到2020年全世界所產(chǎn)生的數(shù)據(jù)規(guī)模將達到當時的44倍。這一看似大膽的預測仍然低估了數(shù)據(jù)累積的速度:僅2015年一年人類就創(chuàng)造了4.4ZB的數(shù)據(jù)[4]。在當下萬物互聯(lián)的大數(shù)據(jù)時代背景下,物理世界的真實物體(如建筑物內(nèi)的家具、電器設備等)會以各種數(shù)字化形式(如照片、視頻、商品名、物流單據(jù)、商品二維碼等)映射存在不同的數(shù)據(jù)網(wǎng)絡中。通過對全面數(shù)據(jù)資源的深度挖掘來獲得各類物體的重量信息,有望實現(xiàn)在不抽樣稱重的前提下獲得建筑內(nèi)的實際活荷載分布,建立可反映物品動態(tài)變化的活荷載模型。
為此,在對我國荷載規(guī)范及其研究方法簡要回顧的基礎上,提出基于大數(shù)據(jù)技術的建筑物持久活荷載研究的新方式,詳述實施步驟和涉及到的分析技術,并進行實例應用。
自建國以來,我國的建筑結構荷載規(guī)范共經(jīng)歷了9次修改和完善(圖1),包括2次大規(guī)模全國性的荷載調查統(tǒng)計工作,研究手段以抽樣調查、統(tǒng)計回歸為主,相關成果主要體現(xiàn)在各版荷載規(guī)范中[5]。
圖1 荷載規(guī)范的演變Fig.1 Evolution of design load codes
我國荷載規(guī)范最初2個版本均參考前蘇聯(lián)荷載規(guī)范制訂。1954年的《荷載暫行規(guī)范》(結規(guī)1—1954),主要內(nèi)容包括四部分:基本規(guī)定、使用荷載、雪荷載以及風荷載[1]。4年后,結合我國實際國情頒布了修訂版《荷載暫行規(guī)范》(結規(guī)1—1958),增加了荷載組合、超載系數(shù)等內(nèi)容,同時修改了最大雪深和最大風壓分布圖。
20世紀60年代末到70年代初,我國開展了第一次全國荷載調查,調查內(nèi)容包括樓面荷載、吊車荷載、風荷載和雪荷載。以樓面荷載為例,當時曾對北京、蘭州、成都和廣州的606間住宅以及北京、蘭州和廣州的258間辦公室內(nèi)的實際荷載進行了現(xiàn)場實測[6]。盡管受條件限制,當時調查的城市和樣本數(shù)量有限,但該次調查建立了我國荷載研究的早期數(shù)據(jù)基礎,使得荷載規(guī)范的整體水平向前邁進了一大步,具有重要的歷史意義。結合第一次荷載調查的結果,修訂編制了1974版《工業(yè)與民用建筑結構荷載規(guī)范》(TJ 9—1974)。該規(guī)范統(tǒng)一了荷載取值標準,調整了荷載組合方法,其中樓面活荷載則未作太大修訂,基本保持原有荷載取值標準。
20世紀70年代末到80年代初,結合建筑可靠度和荷載組合課題的研究任務,在全國六大區(qū)開展了第二次荷載調查,重點調查住宅和辦公樓的樓面活荷載。共調查了10個城市的566間住宅,總面積為7 014m2,以及25個城市的2 201間辦公室,總面積為63 700m2。為了簡化調查工作,直接采用房間面積平均荷載來代替等效均布荷載。在此基礎上,隨后頒布了1987版《建筑結構荷載規(guī)范》(GB5J1—1987),改進了荷載效應組合方法,增列了荷載分項系數(shù),在活荷載統(tǒng)計、可靠度設計方法等方面有很大的進步,但是對住宅辦公樓樓面活荷載取值標準沒有系統(tǒng)性提高。
21世紀初,結合建筑工程界對結構可靠度標準的深入討論,面向適當提高結構可靠度的需求,修訂并頒布了《建筑結構荷載規(guī)范》(GB50009—2001)。該版本整體提升了荷載取值水準和建筑結構可靠度,將基本風壓和雪壓的重現(xiàn)期由30年調整到50年;增加了以永久荷載為主的荷載效應組合;對樓面活荷載作部分的調整和增項,將住宅辦公類建筑樓面活荷載最小標準值由1.5kN·m-2提高到2.0kN·m-2。2009年住房和城鄉(xiāng)建設部啟動了新規(guī)范的修訂計劃,并于2012年頒布了《建筑結構荷載規(guī)范》(GB50009—2012)。現(xiàn)行規(guī)范擴充了荷載規(guī)范的范圍,在作用中增加了間接作用;填補了建筑結構設計全國基本氣溫數(shù)據(jù)的空白。在樓面活荷載方面,只是對個別活荷載做了提高,如將教室、浴室、衛(wèi)生間由2.0kN·m-2增加到2.5kN·m-2。
荷載規(guī)范的每次調整都與當時的經(jīng)濟發(fā)展和認識水平的提高相適應。各版規(guī)范的主要變化、數(shù)據(jù)基礎和調查方法如表1所示。從荷載規(guī)范的演變歷程可見,住宅、辦公樓樓面活荷載取值只在2001年調整過,最小標準值在1.5 kN·m-2的基礎上直接提升了33%。現(xiàn)行《建筑結構荷載規(guī)范》(GB50009—2012)所依據(jù)的核心數(shù)據(jù)基礎仍然是1977—1981年的調查結果。伴隨社會經(jīng)濟持續(xù)高速發(fā)展,當前住宅和辦公樓的設計理念、功能設置與室內(nèi)用品等,與二三十年前相比都有了巨大的變化(圖2)。顯然,荷載的調查方法也需要不斷更新、提升。
表1 荷載規(guī)范變化Tab.1 Changes of load codes
圖2 住宅室內(nèi)物品對比Fig.2 Comparison of residential interior items
大數(shù)據(jù)方法是當前科學和技術領域的前沿,其應用和推廣已上升到了國家戰(zhàn)略的高度,為各學科的研究帶來了新的發(fā)展機遇[7]。建筑物活荷載大數(shù)據(jù)調查方法基本思想是:建筑物室內(nèi)的物體會以多種數(shù)字形態(tài)(特征)映射于互聯(lián)網(wǎng)中,可分為直接特征與間接特征,前者指唯一標識信息如條形碼、二維碼、射頻碼、產(chǎn)品標識等,后者指非唯一標識信息,如照片、視頻等;利用物體特征對海量網(wǎng)絡數(shù)據(jù)資源進行挖掘,可獲得物體的重量信息,完成荷載調查。
具體實施步驟如下:①針對采集對象的特點,利用智能攜帶設備,綜合收集室內(nèi)物體的照片、音頻、視頻、文本等多類型信息,信息內(nèi)容需覆蓋建筑類別、房間類型、用途、面積、物品形式及數(shù)量等。②對采集到的多源、異構信息進行分類處理,采用不同的分析工具,獲取各類物體的直接特征或者間接特征。③對含有直接特征的物體,利用基于深度學習的光學字符識別(OCR)等算法進行批量識別,隨后利用網(wǎng)絡爬蟲技術自動檢索重量信息,乘以其對應的數(shù)量后得到總重量。④含有間接特征的物體,可采用深度學習中的目標檢測技術來識別,在去除背景和不相關物體影響后,在網(wǎng)絡數(shù)據(jù)庫中進行圖像檢索,結合網(wǎng)絡爬蟲技術,得到目標物體的重量信息,最后乘以相應數(shù)量得到總重量。
按照上述方案,一般場景下,一位調查者攜帶一部智能手機或一部調查專用便攜設備,即可完成持久活荷載調查工作,大大節(jié)省了成本和提高了效率。
由于大數(shù)據(jù)固有的多源異構特點,以上調查過程所采集到的信息類型豐富,需要綜合采用多種數(shù)據(jù)處理技術進行特征提取,主要包括:語音識別、文本識別、圖像識別、圖像檢索等。
2.2.1 直接特征物體的重量獲取
辦公室內(nèi)常見的電腦、飲水機、打印機和顯示器等物品一般都具有二維碼、產(chǎn)品標識、條形碼等唯一識別碼(圖3)。拍攝物體的直接特征圖片后,利用智能手機及各類電商網(wǎng)站的數(shù)據(jù)支持,可迅速便捷地獲得各物體的重量。
圖3 物品關鍵特征Fig.3 Key features of objects
由此方法獲得的某一辦公室各類常見物品的重量和實際稱重的對比見表2。由表2可見,基于直接特征獲得的總重量(560.0N)比實際稱量的總重量(549.0N)略高約2%。
2.2.2 間接特征物體的重量獲取
對于不包含直接特征的物體,如室內(nèi)家具書桌、椅子等,采用基于深度學習的YOLOv3算法[8]來檢測圖片中的物體 。 YOLOv3 是 在 YOLO[9]和YOLO9000[10]目標檢測算法基礎上改進的深度模型,共包括252層神經(jīng)網(wǎng)絡層。
表2 重量(直接特征)對比Tab.2 Weight comparison(direct feature)
與2階段目標檢測算法R-CNN系列[11-13]相比,YOLO系列將目標檢測問題整體視為回歸問題,同時得出目標位置和物體分類,實現(xiàn)端到端訓練和檢測,極大地提高了檢測速度。并且,YOLOv3采用多尺度預測和Darknet-53特征提取器[8]以及適用于多標簽分類的Logistic回歸,在保證實時檢測速度的情況下,進一步提高了檢測精度。YOLOv3檢測過程如圖4所示,分為訓練和預測2個部分,依據(jù)損失函數(shù)對各層網(wǎng)絡權重參數(shù)進行優(yōu)化,訓練結束后即可利用最優(yōu)權重參數(shù)進行端到端預測。
以某會議室內(nèi)3個物體(即黑色椅子、藍色椅子、小桌子)為例,利用智能手機拍攝3個物體共2 457張照片并進行標注處理,標注示例如圖5。將標注數(shù)據(jù)集按照4:1的比例分為訓練集和驗證集。
圖4 YOLOv3檢測過程Fig.4 Detecting process of YOLOv3
圖5 數(shù)據(jù)集標注示例Fig.5 Example of object annotation in dataset
以TensorFlow[14]作為深度學習框架的后端,利用預處理后的數(shù)據(jù)集對YOLOv3進行訓練?;贑OCO數(shù)據(jù)集[15]預訓練權重的訓練可分為2個階段,第1階段凍結前185層網(wǎng)絡,只訓練底層權重參數(shù);第2階段解凍所有層,在第1階段權重參數(shù)的基礎上對252層權重參數(shù)進行微調。訓練時,每批次輸入16張圖片,隨機且不重復地從訓練集中抽取,訓練集被取完時記為一輪,2個階段共循環(huán)訓練100輪。第1階段學習率設置為0.001 0,學習率調整方法選擇自適應動量估計(Adam)算法[16];第2階段學習率設置為0.000 1,學習率調整方法同樣使用Adam算法,當驗證集損失值連續(xù)三次不下降時減少學習率,每次減少至10%,當驗證損失連續(xù)10次未下降時,則終止訓練。
訓練過程中訓練集與驗證集損失如圖6所示,虛線為模型在訓練集上的損失,實線為在驗證集上的損失??梢园l(fā)現(xiàn),在開始訓練時,訓練集和驗證集損失迅速下降,在10輪之后,損失下降平緩;到第2階段,即50輪之后,損失繼續(xù)下降,最終趨向平穩(wěn),說明目標檢測模型可根據(jù)數(shù)據(jù)集進行有效學習,并對各層網(wǎng)絡的權重參數(shù)進行了優(yōu)化。
圖6 訓練集與驗證集損失Fig.6 Loss of training set and verification set
利用最終的模型權重參數(shù),將物體置信度閾值設為0.3,交并比(IoU)閾值設置為0.45,即可對3個物體進行識別。目標檢測模型的識別效果如圖7。輸入一張新圖片,模型對圖片中目標物進行分類,同時標注出物體在圖片中位置,識別精度令人滿意。
圖7 目標檢測結果Fig.7 Result of object detection
在目標檢測的基礎上,編寫了網(wǎng)絡爬蟲腳本程序將截取的目標物體圖片自動上傳到某電商數(shù)據(jù)庫,與其中的商品進行圖像匹配,并抓取檢索出的物品詳情。以黑色椅子為例,匹配的結果圖像與相應的產(chǎn)品參數(shù)如圖8所示,可發(fā)現(xiàn)匹配圖像中的椅子與原黑色椅子相似度很高,匹配效果較好。
圖8 黑色椅子匹配結果Fig.8 Matching result of black chair
結合目標檢測與網(wǎng)絡爬蟲技術,最終獲得3個目標物體的重量信息。表3列出物體基于目標檢測方法獲得的重量和直接稱量獲得的重量,由此可見,3個物品的重量相差不大。
表3 重量(間接特征)對比Tab.3 Weight comparison(indirect feature)
綜合利用前述方法進行了某辦公樓內(nèi)一間會議室的荷載調查,會議室標稱使用面積為41.0m2,室內(nèi)包含多個物體,整體情況如圖9所示。
現(xiàn)場調查由一位測試者攜帶一部智能手機(iPhone XS Max)完成。首先利用手機中“測距儀”(內(nèi)置App)測量出室內(nèi)長為6.3m、寬為6.2m,從而得到實測面積為39.1m2。
對具有直接特征的飲水機,直接拍取其產(chǎn)品標識;對于不包含直接特征的椅子(2種)、桌子和講臺,拍取若干張圖片進行目標檢測;對于各物體的數(shù)量,采用語音的方式記錄。至此,信息采集工作完畢。
圖9 會議室場景Fig.9 Indoor scene of meeting room
對于采集到的信息,采用不同技術進行特征提取。對于飲水機產(chǎn)品標識,得到品牌和型號后,結合爬蟲和官方網(wǎng)站自動獲取重量信息。對于椅子、桌子和講臺,由于無直接特征,先用YOLOv3算法進行目標檢測,識別結果如圖10。截取目標物體,去除背景和其他物體影響,利用網(wǎng)絡爬蟲,在電商網(wǎng)站數(shù)據(jù)支持下,得到各物體重量。對于記錄各物體數(shù)量信息的語音,幅值歸一化后,音頻波形如圖11所示,語音識別結果為“調查開始!房間中有桌子6張,講臺1個,小椅子14把,椅子13把,飲水機1個”。
圖10 會議室檢測結果Fig.10 Detecting result of meeting room
會議室活荷載信息以及獲取方式如表4所示。對于室內(nèi)物品總重量,數(shù)據(jù)檢索結果為5400.0N,實測結果為5 213.0N;室內(nèi)單位面積持久性活荷載數(shù)據(jù)檢索結果為138.1 N·m-2,實測結果為127.1 N·m-2。基于大數(shù)據(jù)獲得的單位面積上的持久活荷載比實際稱重結果偏高8.7%,綜合考慮時間與人力成本的顯著差異,新方法的調查結果可以接受。
圖11 調查語音波形Fig.11 Waveform of speech
荷載取值是結構設計的基石,也是當前研究的薄弱環(huán)節(jié),關鍵的難題是現(xiàn)場稱重的傳統(tǒng)調查方式所帶來的成本高、時效性差、樣本少、代表性弱等問題。互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、大數(shù)據(jù)和深度學習方法的迅猛發(fā)展形成了荷載調查研究方法創(chuàng)新的數(shù)據(jù)基礎和計算分析手段,鑒于此,本文嘗試提出了大數(shù)據(jù)支撐下的建筑物活荷載調查的新方法,綜合利用照片、語音、文本、手機測量、人機結合等各種前端信息獲取方式,得到各類物品的直接或間接特征,再結合網(wǎng)絡大數(shù)據(jù)和網(wǎng)絡爬蟲技術,最終得到各種物品的重量。以典型小型會議室的實例分析表明,所建議的方法具有可行性,可以在不進行現(xiàn)場稱重的前提下獲得具有較好精度的重量結果,成本低而效率高。
通過單個物品及布置較簡單的會議室為例說明大數(shù)據(jù)荷載調查方法的可行性,過程存如下問題。
(1)建筑物室內(nèi)物品種類繁多。無論采用直接特征(需要對應于不同類型的直接特征處理器)還是間接特征(需要對應于每一類物品的深度神經(jīng)網(wǎng)絡),都需前端信息采集手段進一步豐富。對此,搭載了具有AI芯片的前端智能硬件設備,因已集成了圖像分析、物品分類、語音識別、文字識別等功能,有望用來解決此問題。
(2)視覺不可見物品的重量信息推測技術。建筑物室內(nèi)存在大量視覺不可見的隱藏物品(比如柜子內(nèi)部各種物品),需結合非圖像處理技術來預測實際重量。通過大量樣本深度學習,建立物體特征量(如長、寬等)與其重量的相關關系有望解決此問題,類似工作已經(jīng)在橋梁車輛荷載預測中取得進展[17]。
(3)由于大數(shù)據(jù)固有的低價值特征,網(wǎng)絡數(shù)據(jù)資源雖然數(shù)量巨大,但是信息紛雜。文中的例子主要依賴于各類網(wǎng)絡電商的開放數(shù)據(jù)庫資源,難以包含所有室內(nèi)常見物體的重量信息。因此,物品重量數(shù)據(jù)源的確定亦需繼續(xù)探索,必要時甚至需要構建專用的建筑物物品重量數(shù)據(jù)庫。
表4 會議室活荷載調查方法與結果對比Tab.4 Comparison of live load survey methods and results in meeting room
盡管存在諸多的限制,可以預見的是,伴隨互聯(lián)網(wǎng)與物聯(lián)網(wǎng)的深度融合,各類前端智能硬件的大量涌現(xiàn)、海量數(shù)據(jù)的高速累積及網(wǎng)絡計算力的快速提升,建筑物活荷載的大數(shù)據(jù)調查技術將迅速實用化。