張悅 劉嘉元 陳振 黃瑩 辛昊軒
摘? 要:隨著我國社會(huì)的快速發(fā)展,科學(xué)技術(shù)的日新月異,我國的服務(wù)機(jī)器人迎來發(fā)展黃金時(shí)代。機(jī)器人在越來越多的方面發(fā)揮出重要作用,人們對(duì)機(jī)器人的發(fā)展也越來越重視,因此對(duì)服務(wù)機(jī)器人的現(xiàn)狀及發(fā)展的研究具有重要意義。本文首先介紹服務(wù)機(jī)器人的應(yīng)用現(xiàn)狀及相關(guān)技術(shù),然后總結(jié)出現(xiàn)在服務(wù)機(jī)器人存在的一些問題,最后結(jié)合現(xiàn)存問題及發(fā)展前景提出新型家庭服務(wù)機(jī)器人。
關(guān)鍵詞:服務(wù)機(jī)器人;研究現(xiàn)狀;發(fā)展建議
引言
近年來,全球新一輪科技和產(chǎn)業(yè)革命的蓬勃發(fā)展,并且十九大報(bào)告明確指出,要加快建設(shè)制造強(qiáng)國,加快發(fā)展先進(jìn)制造業(yè)。而機(jī)器人被譽(yù)為“制造業(yè)皇冠頂端的明珠”,是衡量一個(gè)國家創(chuàng)新能力和產(chǎn)業(yè)競(jìng)爭(zhēng)力的重要標(biāo)志,已成為全球新一輪科技和產(chǎn)業(yè)革命的重要切入點(diǎn)。所以近年來我國機(jī)器人產(chǎn)業(yè)發(fā)展勢(shì)頭迅猛,產(chǎn)業(yè)規(guī)模與市場(chǎng)空間不斷擴(kuò)大。
1? 服務(wù)機(jī)器人技術(shù)的研究現(xiàn)狀
近年來服務(wù)機(jī)器人向著更高智能化,模塊化和網(wǎng)絡(luò)化的技術(shù)趨勢(shì)發(fā)展,在這一部分主要圍繞服務(wù)機(jī)器人導(dǎo)航,識(shí)別與人機(jī)交互技術(shù)展開進(jìn)行論述。
1.1? 服務(wù)機(jī)器人導(dǎo)航技術(shù)
導(dǎo)航的基本任務(wù)有定位和路勁規(guī)劃,就是通過對(duì)周圍環(huán)境的理解進(jìn)行地圖構(gòu)建,確定自己在世界坐標(biāo)系中的位置,并且通過目標(biāo)識(shí)別和障礙物監(jiān)測(cè)規(guī)劃出到指定地點(diǎn)的行駛路徑。陸新華[1]等人對(duì)幾年來室內(nèi)服務(wù)機(jī)器人的導(dǎo)航研究進(jìn)行了綜述,介紹了導(dǎo)航系統(tǒng)的特點(diǎn),分類和工作原理,并且給出了幾種有效的導(dǎo)航數(shù)據(jù)處理,方法如勢(shì)場(chǎng)法和柵格法,增強(qiáng)的卡爾曼濾波器和神經(jīng)網(wǎng)絡(luò)等。楊娜[2]等人分析介紹了機(jī)器人定位和路徑規(guī)劃的算法和最新研究,其中定位技術(shù)有相對(duì)定位和絕對(duì)定位技術(shù),路徑規(guī)劃有在線和離線方式,具體算法有改進(jìn)的遺傳算法,神經(jīng)網(wǎng)絡(luò),蟻群算法等全局路徑規(guī)劃和向量場(chǎng)矩陣法等局部路徑規(guī)劃。宋大雷[3]針對(duì)傳統(tǒng)柵格環(huán)境建模方法雖然能準(zhǔn)確建模但其建模范圍小,實(shí)時(shí)性差,效率低等缺點(diǎn),提出了一種通用性好,可靠性高,簡(jiǎn)單易行的非柵格的環(huán)境建模方法,且在LabVIEW仿真效果良好。
1.2? 服務(wù)機(jī)器人識(shí)別技術(shù)
在導(dǎo)航過程中,機(jī)器人需要獲得物體標(biāo)識(shí)和空間信息,需要識(shí)別周圍場(chǎng)景并且躲避障礙物,或者是識(shí)別操作者身份和命令等。對(duì)人對(duì)物識(shí)別的效率和質(zhì)量會(huì)影響到機(jī)器人的對(duì)外界的正確反應(yīng)。
黃海衛(wèi)[4]等人提出了一種結(jié)合三位點(diǎn)云分割和三維全局特征匹配的實(shí)時(shí)物體識(shí)別與定位系統(tǒng),采用基于聚類視點(diǎn)特征直方圖(CVFH)特征匹配方法識(shí)別目標(biāo)物體,計(jì)算其空間位置。因?yàn)閭鹘y(tǒng)經(jīng)典圖像識(shí)別和機(jī)器學(xué)習(xí)算法在復(fù)雜環(huán)境很難有突出表現(xiàn),石杰[5]等人將基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)的快速算法Faster R-CNN引入系統(tǒng),而且具有較好的檢測(cè)效果。范淇元[6]等人采用EmguCV基礎(chǔ)上對(duì)圖像進(jìn)行灰度轉(zhuǎn)換,降噪和均衡化處理的同時(shí)運(yùn)用Haar特征對(duì)圖像進(jìn)行人臉檢測(cè)處理,再通過對(duì)局部二值模式(LBP)人臉識(shí)別算法的反復(fù)實(shí)驗(yàn),修改編程設(shè)計(jì)、簡(jiǎn)化代碼并添加語音互動(dòng)系統(tǒng),實(shí)現(xiàn)了對(duì)人體臉部的特征信息進(jìn)行對(duì)比識(shí)別的技術(shù)。
2 目前服務(wù)機(jī)器人存在的問題
早在2010年,比爾蓋茨就首次提出服務(wù)機(jī)器人進(jìn)入日常家庭的設(shè)想,但其未能如預(yù)期實(shí)現(xiàn)規(guī)?;l(fā)展,究其原因,是這十年的發(fā)展并未達(dá)到實(shí)質(zhì)性突破,很多問題亟需解決。目前常見服務(wù)機(jī)器人的載體,通常有車形、仿人形、醫(yī)療機(jī)器人、無人機(jī)、掃地機(jī)器人等。家庭服務(wù)機(jī)器人的功能需求集中于做家務(wù)與情感陪護(hù)方面,就前者而言,大多數(shù)機(jī)器人對(duì)于大功率的需求但卻沒有生產(chǎn)高效動(dòng)力電池的現(xiàn)實(shí),使得它們只能完成單一任務(wù),且一般存在承重能力差、精準(zhǔn)度欠缺、感知能力弱等諸多問題,因此鮮有具有多類型家務(wù)功能的機(jī)器人,即使有如此生產(chǎn)能力的廠商,高額價(jià)格帶來的較低性價(jià)比也使得該產(chǎn)品缺乏市場(chǎng)。其次家庭機(jī)器人的移動(dòng)避障以及路徑規(guī)劃也是一大研究熱點(diǎn)。
2.1 家庭機(jī)器人在移動(dòng)避障和路徑規(guī)劃中的問題
胡慶朋[7]提出對(duì)于為了實(shí)現(xiàn)家庭機(jī)器人在室內(nèi)環(huán)境中的自由移動(dòng),大量的學(xué)者分別在障礙物檢測(cè)、室內(nèi)定位以及路徑規(guī)劃中做出了很多研究,但是仍然存在以下問題:
(1)障礙物檢測(cè)存在很多種方式,激光雷達(dá)對(duì)障礙物測(cè)距最為精確,但是存在價(jià)格過于昂貴的問題。通過紅外傳感器、超聲波傳感器以及視覺傳感器又存在容易受環(huán)境干擾,障礙物距離測(cè)量不準(zhǔn)確的問題。
(2)通過慣性傳感器以及里程計(jì)進(jìn)行室內(nèi)定位存在時(shí)間過長容易積累誤差的問題。通過標(biāo)記定位會(huì)存在對(duì)家庭環(huán)境改動(dòng)過大的問題。
(3)對(duì)于路徑規(guī)劃規(guī)劃算法很多學(xué)者進(jìn)行了改進(jìn),也取得了不錯(cuò)的效果,但是在復(fù)雜的家庭環(huán)境中,仍需提高對(duì)障礙物的隨意變化的適應(yīng)能力。
2.2 家庭機(jī)器人在情感交互中的問題
實(shí)現(xiàn)情感交互功能,依托于AI技術(shù),有三大問題需要攻克和解決,分別是情感計(jì)算、情感建模和情感識(shí)別技術(shù)[8]。情感計(jì)算通過考慮各種引發(fā)和影響情緒的人類情感信息,建立起感知和識(shí)別人類情感的計(jì)算機(jī)系統(tǒng);可獲取的人類情感信息包括外在情感信息如聲音、手勢(shì)、面部表情等和內(nèi)在情感信息如心跳、脈搏、呼吸和體溫等。情感建模是情感仿真研究的重要一環(huán),目前取得了初步研究進(jìn)展,具有代表性的模型有反映人類情感認(rèn)知、將情感刺激分為22類的OCC情感模型,融合環(huán)境數(shù)據(jù)的智能化Agent模型,通過建立與人相似的應(yīng)對(duì)策略機(jī)制指引智能體做出與人情感狀態(tài)一致的行為反應(yīng)的EMA模型[9]。在情感識(shí)別技術(shù)方面,包括基于機(jī)器視覺的面部表情識(shí)別技術(shù),通過圖像處理捕捉人類面部肌肉變化來分析人類情感及情緒;語音識(shí)別及自然語言處理技術(shù),其中創(chuàng)建豐富優(yōu)質(zhì)的情感語料數(shù)據(jù)庫和關(guān)聯(lián)情感與聲學(xué)特征問題是研究的熱點(diǎn)。
3 家庭服務(wù)機(jī)器人發(fā)展建議
目前的家庭機(jī)器人大多是清潔機(jī)器人,功能偏向單一的掃地、除塵,很少會(huì)有功能集中的情感陪護(hù)機(jī)器人。
(1)功能方面:現(xiàn)在的清潔機(jī)器人技術(shù)相對(duì)來說已經(jīng)比較成熟,會(huì)有專門的掃地機(jī)器人來進(jìn)行清潔工作,情感陪護(hù)機(jī)器人添加這方面的功能顯得有些多此一舉。所以陪護(hù)機(jī)器人的功能應(yīng)該集中在人機(jī)交互、人臉識(shí)別以及自主巡邏方面,未來的家庭機(jī)器人應(yīng)該是多功能集合的綜合體。
(2)技術(shù)方面:過去的交互機(jī)器人大多是數(shù)據(jù)封閉的,能夠回答的只有那些固定的問題,隨著現(xiàn)在互聯(lián)網(wǎng)的快速發(fā)展加上5G時(shí)代的到來,在網(wǎng)速得到保障的前提下,新一代的陪護(hù)機(jī)器人應(yīng)該與百度、谷歌、訊飛等企業(yè)合作,利用這些企業(yè)先進(jìn)的語音識(shí)別和人臉識(shí)別技術(shù),并且在云端實(shí)時(shí)更新內(nèi)容。
(3)自主導(dǎo)航方面:可以在機(jī)器人上安裝傳感器利用RFID測(cè)距,然后用粒子過濾器(PF)定位;再使用激光來建立網(wǎng)格圖確認(rèn)障礙物位置;最后使用SLAM定位和映射以及Djikstra算法確認(rèn)最短路徑。
(4)應(yīng)用方面:此類機(jī)器人一般適合家庭使用,可以是家長沒時(shí)間照顧孩子的情況,也可以是獨(dú)居老人的情況,隨著人口老齡化,相對(duì)于其他服務(wù)機(jī)器人,該類陪護(hù)機(jī)器人的市場(chǎng)潛力更大。
4 總結(jié)
伴隨著人工智能技術(shù)的不斷進(jìn)步,機(jī)器人代替人工做一些重復(fù)性的勞動(dòng)已是必然趨勢(shì)。服務(wù)機(jī)器人行業(yè)正處于迅速發(fā)展的階段,相信在不久的將來,機(jī)器人會(huì)在改善人類生活方面起著舉足輕重的作用。
參考文獻(xiàn)
[1] ?陸新華,張桂林.室內(nèi)服務(wù)機(jī)器人導(dǎo)航方法研究[J].機(jī)器人 ROBOT,2003,25(1):80-87.
[2] ?李娜,李漢舟.服務(wù)機(jī)器人導(dǎo)航技術(shù)研究進(jìn)展 [J].機(jī)電工程 Journal of Mechanical & Electrical Engineering,2015,32(12):1641-1648.
[3] ?宋大雷,孫玉楨,時(shí)永霞,周麗芹.服務(wù)機(jī)器人工作環(huán)境下導(dǎo)航定位仿真研究[J].計(jì)算機(jī)仿真.2018,35(8):283-288.
[4] ?黃海衛(wèi),孔令成,譚治英.室內(nèi)服務(wù)機(jī)器人實(shí)時(shí)目標(biāo)識(shí)別與定位系統(tǒng)設(shè)計(jì)[J].計(jì)算機(jī)工程與設(shè)計(jì) COMPUTER ENGINERING AND DESIGN,2016,37(8):2228-2232.
[5] ?石杰,周亞麗,張奇志.基于Faster R-CNN 的服務(wù)機(jī)器人物品識(shí)別研究[J].計(jì)算機(jī)應(yīng)用研究 Application Research of Computers,2019,36(10):3152-3156.
[6] ?范淇元,覃羨烘,朱培杰.基于EmguCV的智能服務(wù)機(jī)器人人臉識(shí)別系統(tǒng)設(shè)計(jì)[J].應(yīng)用科技 Applied Science and Technology,2019,46(3):58-63.
[7] ?胡慶朋,智能家庭機(jī)器人的移動(dòng)避障與路徑規(guī)劃研究,山東建筑大學(xué),2019
[8] ?Cambria E. Affective computing and sentiment analysis [J]. IEEE Intelligent Systems,2016,31(2):102-107
[9] ?Bartels A,Zeki S. The neural correlates of maternal and romantic love [ J]. Neuroimage,2004,21(3):1155- 1166
基金項(xiàng)目:合肥工業(yè)大學(xué)2019年省級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目資助(項(xiàng)目編號(hào):S201910359170)