• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      仿人情感交互表情機器人研究現(xiàn)狀及關(guān)鍵技術(shù)

      2013-11-26 01:50:32柯顯信尚宇峰盧孔筆
      智能系統(tǒng)學(xué)報 2013年6期
      關(guān)鍵詞:語音機器人人類

      柯顯信,尚宇峰,盧孔筆

      (上海大學(xué)機電工程與自動化學(xué)院,上海200072)

      正如30年前的個人電腦一樣,機器人也將緊隨著科技發(fā)展的腳步逐漸走入人類社會,并且更加深入地影響人類社會生活的方方面面.同時,人工情感作為一門高度綜合性的學(xué)科,廣泛涉及生理學(xué)、心理學(xué)、哲學(xué)、社會學(xué)、思維科學(xué)、計算機等多門學(xué)科,它的發(fā)展將極大地縮小機器人與人類之間的情感鴻溝.而表情機器人作為一種服務(wù)機器人,通過引入人工情感技術(shù),賦予了機器人情感化、人性化的特點,對于實現(xiàn)人機情感交互具有重要作用,使得仿人表情機器人的研究更具應(yīng)用前景.近年來,越來越多的研究機構(gòu)及組織開展了關(guān)于仿人面部表情機器人的研究.其中歐美及日本等發(fā)達國家的多家研究機構(gòu)和大學(xué)已取得較大的研究成果.而國內(nèi)對于仿人表情機器人的研究較少且起步較晚,其中技術(shù)比較成熟的是哈爾濱工業(yè)大學(xué).

      1 國內(nèi)外研究實例

      目前表情機器人的研究得到了各國研究人員的廣泛關(guān)注,美國和日本等國家對此都進行了深入的研究,取得的成果顯著,國內(nèi)的一些大學(xué)也對此進行了一定的研究.

      1.1 日本

      日本對于表情機器人的研究居于世界領(lǐng)先水平.日本已經(jīng)形成了一種重要的機器人文化,他們在幾十年前就把機器人設(shè)計與情感相聯(lián)系,其中感性工學(xué)技術(shù)已經(jīng)發(fā)展成較成熟的理論[1].并且,在感性工學(xué)的產(chǎn)業(yè)化方面也取得了很大成功.如索尼公司的AIBO機器狗,其產(chǎn)量已達6萬多只,產(chǎn)值近10億美元,其他典型代表是SDR-4X型以及QRIO型情感機器人.日本人類機器人財團新開發(fā)的情感機器人取名“小IF”,可從對方的聲音中發(fā)現(xiàn)感情的微妙變化,然后通過自己表情的變化,在對話時表達喜怒哀樂,還能通過對話模仿對方的性格和癖好.

      2006年,早稻田大學(xué)開始了對WE系列表情機器人的研究,其對仿人表情機器人的研發(fā)比較側(cè)重于其應(yīng)用方面.早期的WE-3僅僅有前庭眼動反射理論的指導(dǎo),目的是為了研究平行雙眼追蹤三維空間的目標,發(fā)展到后來的 WE-3R-II、WE-3R-III、WE-3R-IV、WE-3R-V、WE-4R,增加了多種面部機構(gòu),并且擴展了聽覺、觸覺、嗅覺等多種感知功能[2],所取得的成果顯著,如圖1所示.

      圖1 日本早稻田大學(xué)研發(fā)的WE系列機器人Fig.1 WE series robot of Japanese Waseda University

      2010年,日本大阪大學(xué)石黑浩教授和Kokoro公司工程師研發(fā)出一款名為“Geminoid F”的仿真機器人,它以一名年輕的日俄混血女性為模本,皮膚材料為柔軟的硅樹脂,配置15個電機和傳感器,內(nèi)置儲氣罐和電磁閥,外置空氣壓縮機,通過遠程遙控實現(xiàn)微笑、皺眉、眨眼、悲傷、撅嘴等多于60種不同的面部表情[3].如圖2所示,多種表情的實現(xiàn),加上極高的逼真度,使其能與演員們一起在舞臺上表演話劇,為人們帶來娛樂,但是“Geminoid F”并不具備自主性,需由研發(fā)人員遠程遙控.

      圖2 日本大阪大學(xué)女性仿真機器人“Geminoid F”Fig.2 The female simulation robot“Geminoid F”of Osaka University

      2011年,日本大阪大學(xué)的科學(xué)家研制了一款兒童機器人“Affetto”,如圖3所示.它可以實現(xiàn)類似人類兒童的面部表情,使其和人類的溝通變得更加自然[4].該機器人的設(shè)計意圖是模擬1~3歲兒童的面部表情,幫助科學(xué)家研究人類嬰幼兒時期社交意識的形成,通過使用機器人技術(shù),能夠更好地理解人類智力的發(fā)育.早期對人類與兒童機器人的交互的研究,因機器人缺乏兒童外觀和面部表情(如Kismet)而受阻礙,“Affetto”的出現(xiàn)彌補了該不足.

      圖3 日本大阪大學(xué)研發(fā)的兒童機器人“Affetto”Fig.3 Children robot of Osaka University“Affetto”

      1.2 美國

      麻省理工學(xué)院很早就開始了對仿人表情機器人的研究.1999年Cynthia Brea zeal開發(fā)研制了名為Kismet的嬰兒機器人(如圖4所示),成為仿人表情機器人中的經(jīng)典之作.其軟硬件控制架構(gòu)設(shè)計,實現(xiàn)了接近30 Hz視覺信號和8 kHz采樣速率的聽覺信號的實時處理.臉部電機系統(tǒng)有21個伺服電機,由4個Motorola 68332微處理器控制.表現(xiàn)力語音合成和聲音的情感意圖識別由運行NT系統(tǒng)的450 MHz PC機處理,語音識別系統(tǒng)由運行 Linux系統(tǒng)的500 MHz PC機進行處理.研究人員再結(jié)合嬰幼兒社會情感發(fā)展、行為學(xué)和心理學(xué)等理論或觀點,建立出情感模型,使其像嬰兒一樣具有基本的社會能力并與人類看護者進行自然而直觀的社會交互.

      圖4 美國麻省理工學(xué)院研制的“Kismet”機器人Fig.4 “Kismet”robot developed by the Massachusetts Institute of Technology

      2008年4月美國麻省理工學(xué)院的科學(xué)家們展示了他們開發(fā)的情感機器人“Nexi”,如圖5所示.它是一款定位于 MDS(mobile,dexterous,social)的小型仿人機器人.它是在uBot5的基礎(chǔ)上研發(fā)出來的.它的每個眼睛里都裝有CCD(電荷耦合器件)攝像機使其對于周圍環(huán)境具有雙目視覺,前額上裝有主動式3-D紅外攝像頭使其可以生成環(huán)境的3-D地圖,并具有4個麥克以支持聲音定位.因此“Nexi”可以準確地判斷交互對象的具體位置,然后通過眨眼、張嘴、皺眉等形式表達各種常見的情感.

      圖5 美國麻省理工學(xué)院研制的“Nexi”機器人Fig.5 “Nexi”robot developed by the Massachusetts Institute of Technology

      美國的漢森機器人公司主要的研究方向為機器人形態(tài)、情感及社交.2009年2月份,由美國漢森機器人公司研發(fā)的以愛因斯坦為原型的表情機器人“Albert Hubo”在美國科技、娛樂和設(shè)計討論會上首次亮相,如圖6所示.該機器人頭部有31個自由度,包括實現(xiàn)頸部運動的3個自由度和實現(xiàn)面部表情的28個自由度,裝配在機器人上的31個電機中有17個必須同時工作,以調(diào)節(jié)在嘴部和眼睛附近的多處關(guān)節(jié).同時,漢森博士使用了一種類似肉體的、名為“Frubber”的機器人皮膚材料,從而使機器人可以實現(xiàn)面部皺紋的細微變化.軟體機械工程和納米科技的結(jié)合是這款機器人研發(fā)成功的關(guān)鍵[5].

      圖6 美國漢森機器人公司研發(fā)的“愛因斯坦”機器人Fig.6 “Einstein”robot of America Hansen robotic company

      1.3 歐盟

      歐盟也在積極地對情感信息處理技術(shù)進行研究,例如表情識別、情感信息測量等.有些大學(xué)成立了情感與智能關(guān)系的研究小組.

      2008年,英國西英格蘭大學(xué)和布里斯托爾大學(xué)聯(lián)合所屬布里斯托爾機器人學(xué)實驗室研制了一款可以模仿人類面部表情和嘴唇活動的類人機器人“Jules”,如圖 7 所示.“Jules”擁有 34 個內(nèi)置馬達,這些馬達覆蓋有軟性橡膠皮膚,這種皮膚是布里斯托爾機器人學(xué)實驗室委托美國機器人學(xué)家David Hanson研制的.“Jules”能模仿10種常見表情,例如,高興、悲傷、憂慮等.機器人通過軟件可以將其所看到的人類表情映射到它的臉部,這樣它可以立刻將這些表情動作綜合起來模仿出由人作出的真正表情[6].

      圖7 英國Bristol大學(xué)研制的表情機器人“Jules”Fig.7 Countenance robot“Jules”of English Bristol university

      意大利比薩大學(xué)研制出一個名為“FACE”的表情機器人.它以一研究者的妻子為雛形,相似度極高.這款機器人能夠做出恐懼、驚訝、厭惡等多種面部表情,如圖8所示.該研究小組歷時30多年研發(fā)出一款名為“HEFES”的軟件,來讓“FACE”模擬人類的表情.HEFES軟件能控制電機做出適當?shù)姆磻?yīng),來模擬表情并且能夠?qū)⒉煌砬樵谝欢ǔ潭壬匣旌显谝黄?,例如微笑的表情混合著些許悲傷,大笑中摻雜著一點不安.

      圖8 意大利比薩大學(xué)研制的機器人“FACE”Fig.8 Robot“FACE”developed by the university of Pisa,Italy

      1.4 國內(nèi)成果

      圖9 李詠與西安超人李詠2高仿真機器人Fig.9 Li Yong and Li Yong 2 high simulation robot of Xian superman

      國內(nèi)對于表情機器人的研究也取得了一定成績.西安超人高仿真機器人科技有限公司對表情機器人的研究有著豐富的經(jīng)驗.2011年央視春節(jié)元宵節(jié)晚會,高仿真智能表演機器人“李詠2”與真人李詠“一決高下”,如圖9所示,該機器人按照央視主持人李詠本人按照1∶1比例,收集李詠身體100多個點的數(shù)據(jù)量身打造.“李詠2”全身共19個自由度,面部8個,表情組合多達255種,且發(fā)音由李詠本人親自錄制.

      哈工大對于表情機器人的研究經(jīng)驗也值得借鑒.1996年,由哈爾濱工業(yè)大學(xué)研制的孫中山機器人可以進行演講.2004年至今,吳偉國教授等一直致力于設(shè)計與研制 H&F robot系列機器人.這個名為H&F robot-III的仿人頭像機器人,它的表情由15個小型電機驅(qū)動[7].目前 H&F robot-III機器人具有人臉識別、表情實現(xiàn)、語音實現(xiàn)等功能,并引入人工情感模型概念,也為人機交互奠定了基礎(chǔ),它不僅可以與人對話,還可以透過脖子上的攝像頭模仿人類的面部表情.

      2010年,臺灣大學(xué)電機系師生耗費2年時間研制出了一個擬真臉部模擬機器人“Luo Head”.這個按照愛因斯坦27歲時的相貌制造的機器人,頭部有36個馬達,控制著眉毛、嘴巴和眼睛,不僅外形酷似真人,而且還有7種表情.不僅表情模仿得惟妙惟肖,皮膚也像真的一樣.

      上海大學(xué)精密機械系于2008年研制出了能實現(xiàn)6種基本面部表情(恐懼、高興、憤怒、驚喜、厭惡、悲傷)的表情機器人樣機 SHFR-I[8].該機器人采用AT89S52單片機作為主控制器,對7路舵機進行控制,實現(xiàn)6種基本面部表情.2011年在SHFR-I的基礎(chǔ)上,研制出了具有視覺、面部表情識別與再現(xiàn)功能的面部表情識別與再現(xiàn)機器人SHFR-II系統(tǒng)[9].

      2 關(guān)鍵理論技術(shù)分析

      2.1 恐怖谷理論

      “鬼娃娃”Affetto與人類具有很高的相似度,但它的一舉一動卻不禁讓人毛骨悚然,這也驗證了日本機器人專家森政弘于1970年提出的恐怖谷理論.森政弘指出,由于機器人與人類在外表、動作上都相當相似,所以人類亦會對機器人產(chǎn)生正面的情感;直至一個特定程度,他們的反應(yīng)便會突然變得令人極為反感.哪怕機器人與人類有一點點的差別,都會顯得非常刺眼,讓整個機器人顯得非常僵硬恐怖,讓人有面對行尸走肉的感覺.可是,當機器人的外表和動作和人類的相似度繼續(xù)上升的時候,人類對他們的情感反應(yīng)亦會變回正面,貼近人類與人類之間的移情作用.他用“恐怖谷”一詞形容人類對跟他們有某程度上相似的機器人的排斥反應(yīng).而“谷”就是指在研究里“好感度—相似度”的關(guān)系圖中,在相似度臨近100%前,好感度突然墜至反感水平,然后回升至好感的那段范圍,如圖10所示.在設(shè)計表情機器人時,研究者也必須充分考慮這一理論.

      圖10 恐怖谷理論Fig.10 Uncanny valley theory

      2.2 FACS 理論

      FACS(facial action coding system)是美國心理學(xué)家 Paul Ekman提出的面部行為編碼系統(tǒng)[10],他根據(jù)人臉的解剖學(xué)特點,將其劃分成若干既相互獨立又相互聯(lián)系的運動單元(action unit,AU),并分析了這些運動單元的運動特征及其所控制的主要區(qū)域以及與之相關(guān)的表情.其定義的44個基本行為模塊(AU)中,主要有14個AU可用于實現(xiàn)7種人類常見表情.每種表情的變化不都是由單一的AU決定,而是由多個AU共同作用形成的.根據(jù)仿生學(xué)原理,在對表情實現(xiàn)時臉部肌肉的變化情況做出詳細分析后,根據(jù)AU組合情況確定機器人表情的實現(xiàn).現(xiàn)在FACS理論被廣泛應(yīng)用于表情識別、CG(computer graphics)等領(lǐng)域.

      2.3 人工情感技術(shù)

      人工情感主要是情感計算方面的研究,是對其心理模型的一種定義.機器人情感就是人工情感,是利用信息科學(xué)的手段對人類情感過程進行模擬、識別和理解,使機器人能夠產(chǎn)生類人情感并與人類自然和諧地進行人機交互的研究領(lǐng)域[,9].要實現(xiàn)人機情感交互,必須對人的情感進行定義,建立一種計算機可識別的情感數(shù)學(xué)模型,即使用維度空間、統(tǒng)計等數(shù)學(xué)方法把情感模型化[12].人工情感的研究,在各個領(lǐng)域的機器人中得到了廣泛的應(yīng)用.例如,索尼公司研制的家用機器人ABIO狗,其能對外界刺激做出相應(yīng)的反應(yīng).卡內(nèi)基梅隆大學(xué)研制的服務(wù)機器人Valerie也具有豐富的情感表達能力,其能根具周圍復(fù)雜的環(huán)境做出不同的表達.

      比較典型的情感模型是 Mehrabia的 PAD(please-arousal-dominance-model)模型.MIT的 Kismet的情感空間模型由激勵、價和態(tài)這3個坐標軸構(gòu)成,且情感空間被分割成代表特定情感狀態(tài)的區(qū)域.每個軸的參數(shù)由動機系統(tǒng)、行為系統(tǒng)以及感知系統(tǒng)獲取,通過這3個系統(tǒng)的綜合就可以獲得相應(yīng)心理狀態(tài)的情感坐標,與該情感坐標距離最近的情感區(qū)域就會被激活,驅(qū)動機器人產(chǎn)生表情,而情感坐標與激活區(qū)域中心的距離就決定了所產(chǎn)生表情的幅度.日本早稻田大學(xué)的WE-4R機器人也有相似的情感空間,由3個矢量愉悅度(pleasantness),激活度(activation)和確定性(certainty)組成的三維心理空間,如圖11所示.該空間被劃分為7個區(qū)域,分別代表7種情感狀態(tài).

      圖11 WE-4R機器人的情感空間Fig.11 Emotional space of WE-4R robot

      2.4 傳感技術(shù)、機器人視覺技術(shù)

      傳感器能夠把自然界的各種物理量和化學(xué)量等精確地變換為電信號,再經(jīng)電子電路或計算機進行處理,從而對這些量進行監(jiān)測或控制.傳感器的應(yīng)用使表情機器人具有不同的感知能力.例如,日本早稻田大學(xué)研制的WE-4R機器人,具有嗅覺和觸覺傳感器,嗅覺傳感器的使用可以使其識別酒精、氨氣和香煙的氣味,通過觸覺傳感器可以分辨出撫摸、打擊和碰撞等接觸動作[13].德國Kaiserslautern大學(xué)開發(fā)的ROMAN表情機器人,耳部安裝了2支麥克風,使其具有聽覺功能.在其額頭處安裝了紅外傳感器,可用于判斷前方物體的距離.同時其具有慣性傳感器,能夠分別測三自由度的加速和轉(zhuǎn)角,對其頭部的空間位置可以進行估計.

      人類有80%以上的信息是靠視覺獲取的,讓機器人與人一樣通過視覺來獲取信息,是研究表情機器人的一個重要方面.機器人從客觀事物的圖像中提取信息,進行處理加工并加以理解,最終用于人機交互.表情機器人依靠視覺技術(shù)能完成表情識別、人臉識別、視線跟蹤、頭部姿勢檢測以及行為理解等任務(wù).Leonardo頭部后方和上方安裝有攝像頭,可以獲取人臉、頭部姿勢、行為姿勢等信息[14].其他的表情機器人例如 H&F Robot-Ⅱ、Kismet、WE-4R 等一般也都采用相關(guān)的視覺技術(shù),從而能使其完成目標識別、跟蹤和定位等任務(wù).

      2.5 語音識別與合成技術(shù)

      語音識別與合成技術(shù)的發(fā)展,實現(xiàn)了人類與機器人之間的語音通信.語音識別,即讓機器通過識別與理解把輸入的語音信號轉(zhuǎn)換為相應(yīng)命令的技術(shù),它的基本方法主要有隱馬爾可夫模型、人工神經(jīng)網(wǎng)絡(luò)等,典型的語音識別的實現(xiàn)方式如圖12所示.語音合成技術(shù)是表情機器人合成語音實現(xiàn)的關(guān)鍵,從早期的參數(shù)合成到拼接合成,繼而到兩者的結(jié)合,如今語音合成技術(shù)使得表情機器人可以實現(xiàn)更加人性化的語音合成.Jules、WE-4R、Kismet等都大多采用了語音識別與合成技術(shù),可以方便地實現(xiàn)語音交互功能[15].可見語音識別和語音合成的結(jié)合對于表情機器人與人類之間的情感交互至關(guān)重要.

      圖12 語音識別的實現(xiàn)Fig.12 The realization of automatic speech recognition

      3 未來研究趨勢

      3.1 人工情感理論的進一步研究

      人工情感包括3個方面:情感識別、情感表達與情感理解.目前對于前面兩者的研究成果顯著,而對于后者卻是收效甚微.根本原因在于,到目前為止,沒有一個研究者能夠準確地定義情感的哲學(xué)本質(zhì),沒能創(chuàng)立一個全新的、科學(xué)的、數(shù)學(xué)化的情感理論,也沒有建立一個更加可靠的數(shù)學(xué)情感模型.目前的情感機器人,只能進行一些簡單的情感識別,或者模擬人的某些情感表達方式,而并沒有真正的情感理解能力.因此人工情感理論,尤其是人工情感建模,有待于進一步研究,而且多學(xué)科的貫穿融合有必要使之更加深入.

      3.2 機器人表情的多樣化和豐富化

      人類是面部表情最豐富的生物.情感的表達離不開表情,心理學(xué)家認為人的表情表達了50%以上的人類感情.而且心理學(xué)研究表明,人臉能夠產(chǎn)生大約55 000種不同的表情.而目前人類能夠?qū)崿F(xiàn)的機器人表情還較為單調(diào),所以,豐富機器人表情并使之多樣化是亟待解決的問題.

      3.3 表情機器人“部件”的“肉體化”

      完美地實現(xiàn)人工情感可以縮小機器人與人類之間的界限,此時人機交互將不存在情感的鴻溝.而表情機器人的“身體部件”的“肉體化”也是必須有所作為的一方面.從材料角度出發(fā),對表情機器人的皮膚材料有待進一步研究,使之不僅具有更好的拉伸性和柔韌性,還具有響應(yīng)外界刺激的知覺和自我修復(fù)能力.與此類似,表情機器人的“思維部件”如何實現(xiàn)肉體化也是一個難題.

      3.4 表情機器人的商業(yè)化應(yīng)用

      最近迪士尼計劃在游樂場內(nèi)推出最新的3-D掃描技術(shù)終極“人臉克隆計劃”,只要掃描目標對象的頭部,就能做出這個人臉上包括皺紋在內(nèi)的微小細節(jié)的3-D模型,然后根據(jù)這個模型制作出裝配在機器人頭部上的面具,通過該模型與機器人的配合演算,還能做出逼真生動的面部表情,然后通過人機交互平臺就能完成“真人版”Siri的功能了.2010年上海世博會上,西安超人雕塑研究院所研制的高仿真機器人“唐明皇與楊貴妃”與真人版在陜西館展示,人氣指數(shù)名列前三甲.由此可見,表情機器人的應(yīng)用已日趨商業(yè)化,面向商業(yè)化的研究必將成為今后研究工作的熱點之一.

      [1]趙秋芳,王震亞,范波濤.感性工學(xué)及其在日本的研究現(xiàn)狀[J].藝術(shù)與設(shè)計理論,2007,36(7):32-34.ZHAO Qiufang,WANG Zhenya,F(xiàn)AN Botao.An introduction of kansei engineering and its research status in Japan[J].The Theory of Art and Design,2007,36(7):32-34.

      [2]柯顯信,柏垠,唐文彬.仿人面部表情機器人研究現(xiàn)狀與展望[J].機械設(shè)計,2009,26(11):5-8.KE Xianxin,BAI Yin,TANG Wenbin.Current situation and prospects of research for humanoid countenance robot[J].Journal of Machine Design,2009,26(11):5-8.

      [3]BECKER-ASANO C,ISHIGURO H.Evaluating facial displays of emotion for the android robot Geminoid F[C]//IEEE Workshop on Affective Computational Intelligence(WACI).Paris,F(xiàn)rance,2011:1-8.

      [4]ISHIHARA H,YOSHIKAWA Y,ASADA,M.Realistic child robot“Affetto”for understanding the caregiver-child attachment relationship that guides the child development[C]//IEEE International Conference on Development and Learning(ICDL).Frankfurt am Main,German,2011:2-5.

      [5]HO J,HANSON O D,KIM W S,et al.Design of android type humanoid robot albert HUBO[C]//IEEE International Conference on Intelligent Robots and Systems.Beijing,China,2006:1428-1433.

      [6]DELAUNAY F,De GREEFF J,BELPAEME T.Towards retro-projected robot faces:an alternative to mechatronic and android faces[C]//The 18th IEEE International Symposium on Robot and Human Interactive Communication.Toyama,Japan,2009:306-311.

      [7]吳偉國,宋策,孟慶梅.仿人頭像機器人“H&F robot-III”語音及口形系統(tǒng)研制與實驗[J].機械設(shè)計,2008,25(1):15-19.WU Weiguo,SONG Ce,MENG Qingmei.Development and experimentation on speech sounds and degree of lip rounding system for“H&Frobot-III”humanoid head portrait robot[J].Journal of Machine Design,2008,25(1):15-19.

      [8]唐文彬,柯顯信.仿人面部表情機器人的控制系統(tǒng)設(shè)計[J].機械設(shè)計,2010,27(8):54-58.TANG Wenbin,KE Xianxin.Control system design of a facial robot[J].Journal of Machine Design,2010,27(8):54-58.

      [9]EKMAN P,ERIKA L R.What the face reveals:basic and applied studies of spontaneous expression using the facial action coding system(FACS)[M].2nd ed.Cambidge:Oxford University Press,2005:44-65.

      [10]陳玉亮.基于表情識別與再現(xiàn)的面部表情機器人研究[D].上海:上海大學(xué),2011:1-90.CHEN Yuliang.The facial robot research on facial expression recognition and representation[D].Shanghai:Shanghai University,2011:1-90.

      [11]劉伯成.人工情感與物聯(lián)網(wǎng)技術(shù)研究[J].科技廣場,2010,24(9):76-78.LIU Bocheng.Research on artificial emotion and internet of things[J].Science Mosaic,2010,24(9):76-78.

      [12]孟秀艷,王志良,李娜,等.情感機器人的情感模型研究[J].計算機科學(xué),2008,35(6):158-162.MENG Xiuyan,WANG Zhiliang,LI Na,et al.Research on affective model of affective robot[J].Computer Science,2008,35(6):158-162.

      [13]BERNS K,HIRTH J.Control of facial expressions of the humanoid robot head roman[C]//Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS).Beijing,China,2006:3119-3124.

      [14]KOZIMA H.An ontogeny of socially communicative robots[C]//Interactivist Summer Institute(ISI-2001).Bethlehem.PA,USA,2001:65-84.

      [15]KOZIMA H,ZLATEV J.An epigenetic approach to human-robot communication[C]//Proceedings of IEEE International Workshop on Robots and Human Interactive Communications.Osaka,Japan,2000:346-351.

      猜你喜歡
      語音機器人人類
      人類能否一覺到未來?
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      魔力語音
      基于MATLAB的語音信號處理
      電子制作(2019年14期)2019-08-20 05:43:38
      1100億個人類的清明
      基于MQ3與MP3的價廉物美的酒駕語音提醒器
      電子制作(2019年9期)2019-05-30 09:42:10
      對方正在輸入……
      小說界(2018年5期)2018-11-26 12:43:42
      人類正在消滅自然
      奧秘(2015年2期)2015-09-10 07:22:44
      機器人來幫你
      認識機器人
      兰坪| 罗平县| 湘潭县| 重庆市| 合水县| 洪洞县| 平山县| 阜宁县| 灵丘县| 多伦县| 福建省| 祁门县| 青阳县| 石城县| 西华县| 大田县| 电白县| 醴陵市| 南平市| 龙川县| 崇义县| 潞西市| 星座| 剑川县| 儋州市| 霞浦县| 静海县| 马尔康县| 邹平县| 新平| 榆树市| 吉木乃县| 始兴县| 故城县| 九龙县| 淮阳县| 佛教| 惠东县| 安新县| 兴宁市| 武山县|