• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型

    2021-07-12 01:16:30進(jìn),張浩,田
    圖學(xué)學(xué)報(bào) 2021年3期
    關(guān)鍵詞:黑盒軌跡動(dòng)態(tài)

    黃 進(jìn),張 浩,田 豐

    面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型

    黃 進(jìn)1,3,張 浩1,2,田 豐1,3

    (1. 中國(guó)科學(xué)院軟件研究所人機(jī)交互北京重點(diǎn)實(shí)驗(yàn)室,北京 100190;2. 中國(guó)科學(xué)院大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,北京 101408;3. 中國(guó)科學(xué)院大學(xué)人工智能學(xué)院,北京 101408)

    隨著人機(jī)交互技術(shù)不斷發(fā)展,包含動(dòng)態(tài)內(nèi)容的交互系統(tǒng),如虛擬/增強(qiáng)/混合現(xiàn)實(shí)、視頻監(jiān)控系統(tǒng)等,逐漸占據(jù)主要地位。面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型受到了越來(lái)越多的關(guān)注,大量的計(jì)算模型被提出,加強(qiáng)了人們對(duì)動(dòng)態(tài)用戶界面的認(rèn)識(shí)和理解。然而,現(xiàn)階段,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究仍在問(wèn)題復(fù)雜度、解釋性、交互底層機(jī)制描述上存在諸多問(wèn)題,極大地限制了動(dòng)態(tài)模型研究的發(fā)展和應(yīng)用。本文通過(guò)對(duì)面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型的研究現(xiàn)狀進(jìn)行分析,對(duì)當(dāng)前存在且急需解決的問(wèn)題進(jìn)行了梳理,并給出了領(lǐng)域未來(lái)發(fā)展的看法,旨在拋磚引玉,為今后面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究提供參考。

    人機(jī)交互;界面系統(tǒng);動(dòng)態(tài)場(chǎng)景;動(dòng)態(tài)交互任務(wù);計(jì)算模型

    計(jì)算建模是一種利用計(jì)算機(jī)來(lái)模擬和研究復(fù)雜系統(tǒng)的方法。一個(gè)計(jì)算模型通常包含許多變量,這些變量是所研究系統(tǒng)的特征和屬性。一般來(lái)說(shuō),計(jì)算模型具有3方面的作用:首先,通過(guò)模型構(gòu)建、參數(shù)估計(jì)和實(shí)驗(yàn)驗(yàn)證解釋系統(tǒng)內(nèi)部的復(fù)雜結(jié)構(gòu);其次,基于系統(tǒng)當(dāng)前的特征和屬性,對(duì)系統(tǒng)的輸出結(jié)果做出預(yù)測(cè);最后,通過(guò)單獨(dú)或組合調(diào)整變量并觀察輸出結(jié)果來(lái)進(jìn)行系統(tǒng)模擬,對(duì)系統(tǒng)行為做出仿真。

    人機(jī)交互經(jīng)過(guò)了多年發(fā)展,各方面技術(shù)已經(jīng)非常成熟,然而人們對(duì)用戶行為規(guī)律的研究卻相對(duì)滯后,一定程度上制約了交互系統(tǒng)的發(fā)展。因此,近些年來(lái),越來(lái)越多的學(xué)者開(kāi)始利用計(jì)算建模的方法來(lái)研究人機(jī)交互問(wèn)題,旨在理解用戶行為,預(yù)測(cè)用戶表現(xiàn),并對(duì)交互過(guò)程進(jìn)行仿真。2021年,國(guó)際計(jì)算機(jī)協(xié)會(huì)人機(jī)交互特別興趣小組ACM SIGCHI,在其最主要的學(xué)術(shù)會(huì)議CHI中設(shè)立了一個(gè)全新的計(jì)算交互分委會(huì)“Computational Interaction Subcommittee”,專注于利用計(jì)算方法研究人機(jī)交互技術(shù)和設(shè)計(jì),顯示了人機(jī)交互學(xué)術(shù)界對(duì)于計(jì)算模型的重視程度。

    隨著人機(jī)交互技術(shù)不斷發(fā)展,包含動(dòng)態(tài)內(nèi)容的交互系統(tǒng),例如虛擬/增強(qiáng)/混合現(xiàn)實(shí)(Virtual/Augmented/ Mixed Reality,VR/AR/MR)、動(dòng)畫系統(tǒng)、視頻監(jiān)控系統(tǒng)、仿真系統(tǒng)、娛樂(lè)教育系統(tǒng)等,逐漸占據(jù)主要地位,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型受到了越來(lái)越多的關(guān)注,學(xué)者們構(gòu)建了大量的計(jì)算模型,對(duì)動(dòng)態(tài)交互場(chǎng)景中用戶的時(shí)間表現(xiàn)、精確度和行為進(jìn)行了建模,加強(qiáng)了對(duì)動(dòng)態(tài)用戶界面的認(rèn)識(shí)和理解。然而,現(xiàn)階段面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究仍存在諸多問(wèn)題和挑戰(zhàn),其中包括復(fù)雜動(dòng)態(tài)交互問(wèn)題建模的困難,黑盒模型存在的問(wèn)題,機(jī)制性建模的不足和模型應(yīng)用時(shí)存在的挑戰(zhàn)等,制約了動(dòng)態(tài)模型研究的發(fā)展和應(yīng)用。本文通過(guò)對(duì)面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究現(xiàn)狀進(jìn)行分析,對(duì)當(dāng)前存在且亟需解決的問(wèn)題進(jìn)行了梳理,并給出了該領(lǐng)域未來(lái)發(fā)展的看法,旨在拋磚引玉,為今后面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究提供參考。

    1 研究現(xiàn)狀

    1.1 靜態(tài)交互場(chǎng)景的計(jì)算模型

    目標(biāo)選擇和軌跡任務(wù)被認(rèn)為是人機(jī)交互中最為基礎(chǔ)的交互任務(wù),其計(jì)算模型主要包括時(shí)間模型和不確定性模型2類,前者預(yù)測(cè)完成觸控任務(wù)所需時(shí)間,而后者則可以用于計(jì)算成功率。對(duì)于時(shí)間模型,F(xiàn)itts’ Law[1]被證實(shí)是最具魯棒性和廣泛應(yīng)用的時(shí)間模型,完成了如圖1所示的1D目標(biāo)獲取,并對(duì)運(yùn)動(dòng)時(shí)間進(jìn)行了精準(zhǔn)的預(yù)測(cè),揭示了完成任務(wù)時(shí)間與目標(biāo)大小和目標(biāo)距離的關(guān)聯(lián)[2],即

    其中,MT為完成該任務(wù)所需的平均運(yùn)動(dòng)時(shí)間;A為光標(biāo)起始點(diǎn)到目標(biāo)中心的距離;W為目標(biāo)的寬度;a和b為由指點(diǎn)設(shè)備、操作人員和環(huán)境因素決定的經(jīng)驗(yàn)常數(shù);對(duì)數(shù)項(xiàng),被稱之為難度系數(shù)(index of difficulty,ID)。Fitts’ Law最開(kāi)始建立在一個(gè)1D的靜態(tài)觸控任務(wù)中,后來(lái)又被擴(kuò)展到了2D[3-4]、3D[5]以及動(dòng)態(tài)任務(wù)[6]中。

    為了預(yù)測(cè)軌跡任務(wù)的時(shí)間表現(xiàn),ACCOT等[7]對(duì)Fitts’ Law進(jìn)行拓展,提出了Steering Law用于對(duì)軌跡任務(wù)的運(yùn)動(dòng)時(shí)間進(jìn)行預(yù)測(cè),在如圖2所示的一個(gè)筆直的軌道中,任務(wù)時(shí)間與軌道長(zhǎng)度和軌道寬度的比值呈線性關(guān)系,即

    其中,為通道長(zhǎng)度;為通道寬度;a和b是經(jīng)驗(yàn)常數(shù)。

    圖2 Steering Law中的筆直通道任務(wù)

    利用微分的思想,Steering Law還可以進(jìn)一步拓展到任意光滑軌道中,從而能夠更好地應(yīng)對(duì)急轉(zhuǎn)彎[8]、邊界大小變化通道[9]、以及復(fù)雜管道[10]中。經(jīng)過(guò)推導(dǎo),Steering Law可以拓展到任意有理通道上,在一般情況下,完成任務(wù)時(shí)間可以表示為無(wú)數(shù)多個(gè)微小的筆直通道的積分。然而,Steering Law的后續(xù)研究發(fā)現(xiàn),其僅適用于光滑的軌道,而對(duì)嚴(yán)重扭曲或快速變化的軌道預(yù)測(cè)性能不足。因此,許多Steering Law的后續(xù)研究都將主要精力放在處理通道突然發(fā)生變化的情況。例如,文獻(xiàn)[8]對(duì)Steering Law在包含直轉(zhuǎn)角的軌跡任務(wù)的中的表現(xiàn)進(jìn)行了改進(jìn),文獻(xiàn)[9]討論了通道大小發(fā)生突然變化時(shí)的時(shí)間預(yù)測(cè)模型。

    對(duì)于不確定性模型,國(guó)內(nèi)外學(xué)者關(guān)注的焦點(diǎn)在于觸控目標(biāo)選擇時(shí)的落點(diǎn)分布情況,以及由此推算的目標(biāo)選擇成功率。研究者們首先提出了有效寬度和有效距離的概念,即目標(biāo)選擇落點(diǎn)分布中2倍標(biāo)準(zhǔn)差的范圍和均值,進(jìn)而對(duì)Fitts’ Law進(jìn)行修正[11],提高了特殊情況下Fitts’ Law的預(yù)測(cè)準(zhǔn)確性[12]。WOBBROCK等[13]利用Fitts’ Law和有效寬度,對(duì)落點(diǎn)分布規(guī)律進(jìn)行分析,推導(dǎo)出了一個(gè)1D目標(biāo)獲取的成功率模型(圖3),揭示了任務(wù)難度系數(shù)和目標(biāo)選擇成功率之間的關(guān)系,即

    其中,erf(x)為高斯誤差函數(shù);MTe為由有效距離和有效寬度計(jì)算出來(lái)的目標(biāo)獲取運(yùn)動(dòng)時(shí)間;a和b是經(jīng)驗(yàn)常數(shù)項(xiàng)。

    BI等[14-15]使用雙高斯分布假設(shè)對(duì)小型觸屏設(shè)備交互中的落點(diǎn)分布規(guī)律進(jìn)行建模,對(duì)小型觸控交互中運(yùn)動(dòng)時(shí)間做出更為精確的預(yù)測(cè)。該思想隨后在虛擬鍵盤和文本輸入上面得到了應(yīng)用,有效地改善了鍵盤和文本輸入的精確度[16-17]。

    上述模型均為面向靜態(tài)交互場(chǎng)景的計(jì)算模型,而隨著人機(jī)交互技術(shù)不斷發(fā)展,動(dòng)態(tài)交互任務(wù),例如VR/AR/MR、動(dòng)畫系統(tǒng)中的交互任務(wù),逐漸占據(jù)主要地位,面向靜態(tài)交互場(chǎng)景的模型的限制越來(lái)越明顯,無(wú)法有效支撐含有動(dòng)態(tài)內(nèi)容的人機(jī)交互界面設(shè)計(jì)與技術(shù)創(chuàng)新。因此,學(xué)者們開(kāi)始著眼于構(gòu)建動(dòng)態(tài)交互場(chǎng)景中的模型,其主要包括動(dòng)態(tài)交互場(chǎng)景中的時(shí)間預(yù)測(cè)模型、錯(cuò)誤率預(yù)測(cè)模型和用戶行為模型。

    1.2 時(shí)間預(yù)測(cè)模型

    與靜態(tài)場(chǎng)景一致,動(dòng)態(tài)場(chǎng)景中最基礎(chǔ)的交互任務(wù)是移動(dòng)目標(biāo)選擇任務(wù)。對(duì)于移動(dòng)目標(biāo)選擇而言,JAGACINSKI的移動(dòng)目標(biāo)選擇時(shí)間模型[6]是最著名的時(shí)間預(yù)測(cè)模型之一。該模型通過(guò)改進(jìn)的難度系數(shù)解釋目標(biāo)速度的影響,將Fitts’ Law擴(kuò)展到運(yùn)動(dòng)目標(biāo)捕獲中,即

    其中,和的含義與Fitts’ Law一致;為目標(biāo)移動(dòng)速度;a,b和c為經(jīng)驗(yàn)常數(shù)。

    與Fitts’ Law中的ID相類似,修改后的難度指數(shù)反映了目標(biāo)寬度和速度相互作用與交互時(shí)間之間的關(guān)系。另一個(gè)廣為人知的移動(dòng)目標(biāo)選擇時(shí)間估計(jì)方法來(lái)自文獻(xiàn)[18],該方法通過(guò)應(yīng)用線性控制模型理論來(lái)推斷運(yùn)動(dòng)目標(biāo)捕獲的困難指數(shù),利用穩(wěn)態(tài)位置誤差減小目標(biāo)有效寬度,模擬人體獲取運(yùn)動(dòng)目標(biāo)的響應(yīng),最終估計(jì)完成交互所需時(shí)間。通過(guò)考慮目標(biāo)運(yùn)動(dòng)對(duì)人類時(shí)間準(zhǔn)確度的影響,文獻(xiàn)[19-20]發(fā)現(xiàn)目標(biāo)速度對(duì)不同參與者的目標(biāo)捕獲策略(如追蹤和命中)有不同的影響。并建議用不同的目標(biāo)速度函數(shù)來(lái)估計(jì)目標(biāo)捕獲時(shí)間,而不是用固定的函數(shù)來(lái)處理目標(biāo)速度的影響。HAJRI等[21]還通過(guò)應(yīng)用人類處理器模型[22]來(lái)描述運(yùn)動(dòng)目標(biāo)選擇,推導(dǎo)了一個(gè)2D移動(dòng)目標(biāo)選擇的時(shí)間預(yù)測(cè)模型。該模型在結(jié)合2個(gè)2D靜態(tài)目標(biāo)選擇模型[23-24]的前提下,將橫向和縱向的目標(biāo)移動(dòng)速度引入ID,實(shí)現(xiàn)了2D移動(dòng)目標(biāo)選擇的時(shí)間預(yù)測(cè)。此外,CASALLAS[25]利用數(shù)據(jù)驅(qū)動(dòng)的方式分析了多個(gè)任務(wù)因素與3D移動(dòng)目標(biāo)選擇時(shí)間的相關(guān)關(guān)系,通過(guò)一個(gè)線性函數(shù)對(duì)主要的因素進(jìn)行加權(quán),得到了一個(gè)預(yù)測(cè)3D移動(dòng)目標(biāo)選擇時(shí)間的模型。

    1.3 錯(cuò)誤率預(yù)測(cè)模型

    其中,和的含義與式(4)中的含義一致;a,b,c,d,e,f和g為經(jīng)驗(yàn)常數(shù)。

    在給定空間選擇落點(diǎn)分布的情況下,通過(guò)對(duì)目標(biāo)選擇區(qū)域內(nèi)概率分布函數(shù)的積分即可以得到錯(cuò)誤率,如圖4所示。

    圖4 基于落點(diǎn)分布計(jì)算選擇錯(cuò)誤率[27]

    與空間域中獲取目標(biāo)錯(cuò)誤率類似的,對(duì)時(shí)間域中錯(cuò)誤率的建模,可通過(guò)估計(jì)時(shí)間落點(diǎn)分布實(shí)現(xiàn)。文獻(xiàn)[28]通過(guò)假設(shè)用戶在目標(biāo)時(shí)間窗口內(nèi)有一個(gè)隱含的時(shí)間目標(biāo)點(diǎn),推導(dǎo)出一個(gè)模型來(lái)預(yù)測(cè)時(shí)間指向任務(wù)中的錯(cuò)誤率?;谠摲椒?,提出了多個(gè)衍生模型來(lái)預(yù)測(cè)多線索移動(dòng)目標(biāo)捕獲[32],包括運(yùn)動(dòng)延遲的移動(dòng)目標(biāo)捕獲[33],2D移動(dòng)目標(biāo)選擇[34]的錯(cuò)誤率。

    1.4 用戶行為模型

    盡管上述模型已經(jīng)能夠成功地捕捉用戶交互過(guò)程中的某些瞬間特性(如完成時(shí)間或者整體錯(cuò)誤率),但是并不涉及用戶交互過(guò)程中的動(dòng)力學(xué)或軌跡的變化[35]。因此,國(guó)內(nèi)外學(xué)者提出了一系列用戶行為模型,用來(lái)描述用戶交互行為的演變過(guò)程。用戶行為模型通?;谟^測(cè)到的用戶表現(xiàn)數(shù)據(jù),構(gòu)建具有預(yù)測(cè)能力的過(guò)程模型。直線-曲線-拐角模型(curves,line-segments,and corners,CLC)[36]將用戶輸入的手勢(shì)分割成直線、曲線和拐角的組合。該模型對(duì)手勢(shì)中每個(gè)組成部分分別建模:直線由常量、線性或冪函數(shù)建模,曲線由曲率的冪律建模,拐角由基于角度的常數(shù)函數(shù)建模。該模型根據(jù)用戶預(yù)期繪制的形狀,嘗試將手勢(shì)演變過(guò)程進(jìn)行分割,以分段預(yù)測(cè)的形式估計(jì)了用戶完成手勢(shì)所需時(shí)間。這也是對(duì)于手勢(shì)輸入系統(tǒng)性建模與理解最早的工作之一。QUINN和ZHAI[37]通過(guò)對(duì)用戶使用手勢(shì)鍵盤輸入過(guò)程中產(chǎn)生的用戶軌跡進(jìn)行分析,發(fā)現(xiàn)手勢(shì)軌跡的形態(tài)和動(dòng)態(tài)特性可以通過(guò)最小加加速度模型(minimum jerk model)進(jìn)行模擬。通過(guò)該模型模擬的軌跡在圖形形狀和動(dòng)力學(xué)特征上都與原始軌跡高度匹配。同時(shí)基于最小加加速度模型建立了一個(gè)手勢(shì)生成模型,該模型可以對(duì)用戶任意手勢(shì)輸入任務(wù)所作動(dòng)作產(chǎn)生的手勢(shì)軌跡進(jìn)行預(yù)測(cè)。

    除了對(duì)用戶手勢(shì)進(jìn)行建模外,國(guó)內(nèi)外學(xué)者也對(duì)不同維度下用戶的基礎(chǔ)目標(biāo)選擇任務(wù)進(jìn)行了過(guò)程建模。OULASVIRTA等[38]使用神經(jīng)力學(xué)模型來(lái)模擬用戶按下按鈕的1D運(yùn)動(dòng)過(guò)程,模型框架如圖5所示。該模型可以模擬4種不同按鈕類型下用戶的力作用并預(yù)測(cè)完成按鈕任務(wù)所需的時(shí)間。總體上較好地模擬了用戶輸入過(guò)程的運(yùn)動(dòng)學(xué)、動(dòng)力學(xué)和用戶性能表現(xiàn)。HUANG等[39]基于最優(yōu)反饋策略,構(gòu)建了一種2D目標(biāo)選擇的軌跡建模模型。該模型將目標(biāo)狀態(tài)作為反饋信息影響對(duì)象的運(yùn)動(dòng)過(guò)程,實(shí)現(xiàn)了對(duì)2D下靜態(tài)和動(dòng)態(tài)目標(biāo)選擇任務(wù)的軌跡建模。BACHYNSKYI和MüLLER[40]針對(duì)3D空間下的用戶目標(biāo)選擇運(yùn)動(dòng)軌跡進(jìn)行研究,探討了三階滯后模型來(lái)模擬空中用戶運(yùn)動(dòng)軌跡的可能性。該模型能較好地模擬用戶交互過(guò)程中的軌跡、速度、加速度等動(dòng)力學(xué)屬性。盡管在建模過(guò)程重剔除了部分對(duì)用戶軌跡結(jié)果影響較小的2個(gè)維度,將三維軌跡映射為一維運(yùn)動(dòng),但這也是最早的對(duì)用戶3D空間下交互軌跡進(jìn)行建模的嘗試之一。

    圖5 文獻(xiàn)[38]中給出的基于神經(jīng)力學(xué)的模型框架

    2 問(wèn)題與挑戰(zhàn)

    2.1 復(fù)雜動(dòng)態(tài)交互問(wèn)題建模的困難

    靜態(tài)交互任務(wù)是比較簡(jiǎn)單的。以Fitts’ Law的1D選擇任務(wù)為例,其僅涉及目標(biāo)大小()和目標(biāo)距離()2個(gè)變量,而當(dāng)問(wèn)題放到2D空間中則變得復(fù)雜得多,因?yàn)檫@樣需要考慮目標(biāo)的長(zhǎng)和寬對(duì)用戶表現(xiàn)得影響,對(duì)于矩形目標(biāo),同樣的距離(起始位置到目標(biāo)中心)的條件下目標(biāo)處于不同空間方位,實(shí)際用戶表現(xiàn)也會(huì)受到影響[4]。

    而對(duì)于動(dòng)態(tài)交互任務(wù),問(wèn)題的復(fù)雜性則進(jìn)一步增加。以2D移動(dòng)目標(biāo)選擇為例,首先,動(dòng)態(tài)交互場(chǎng)景中,目標(biāo)可能具有移動(dòng)速度、形狀、朝向和初始位置,這些條件的改變均會(huì)導(dǎo)致用戶選擇策略和表現(xiàn)的巨大差異,因此必須考慮的因素顯著增加;其次,在動(dòng)態(tài)交互場(chǎng)景中,目標(biāo)地移動(dòng)速度、形狀、朝向均有可能隨時(shí)發(fā)生動(dòng)態(tài)變化,這種變化同樣會(huì)顯著影響用戶表現(xiàn);最后,上述各類因素及其隨著時(shí)間推移而發(fā)生的變化將產(chǎn)生無(wú)數(shù)種無(wú)法枚舉的情況,且無(wú)法利用傳統(tǒng)的心理學(xué)實(shí)驗(yàn)方法將其一一進(jìn)行測(cè)試以尋找規(guī)律,這種方法在處理動(dòng)態(tài)任務(wù)建模時(shí)可能束手無(wú)策。本文認(rèn)為,這些挑戰(zhàn)是導(dǎo)致現(xiàn)階段動(dòng)態(tài)場(chǎng)景下的計(jì)算模型魯棒性差、精準(zhǔn)度低的主要原因。

    因此,許多學(xué)者開(kāi)始轉(zhuǎn)向數(shù)據(jù)驅(qū)動(dòng)的方式,希望利用黑盒模型和機(jī)器學(xué)習(xí)手段實(shí)現(xiàn)動(dòng)態(tài)交互場(chǎng)景下的用戶表現(xiàn)建模。然而,這種方式卻會(huì)帶來(lái)模型可解釋性差,無(wú)法對(duì)界面設(shè)計(jì)給出指導(dǎo)等問(wèn)題。

    2.2 黑盒模型存在的問(wèn)題

    隨著交互場(chǎng)景的復(fù)雜化,學(xué)者嘗試用深度學(xué)習(xí)或復(fù)雜的集成模型來(lái)解決用戶動(dòng)態(tài)交互場(chǎng)景下的行為建模問(wèn)題。這類黑盒模型通常具有很高的準(zhǔn)確性,然而,其同樣存在著以下幾個(gè)主要問(wèn)題:

    首先,黑盒模型的高準(zhǔn)確率依賴于大量的數(shù)據(jù)集合。學(xué)者通常需要依靠眾包等數(shù)據(jù)采集手段[41],收集大量的用戶數(shù)據(jù),以支撐黑盒模型的參數(shù)訓(xùn)練,大規(guī)模的數(shù)據(jù)采集也導(dǎo)致建模成本大大提高。其次,難以挖掘黑盒模型中每個(gè)特征與用戶行為機(jī)制的內(nèi)在聯(lián)系。黑盒模型的高準(zhǔn)確率與特征個(gè)數(shù)以及特征參數(shù)無(wú)法分開(kāi),但是通常來(lái)講,黑盒模型的工作原理往往難以解釋。由于黑盒模型缺少對(duì)數(shù)據(jù)表現(xiàn)背后的行為機(jī)制的推理,這也使得這類模型難以對(duì)交互設(shè)計(jì)給出指導(dǎo)意見(jiàn)。最后,黑盒模型難以泛化和遷移。一個(gè)有著高準(zhǔn)確率的黑盒模型往往針對(duì)特定的交互任務(wù),即使在某個(gè)場(chǎng)景中能夠應(yīng)用,該模型也很難在別的交互場(chǎng)景下有著同樣高效的建模效率。

    因此,能夠直接反映變量之間關(guān)系的白盒模型雖然預(yù)測(cè)能力通常有限,但是,由于這類簡(jiǎn)單模型具有更好的可解釋性以及更容易理解的內(nèi)部工作原理,仍然是用戶表現(xiàn)建模的主流工具。

    2.3 機(jī)制性建模的不足

    機(jī)制性建模從用戶行為數(shù)據(jù)數(shù)呈現(xiàn)入手,采取回歸分析、控制理論等建模手段模擬用戶的運(yùn)動(dòng)機(jī)制。常見(jiàn)的機(jī)制性模型的目的是基于觀測(cè)到的用戶表現(xiàn)數(shù)據(jù),構(gòu)建具有強(qiáng)大預(yù)測(cè)能力的計(jì)算工具,并不試圖模擬內(nèi)部的生物學(xué)原理運(yùn)動(dòng)特征。而在運(yùn)動(dòng)控制和神經(jīng)學(xué)科領(lǐng)域文獻(xiàn)中,人類手部、胳膊的運(yùn)動(dòng)建模仿真已經(jīng)得到了廣泛地研究,部分模型嘗試從肌肉關(guān)節(jié)作用[42-43]等更深層次的運(yùn)動(dòng)機(jī)制中理解和建模用戶的交互行為。雖然該領(lǐng)域與人機(jī)交互領(lǐng)域下的用戶行為有著較高的相似度,但是這種建模方法仍未廣泛地應(yīng)用于人機(jī)交互領(lǐng)域用戶行為建模的研究中。

    此外,目前機(jī)制性建模仍停留在單純的感知-運(yùn)動(dòng)控制層次,仍未拓展到認(rèn)知層次。有大量的數(shù)據(jù)表明,人的小腦可以參與到高層次的人類認(rèn)知、運(yùn)動(dòng)控制功能中[44-46]。但是目前機(jī)制性模型僅僅可以對(duì)用戶的行為機(jī)制進(jìn)行解釋,仍未找到用戶行為與用戶認(rèn)知功能間的內(nèi)部聯(lián)系。

    2.4 模型應(yīng)用時(shí)存在的困難

    人機(jī)交互計(jì)算模型對(duì)于交互技術(shù)的發(fā)展和研究具有重要作用。好的計(jì)算模型能夠預(yù)測(cè)用戶的行為,提供技術(shù)創(chuàng)新支持,對(duì)用戶界面設(shè)計(jì)做出指導(dǎo)。近年來(lái),人機(jī)交互學(xué)者們針對(duì)動(dòng)態(tài)交互場(chǎng)景提出的計(jì)算模型越來(lái)越多,加強(qiáng)了對(duì)基礎(chǔ)交互現(xiàn)象的理解,然而人們卻很少看到這些模型在交互系統(tǒng)中的直接應(yīng)用,其主要原因有以下幾點(diǎn):

    首先,現(xiàn)存模型主要針對(duì)少數(shù)幾種任務(wù)如移動(dòng)目標(biāo)選擇進(jìn)行建模,對(duì)實(shí)際交互場(chǎng)景中大量使用的一些任務(wù),如手勢(shì)、身體姿態(tài)、眼動(dòng)頭動(dòng)、物體操縱、移動(dòng)或?qū)Ш降染从谐墒斓哪P停瑢?dǎo)致在實(shí)際應(yīng)用場(chǎng)景中存在需求卻無(wú)模型可用的情況;其次,現(xiàn)存模型的泛化性較低,往往在實(shí)際交互條件,例如界面布局、設(shè)備尺寸和精度、用戶人群等發(fā)生改變后無(wú)法使用,必須要在特定場(chǎng)景下重新采集數(shù)據(jù),對(duì)模型參數(shù)重新估計(jì)方可保證模型性能,而這種要求在實(shí)際工程應(yīng)用中往往是不現(xiàn)實(shí)的;最后,現(xiàn)存模型在構(gòu)建時(shí)往往不是以解決實(shí)際應(yīng)用中存在的問(wèn)題出發(fā)的,用其解決實(shí)際問(wèn)題時(shí)一般需要對(duì)該問(wèn)題進(jìn)行小心翼翼地抽象化和形式化以適應(yīng)模型的使用條件,而一旦這種抽象和形式化操作不當(dāng),有可能極大降低模型表現(xiàn)。這一點(diǎn)很大程度上降低了一般人機(jī)交互從業(yè)者們使用模型的意愿,甚至寧愿依靠自己的經(jīng)驗(yàn)做出界面設(shè)計(jì)判斷而不愿相信模型預(yù)測(cè)結(jié)果。

    本文認(rèn)為,人機(jī)交互計(jì)算模型未來(lái)是否能快速發(fā)展,關(guān)鍵在于其能否服務(wù)于實(shí)際,因此,解決以上3個(gè)問(wèn)題是當(dāng)前從事人機(jī)交互建模工作的學(xué)者們需要優(yōu)先考慮的事。

    3 總結(jié)與展望

    隨著新型用戶界面中動(dòng)態(tài)內(nèi)容的不斷增多,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型逐漸受到重視,在延續(xù)靜態(tài)任務(wù)交互模型的基礎(chǔ)上,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型對(duì)基礎(chǔ)交互任務(wù)中用戶的完成時(shí)間、錯(cuò)誤率和行為做出了建模,一定程度上解釋了動(dòng)態(tài)交互場(chǎng)景中的用戶行為,有助于改進(jìn)動(dòng)態(tài)用戶界面的設(shè)計(jì)。

    然而,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究仍存在諸多問(wèn)題和挑戰(zhàn),其中包括復(fù)雜動(dòng)態(tài)交互問(wèn)題建模的困難,黑盒模型存在的問(wèn)題,機(jī)制性建模的不足和模型應(yīng)用時(shí)存在的挑戰(zhàn)等,極大地限制了動(dòng)態(tài)模型研究的發(fā)展和應(yīng)用。如何有效地解決這些問(wèn)題可能是每一位計(jì)算模型領(lǐng)域的學(xué)者們必須深入思考的事。

    在此,本文將拋磚引玉,給出動(dòng)態(tài)交互場(chǎng)景中計(jì)算模型的3個(gè)發(fā)展方向和可能的途徑,供讀者參考。

    (1) 模型可解釋性的提高鑒于動(dòng)態(tài)交互場(chǎng)景的復(fù)雜性,黑盒模型是一種潛在的用戶建模有效手段。然而人機(jī)交互模型本質(zhì)上需要研究用戶行為背后的行為機(jī)制,并最終給出用戶界面設(shè)計(jì)的指導(dǎo)意見(jiàn)。在建模方法選擇時(shí),要對(duì)黑盒模型的建模準(zhǔn)確性和可解釋性進(jìn)行權(quán)衡。要解決黑盒模型的可解釋性需要從2個(gè)方向入手:一是從黑盒模型本身角度出發(fā),研究不同特征參數(shù)對(duì)模型建模的行為表現(xiàn)的影響,進(jìn)而分析黑盒模型是如何依賴于每個(gè)特征,這也是目前深度學(xué)習(xí)領(lǐng)域一個(gè)活躍的研究方向之一;二是可以從理解用戶意圖角度出發(fā),在黑盒模型基礎(chǔ)上構(gòu)建可解釋性更強(qiáng)的代理模型,用于輔助理解指導(dǎo)人類運(yùn)動(dòng)的認(rèn)知過(guò)程,從而構(gòu)建更為完整的計(jì)算模型工具,最終能夠?yàn)樵O(shè)計(jì)者提供更為完整和有用的建模結(jié)果。

    (2) 用戶行為底層機(jī)制的建模。要保證用戶行為模型在動(dòng)態(tài)交互場(chǎng)景下的準(zhǔn)確度,需要進(jìn)一步分析用戶行為下更深層次的用戶表現(xiàn),構(gòu)建更為底層的用戶行為機(jī)制模型。還需進(jìn)一步模擬人類的生物學(xué)原理運(yùn)動(dòng)特征,甚至構(gòu)建認(rèn)知層面的用戶行為模型。從用戶認(rèn)知層面出發(fā),要求模型可以模擬用戶在動(dòng)態(tài)交互場(chǎng)景下的認(rèn)知變化,以及不同環(huán)境下用戶的行為策略,從而在認(rèn)知層面指導(dǎo)用戶的關(guān)節(jié)、肌肉行為模型,并最終呈現(xiàn)在用戶的行為表現(xiàn)中。而這種基于更為底層機(jī)制的模型也會(huì)在一定程度上提升用戶行為模型的魯棒性,并且可能使得模型具有較強(qiáng)的泛化遷移能力。

    (3) 模型在界面設(shè)計(jì)和交互技術(shù)中的應(yīng)用。正如上文所述,人機(jī)交互計(jì)算模型未來(lái)是否能快速發(fā)展,關(guān)鍵在于其能否服務(wù)于實(shí)際。面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型在實(shí)際交互系統(tǒng)中有著廣泛的應(yīng)用前景,在以下幾個(gè)方面將發(fā)揮重要作用:

    首先,在動(dòng)態(tài)用戶界面交互設(shè)計(jì)中,人機(jī)交互計(jì)算模型能夠?qū)Π瑒?dòng)態(tài)用戶界面中的用戶表現(xiàn)做出預(yù)測(cè),進(jìn)而對(duì)界面的動(dòng)態(tài)因素包括物體的動(dòng)態(tài)、軌跡變化、動(dòng)畫快慢等進(jìn)行優(yōu)化;其次,人機(jī)交互計(jì)算模型允許用戶界面通過(guò)理解人類行為,將這類模型融入交互系統(tǒng)的研發(fā)之中,能使計(jì)算系統(tǒng)更好地適應(yīng)用戶偏好,推測(cè)用戶意圖,從而提升交互效率和交互體驗(yàn);最后,人機(jī)交互計(jì)算模型能夠揭示人類行為規(guī)律,其靈活應(yīng)用能為用戶界面、交互技術(shù)、交互系統(tǒng)和設(shè)備的研發(fā)提供啟示和支持,加快新型交互系統(tǒng)的產(chǎn)生。

    [1] FITTS P M. The information capacity of the human motor system in controlling the amplitude of movement[J] Journal of Experimental Psychology: General, 1954, 47(6): 381-391.

    [2] MACKENZIE I S. Fitts’ law as a research and design tool in human-computer interaction[J] Human-Computer Interaction, 1992, 7(1): 91-139.

    [3] MACKENZIE I S, BUXTON W. Extending Fitts’ law to two-dimensional tasks[C]//CHI’92: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 1992: 219-226.

    [4] ZHANG X Y, ZHA H B, FENG W X. Extending Fitts’ law to account for the effects of movement direction on 2d pointing[C]//CHI’12: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2012: 3185-3194.

    [5] MYRATA A, IWASE H. Extending Fitts’ law to a three-dimensional pointing task[J]. Human Movement Science, 2001, 20(6): 791-805.

    [6] JAGACINSKI R J, REPPERGER D W, WARD S L, et al. A test of Fitts’ law with moving targets[J]. Human Factors, 1980, 22(2), 225-233.

    [7] ACCOT J, ZHAI S M, BELIN A E. Beyond Fitts’ law: models for trajectory-based HCI tasks[C]//CHI’97: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 1997: 295-302.

    [8] PASTEL R. Measuring the difficulty of steering through corners[C]//CHI’06: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2006: 1087-1096.

    [9] YAMANAKA S, STUERALINGER W, MIYASHITA H. Steering through sequential linear path segments[C]//CHI’17: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2017: 232-243.

    [10] NANCEL M, LANK E. Modeling user performance on curved constrained paths[C]//CHI’17: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2017: 244-254.

    [11] WELFORD A T. Fundamentals of skill[M] London: Methuen, 1968: 1-426.

    [12] ZHAI S M, KONG J, REN X S. Speed–accuracy tradeoff in Fitts’ law tasks—on the equivalency of actual and nominal pointing precision[J]. International Journal of Human-Computer Studies, 2004, 61(6): 823-856.

    [13] WOBBROCK J O, CUTRELL E, HARADA S, et al. An error model for pointing based on Fitts’ law[C]//CHI’08: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2008: 1613-1622.

    [14] BI X J, ZHAI S. Bayesian touch: a statistical criterion of target selection with finger touch[C]//The 26th Annual ACM Symposium on User Interface Software and Technology. 2013: 51-60.

    [15] BI X J, LI Y, ZHAI S M. FFitts law: modeling finger touch with fitts’ law[C]//CHI’13: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2013: 1363-1372.

    [16] HENZE N, RUKZIO E, BOLL S. Observational and experimental investigation of typing behaviour using virtual keyboards for mobile devices[C]//CHI’12: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press,2012: 2659-2668.

    [17] WEIR D, POHL H, ROGERS S, et al. Uncertain text entry on mobile devices[C]//CHI’14: Proceedings of the AVM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2014: 2307-2316.

    [18] HOFFNMANN E R. Capture of moving targets: a modification of Fitts’ Law[J]. Ergonomics, 1991, 34(2): 211-220.

    [19] TREASILIAN J R, LONERGAN A. Intercepting a moving target: effects of temporal precision constraints and movement amplitude[J]. Experimental Brain Research, 2002, 142(2): 193-207.

    [20] TRESILIAN J R. Hitting a moving target: perception and action in the timing of rapid interceptions[J]. Perception & Psychophysics, 2005, 67(1): 129-149.

    [21] HAJRI A, FELS S, MILLER G, et al. Moving target selection in 2D graphical user interfaces[C]//2011 IFIP Conference on Human-Computer Interaction. Heidelberg: Springer, 2011: 141-161.

    [22] CARD S K, MORAN T P, NEWELL A. The keystroke-level model for user performance time with interactive systems[J]. Communications of the ACM, 1980, 23(7): 396-410.

    [23] MACKENZIE I S. Fitts’ law as a research and design tool in human-computer interaction[J]. Human-Computer Interaction, 1992, 7(1): 91-139.

    [24] GROSSMAN T, BALAKRISKNAN R. Pointing at trivariate targets in 3D environments[C]//CHI’04: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2004: 447-454.

    [25] CASALLAS J S. Prediction of user action in moving-target selection tasks[D]. Ames: Iowa State University, 2015.

    [26] WOBBROCK J O, CUTRELL E, HARADA S, et al. An error model for pointing based on Fitts’ law[C]//CHI’08: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2008: 1613-1622.

    [27] HUANG J, TIAN F, FAN X M, et al. Understanding the uncertainty in 1D unidirectional moving target selection[C]//CHI’18: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2018: 1-12.

    [28] LEE B, OULASVIRTA A. Modelling error rates in temporal pointing[C]//CHI’16: Proceedings of the ACM CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2016: 1857-1868.

    [29] ROLIN R A, FOOKEN J, SPERING M, et al. Perception of looming motion in virtual reality egocentric interception tasks[J]. IEEE Transactions on Visualization and Computer Graphics, 2018, 25(10): 3042-3048.

    [30] HUANG J, TIAN F, LI N L, et al. Modeling the uncertainty in 2D moving target selection[C]//The 32nd Annual ACM Symposium on User Interface Software and Technology. New York: ACM Press, 2019: 1031-1043.

    [31] HUANG J, TIAN F, FAN X M, et al. Modeling the endpoint uncertainty in crossing-based moving target selection[C]//2020 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2020: 1-12.

    [32] LEE B, KIM S, OILASVIRTA A, et al. Moving target selection: a cue integration model[C]//2018 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2018: 1-12.

    [33] LEE I, KIM S, LEE B. Geometrically compensating effect of end-to-end latency in moving-target selection games[C]//2019 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2019: 560: 1-560: 12.

    [34] PARK E, LEE B. An intermittent click planning model[C]//2020 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2020: 9: 1-9: 13.

    [35] VIVIANI P, FLASH T. Minimum-jerk, two-thirds power law, and isochrony: converging approaches to movement planning[J]. Journal of Experimental Psychology: Human Perception and Performance, 1995, 21(1): 32.

    [36] CAO X, ZHAI S. Modeling human performance of pen stroke gestures[C]//2007 SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2007: 1495-1504.

    [37] QUINN P, ZHAI S. Modeling gesture-typing movements[J]. Human–Computer Interaction, 2018, 33(3): 234-280.

    [38] OULASVIRTA A, KIM S, LEE B. Neuromechanics of a button press[C]//2018 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2018: 4099-4112.

    [39] HUANG J, PENG X L, TIAN F, et al. Modeling a target-selection motion by leveraging an optimal feedback control mechanism[J]. Science China Information Sciences, 2018, 61(4): 044101:1-044101:3.

    [40] BACHYNSKYI M, MüLLER J. Dynamics of aimed mid-air movements[C]//2020 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2020: 67: 1-67: 12.

    [41] SWEARNGIN A, LI Y. Modeling mobile interface tappability using crowdsourcing and deep learning[C]//2019 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2019: 75: 1-75: 11.

    [42] CAMPOS F M M O, CALADO J M F. Approaches to human arm movement control—a review[J]. Annual Reviews in Control, 2009, 33(1): 69-77.

    [43] SHADMEHR R, WISE S P. The computational neurobiology of reaching and pointing: a foundation for motor learning[M]. Cambridge: MIT Press, 2005: 1-573.

    [44] MIDDLETON F A, STRICK P L. The cerebellum: an overview[J]. Trends in Neurosciences, 1998, 21(9): 367-369.

    [45] TAMADA T, MIYAUCHI S, IMAMIZU H, et al. Cerebrocerebellar functional connectivity revealed by the laterality index in tool-use learning[J]. Neuroreport, 1999, 10(2): 325-331.

    [46] KAWATO M. Internal models for motor control and trajectory planning[J]. Current Opinion in Neurobiology, 1999, 9(6): 718-727.

    Computational model for dynamical interaction scenarios

    HUANG Jin1,3, ZHANG Hao1,2, TIAN Feng1,3

    (1. Beijing Key Lab of Human-Computer Interaction, Institute of Software Chinese Academy of Sciences, Beijing 100190, China;2. School of Computer Science and Technology, University of Chinese Academy of Sciences, Beijing 101408, China;3. School of Artificial Intelligence, University of Chinese Academy of Sciences, Beijing 101408, China)

    With the development of human-computer interaction (HCI) technology, interactive systems including dynamic content, such as virtual/augmented/mixed reality, video surveillance system, etc., gradually becomes the mainstream. Computational models for dynamic interaction scenarios have attracted more and more attention. HCI researchers proposed numerous models that significantly improve our understanding of dynamical user interfaces. However, there are still many challenges in the research of computational model for dynamical interaction scenarios. The problems of complexity in dynamic interaction scenarios, lack of interpretability, weakness in descripting interaction mechanisms greatly limit the development and application of computational models for dynamical interaction scenarios. We review related work and recent advances in the computing model for dynamic interaction scenarios, summarize existing problems, and offer our predictions for the future development in this field. The purpose of this paper is to provide references for future research on computing models for dynamical interaction scenarios.

    human computer interaction; interactive system; dynamic scenarios; dynamic interaction task; computational model

    TP 391

    10.11996/JG.j.2095-302X.2021030359

    A

    2095-302X(2021)03-0359-08

    2021-04-21;

    2021-05-19

    21 April 2021;

    19 May,2021

    國(guó)家自然科學(xué)基金項(xiàng)目(61802379);中國(guó)科學(xué)院前沿科學(xué)重點(diǎn)研究項(xiàng)目(QYZDY-SSW-JSC041);中國(guó)科學(xué)院青年創(chuàng)新促進(jìn)會(huì)項(xiàng)目(2020113)

    National Natural Science Foundation of China (61802379); Key Research Program of Frontier Sciences CAS (QYZDY-SSW-JSC041); Youth Innovation Promotion Association CAS (2020113)

    黃 進(jìn)(1985-),男,廣西玉林人,助理研究員,博士。主要研究方向?yàn)槿藱C(jī)交互理論、模型和方法。E-mail:huangjin@iscas.ac.cn

    HUANG Jin (1985-), male, assistant professor, Ph.D. His main research interests cover human-computer interaction theory, concepts and models. E-mail: huangjin@iscas.ac.cn

    田 豐(1976-),男,陜西延安人,研究員,博士。主要研究方向?yàn)槿藱C(jī)交互、虛擬現(xiàn)實(shí)等。E-mail:tianfeng@iscas.ac.cn

    TIAN Feng (1976-), male, professor, Ph.D. His main research interests cover human-computer interaction, virtual reality, etc. E-mail:tianfeng@iscas.ac.cn

    猜你喜歡
    黑盒軌跡動(dòng)態(tài)
    國(guó)內(nèi)動(dòng)態(tài)
    一種基于局部平均有限差分的黑盒對(duì)抗攻擊方法
    國(guó)內(nèi)動(dòng)態(tài)
    國(guó)內(nèi)動(dòng)態(tài)
    軌跡
    軌跡
    動(dòng)態(tài)
    軌跡
    進(jìn)化的軌跡(一)——進(jìn)化,無(wú)盡的適應(yīng)
    国产一区有黄有色的免费视频| 免费一级毛片在线播放高清视频 | av又黄又爽大尺度在线免费看| 免费在线观看日本一区| 亚洲五月色婷婷综合| 99国产极品粉嫩在线观看| 十八禁网站网址无遮挡| 国产av又大| 国产片内射在线| 在线观看舔阴道视频| 性色av一级| 精品一品国产午夜福利视频| 亚洲国产欧美一区二区综合| 男女高潮啪啪啪动态图| 国产精品1区2区在线观看. | 亚洲专区国产一区二区| 国产xxxxx性猛交| 黄色视频,在线免费观看| 精品国产乱码久久久久久小说| 高潮久久久久久久久久久不卡| 黄网站色视频无遮挡免费观看| 亚洲第一av免费看| 国内毛片毛片毛片毛片毛片| 爱豆传媒免费全集在线观看| 精品久久久精品久久久| 欧美精品高潮呻吟av久久| 99精国产麻豆久久婷婷| 日本vs欧美在线观看视频| 大片免费播放器 马上看| 欧美 日韩 精品 国产| a级片在线免费高清观看视频| 久久久水蜜桃国产精品网| 大型av网站在线播放| 成人国语在线视频| 岛国在线观看网站| 少妇被粗大的猛进出69影院| 欧美亚洲 丝袜 人妻 在线| 夫妻午夜视频| 国产精品国产三级国产专区5o| 91麻豆精品激情在线观看国产 | 欧美 日韩 精品 国产| 99国产精品免费福利视频| 汤姆久久久久久久影院中文字幕| 久久人人爽av亚洲精品天堂| 日韩电影二区| 国产成人精品久久二区二区91| 亚洲免费av在线视频| 王馨瑶露胸无遮挡在线观看| 无遮挡黄片免费观看| 大陆偷拍与自拍| 日本wwww免费看| 免费一级毛片在线播放高清视频 | 五月开心婷婷网| av福利片在线| 亚洲av片天天在线观看| 国产在线观看jvid| 亚洲精品自拍成人| 中国国产av一级| 亚洲欧美日韩另类电影网站| 91麻豆精品激情在线观看国产 | 新久久久久国产一级毛片| 色94色欧美一区二区| 一进一出抽搐动态| 午夜日韩欧美国产| 巨乳人妻的诱惑在线观看| 性色av乱码一区二区三区2| 欧美黄色淫秽网站| 黄色视频在线播放观看不卡| 美女高潮喷水抽搐中文字幕| bbb黄色大片| 99国产精品99久久久久| 乱人伦中国视频| 90打野战视频偷拍视频| 老司机午夜福利在线观看视频 | 国产亚洲一区二区精品| 欧美激情极品国产一区二区三区| 国产一区二区在线观看av| 制服诱惑二区| 大片免费播放器 马上看| 男人舔女人的私密视频| 黄色视频,在线免费观看| 首页视频小说图片口味搜索| 午夜激情av网站| 日韩欧美一区视频在线观看| 香蕉国产在线看| 高潮久久久久久久久久久不卡| 欧美日韩亚洲高清精品| www.av在线官网国产| 亚洲天堂av无毛| 91精品国产国语对白视频| 亚洲全国av大片| 性高湖久久久久久久久免费观看| 少妇人妻久久综合中文| 欧美日韩国产mv在线观看视频| 午夜免费成人在线视频| 国产有黄有色有爽视频| 男女国产视频网站| 久久久久久久大尺度免费视频| 国产一区二区激情短视频 | 青春草视频在线免费观看| 母亲3免费完整高清在线观看| √禁漫天堂资源中文www| 久久久久国产精品人妻一区二区| 精品人妻熟女毛片av久久网站| a在线观看视频网站| 精品少妇久久久久久888优播| 在线亚洲精品国产二区图片欧美| 性色av乱码一区二区三区2| 欧美日韩亚洲国产一区二区在线观看 | 国产精品久久久人人做人人爽| 麻豆av在线久日| 亚洲欧洲精品一区二区精品久久久| 又紧又爽又黄一区二区| 欧美黑人欧美精品刺激| e午夜精品久久久久久久| 午夜福利影视在线免费观看| 考比视频在线观看| 欧美日韩福利视频一区二区| 精品少妇内射三级| 丰满饥渴人妻一区二区三| 人妻一区二区av| 俄罗斯特黄特色一大片| 十分钟在线观看高清视频www| 国产精品熟女久久久久浪| 久久精品熟女亚洲av麻豆精品| 国精品久久久久久国模美| 91九色精品人成在线观看| 桃红色精品国产亚洲av| 各种免费的搞黄视频| 亚洲av成人一区二区三| 欧美+亚洲+日韩+国产| 亚洲av美国av| av天堂在线播放| 久久久欧美国产精品| 香蕉丝袜av| 十八禁人妻一区二区| 黑人欧美特级aaaaaa片| 亚洲五月色婷婷综合| 青春草视频在线免费观看| 性高湖久久久久久久久免费观看| 满18在线观看网站| a级毛片在线看网站| 亚洲人成77777在线视频| videosex国产| 国产精品九九99| 亚洲性夜色夜夜综合| 欧美人与性动交α欧美精品济南到| 欧美精品一区二区免费开放| 午夜福利在线观看吧| 成人黄色视频免费在线看| 99久久国产精品久久久| 国产成人欧美在线观看 | 成年av动漫网址| av在线app专区| 精品亚洲成a人片在线观看| 国产有黄有色有爽视频| 亚洲国产精品一区三区| 精品亚洲成a人片在线观看| 欧美精品人与动牲交sv欧美| 午夜福利视频精品| 国产免费av片在线观看野外av| 超色免费av| 真人做人爱边吃奶动态| avwww免费| 嫁个100分男人电影在线观看| 国产99久久九九免费精品| av线在线观看网站| 亚洲激情五月婷婷啪啪| 亚洲国产欧美网| 欧美在线黄色| 99精品久久久久人妻精品| 国产免费一区二区三区四区乱码| 欧美激情 高清一区二区三区| 人人妻人人澡人人看| 欧美人与性动交α欧美软件| 捣出白浆h1v1| 老司机福利观看| 啦啦啦啦在线视频资源| 中文字幕人妻丝袜制服| 人人澡人人妻人| 国产在线一区二区三区精| 狠狠狠狠99中文字幕| 亚洲精品国产色婷婷电影| 国产欧美日韩一区二区三区在线| 国产精品 国内视频| 精品一区二区三区av网在线观看 | 国产又爽黄色视频| 麻豆国产av国片精品| 国产成+人综合+亚洲专区| 久久久欧美国产精品| bbb黄色大片| 美女国产高潮福利片在线看| 国产精品.久久久| 亚洲第一欧美日韩一区二区三区 | 久久精品国产a三级三级三级| 大型av网站在线播放| 淫妇啪啪啪对白视频 | 久久久国产成人免费| 高清欧美精品videossex| 久久毛片免费看一区二区三区| 欧美日韩一级在线毛片| 亚洲欧美精品综合一区二区三区| 精品久久久久久久毛片微露脸 | 精品亚洲成国产av| 国产色视频综合| 精品国产国语对白av| 久热这里只有精品99| 久久久国产成人免费| 在线十欧美十亚洲十日本专区| 国产伦理片在线播放av一区| 久久久久国产一级毛片高清牌| 999久久久精品免费观看国产| 老司机影院毛片| 国产精品 欧美亚洲| 少妇粗大呻吟视频| 中国美女看黄片| 精品高清国产在线一区| 美女高潮喷水抽搐中文字幕| 欧美中文综合在线视频| 精品亚洲乱码少妇综合久久| 麻豆国产av国片精品| 女性被躁到高潮视频| 精品人妻熟女毛片av久久网站| 亚洲国产欧美在线一区| www.自偷自拍.com| 国产精品 国内视频| 精品少妇内射三级| 一二三四社区在线视频社区8| 18禁裸乳无遮挡动漫免费视频| 精品国产超薄肉色丝袜足j| 免费观看人在逋| 国产日韩一区二区三区精品不卡| 男女无遮挡免费网站观看| 麻豆国产av国片精品| 欧美激情久久久久久爽电影 | 一区二区av电影网| 一区二区三区激情视频| 99国产精品一区二区蜜桃av | 91大片在线观看| 午夜福利视频在线观看免费| 国产极品粉嫩免费观看在线| 精品国产超薄肉色丝袜足j| 亚洲七黄色美女视频| 色视频在线一区二区三区| 男人添女人高潮全过程视频| 国产一区二区在线观看av| 国产精品国产三级国产专区5o| 精品国产一区二区三区久久久樱花| 中文字幕最新亚洲高清| av欧美777| 日本wwww免费看| 一区二区三区激情视频| 最近最新免费中文字幕在线| 两性午夜刺激爽爽歪歪视频在线观看 | 欧美日韩福利视频一区二区| 精品少妇一区二区三区视频日本电影| 最近最新中文字幕大全免费视频| 色播在线永久视频| 在线天堂中文资源库| www.精华液| 午夜精品国产一区二区电影| 久久九九热精品免费| 久久久久网色| 香蕉丝袜av| 国产99久久九九免费精品| 80岁老熟妇乱子伦牲交| 国产97色在线日韩免费| 天天躁夜夜躁狠狠躁躁| tocl精华| 久久久精品区二区三区| 最新的欧美精品一区二区| 搡老熟女国产l中国老女人| 欧美黄色片欧美黄色片| 欧美精品av麻豆av| 日韩精品免费视频一区二区三区| 亚洲免费av在线视频| 婷婷色av中文字幕| 欧美日韩成人在线一区二区| a 毛片基地| 国产精品自产拍在线观看55亚洲 | 中文字幕最新亚洲高清| 欧美黑人精品巨大| 老司机午夜福利在线观看视频 | 精品一品国产午夜福利视频| 91麻豆av在线| 女人高潮潮喷娇喘18禁视频| 日本一区二区免费在线视频| 国产精品久久久久久精品古装| 最近最新免费中文字幕在线| 精品福利观看| 久久精品国产亚洲av高清一级| 亚洲中文日韩欧美视频| 国产一区二区三区综合在线观看| 人人澡人人妻人| 精品人妻在线不人妻| 国产成人免费观看mmmm| 成年av动漫网址| 免费观看av网站的网址| 国产成人啪精品午夜网站| 精品人妻一区二区三区麻豆| 日韩一卡2卡3卡4卡2021年| 啦啦啦啦在线视频资源| 中文欧美无线码| 久久久久国产精品人妻一区二区| 国产精品久久久久久人妻精品电影 | 男男h啪啪无遮挡| 欧美老熟妇乱子伦牲交| 国产精品一区二区在线不卡| 日韩欧美一区视频在线观看| 国产成人啪精品午夜网站| 国产一区有黄有色的免费视频| 日本wwww免费看| 久久久久久久大尺度免费视频| 在线观看免费日韩欧美大片| 国产视频一区二区在线看| 久久精品国产亚洲av高清一级| 精品卡一卡二卡四卡免费| 99精品欧美一区二区三区四区| av一本久久久久| 亚洲第一av免费看| 国产男人的电影天堂91| 欧美在线黄色| 欧美日韩亚洲国产一区二区在线观看 | 免费av中文字幕在线| 啦啦啦免费观看视频1| 国产精品秋霞免费鲁丝片| 国产无遮挡羞羞视频在线观看| 国产精品 国内视频| 色婷婷久久久亚洲欧美| 51午夜福利影视在线观看| 精品少妇内射三级| 黑丝袜美女国产一区| 午夜福利视频精品| 精品久久久久久久毛片微露脸 | 免费在线观看完整版高清| 久久久久国产一级毛片高清牌| videos熟女内射| 人人妻人人澡人人看| 久久久久久久大尺度免费视频| 日本av免费视频播放| 亚洲熟女毛片儿| 一级,二级,三级黄色视频| 下体分泌物呈黄色| 亚洲精华国产精华精| 9热在线视频观看99| 黄频高清免费视频| 在线 av 中文字幕| 亚洲黑人精品在线| 亚洲专区国产一区二区| a在线观看视频网站| 侵犯人妻中文字幕一二三四区| 国产成人精品无人区| 国产精品熟女久久久久浪| 狠狠婷婷综合久久久久久88av| 女人爽到高潮嗷嗷叫在线视频| 国产三级黄色录像| 美女福利国产在线| 成在线人永久免费视频| 天天躁日日躁夜夜躁夜夜| 性高湖久久久久久久久免费观看| 亚洲国产欧美网| 人人妻人人澡人人爽人人夜夜| 男男h啪啪无遮挡| videosex国产| 亚洲av片天天在线观看| 99精国产麻豆久久婷婷| 免费在线观看视频国产中文字幕亚洲 | 9色porny在线观看| 91麻豆精品激情在线观看国产 | 午夜福利在线免费观看网站| 亚洲国产欧美网| 老司机影院毛片| netflix在线观看网站| 午夜福利在线免费观看网站| 日韩免费高清中文字幕av| 黑丝袜美女国产一区| 在线观看舔阴道视频| 亚洲九九香蕉| 在线 av 中文字幕| 免费看十八禁软件| 精品国产超薄肉色丝袜足j| 两性夫妻黄色片| 美女视频免费永久观看网站| av福利片在线| 十八禁高潮呻吟视频| 女人精品久久久久毛片| 美女午夜性视频免费| 亚洲国产欧美在线一区| 两个人免费观看高清视频| 高清在线国产一区| 亚洲久久久国产精品| 青青草视频在线视频观看| 99re6热这里在线精品视频| 精品少妇久久久久久888优播| 成年人免费黄色播放视频| 日日摸夜夜添夜夜添小说| 日本黄色日本黄色录像| 一区二区三区四区激情视频| 黑丝袜美女国产一区| 亚洲欧美清纯卡通| 美女大奶头黄色视频| 午夜激情av网站| 视频在线观看一区二区三区| 韩国高清视频一区二区三区| 免费观看a级毛片全部| 午夜精品国产一区二区电影| 夜夜夜夜夜久久久久| 国产精品麻豆人妻色哟哟久久| 各种免费的搞黄视频| 美女中出高潮动态图| 国产精品 欧美亚洲| 亚洲精品一二三| 丰满迷人的少妇在线观看| 91精品三级在线观看| 日日摸夜夜添夜夜添小说| 久久女婷五月综合色啪小说| 免费日韩欧美在线观看| 一级片免费观看大全| 一二三四在线观看免费中文在| 亚洲va日本ⅴa欧美va伊人久久 | 亚洲国产欧美网| 日韩欧美免费精品| 国产精品1区2区在线观看. | 日本精品一区二区三区蜜桃| 欧美中文综合在线视频| 精品亚洲成国产av| 免费女性裸体啪啪无遮挡网站| 免费在线观看完整版高清| 香蕉国产在线看| 亚洲午夜精品一区,二区,三区| 亚洲中文av在线| 国产精品 欧美亚洲| 国产一区有黄有色的免费视频| 在线观看免费日韩欧美大片| 色播在线永久视频| 久久人人爽人人片av| 欧美精品一区二区大全| 91精品国产国语对白视频| 亚洲性夜色夜夜综合| 色婷婷久久久亚洲欧美| 亚洲人成电影观看| 欧美日韩亚洲高清精品| 18禁裸乳无遮挡动漫免费视频| 精品国产一区二区三区四区第35| 伦理电影免费视频| 国产三级黄色录像| 久久精品亚洲熟妇少妇任你| 18在线观看网站| 999精品在线视频| 菩萨蛮人人尽说江南好唐韦庄| 天天影视国产精品| 久久热在线av| 成人免费观看视频高清| 欧美精品啪啪一区二区三区 | 高清在线国产一区| 欧美激情极品国产一区二区三区| 国产精品久久久久成人av| 最近最新免费中文字幕在线| 午夜视频精品福利| 国产成人免费观看mmmm| 国产免费av片在线观看野外av| 精品国产乱子伦一区二区三区 | 手机成人av网站| 久久性视频一级片| av在线app专区| 国产成人啪精品午夜网站| 欧美黑人欧美精品刺激| 一区二区三区乱码不卡18| 亚洲一码二码三码区别大吗| 不卡一级毛片| 99热网站在线观看| 久久毛片免费看一区二区三区| 一区二区三区四区激情视频| 日本a在线网址| 久久久久国产精品人妻一区二区| 国产欧美日韩综合在线一区二区| 欧美av亚洲av综合av国产av| 丰满迷人的少妇在线观看| 久久精品人人爽人人爽视色| a 毛片基地| 波多野结衣一区麻豆| 涩涩av久久男人的天堂| 欧美精品av麻豆av| 国产成人精品在线电影| a级毛片黄视频| 成人手机av| 乱人伦中国视频| 一本—道久久a久久精品蜜桃钙片| 国产免费av片在线观看野外av| 国产av国产精品国产| 成年美女黄网站色视频大全免费| 一边摸一边做爽爽视频免费| 国产国语露脸激情在线看| 欧美97在线视频| 欧美久久黑人一区二区| 久久中文看片网| 欧美久久黑人一区二区| 一本一本久久a久久精品综合妖精| 一级毛片电影观看| 午夜福利乱码中文字幕| 午夜久久久在线观看| 日韩欧美一区二区三区在线观看 | 老司机靠b影院| bbb黄色大片| 人人妻,人人澡人人爽秒播| 美女主播在线视频| 91字幕亚洲| 性少妇av在线| 精品人妻1区二区| 国产成人免费观看mmmm| 丁香六月天网| 成人国产av品久久久| 婷婷色av中文字幕| 国产成人av教育| 老熟女久久久| 操出白浆在线播放| 精品国产超薄肉色丝袜足j| 成人手机av| 在线观看www视频免费| 亚洲精品日韩在线中文字幕| 欧美精品啪啪一区二区三区 | 国产在线视频一区二区| 精品熟女少妇八av免费久了| 国产高清视频在线播放一区 | 国产欧美日韩一区二区三区在线| 极品人妻少妇av视频| 91成人精品电影| 精品久久蜜臀av无| 亚洲国产毛片av蜜桃av| 777米奇影视久久| 日韩电影二区| 欧美一级毛片孕妇| 美女午夜性视频免费| 老司机福利观看| 两个人免费观看高清视频| 国产高清videossex| 久久中文看片网| 久久久久久久精品精品| 成人亚洲精品一区在线观看| 精品少妇内射三级| 国内毛片毛片毛片毛片毛片| 欧美乱码精品一区二区三区| 丝袜美腿诱惑在线| 在线 av 中文字幕| 亚洲黑人精品在线| 国产视频一区二区在线看| 国产精品偷伦视频观看了| 国产亚洲av高清不卡| 这个男人来自地球电影免费观看| 麻豆乱淫一区二区| 香蕉国产在线看| 免费在线观看影片大全网站| 久久这里只有精品19| 国产成人系列免费观看| 美女扒开内裤让男人捅视频| 欧美老熟妇乱子伦牲交| 久久久久久久精品精品| 国产一区二区三区在线臀色熟女 | 亚洲伊人色综图| 各种免费的搞黄视频| 久久久欧美国产精品| 久久久久久久久免费视频了| 国产一区二区三区综合在线观看| 国产1区2区3区精品| 国产精品一区二区在线观看99| 午夜福利影视在线免费观看| 人成视频在线观看免费观看| 一二三四在线观看免费中文在| 香蕉国产在线看| 午夜免费成人在线视频| 亚洲av男天堂| 巨乳人妻的诱惑在线观看| 欧美精品av麻豆av| 岛国毛片在线播放| 一本大道久久a久久精品| 久久免费观看电影| 狂野欧美激情性bbbbbb| 69精品国产乱码久久久| 国产在线一区二区三区精| 热99re8久久精品国产| 精品亚洲乱码少妇综合久久| 可以免费在线观看a视频的电影网站| 国产又色又爽无遮挡免| 亚洲情色 制服丝袜| 精品国产一区二区三区久久久樱花| 国产精品免费视频内射| 美女主播在线视频| 精品亚洲成a人片在线观看| 在线观看免费午夜福利视频| 欧美av亚洲av综合av国产av| 午夜成年电影在线免费观看| 久久毛片免费看一区二区三区| 色视频在线一区二区三区| 视频区欧美日本亚洲| 亚洲五月婷婷丁香| 悠悠久久av| 女人精品久久久久毛片| 亚洲精品久久成人aⅴ小说| 国产一区二区 视频在线| 岛国毛片在线播放| 精品久久久精品久久久| a级毛片在线看网站| 欧美 日韩 精品 国产| 狂野欧美激情性xxxx| 亚洲男人天堂网一区| 黄色毛片三级朝国网站| 国产一区二区三区在线臀色熟女 | 超碰97精品在线观看| 精品熟女少妇八av免费久了| 波多野结衣av一区二区av| 欧美另类亚洲清纯唯美| 1024香蕉在线观看| 亚洲精品av麻豆狂野| 美女脱内裤让男人舔精品视频| 欧美国产精品va在线观看不卡|