• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度強化學習的存內(nèi)計算部署優(yōu)化算法

    2023-10-18 16:25:43胡益笛夏銀水
    計算機應用研究 2023年9期

    胡益笛 夏銀水

    摘 要:針對存內(nèi)計算大規(guī)模神經(jīng)網(wǎng)絡部署導致的計算延遲、運行功耗較大等問題,提出了基于深度強化學習的神經(jīng)網(wǎng)絡部署優(yōu)化算法。首先,建立了馬爾可夫決策過程的任務模型,優(yōu)化神經(jīng)網(wǎng)絡的延遲和功耗,完成片上計算核心的部署。其次,針對優(yōu)化部署過程中,存在求解空間過大、探索能力不足等問題,提出了一種基于深度強化學習的智能部署優(yōu)化算法,從而得到近似最優(yōu)的神經(jīng)網(wǎng)絡部署策略。最后,針對強化學習探索能力不足的問題,提出了一種基于內(nèi)在激勵的獎勵策略,鼓勵探索未知解空間,提高部署質量,解決陷入局部最優(yōu)等問題。實驗結果表明,該算法與目前強化學習算法相比能進一步優(yōu)化功耗和延遲。

    關鍵詞:存內(nèi)計算; 深度強化學習; 神經(jīng)網(wǎng)絡部署; 近端策略優(yōu)化; 內(nèi)在激勵

    中圖分類號:TP391.7

    文獻標志碼:A

    文章編號:1001-3695(2023)09-008-0000-00

    doi:10.19734/j.issn.1001-3695.2023.02.0047

    Processing in memory deployment optimization algorithm

    based on deep reinforcement learning

    Hu Yidi, Xia Yinshui

    (College of Information Science & Technology, Ningbo University, Ningbo Zhejiang 315211, China)

    Abstract:To address the issues of computational latency and high operational power consumption caused by the deployment of large-scale neural networks for in-memory computing, this paper proposed a deep reinforcement learning-based optimization algorithm for neural network deployment. Firstly, it established a task model for Markov decision processes, which optimized the latency and power consumption of the neural network and completed the deployment of the on-chip computing core. Secondly, to tackle the challenges of excessive solution space and insufficient exploration capability during the optimization process, it introduced a deployment optimization algorithm based on deep reinforcement learning to obtain a near-optimal neural network deployment strategy. Lastly, it proposed a reward strategy grounded in intrinsic motivation to address the lack of exploration ability in reinforcement learning, encouraging the exploration of unknown solution spaces, enhancing the quality of deployment, and resolving issues such as getting trapped in local optimality. Experimental results demonstrate that this proposed algorithm further optimizes power consumption and latency compared to current reinforcement learning algorithms.

    Key words:processing in memory; deep reinforce learning; neural network deployment; proximal policy optimization; intrinsic reward

    0 引言

    近年來,從人工智能領域興起的神經(jīng)網(wǎng)絡算法在如計算機視覺[1]、語音識別[2]、自動化[3]等諸多應用領域都取得了顯著的成果。通過堆疊網(wǎng)絡層數(shù)的深度神經(jīng)網(wǎng)絡算法具有層數(shù)深、參數(shù)多等特點,需要更適合的計算架構。在眾多計算架構中,存內(nèi)計算(processing in memory,PIM)以其高集成性、高并行性和低功耗的優(yōu)勢而備受關注。PIM架構中通常使用阻變式存儲器(resistive random access memory,ReRAM)[4,5]進行存儲和計算,結合納米線陣列構成的RRAM陣列結構為PIM架構中的核心計算單元(計算核),如圖1所示,T(Tile)為計算核,包括9個處理器(processing engine,PE),其中PE內(nèi)集成了行列為64或128的RRAM陣列。

    在神經(jīng)網(wǎng)絡部署任務中,神經(jīng)網(wǎng)絡參數(shù)被平均分布在計算核上,通過路由器實現(xiàn)PIM的片上通信。基于上述PIM架構,工業(yè)界和學術界已經(jīng)提出了諸如IBM的TrueNorth[6]、英特爾的Loihi[7]、BrainChip的Akida和NeuRRAM[8]等PIM芯片。

    如圖2所示,在PIM芯片上部署神經(jīng)網(wǎng)絡算法通常需要兩個步驟:邏輯映射和物理部署。在邏輯映射階段,神經(jīng)網(wǎng)絡按照計算核容量被劃分為計算節(jié)點,由有向無環(huán)圖(directed acyclic graph,DAG)表示,稱為邏輯圖。在物理部署階段,將邏輯圖的節(jié)點依據(jù)圖拓撲結構、芯片的路由策略和計算核排列方式,部署到片上計算核中。不同的部署結果會對芯片延遲、功耗等性能有較大影響,因此探索一種從邏輯圖至多核芯片的低延時低功耗的部署策略至關重要。

    目前,已有大量工作面向延遲功耗優(yōu)化的神經(jīng)網(wǎng)絡的物理部署問題。Ostler等人[9]提出了基于整數(shù)線性規(guī)劃(integer linear programming,ILP)的方法,實現(xiàn)邏輯圖至4×4的多計算核系統(tǒng)部署,優(yōu)化了計算功耗。然而,在大規(guī)模部署任務中該方法存在計算時間長的問題。Joseph等人[10]提出負載平衡的方法,使用蛇型部署的方式獲得一個良好的物理部署,并使用啟發(fā)式算法進一步降低延遲。Wu等人[11]使用二維矩陣表示當前部署結果,通過深度確定性策略梯度(deep deterministic policy gradient,DDPG)訓練部署策略,與模擬退火算法相比降低了18.6%的延遲,但它在訓練過程中,沒有考慮邏輯圖的拓撲關系,其訓練效果比較有限。Myung等人[12]創(chuàng)新性地使用圖神經(jīng)網(wǎng)絡提取邏輯圖的拓撲關系,并以此指導部署策略的學習,在包含8×8和16×16個計算核的PIM芯片內(nèi),相比模擬退火算法在延遲和功耗上分別降低了19.4%和10.9%。但在此過程中已提取的信息不會隨著部署的進行而變化,導致策略更新緩慢,難以進一步優(yōu)化部署。

    研究發(fā)現(xiàn),相比于傳統(tǒng)的啟發(fā)式算法,融合深度神經(jīng)網(wǎng)絡(deep neuro network,DNN)和強化學習(reinforce learning,RL)的深度強化學習(deep reinforce learning,DRL)更善于求解各種組合優(yōu)化問題,在計算機視覺、機器人控制、電子設計自動化[13,14]等領域中,取得較好的優(yōu)化效果。

    神經(jīng)網(wǎng)絡至多核系統(tǒng)的物理部署優(yōu)化是組合優(yōu)化問題之一。DRL通過狀態(tài)變化進行組合優(yōu)化的策略選擇,以使長期累積的獎勵和最大,具有較大優(yōu)勢。

    在PIM芯片的物理部署研究中,DRL算法學習選擇邏輯圖節(jié)點至PIM芯片上的計算核的部署策略。在此過程中,完整邏輯圖的部署稱為單輪部署。通過多次的單輪部署,DRL學習到有效的部署策略。但是現(xiàn)有基于DRL的神經(jīng)網(wǎng)絡多核部署研究中,缺乏單輪部署中間狀態(tài)的觀測和獎勵的反饋[11,12],難以引導DRL算法的更新方向,存在稀疏獎勵問題。

    針對部署優(yōu)化問題,本文從單輪部署出發(fā),豐富中間狀態(tài)表示,構建內(nèi)在激勵,優(yōu)化物理部署結果。因此部署過程中需要提取中間狀態(tài)信息,并基于中間狀態(tài)的差異構建內(nèi)在激勵,將稀疏獎勵轉變?yōu)槌砻塥剟?。首先,將物理部署問題建立為馬爾可夫決策過程(Markov decision process,MDP)模型,定義了狀態(tài)表示和決策方式。其次使用圖神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡提取當前部署狀態(tài)的信息。依據(jù)狀態(tài)信息的變化定義內(nèi)在激勵,DRL在目標函數(shù)與內(nèi)在激勵共同作用下通過近端策略優(yōu)化[15](proximal policy optimization,PPO)更新部署策略。本文的主要貢獻為

    a)對優(yōu)化部署問題,通過建立豐富中間狀態(tài)的MDP模型,聯(lián)合優(yōu)化部署后的通信開銷和延遲,并使用DRL算法對該問題進行求解。

    b)采用圖神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡結合的信息提取算法,豐富了部署過程中的信息表達,更精準決策。在部署的過程中,提取當前部署狀態(tài)和邏輯圖的信息,作為每一次部署決策的依據(jù)。

    c)使用內(nèi)在激勵算法,在8×8和16×16等多計算核系統(tǒng)的物理部署階段解決稀疏獎勵問題。單輪部署中,根據(jù)當前狀態(tài)為DRL構建不同的內(nèi)在激勵。通過內(nèi)在激勵促進DRL對新狀態(tài)的探索,進而學習到更高質量的部署策略。

    1 研究基礎和術語

    1.1 物理部署

    物理部署是將神經(jīng)網(wǎng)絡的邏輯圖部署到計算核上的過程,如圖3所示,根據(jù)計算核的容量限制,將神經(jīng)網(wǎng)絡轉變?yōu)檫壿媹D。邏輯圖由節(jié)點和加權邊組成,被部署在一個網(wǎng)格(Mesh)結構的PIM芯片上。為方便后續(xù)討論,將邏輯圖和片上的多計算核拓撲圖給出有關定義如下。

    邏輯圖使用一個有向無環(huán)圖表示,定義為G=(A,E),其中ai∈A表示神經(jīng)網(wǎng)絡計算節(jié)點,ei,j∈E表示計算節(jié)點ai與aj之間有向加權邊。其中權重表示為兩個節(jié)點之間的通信量comni,j。

    計算核的拓撲圖表示為一個有向圖T(N,P),其中每個頂點ni∈N表示計算核,每個路徑pi,j∈P表示頂點ni與nj之間在路由策略下的最短通信路徑。

    應用任務圖G(A,E)到拓撲圖T(N,P)的映射函數(shù)定義如下:

    map:G→T s.t. map(ai)=ni

    ai∈A,ni∈NA≤N(1)

    片上的多個計算核通過片上網(wǎng)絡(network on chip,NoC)傳輸信息,因此部署結果通常由NoC模擬器進行評估,如BookSim[16]、Noxim[17]等。

    隨著PIM芯片集成核數(shù)的增加,部署策略的探索空間呈指數(shù)性上升。啟發(fā)式算法主要處理具有數(shù)十個核的系統(tǒng),且設計空間探索能力有限,其計算復雜度隨著系統(tǒng)規(guī)模的增大而急劇增加。在大規(guī)模探索空間求解問題中,使用DRL算法可較好求解該問題[18]。

    1.2 強化學習

    DRL是一種基于馬爾可夫決策過程的通過與環(huán)境ε交互進行學習的試探性算法。如圖4所示,在單個時間步長中,智能體從環(huán)境中獲取當前狀態(tài)st,并根據(jù)策略π從動作空間A中選擇一個動作at,從環(huán)境中接收到下一個狀態(tài)st+1和獎勵rt作為回報。相較于RL,DRL使用神經(jīng)網(wǎng)絡作為智能體,學習能力更強。

    時間步長t后的累計獎勵Rt表示為

    Rt=∑∞k=0γkrt+k(2)

    其中γ∈(0,1],為折現(xiàn)因子。狀態(tài)—動作價值定義為

    Qπ(s,a)=Eπ[Rt|st=s,at=a](3)

    Qπ(s,a)是依據(jù)策略π在狀態(tài)s時選擇動作a后的預期回報。狀態(tài)價值Vπ(s)定義為

    Vπ(s)=E[Rt|st=s](4)

    狀態(tài)價值是根據(jù)策略π從狀態(tài)s開始的期望回報。智能體的目標是使每個狀態(tài)的期望收益最大化。

    PPO是一種基于策略的DRL算法,其計算復雜度明顯低于其他策略梯度方法。PPO在策略更新規(guī)模的約束下最大化獎勵期望:

    maximizeθ Etπθ(at|st)πθold(at|st)t(5)

    其中:πθ(at|st)是當前的策略;θ是該策略的參數(shù);πθold(at|st)表示更新前的策略;Et[]表示一定步數(shù)內(nèi)可獲得的獎勵期望。式(2)(6)中t為t時刻動作at相比其他動作的優(yōu)勢,定義為預期回報與狀態(tài)價值的差值。

    t=Qπ(s,a)-Vπ(s)(6)

    在此過程中,PPO限定參數(shù)的更新范圍,防止參數(shù)過度更新。令pt(θ)表示參數(shù)更新前后的策略偏差程度:

    pt(θ)=πθ(at|st)πθold(at|st)(7)

    PPO通過clip()限制策略偏差范圍

    clip(pt(θ))=pt(θ)? if 1-ε≤pt(θ)≤1+ε

    1-εif 1-ε>pt(θ)

    1+εif pt(θ)>1+ε(8)

    其中:ε是用于度量新策略與老策略之間偏差程度的超參數(shù)。

    智能體學習到的部署策略的質量取決于中間狀態(tài)所能表示的信息準確度[15]。缺乏中間狀態(tài)會導致智能體難以精確預測選擇動作所能得到的預期獎勵,進而導致無法對策略網(wǎng)絡有效更新。

    1.3 內(nèi)在激勵

    神經(jīng)網(wǎng)絡至PIM芯片的部署任務中,只有完成所有節(jié)點的部署后才可以計算部署結果的質量。在文獻[11,12]的算法中,神經(jīng)網(wǎng)絡的邏輯圖中間部署階段沒有獎勵,只有在完成部署后根據(jù)部署結果給予獎勵。這導致了面對大規(guī)模部署任務時訓練容易陷入停滯,難以探索更優(yōu)部署策略等問題,這一現(xiàn)象稱為稀疏獎勵問題[19]。

    目前針對稀疏獎勵問題已展開多種研究。逆強化學習通過大量專家決策數(shù)據(jù)在馬爾可夫決策過程中逆向求解環(huán)境獎勵函數(shù),尋找多個獎勵函數(shù)來描述專家決策行為。經(jīng)驗回放機制對經(jīng)驗池中的樣本設置優(yōu)先級,使樣本被抽取的概率與優(yōu)先級成正比,在一定程度上解決了稀疏獎勵問題。內(nèi)在激勵的目的是構造虛擬獎勵,用于和真實獎勵函數(shù)共同學習。由于真實的獎勵是稀疏的,使用虛擬獎勵可以加快學習的進程。

    在邏輯圖部署中,任意節(jié)點的擺放均會產(chǎn)生不同的部署結果,存在大量中間狀態(tài),充分利用該中間狀態(tài)構建內(nèi)在激勵是解決稀疏獎勵問題的方法之一。本文利用在訓練過程中構建的環(huán)境模型來評估狀態(tài)的新穎程度,并通過隨機固定神經(jīng)網(wǎng)絡和受訓練的預測神經(jīng)網(wǎng)絡之間的差異[20]來計算新穎度,表示智能體對當前狀態(tài)的熟悉程度,并以此給予獎勵。

    2 基于深度強化學習的部署策略

    PPO算法在組合優(yōu)化問題中具有穩(wěn)定性強、效率高等優(yōu)勢。本文提出了一種基于改進PPO的PIM芯片部署算法。在部署過程中實時提取單輪部署的中間狀態(tài)信息,依據(jù)該信息選取合適的部署結果,并比較部署過程中不同步驟的中間狀態(tài)差異,構建內(nèi)在激勵將稀疏獎勵轉變?yōu)槌砻塥剟?,探索更?yōu)部署策略。圖5展示了該算法的全部流程,智能體通過多輪部署學習部署策略。獲得不同的獎勵后,智能體使用PPO算法優(yōu)化網(wǎng)絡參數(shù),學習并找出最優(yōu)策略。

    2.1 環(huán)境與動作

    DRL中狀態(tài)的表示至關重要。合適的狀態(tài)表示可以正確地表示當前的部署狀態(tài),使智能體的決策更合理。

    在DRL的部署優(yōu)化算法中,使用一個二維矩陣表示將要部署的PIM芯片的狀態(tài),其中未部署的計算核表示為零,已部署的計算核則用序列號表示。動作為選擇一個位置進行部署。

    在單輪部署開始前,對當前的環(huán)境進行初始化,該二維矩陣中的序列號全部置零。當智能體完成一個節(jié)點的部署時,置零的計算核更新為當前部署的序列號。邏輯圖的所有節(jié)點部署完成后,根據(jù)部署結果計算該輪部署的結算獎勵。隨即初始化,開始下一輪的部署。執(zhí)行完固定步長的部署輪次后,對智能體進行更新。

    在先前工作中,使用全局部署來得到當前節(jié)點將要部署的坐標,即對于每一個節(jié)點都可以選擇多核系統(tǒng)上的任意位置進行部署但過大的動作空間也會導致訓練困難。相鄰層的節(jié)點具有明顯的相關性,將其部署至臨近的節(jié)點可以降低延遲。因此限制動作空間可以在不降低部署結果質量的前提下降低訓練難度。局部部署策略主張限制部署范圍。首先對邏輯圖的節(jié)點進行拓撲排序,并根據(jù)排序部署。部署當前節(jié)點時,尋找到與此節(jié)點通信量最大的已部署節(jié)點的位置,將部署范圍限制在該位置的一定范圍內(nèi)。

    2.2 中間狀態(tài)表示

    智能體依靠當前狀態(tài)作出決策。合適的狀態(tài)表示是獲得高質量決策的關鍵。如圖6所示,狀態(tài)信息提取算法分別使用圖神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡提取邏輯圖和當前部署情況兩個方面的信息。

    圖神經(jīng)網(wǎng)絡通過邏輯圖的連接關系聚合并輸出節(jié)點上的信息,通過全連接層將這些信息編碼。每當一個節(jié)點完成部署后,更新其節(jié)點特征中的坐標信息。

    中間狀態(tài)的表示中,部署的結果由二維矩陣表示,卷積神經(jīng)網(wǎng)絡可以從輸入圖像中提取重要特征,因此使用卷積神經(jīng)網(wǎng)絡對當前部署狀態(tài)的信息進行提取。二維矩陣中的數(shù)字表示為節(jié)點的序列號,并且都進行歸一化處理。在經(jīng)過多層卷積層后通過全連接層轉換為狀態(tài)向量。

    在訓練過程中這兩個作為信息提取器的網(wǎng)絡不進行更新。智能體的網(wǎng)絡權重根據(jù)PPO算法進行更新。

    2.3 混合獎勵

    在相關工作中[11,12],僅根據(jù)部署結果反饋獎勵,且沒有足夠的中間狀態(tài)表示,導致采樣效率低,部署結果優(yōu)化有限。本文基于2.2節(jié)的中間狀態(tài)表示方法,提出混合獎勵方法,包括結果獎勵和虛擬獎勵。該算法使智能體在熟悉的部署和新部署結果的邊界中進行更集中的探索,學習到更豐富的部署策略,并利用結果獎勵保留高質量的策略。

    r=rresult+rvirtual(9)

    結果獎勵rresult在所有節(jié)點完成部署后對部署結果進行評估,并以此反饋獎勵。

    rresult=-α×(C-Cbaseline)(10)

    其中:α是比例系數(shù)。由于使用模擬器精確評估消耗時間過長,導致算法求解速度慢,所以使用簡化的公式來近似估計當前的部署結果。因計算過程的功耗和延遲與數(shù)據(jù)傳輸路徑即通信開銷高度相關[12],因此使用通信開銷C計算獎勵,根據(jù)以下公式計算得到:

    C=∑vi,vjcomni,j×Pi,j(11)

    通過模擬退火算法得到部署結果的通信開銷Cbaseline作為基準,增加訓練的穩(wěn)定性[11]。在部署任務中,通信開銷越低意味著部署結果越好,獲得的獎勵越高。所以通過比例系數(shù)α將獎勵轉換為通信開銷的負值,并限制在一定范圍以內(nèi),防止在訓練過程中出現(xiàn)梯度消失的問題。

    有別于先前工作中缺乏單輪訓練過程中的獎勵,本節(jié)提出在單輪部署中獲取中間狀態(tài)的虛擬獎勵,將訓練過程中只有單輪部署結束時才獲得的稀疏獎勵轉換為每執(zhí)行一個動作就可獲得的稠密獎勵。rvirtual計算方式為

    rvirtual(st,at,st+1)=max[n(st+1)-β·n(st),0](12)

    其中:β是一個超參數(shù),根據(jù)給定的PIM芯片和邏輯圖來衡量內(nèi)在激勵的重要性。當智能體探索新的部署結果時給予其內(nèi)在激勵rvirtual,從而鼓勵智能體在原先的部署結果上探索新的部署。n(st)表示當前狀態(tài)的新穎度,通過兩個神經(jīng)網(wǎng)絡計算的差異得到。

    n(st)=‖φ(st)-φ′ω(st)‖2(13)

    其中:φ表示固定網(wǎng)絡;φ′ω表示預測網(wǎng)絡;ω是預測網(wǎng)絡的參數(shù)。內(nèi)在激勵分為兩個網(wǎng)絡:隨機固定神經(jīng)網(wǎng)絡和受訓練的預測神經(jīng)網(wǎng)絡。隨機固定網(wǎng)絡不參與參數(shù)更新,將觀察到的狀態(tài)進行編碼。完成新穎度的計算后通過梯度下降法(stochastic gradient descent,SGD) 對預測網(wǎng)絡進行更新,使預測網(wǎng)絡的期望均方誤差(mean-square error,MSE)最小,表示對當前的狀態(tài)進一步熟悉。

    在訓練的初始階段每一次部署的差異度均較大,因此都獲得較高的內(nèi)在激勵。隨著訓練的進行,預測網(wǎng)絡對部署狀態(tài)的預測逐漸逼近固定網(wǎng)絡的結果。智能體若嘗試不同的部署,則獲得內(nèi)在激勵隨之變化。結果獎勵的提升在總體獎勵中占比更大,因此智能體更傾向于在優(yōu)秀部署結果的基礎上探索新的部署。在訓練后期,新穎度逐漸降低為零,智能體學習到了高質量的、穩(wěn)定的部署策略,因此內(nèi)在激勵算法得以收斂。

    3 實驗結果

    3.1 實驗設置

    在硬件上,使用Tianjic芯片[21]的架構模擬,每一個計算核內(nèi)有9個行列為128的RRAM陣列,并且計算核上設計了包括池化,累加器等功能電路。如表1所示,對不同規(guī)模的神經(jīng)網(wǎng)絡進行測試比較,分別為小規(guī)模神經(jīng)網(wǎng)絡Alexnet、VGG11、DenseNet121、ResNet34以及大規(guī)模神經(jīng)網(wǎng)絡VGG16、DenseNet201和ResNet101。其中ResNet101擁有超過四千萬個參數(shù),DenseNet201擁有192層卷積網(wǎng)絡層數(shù)。表1中的計算核表示部署部署神經(jīng)網(wǎng)絡所需的計算核數(shù)量,規(guī)模表示神經(jīng)網(wǎng)絡模型部署在不同規(guī)模的存內(nèi)計算芯片內(nèi)。8×8和16×16分別表示芯片上共有64個和256個計算核,后者是目前所設計的大規(guī)模存內(nèi)計算芯片。本文僅考慮神經(jīng)網(wǎng)絡中的卷積層。其中Alexnet和VGG11運行在包含8×8計算核的PIM芯片上,DenseNet121、VGG16、ResNet34、DenseNet201和ResNet101運行在包含16×16計算核的PIM芯片上。ResNet101所需參數(shù)量較多,將該網(wǎng)絡劃分為兩個部分,部署至兩個存內(nèi)計算芯片中。將結果與模擬退火算法(simulated annealing,SA)[10],DDPG算法[11]和PPO算法[12]相比較。

    在本文的方法中,使用圖神經(jīng)網(wǎng)絡將邏輯圖轉換為大小為64的特征向量,使用卷積神經(jīng)網(wǎng)絡將當前狀態(tài)轉換為大小為192的特征向量。部署算法中Actor和Critic網(wǎng)絡均使用3層全連接層,每一層的參數(shù)量為256。根據(jù)經(jīng)驗,部署算法中的超參數(shù)設置如下:學習率設置為0.000 2,其中PPO_epoch為10,PPO_clip為0.2,折扣因子為0.98。內(nèi)在激勵的縮放因子為0.75,內(nèi)在獎勵稀疏為2。結算的獎勵裁剪到[-100,100]。文獻[11,12]中DRL算法的超參數(shù)根據(jù)其論文中設置。

    所有的部署結果使用基于C++的周期精確的NoC模擬器進行評估。這個模擬器模擬在設備的每個循環(huán)中運行的所有數(shù)據(jù)包的狀態(tài)。為不失通用性,在所有情況中使用二維網(wǎng)格拓撲和維序路由。在NoC中的平均延遲表示為

    Latency=1|N|∑|N|i=11Ni∑|Ni|j=1Latencyi,j(14)

    其中:N表示計算核的數(shù)量;Ni表示經(jīng)過i次預熱后單個計算核收到的數(shù)據(jù)包數(shù);Latencyi,j表示數(shù)據(jù)包j的延遲。

    平均功耗表示為

    Power=C×E|h|t(15)

    其中:E|h|為單跳距離下發(fā)送數(shù)據(jù)包的能量;t為所需要的時間。

    帶寬需求為計算過程中,同一時刻在同一信道上傳輸?shù)淖畲髷?shù)據(jù)包數(shù)量。

    模擬退火算法在較大的搜索空間中近似全局最優(yōu)。隨機初始化部署位置,通過交換兩個節(jié)點的位置實現(xiàn)進化,并使用與DRL相同的代價函數(shù)。針對每一個神經(jīng)網(wǎng)絡,為模擬退火算法設置不同的超參數(shù),包括不同的溫度上限、不同的衰減率、不同的迭代次數(shù)。選取延遲最小的結果作為基準。

    3.2 結果分析

    最終結果如表2所示。綜合表1的結果,基于DRL的部署優(yōu)化算法在所有數(shù)據(jù)集中均有提升。在功耗開銷方面提升較大,分別達到了67.49%,20.06%,33.39%。在延遲方面,分別提升了30.60%,17.02%,11.55%,并且在最大帶寬需求上也有不同程度的提升。

    AlexNet和VGG11所需的計算核數(shù)量較少,屬于小規(guī)模的神經(jīng)網(wǎng)絡。對此類神經(jīng)網(wǎng)絡的部署,本文方法與PPO相比功耗開銷的降低更多,在延遲方面兩個方法提升效果相似。對于大規(guī)模的神經(jīng)網(wǎng)絡如VGG16,Resnet34,這兩個網(wǎng)絡被部署至16×16個計算核的多核系統(tǒng)中,隨著規(guī)模的增大其探索空間呈指數(shù)級上升。同時,大規(guī)模神經(jīng)網(wǎng)絡的節(jié)點數(shù)量眾多,缺乏中間結果表示使得PPO算法難以探索更優(yōu)部署結果?;旌溪剟罘椒ㄍㄟ^逐步部署并精確表示中間狀態(tài)的方式,使得延遲和功耗開銷有較為明顯的提升。更大參數(shù)量的ResNet101的探索空間更大,使用混合獎勵可以獲得更好的效果,在延遲和功耗上相比ResNet34的優(yōu)化程度更大。但是對于扇入扇出數(shù)較多的DenseNet121和DenseNet201而言,延遲和功耗開銷的提升都較小。因為采取局部部署的方法,對扇入扇出數(shù)較多的節(jié)點選擇空間有限,所以對此類網(wǎng)絡優(yōu)化有限。

    如圖7所示,比較了ResNet34是否使用內(nèi)在激勵的訓練情況。縱坐標reward表示訓練得到的獎勵,橫坐標step表示訓練的步長。使用了內(nèi)在激勵使得DRL算法的收斂速度和部署的結果得到提升。在初始階段,由于智能體對環(huán)境較為陌生,所以表現(xiàn)和沒有好奇心獎勵基本相同。當智能體熟悉邊界后,虛擬獎勵驅動智能體探索未知空間,增加了尋找優(yōu)化部署方法的概率。

    4 結束語

    本文針對PIM的神經(jīng)網(wǎng)絡部署問題,提出了一種基于DRL的優(yōu)化算法。該算法使用圖神經(jīng)網(wǎng)絡提取邏輯圖的信息,使用卷積神經(jīng)網(wǎng)絡提取中間狀態(tài)的信息,并且使用內(nèi)在激勵鼓勵探索新的部署決策。相比較SA和DRL算法獲得了更優(yōu)的延遲和功耗開銷,但在一些復雜任務如節(jié)點扇出數(shù)過多時存在難以訓練的問題,這是后續(xù)的工作方向。

    參考文獻:

    [1]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Delving deep into rectifiers:surpassing human-level performance on ImageNet classification[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2015:1026-1034.

    [2]Zhang Ying,Pezeshki M,Brakel P,et al.Towards end-to-end speech recognition with deep convolutional neural networks[EB/OL].(2017-01-10).https://arxiv.org/abs/1701.02720.

    [3]Kiran B R,Sobh I,Talpaert V,et al.Deep reinforcement learning for autonomous driving:a survey[J].IEEE Trans on Intelligent Transportation Systems,2022,23(6):4909-4926.

    [4]Ankit A,Hajj I E,Chalamalasetti F,et al.PUMA:a programmable ultra-efficient memristor-based accelerator for machine learning inference[C]//Proc of the 24th International Conference on Architectural Support for Programming Languages and Operating Systems.New York:ACM Press,2019:715-731.

    [5]Yao Peng,Wu Huaqiang,Gao Bin,et al.Fully hardware-implemented memristor convolutional neural network[J].Nature,2020,577 (7792):641-646.

    [6]Akopyan F,Sawada J,Cassidy A,et al.TrueNorth:design and tool flow of a 65 mW 1 million neuron programmable neurosynaptic chip[J].IEEE Trans on Computer-Aided Design of Integrated Circuits and Systems,2015,34 (10):1537-1557.

    [7]Davies M,Srinivasa N,Lin Tsunghan,et al.Loihi:a neuromorphic manycore processor with on-chip learning[J].IEEE Micro,2018,38 (1):82-99.

    [8]Wan Weier,Kubendran R,Schaefer C,et al.A compute-in-memory chip based on resistive random-access memory[J].Nature,2022,608 (7923):504-512.

    [9]Ostler C,Chatha N.An ILP formulation for system-level application mapping on network processor architectures[C]//Proc of Design,Automation & Test in Europe Conference & Exhibition.Piscataway,NJ:IEEE Press,2007:1-6.

    [10]Joseph J M,Baloglu M S,Pan Yue,et al.NEWROMAP:mapping CNNs to NoC-interconnected self-contained data-flow accelerators for edge-AI[C]//Proc of the 15th IEEE/ACM International Symposium on Networks-on-Chip.New York:ACM Press,2021:15-20.

    [11]Wu Nan,Deng Lei,Li Guoqi,et al.Core placement optimization for multi-chip many-core neural network systems with reinforcement learning[J].ACM Trans on Design Automation of Electronic Systems,2020,26 (2):1-27.

    [12]Myung W,Lee D,Song Chenhang,et al.Policy gradient-based core placement optimization for multichip many-core systems[J/OL].IEEE Trans on Neural Networks and Learning Systems.(2021-10-13).https://doi.org/ 10.1109/TNNLS.2021.3117878.

    [13]Mirhoseini A,Goldie A,Yazgan M,et al.A graph placement methodology for fast chip design[J].Nature,2021,594 (7862):207-212.

    [14]Cheng Ruoyu,Yan Junchi.On joint learning for solving placement and routing in chip design[C]//Advances in Neural Information Processing Systems.[S.l.]:Curran Associates Inc.,2021:16508-16519.

    [15]Schulman J,Wolski F,Dhariwal P,et al.Proximal policy optimization algorithms[EB/OL].(2017-08-28).https://arxiv.org/abs/1707.06347.

    [16]Jiang Nan,Becker D U,Michelogiannakis G,et al.A detailed and flexible cycle-accurate Network-on-Chip simulator[C]//Proc of IEEE International Symposium on Performance Analysis of Systems and Software (ISPASS) .Piscataway,NJ:IEEE Press,2013:86-96.

    [17]Catania V,Mineo A,Monteleone S,et al.Noxim:An open,extensible and cycle-accurate network on chip simulator[C]//Proc of the 26th IEEE International Conference on Application-specific Systems,Architectures and Processors.Piscataway,NJ:IEEE Press,2015:162-163.

    [18]Li Zhaoying,Wu Dan,Wijerathne D,et al.LISA:graph neural network based portable mapping on spatial accelerators[C]//Proc of IEEE International Symposium on High-Performance Computer Architecture .Piscataway,NJ:IEEE Press,2022:444-459.

    [19]楊惟軼,白辰甲,蔡超,等 深度強化學習中稀疏獎勵問題研究綜述[J].計算機科學,2020,47 (3):182-191.(Yang Huaiyi,Bai Chenjia,Cai Chao,et al.A review of research on the sparse reward problem in deep reinforcement learning[J].Computer Science,2020,47 (3):182-191.)

    [20]Zhang Tianjun,Xu Huazhe,Wang Xiaolong,et al.NovelD:a simple yet effective exploration criterion[C]//Proc of the 35th Conference on Neural Information Processing Systems.2021:1-14.

    [21]Pei Jing,Deng Lei,Song Sen,et al.Towards artificial general intelligence with hybrid Tianjic chip architecture[J].Nature,2019,572 (7767):106-111.

    收稿日期:2023-02-07;

    修回日期:2023-04-04

    基金項目:國家自然科學基金資助項目(62131010,U22A2013);浙江省創(chuàng)新群體資助項目(LDT23F4021F04);寧波高新區(qū)重大技術創(chuàng)新體資助項目(2022BCX050001)

    作者簡介:胡益笛(1996-),男,浙江臺州人,碩士研究生,主要研究方向為電子設計自動化;夏銀水(1963-),男(通信作者),浙江寧波人,教授,博導,博士,主要研究方向為低功耗電路設計及其自動化(xiayinshui@nbu.edu.cn).

    亚洲第一区二区三区不卡| 少妇的逼好多水| 在线播放无遮挡| 欧美丝袜亚洲另类| 自拍欧美九色日韩亚洲蝌蚪91 | 能在线免费看毛片的网站| 女人十人毛片免费观看3o分钟| 少妇人妻久久综合中文| 国产成人精品久久久久久| 亚洲不卡免费看| 观看美女的网站| 免费高清在线观看视频在线观看| 日韩电影二区| 国产中年淑女户外野战色| 狂野欧美激情性xxxx在线观看| 欧美日韩精品成人综合77777| 国产成人a区在线观看| 亚洲va在线va天堂va国产| 一本一本综合久久| 国产成人aa在线观看| 精品人妻熟女av久视频| 日本猛色少妇xxxxx猛交久久| 亚洲一区二区三区欧美精品| 日韩一区二区三区影片| 午夜福利视频精品| 中文天堂在线官网| 亚洲中文av在线| 新久久久久国产一级毛片| 国产精品99久久99久久久不卡 | 亚洲经典国产精华液单| 久久精品国产亚洲av天美| 欧美xxxx性猛交bbbb| 午夜福利影视在线免费观看| 激情五月婷婷亚洲| av播播在线观看一区| 日本-黄色视频高清免费观看| 亚洲av成人精品一区久久| 中文乱码字字幕精品一区二区三区| 国产精品女同一区二区软件| 日韩中字成人| 中文欧美无线码| 久久鲁丝午夜福利片| 久久婷婷青草| 精品人妻一区二区三区麻豆| 国产一级毛片在线| 97精品久久久久久久久久精品| 免费久久久久久久精品成人欧美视频 | 哪个播放器可以免费观看大片| 在线精品无人区一区二区三 | 3wmmmm亚洲av在线观看| 人妻夜夜爽99麻豆av| 国产在线免费精品| 国产精品人妻久久久久久| 日日啪夜夜爽| 日韩视频在线欧美| 亚洲美女搞黄在线观看| 精品亚洲成a人片在线观看 | 三级国产精品欧美在线观看| 高清午夜精品一区二区三区| 日本-黄色视频高清免费观看| 性高湖久久久久久久久免费观看| 国产精品一区二区三区四区免费观看| 亚洲av中文字字幕乱码综合| 中文资源天堂在线| 国产黄片美女视频| 日产精品乱码卡一卡2卡三| 国产精品av视频在线免费观看| 91午夜精品亚洲一区二区三区| 两个人的视频大全免费| 成人亚洲精品一区在线观看 | 亚洲国产高清在线一区二区三| 亚洲,欧美,日韩| 观看免费一级毛片| 在线亚洲精品国产二区图片欧美 | 国产熟女欧美一区二区| 麻豆成人av视频| 赤兔流量卡办理| 久久国产精品男人的天堂亚洲 | 色视频www国产| 中文乱码字字幕精品一区二区三区| 深爱激情五月婷婷| 中文精品一卡2卡3卡4更新| 哪个播放器可以免费观看大片| 在线观看免费日韩欧美大片 | 欧美成人a在线观看| 男女边吃奶边做爰视频| 精品午夜福利在线看| 精品国产乱码久久久久久小说| 亚洲激情五月婷婷啪啪| 国产有黄有色有爽视频| 国产黄片美女视频| 91狼人影院| 欧美变态另类bdsm刘玥| 又黄又爽又刺激的免费视频.| 欧美 日韩 精品 国产| 99热这里只有是精品在线观看| 亚洲精品日本国产第一区| 亚洲婷婷狠狠爱综合网| 久久久久久久精品精品| av一本久久久久| 大片电影免费在线观看免费| 久久久久视频综合| 18禁裸乳无遮挡动漫免费视频| 最新中文字幕久久久久| 日韩不卡一区二区三区视频在线| 国产一区二区三区av在线| 少妇人妻一区二区三区视频| 精品人妻视频免费看| 日韩中字成人| 免费观看a级毛片全部| 亚洲精品日韩av片在线观看| 婷婷色麻豆天堂久久| 边亲边吃奶的免费视频| 亚洲图色成人| 男人狂女人下面高潮的视频| 国产一级毛片在线| 嘟嘟电影网在线观看| 免费看日本二区| 男人狂女人下面高潮的视频| 麻豆精品久久久久久蜜桃| 99热6这里只有精品| 国内精品宾馆在线| 国产在视频线精品| 亚洲婷婷狠狠爱综合网| 日日摸夜夜添夜夜爱| 亚洲,一卡二卡三卡| 久久综合国产亚洲精品| 久久ye,这里只有精品| 国产精品爽爽va在线观看网站| 亚洲欧洲日产国产| 国产男女内射视频| 一边亲一边摸免费视频| 大码成人一级视频| 五月玫瑰六月丁香| 免费不卡的大黄色大毛片视频在线观看| 亚洲国产精品专区欧美| 寂寞人妻少妇视频99o| 国产免费福利视频在线观看| 午夜福利在线观看免费完整高清在| 熟女电影av网| 国产免费福利视频在线观看| 国产免费福利视频在线观看| 纵有疾风起免费观看全集完整版| 日韩欧美 国产精品| 91久久精品电影网| 边亲边吃奶的免费视频| 国产女主播在线喷水免费视频网站| 三级国产精品欧美在线观看| 男人舔奶头视频| 亚洲精品自拍成人| 久久99蜜桃精品久久| 少妇人妻一区二区三区视频| 视频区图区小说| 日韩不卡一区二区三区视频在线| 七月丁香在线播放| 高清av免费在线| 我要看日韩黄色一级片| 成人影院久久| 亚洲国产精品一区三区| 久久6这里有精品| 国精品久久久久久国模美| 亚洲,一卡二卡三卡| 久久国产亚洲av麻豆专区| 天天躁日日操中文字幕| 欧美日韩国产mv在线观看视频 | 久久久精品免费免费高清| 精品一品国产午夜福利视频| 国产毛片在线视频| 精品少妇黑人巨大在线播放| 国产成人freesex在线| 黄色一级大片看看| 五月开心婷婷网| 岛国毛片在线播放| 国产黄片美女视频| 亚洲成人av在线免费| 亚洲av二区三区四区| 女人久久www免费人成看片| 1000部很黄的大片| 日韩av在线免费看完整版不卡| 亚洲真实伦在线观看| 久久久久久伊人网av| 国产精品免费大片| 亚洲aⅴ乱码一区二区在线播放| 久久国产亚洲av麻豆专区| 最后的刺客免费高清国语| 色婷婷久久久亚洲欧美| 午夜激情福利司机影院| 免费看av在线观看网站| 欧美极品一区二区三区四区| 久久精品国产a三级三级三级| 国产日韩欧美亚洲二区| 久久国产精品男人的天堂亚洲 | av在线app专区| 久久国产精品男人的天堂亚洲 | 日韩在线高清观看一区二区三区| 免费看光身美女| 男女免费视频国产| 亚洲熟女精品中文字幕| 日韩不卡一区二区三区视频在线| 亚洲综合色惰| 又粗又硬又长又爽又黄的视频| 亚洲欧洲日产国产| 91精品国产国语对白视频| 久久人人爽人人片av| 高清在线视频一区二区三区| 亚洲丝袜综合中文字幕| 黄色配什么色好看| 天天躁夜夜躁狠狠久久av| 日产精品乱码卡一卡2卡三| 久久久久视频综合| 久久 成人 亚洲| 人妻少妇偷人精品九色| 精品亚洲成a人片在线观看 | 2022亚洲国产成人精品| 久久久成人免费电影| 多毛熟女@视频| av在线播放精品| 日本欧美国产在线视频| 国产乱来视频区| 最近最新中文字幕大全电影3| 国产免费又黄又爽又色| 在线播放无遮挡| 少妇高潮的动态图| 纵有疾风起免费观看全集完整版| 欧美日韩视频精品一区| 十分钟在线观看高清视频www | 性高湖久久久久久久久免费观看| av网站免费在线观看视频| 少妇丰满av| 男女国产视频网站| 欧美成人一区二区免费高清观看| 中文乱码字字幕精品一区二区三区| 青春草国产在线视频| 精品亚洲成a人片在线观看 | 自拍欧美九色日韩亚洲蝌蚪91 | 亚洲精品乱久久久久久| 免费久久久久久久精品成人欧美视频 | 国产av一区二区精品久久 | 身体一侧抽搐| 亚洲激情五月婷婷啪啪| 我的女老师完整版在线观看| 91久久精品国产一区二区三区| 偷拍熟女少妇极品色| 国内精品宾馆在线| 狠狠精品人妻久久久久久综合| 欧美一级a爱片免费观看看| 欧美激情极品国产一区二区三区 | 亚洲最大成人中文| 男人舔奶头视频| 国产精品人妻久久久影院| 久久韩国三级中文字幕| 欧美3d第一页| 欧美变态另类bdsm刘玥| 亚洲第一区二区三区不卡| 久久99精品国语久久久| 一区二区av电影网| 噜噜噜噜噜久久久久久91| 亚洲精品日本国产第一区| 在线亚洲精品国产二区图片欧美 | 亚洲欧洲日产国产| 国产淫片久久久久久久久| 久久久a久久爽久久v久久| 高清视频免费观看一区二区| 亚洲欧美精品自产自拍| 亚洲欧洲国产日韩| 国产亚洲午夜精品一区二区久久| 免费观看无遮挡的男女| 国产精品久久久久久精品电影小说 | 亚洲图色成人| 欧美+日韩+精品| 久久99精品国语久久久| 久久ye,这里只有精品| a级毛色黄片| 成人一区二区视频在线观看| www.av在线官网国产| 三级国产精品欧美在线观看| 国产欧美另类精品又又久久亚洲欧美| 能在线免费看毛片的网站| 久久久久国产精品人妻一区二区| 免费黄网站久久成人精品| 尾随美女入室| 全区人妻精品视频| 美女主播在线视频| 99九九线精品视频在线观看视频| 亚洲欧美日韩另类电影网站 | 国产精品99久久久久久久久| 两个人的视频大全免费| 亚洲综合色惰| 免费观看无遮挡的男女| 国产v大片淫在线免费观看| 午夜免费观看性视频| 三级国产精品欧美在线观看| 久久99热这里只有精品18| 青青草视频在线视频观看| 乱系列少妇在线播放| 99热这里只有是精品50| 国产白丝娇喘喷水9色精品| 久久99蜜桃精品久久| 国产精品偷伦视频观看了| 色婷婷av一区二区三区视频| 亚洲色图综合在线观看| av不卡在线播放| 毛片一级片免费看久久久久| 狂野欧美白嫩少妇大欣赏| 一本一本综合久久| 久久精品熟女亚洲av麻豆精品| 亚洲av日韩在线播放| 国产成人免费观看mmmm| 久久国产亚洲av麻豆专区| 亚洲精品456在线播放app| 成人午夜精彩视频在线观看| 夜夜看夜夜爽夜夜摸| 日韩精品有码人妻一区| 激情五月婷婷亚洲| 九九在线视频观看精品| 精华霜和精华液先用哪个| 亚洲精品国产成人久久av| 麻豆精品久久久久久蜜桃| 国产av一区二区精品久久 | 在线观看免费日韩欧美大片 | 国产欧美日韩精品一区二区| 99视频精品全部免费 在线| 26uuu在线亚洲综合色| 一级二级三级毛片免费看| 秋霞在线观看毛片| 少妇的逼水好多| 日韩av不卡免费在线播放| 又粗又硬又长又爽又黄的视频| 国产成人a∨麻豆精品| 欧美 日韩 精品 国产| 国产在线视频一区二区| 中文欧美无线码| 成人漫画全彩无遮挡| 亚洲,一卡二卡三卡| 久热久热在线精品观看| 久久久久久久久久成人| 国产黄频视频在线观看| 欧美性感艳星| 青春草国产在线视频| 人妻 亚洲 视频| 男女免费视频国产| 色哟哟·www| 亚洲av不卡在线观看| 大香蕉久久网| 日本猛色少妇xxxxx猛交久久| 99热这里只有是精品在线观看| 欧美激情国产日韩精品一区| 婷婷色麻豆天堂久久| 日日摸夜夜添夜夜爱| 亚洲图色成人| 人体艺术视频欧美日本| 又粗又硬又长又爽又黄的视频| 99热这里只有是精品在线观看| 99视频精品全部免费 在线| 91久久精品国产一区二区三区| 久久精品久久久久久久性| 日日摸夜夜添夜夜添av毛片| 久久久午夜欧美精品| 日韩强制内射视频| 国产精品国产三级国产专区5o| 国产成人午夜福利电影在线观看| 国产永久视频网站| 中文精品一卡2卡3卡4更新| 99久久精品国产国产毛片| 亚洲第一av免费看| 肉色欧美久久久久久久蜜桃| 久久久久久伊人网av| 最后的刺客免费高清国语| 亚洲av在线观看美女高潮| 女性生殖器流出的白浆| 五月伊人婷婷丁香| 久久97久久精品| 国产精品久久久久久久久免| 久久精品国产亚洲av涩爱| 国产午夜精品久久久久久一区二区三区| 日韩成人av中文字幕在线观看| 麻豆乱淫一区二区| 波野结衣二区三区在线| 色哟哟·www| 国产无遮挡羞羞视频在线观看| 久久国产精品大桥未久av | 亚洲美女黄色视频免费看| 免费观看性生交大片5| 亚洲图色成人| 国产精品一区二区性色av| 五月玫瑰六月丁香| 精品人妻熟女av久视频| 亚洲国产日韩一区二区| 亚洲欧美成人综合另类久久久| 嫩草影院入口| 国产色爽女视频免费观看| 男女边摸边吃奶| 观看美女的网站| 久久久久久久国产电影| 色网站视频免费| 国产一区亚洲一区在线观看| 免费观看的影片在线观看| 国产在线免费精品| 欧美国产精品一级二级三级 | 久久精品国产亚洲av天美| 人妻夜夜爽99麻豆av| 日韩强制内射视频| 在线观看人妻少妇| 久久精品人妻少妇| 一二三四中文在线观看免费高清| 国产一级毛片在线| 亚洲成人av在线免费| 男女国产视频网站| 国产在线一区二区三区精| 黄片无遮挡物在线观看| 好男人视频免费观看在线| 午夜视频国产福利| 男女下面进入的视频免费午夜| 中文字幕精品免费在线观看视频 | 国产日韩欧美亚洲二区| 国产爱豆传媒在线观看| 高清不卡的av网站| 久热这里只有精品99| 久久久久精品久久久久真实原创| 在现免费观看毛片| 欧美97在线视频| 午夜日本视频在线| 久久青草综合色| tube8黄色片| 亚洲av国产av综合av卡| 舔av片在线| 蜜桃久久精品国产亚洲av| 全区人妻精品视频| 国产精品免费大片| 妹子高潮喷水视频| 人人妻人人澡人人爽人人夜夜| 日韩三级伦理在线观看| 久久久久国产精品人妻一区二区| 在线精品无人区一区二区三 | 欧美精品亚洲一区二区| 国产大屁股一区二区在线视频| 99精国产麻豆久久婷婷| 噜噜噜噜噜久久久久久91| 国产爽快片一区二区三区| 国产精品久久久久久久电影| 久久人人爽人人爽人人片va| 国产视频内射| 国产黄片美女视频| 一边亲一边摸免费视频| 亚洲av综合色区一区| 国产av精品麻豆| 男女边吃奶边做爰视频| 狠狠精品人妻久久久久久综合| 永久网站在线| 在线观看国产h片| 成年av动漫网址| 国产精品一区二区性色av| 免费大片18禁| 中文在线观看免费www的网站| 亚洲精品亚洲一区二区| 久久 成人 亚洲| 午夜免费观看性视频| av免费观看日本| 成年免费大片在线观看| freevideosex欧美| 黄色视频在线播放观看不卡| 大话2 男鬼变身卡| 亚洲国产精品一区三区| 亚洲国产精品999| 国产成人免费观看mmmm| 韩国av在线不卡| 国产男女超爽视频在线观看| 黑人猛操日本美女一级片| 亚洲图色成人| 国产精品福利在线免费观看| 国产亚洲精品久久久com| 久久av网站| 爱豆传媒免费全集在线观看| 99热这里只有是精品在线观看| 久久国产精品大桥未久av | 一级毛片 在线播放| 麻豆乱淫一区二区| 欧美日韩一区二区视频在线观看视频在线| 精品一区在线观看国产| 亚洲国产精品国产精品| 日韩人妻高清精品专区| 嫩草影院入口| 日日摸夜夜添夜夜添av毛片| 日本vs欧美在线观看视频 | 久久精品国产亚洲网站| 天堂中文最新版在线下载| 青青草视频在线视频观看| 日韩欧美一区视频在线观看 | 少妇人妻 视频| 建设人人有责人人尽责人人享有的 | 欧美激情国产日韩精品一区| 亚洲一级一片aⅴ在线观看| 亚洲精品中文字幕在线视频 | 国产色婷婷99| 最黄视频免费看| 黄色视频在线播放观看不卡| 久久女婷五月综合色啪小说| 激情 狠狠 欧美| 国产 一区 欧美 日韩| 精品久久久久久久久亚洲| 国产精品嫩草影院av在线观看| 国产成人精品福利久久| 精品一区在线观看国产| 欧美一级a爱片免费观看看| 欧美日韩精品成人综合77777| 熟女人妻精品中文字幕| 成人亚洲欧美一区二区av| 日本av手机在线免费观看| 午夜免费观看性视频| 久久久成人免费电影| 蜜桃亚洲精品一区二区三区| 只有这里有精品99| 国产精品久久久久久精品电影小说 | 国产男女超爽视频在线观看| 91在线精品国自产拍蜜月| 秋霞伦理黄片| 久久久久久久久大av| 欧美3d第一页| 中文字幕av成人在线电影| 婷婷色综合www| 国产成人精品福利久久| 久久ye,这里只有精品| 青春草视频在线免费观看| 久久久久久久久大av| 一级av片app| 午夜福利在线在线| 在线免费观看不下载黄p国产| 亚洲一区二区三区欧美精品| 国产成人aa在线观看| 久久久久久九九精品二区国产| 男人爽女人下面视频在线观看| 国产精品久久久久久久电影| 在线观看免费高清a一片| 内射极品少妇av片p| 丰满乱子伦码专区| 精品视频人人做人人爽| 久久久久久伊人网av| 女的被弄到高潮叫床怎么办| 欧美亚洲 丝袜 人妻 在线| 精品人妻熟女av久视频| 亚洲第一区二区三区不卡| 欧美成人a在线观看| 国产探花极品一区二区| 国产精品精品国产色婷婷| 小蜜桃在线观看免费完整版高清| 久久久久久伊人网av| 国产91av在线免费观看| 亚洲熟女精品中文字幕| 国产中年淑女户外野战色| 夜夜看夜夜爽夜夜摸| 插阴视频在线观看视频| 成人亚洲欧美一区二区av| 亚洲色图综合在线观看| 亚洲久久久国产精品| 亚洲aⅴ乱码一区二区在线播放| 伦理电影大哥的女人| 在线观看免费高清a一片| 波野结衣二区三区在线| 国产免费视频播放在线视频| 国产欧美亚洲国产| 女人十人毛片免费观看3o分钟| 久久精品国产亚洲av涩爱| 国产综合精华液| 久久久精品免费免费高清| 国产亚洲午夜精品一区二区久久| 联通29元200g的流量卡| 久久人人爽人人爽人人片va| 精品久久久噜噜| 国产精品国产三级国产av玫瑰| 伊人久久国产一区二区| 少妇人妻久久综合中文| 久久久久久久亚洲中文字幕| 少妇的逼好多水| 国产成人午夜福利电影在线观看| 精品一区在线观看国产| 小蜜桃在线观看免费完整版高清| 黑人高潮一二区| 国产日韩欧美亚洲二区| 国产精品国产三级国产av玫瑰| 老女人水多毛片| 亚洲精品乱久久久久久| 国产一区有黄有色的免费视频| 亚洲精品乱久久久久久| 久久久久久久亚洲中文字幕| 国产亚洲91精品色在线| 夜夜爽夜夜爽视频| 有码 亚洲区| 国产午夜精品一二区理论片| 99九九线精品视频在线观看视频| 在线精品无人区一区二区三 | 久久久亚洲精品成人影院| 免费黄色在线免费观看| 亚洲精品亚洲一区二区| 99热全是精品| 免费高清在线观看视频在线观看| 热re99久久精品国产66热6| 蜜臀久久99精品久久宅男| 国产乱来视频区| 欧美日韩在线观看h| 久久久久久久大尺度免费视频| 久久精品久久久久久噜噜老黄| 亚洲精品国产av蜜桃| 婷婷色综合大香蕉| 国产欧美日韩一区二区三区在线 | 色视频www国产| 深夜a级毛片| 欧美成人精品欧美一级黄| 少妇被粗大猛烈的视频| 内地一区二区视频在线| 亚洲国产av新网站| 精品人妻一区二区三区麻豆| 色吧在线观看| 亚洲第一av免费看| 精品久久久久久久久av| 国产精品国产av在线观看|