• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)

    2022-11-30 08:39:22臧嶸王莉史騰飛
    計(jì)算機(jī)應(yīng)用 2022年11期
    關(guān)鍵詞:集中式梯度消息

    臧嶸,王莉*,史騰飛

    基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)

    臧嶸1,王莉1*,史騰飛2

    (1.太原理工大學(xué) 大數(shù)據(jù)學(xué)院,山西 晉中 030600; 2.北方自動控制技術(shù)研究所,太原 030006)(?通信作者電子郵箱wangli@tyut.edu.cn)

    通信是非全知環(huán)境中多智能體間實(shí)現(xiàn)有效合作的重要途徑,當(dāng)智能體數(shù)量較多時,通信過程會產(chǎn)生冗余消息。為有效處理通信消息,提出一種基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC。首先,在智能體間搭建用于有效溝通的消息共享網(wǎng)絡(luò),智能體通過消息讀取和寫入完成信息共享,解決智能體在非全知、任務(wù)復(fù)雜場景下缺乏溝通的問題;其次,在消息共享網(wǎng)絡(luò)中,通過注意力消息共享機(jī)制對通信消息進(jìn)行自適應(yīng)處理,有側(cè)重地處理來自不同智能體的消息,解決較大規(guī)模多智能體系統(tǒng)在通信過程中無法有效識別消息并利用的問題;然后,在集中式Critic網(wǎng)絡(luò)中,使用Native Critic依據(jù)時序差分(TD)優(yōu)勢策略梯度更新Actor網(wǎng)絡(luò)參數(shù),使智能體的動作價值得到有效評判;最后,在執(zhí)行期間,智能體分布式Actor網(wǎng)絡(luò)根據(jù)自身觀測和消息共享網(wǎng)絡(luò)的信息進(jìn)行決策。在星際爭霸Ⅱ多智能體挑戰(zhàn)賽(SMAC)環(huán)境中進(jìn)行實(shí)驗(yàn),結(jié)果表明,與樸素Actor?Critic (Native AC)、博弈抽象通信(GA?Comm)等多智能體強(qiáng)化學(xué)習(xí)方法相比,AMSAC在四個不同場景下的平均勝率提升了4 ~ 32個百分點(diǎn)。AMSAC的注意力消息共享機(jī)制為處理多智能體系統(tǒng)中智能體間的通信消息提供了合理方案,在交通樞紐控制和無人機(jī)協(xié)同領(lǐng)域都具備廣泛的應(yīng)用前景。

    多智能體系統(tǒng);智能體協(xié)同;深度強(qiáng)化學(xué)習(xí);智能體通信;注意力機(jī)制;策略梯度

    0 引言

    深度強(qiáng)化學(xué)習(xí)(Deep Reinforcement Learning, DRL)[1-2]在無人機(jī)編隊(duì)、自動駕駛和游戲等場景表現(xiàn)出優(yōu)異的性能。將DRL引入多智能體系統(tǒng)[3],形成了多智能體強(qiáng)化學(xué)習(xí)(Multi? Agent Reinforcement Learning, MARL)[4-5],MARL領(lǐng)域的一大挑戰(zhàn)是:在非全知環(huán)境下對于復(fù)雜且協(xié)作要求高的任務(wù),智能體需要密切配合才能實(shí)現(xiàn)團(tuán)隊(duì)利益的最大化。

    溝通是相互理解的基礎(chǔ),良好的信息交流能確保合作的順利開展。通信策略的有效學(xué)習(xí)對智能體準(zhǔn)確感知外在環(huán)境、提升決策質(zhì)量具有重要的支撐作用。利用MARL學(xué)習(xí)智能體間的通信策略以促進(jìn)合作成為近年來研究進(jìn)展迅速的課題,涌現(xiàn)出了通信神經(jīng)網(wǎng)絡(luò)(Communication Neural Net, CommNet)[6]、雙向協(xié)調(diào)網(wǎng)絡(luò)(Bidirectionally?coordinated Net, BicNet)[7]、針對性多智能體通信(Targeted Multi?Agent Communication, TarMac)[8]、個性化可控連續(xù)通信網(wǎng)絡(luò)(Individualized Controlled Continuous Communication Net, IC3Net)[9]、博弈抽象通信(Game Abstraction Communication, GA?Comm)[10]、雙注意力Actor?Critic消息處理器(Double Attention Actor?Critic Message Processor, DAACMP)[11]等一系列代表性研究成果。

    本文聚焦于通信機(jī)制下較大規(guī)模多智能體系統(tǒng)的消息處理。通常,通信消息越多,意味著智能體獲知的狀態(tài)信息越多,學(xué)習(xí)效果會獲得提升。然而,在MARL設(shè)置下,共享通信消息中并非所有的消息都是有用的;對所有通信消息進(jìn)行統(tǒng)一處理,往往會造成重要信息的丟失。因此,對智能體通信消息有效識別并進(jìn)行處理是多智能體協(xié)作的一個關(guān)鍵。

    本文提出一種基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC(Attentional Message Sharing multi?agent Actor?Critic)來解決上述問題。首先,針對單個智能體觀測具有局限性,執(zhí)行期間協(xié)作能力有限的問題,AMSAC以Actor?Critic架構(gòu)為基礎(chǔ)設(shè)計(jì)了消息共享網(wǎng)絡(luò),智能體通過對通信消息的讀取和寫入操作完成通信消息共享,提升Actor網(wǎng)絡(luò)在決策時利用附加狀態(tài)信息的能力;其次,為了有效處理大量通信消息,AMSAC在消息共享網(wǎng)絡(luò)中設(shè)計(jì)了一種注意力消息處理機(jī)制,以增強(qiáng)智能體自適應(yīng)識別并處理重要通信消息的能力;最后,在集中式Critic網(wǎng)絡(luò),AMSAC引入時序差分(Temporal Difference, TD)優(yōu)勢策略梯度[12]更新Actor網(wǎng)絡(luò)參數(shù),采取有效的方式充分利用全局信息對智能體動作進(jìn)行評估。在AMSAC決策的過程中,智能體能有效識別重要信息并從大量通信消息中選擇真正有價值的信息進(jìn)行學(xué)習(xí),同時集中式Critic網(wǎng)絡(luò)能為智能體提供良好的指導(dǎo)。因此,AMSAC能成功解決上文提到的關(guān)鍵問題。

    本文在多智能體協(xié)作環(huán)境:星際爭霸Ⅱ多智能體挑戰(zhàn)賽(StarCraft Multi?Agent Challenge, SMAC)[13]的四個不同場景下進(jìn)行實(shí)驗(yàn),所有場景都具備較多數(shù)目的智能體。結(jié)果表明:本文算法AMSAC能有效識別并處理智能體的通信消息,在所有場景中展示出優(yōu)于其他基線方法的性能。同時,實(shí)驗(yàn)結(jié)果表明通過簡單的通信架構(gòu)來增加智能體決策時的附加狀態(tài)信息并不能穩(wěn)定獲得良好的性能表現(xiàn),這種結(jié)果也印證了本文提出的注意力消息共享機(jī)制的有效性。

    本文的主要工作包括:1)針對單個智能體只接收局部觀測,訓(xùn)練協(xié)作行為的能力有限的問題,基于Actor?Critic架構(gòu)設(shè)計(jì)了消息共享網(wǎng)絡(luò),增強(qiáng)智能體溝通交流的能力;集中式Critic網(wǎng)絡(luò)采用TD優(yōu)勢策略梯度,充分利用全局狀態(tài)動作信息,對智能體執(zhí)行動作的價值進(jìn)行合理評估。2)針對智能體數(shù)量較多時存在無法有效識別并處理消息的問題,建立注意力消息共享機(jī)制有側(cè)重地選擇重要消息進(jìn)行學(xué)習(xí),提升智能體自適應(yīng)學(xué)習(xí)有效信息的能力。3)在多智能體協(xié)作環(huán)境SMAC上與基線模型比較,本文算法AMSAC在四個場景下均優(yōu)于基線模型。

    1 相關(guān)工作

    根據(jù)多智能體系統(tǒng)中消息傳遞是否存在明確的通信信道,相關(guān)研究可分為基于顯式通信的方法和基于隱式通信的方法。本章首先對MARL通信機(jī)制的相關(guān)研究進(jìn)行論述,然后介紹注意力機(jī)制(attention mechanism)在MARL領(lǐng)域的相關(guān)工作。

    1.1 通信方法

    基于顯式通信的方法是在智能體之間建立明確的通信機(jī)制,基本框架是采用深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)建立通信渠道以幫助智能體進(jìn)行溝通并完成決策,在此類方法中,DNN是端到端進(jìn)行訓(xùn)練的,其隱藏層信息被視為消息[6],智能體可以在進(jìn)行策略學(xué)習(xí)的同時學(xué)習(xí)如何將這種消息傳輸?shù)狡渌悄荏w,以及如何處理從其他智能體接收的消息以更好地優(yōu)化自身決策促進(jìn)合作。

    CommNet是這類研究的一個代表工作,它使用DNN來處理全局所有智能體發(fā)送的所有消息,并將處理后的消息統(tǒng)一用于指導(dǎo)所有智能體合作。IC3Net通過在消息聚合步驟中應(yīng)用門控機(jī)制,在通信過程中主動選擇或屏蔽來自其他智能體的消息。GA?Comm設(shè)計(jì)了一種圖注意力機(jī)制,在策略網(wǎng)絡(luò)進(jìn)行博弈抽象,簡化多智能體學(xué)習(xí)的復(fù)雜度,加快學(xué)習(xí)速度?;陲@式通信的方法通常采用REINFORCE (REward Increment Nonnegative Factor Offset Reinforcement Characteristic Eligibility)[14]范式訓(xùn)練策略網(wǎng)絡(luò),依據(jù)回合制對網(wǎng)絡(luò)參數(shù)進(jìn)行更新;但是,由于它不具備集中式Critic網(wǎng)絡(luò),使得這種訓(xùn)練方法無法充分利用全局信息對智能體動作進(jìn)行評價。

    基于隱式通信的方法不設(shè)計(jì)明確的通信模塊,通常采用集中式Critic網(wǎng)絡(luò)和分散式Actor網(wǎng)絡(luò)相結(jié)合的框架,利用Critic網(wǎng)絡(luò)得到的全局信息評判Actor網(wǎng)絡(luò)決策的動作價值,每個智能體的Actor網(wǎng)絡(luò)獨(dú)立執(zhí)行動作決策。多智能體深度確定性策略梯度(Multi?Agent Deep Deterministic Policy Gradient, MADDPG)[15]是基于隱式通信方法的一個代表工作,它將深度確定性策略梯度(Deep Deterministic Policy Gradient, DDPG)[16]擴(kuò)展到多智能體設(shè)置,其集中式Critic隱式地收集并利用其他智能體的狀態(tài)和動作信息,能適應(yīng)混合合作競爭的環(huán)境。反事實(shí)多智能體策略梯度(COunterfactual Multi?Agent policy gradient, COMA)[17]構(gòu)造一個集中式Critic網(wǎng)絡(luò)利用隱式通信信息并計(jì)算特定于智能體的反事實(shí)優(yōu)勢策略梯度以指導(dǎo)Actor網(wǎng)絡(luò)訓(xùn)練。完全分散的多智能體強(qiáng)化學(xué)習(xí)算法(Fully Decentralized Multi?Agent Reinforcement Learning, FD?MARL)是一種分布式學(xué)習(xí)算法,通過智能體使用其個體獎勵和從網(wǎng)絡(luò)相鄰智能體傳遞來的Critic網(wǎng)絡(luò)參數(shù)作為隱式信息來學(xué)習(xí)合作策略。這類方法在訓(xùn)練過程中利用全局信息對智能體動作進(jìn)行評估,但在執(zhí)行過程中Actor網(wǎng)絡(luò)獨(dú)立執(zhí)行決策,缺乏智能體間的溝通,可能導(dǎo)致算法在面對復(fù)雜、協(xié)作要求高的場景下難以有效合作。

    1.2 MARL中的注意力機(jī)制

    注意力機(jī)制有利于選擇重要信息,近幾年被引入MARL領(lǐng)域,在一定程度上促進(jìn)了智能體的學(xué)習(xí)效果。例如,注意力通信(ATtentiOnal Communication, ATOC)模型[19]提出帶有注意力層的雙向長短期記憶(Bi?directional Long Short?Term Memory, Bi?LSTM)通信通道,其注意力機(jī)制使每個智能體可以根據(jù)其狀態(tài)相關(guān)的重要程度有側(cè)重地處理來自其他智能體的消息。多智能體注意力Actor?Critic(Multi?Actor? Attention?Critic, MAAC)[20]使用注意力機(jī)制對集中式Critic網(wǎng)絡(luò)進(jìn)行建模,使用SAC(Soft Actor?Critic)評估Actor網(wǎng)絡(luò)的決策價值。DAACMP在Actor和Critic網(wǎng)絡(luò)都使用注意力機(jī)制進(jìn)行顯式信息處理,以獲得更好的性能表現(xiàn)。TarMac提出一種有針對性的通信協(xié)議來確定與誰通信以及使用注意力網(wǎng)絡(luò)傳輸什么消息。

    基于以上工作的啟發(fā),本文提出了基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC。但與已有方法的區(qū)別在于,本文算法AMSAC有效結(jié)合顯式通信和隱式通信的方法,基于Actor?Critic架構(gòu)建立消息共享網(wǎng)絡(luò),利用注意力機(jī)制自適應(yīng)處理消息,提升智能體識別有價值信息的能力;同時,利用集中式Critic網(wǎng)絡(luò)基于全局狀態(tài)信息評估智能體的動作價值,以此提升算法的性能。

    2 背景知識

    2.1 問題定義

    2.2 策略梯度算法

    與策略參數(shù)相關(guān)的梯度表示為:

    2.3 注意力機(jī)制

    3 AMSAC算法

    本文算法AMSAC的整體架構(gòu)如圖1所示:每個智能體具備負(fù)責(zé)自身決策的Actor網(wǎng)絡(luò),所有智能體共享集中式Critic網(wǎng)絡(luò)和消息共享網(wǎng)絡(luò)。在訓(xùn)練期間,智能體通過自身觀察和通信消息進(jìn)行決策,集中式Critic網(wǎng)絡(luò)評判智能體執(zhí)行動作的價值并端到端地更新Actor網(wǎng)絡(luò)和消息共享網(wǎng)絡(luò)。集中式Critic網(wǎng)絡(luò)只在訓(xùn)練期間使用。

    圖1 AMSAC的整體架構(gòu)

    3.1 Actor網(wǎng)絡(luò)

    3.2 注意力消息共享網(wǎng)絡(luò)

    圖2 AMSAC的注意力消息共享網(wǎng)絡(luò)結(jié)構(gòu)

    3.3 Critic網(wǎng)絡(luò)

    本文認(rèn)為遵循TD優(yōu)勢策略梯度更新Actor網(wǎng)絡(luò)參數(shù),能充分利用全局狀態(tài)信息,準(zhǔn)確衡量智能體執(zhí)行動作的價值。為了驗(yàn)證這一想法,本文結(jié)合Native Critic與COMA的分散式Actor網(wǎng)絡(luò),稱之為樸素Actor?Critic(Native Actor? Critic, Native AC),在實(shí)驗(yàn)中作為消融模型與COMA的反事實(shí)策略梯度進(jìn)行了性能比較。

    4 實(shí)驗(yàn)與結(jié)果分析

    4.1 實(shí)驗(yàn)環(huán)境

    本文在星際爭霸Ⅱ多智能體挑戰(zhàn)賽SMAC上進(jìn)行了性能測試。SMAC由一系列星際爭霸Ⅱ微管理游戲組成,旨在評估智能體在解決復(fù)雜任務(wù)時的協(xié)作能力。圖3顯示了SMAC中的兩種場景截圖。每個場景中,算法控制的友方單位與內(nèi)置游戲AI控制的敵方單位作戰(zhàn),當(dāng)任何一支隊(duì)伍的所有單位都陣亡,或者當(dāng)這一回合達(dá)到最大時間限制時,就標(biāo)志著回合結(jié)束;只有當(dāng)敵人單位被全部消滅時,游戲才能勝利;對戰(zhàn)目標(biāo)是最大化游戲勝率。星際爭霸Ⅱ經(jīng)過了版本迭代,不同版本之間性能存在差距,本文采用的是星際爭霸Ⅱ的5.0.5版本。

    實(shí)驗(yàn)中使用SMAC的所有默認(rèn)設(shè)置,包括:游戲難度設(shè)置為7級:非常困難;射擊范圍、觀察范圍等與默認(rèn)設(shè)置一致;智能體的動作空間由移動、攻擊、停止和不操作共四種離散動作組成;智能體只能朝上、下、左、右四個方向移動;攻擊動作需要指定敵方ID,只有當(dāng)敵人在其射程內(nèi)時才能攻擊;選取2s3z、3s5z、1c3s5z和8m共四個具有挑戰(zhàn)性的場景對算法進(jìn)行性能測試。表1展示了SMAC不同地圖的場景細(xì)節(jié)。不同游戲角色具有不同的生命值、攻擊力以及攻擊范圍。

    圖3 SMAC中的兩種不同場景截圖

    表1 SMAC地圖細(xì)節(jié)

    4.2 算法及實(shí)現(xiàn)細(xì)節(jié)

    為驗(yàn)證AMSAC的有效性,引入以下消融模型進(jìn)行比較:

    MSAC:在消息共享網(wǎng)絡(luò)采用全連接網(wǎng)絡(luò)對通信消息進(jìn)行處理。Critic網(wǎng)絡(luò)沿用TD優(yōu)勢策略梯度更新網(wǎng)絡(luò)參數(shù),命名為MSAC。

    Native AC[12]:在Actor網(wǎng)絡(luò)采用了與COMA算法相同的網(wǎng)絡(luò)架構(gòu),移除消息共享網(wǎng)絡(luò),在Critic網(wǎng)絡(luò)沿用了TD優(yōu)勢策略梯度更新。

    還與AMSAC最相關(guān)、性能最好的多智能體Actor?Critic方法和通信學(xué)習(xí)方法進(jìn)行比較:

    CommNet[6]:是一種顯式通信的MARL算法,通過平均處理其他智能體的消息進(jìn)行通信,智能體對所有消息投入相同的注意力權(quán)重。本文利用REINFORCE算法訓(xùn)練策略網(wǎng)絡(luò)。

    COMA[17]:是與本文算法結(jié)構(gòu)、原理最為接近的Actor?Critic算法,它在Actor網(wǎng)絡(luò)未使用通信機(jī)制,Critic網(wǎng)絡(luò)則利用反事實(shí)策略梯度進(jìn)行參數(shù)更新。

    GA?Comm[10]:一種顯式通信的MARL算法,通過圖注意力機(jī)制對智能體之間傳遞的消息進(jìn)行博弈抽象。本文利用REINFORCE算法訓(xùn)練策略網(wǎng)絡(luò)。

    通過AMSAC與MSAC的比較,可以獲悉本文提出的注意力消息處理機(jī)制應(yīng)用在消息共享網(wǎng)絡(luò)的效果;通過MSAC與Native AC的對比,可以了解本文提出的消息共享通信方式與不進(jìn)行通信的方法的性能區(qū)別;同時,引入基線CommNet是為了獲悉單純地將所有消息輸入網(wǎng)絡(luò)并輸出所有智能體動作的顯式通信方式在性能上與AMSAC的差距;而通過COMA與本文算法的比較可以獲悉Native Critic的性能優(yōu)勢以及消息共享網(wǎng)絡(luò)的有效性;通過GA?Comm與AMSAC的比較,可以獲悉顯式通信的集中式控制方案中的圖注意力機(jī)制與集中訓(xùn)練分布執(zhí)行的注意力消息共享機(jī)制的區(qū)別,也能反映集中式Critic與并未充分利用集中訓(xùn)練條件的REINFORCE訓(xùn)練范式的性能差距。

    本文的實(shí)驗(yàn)結(jié)果是在Nivida Geforce RTX 3090,Inter i9? 10900k的計(jì)算機(jī)上運(yùn)行獲得的,每次獨(dú)立運(yùn)行需要5~10 h,具體取決于智能體規(guī)模等因素。每次運(yùn)行對應(yīng)一個隨機(jī)種子,該種子的網(wǎng)絡(luò)參數(shù)在開始訓(xùn)練時進(jìn)行隨機(jī)初始化。

    AMSAC和MSAC具備相同的體系結(jié)構(gòu),除了消息共享網(wǎng)絡(luò)將64維的全連接層替換為64維的注意力層,其后的全連接層將讀取的消息維度固定在32維。Critic網(wǎng)絡(luò)均設(shè)置為每200局游戲進(jìn)行一次目標(biāo)網(wǎng)絡(luò)更新。

    4.3 實(shí)驗(yàn)結(jié)果

    圖4 獨(dú)立運(yùn)行5次后的平均勝率

    從圖4中可以看出,CommNet在任意場景下都沒有學(xué)會一種持續(xù)擊敗敵方的策略。這表明,單純地將所有通信消息不做處理直接輸入策略網(wǎng)絡(luò)并不能學(xué)習(xí)到有效策略;同時也說明Critic網(wǎng)絡(luò)對于策略優(yōu)化具有積極作用。GA?Comm在大部分場景下表現(xiàn)出優(yōu)于CommNet的性能,表明其圖注意力機(jī)制對于集中式消息的處理比單純的全連接網(wǎng)絡(luò)更為有效。但兩種顯式通信方法都不能很好地適應(yīng)部分難度較大的場景,本文認(rèn)為這主要是由于缺乏集中式Critic難以充分利用全局信息,使智能體決策得不到良好指導(dǎo)。COMA在四個場景中的三個場景下學(xué)習(xí)效果不好,這種結(jié)果印證了反事實(shí)策略梯度與TD優(yōu)勢策略梯度在指導(dǎo)Actor網(wǎng)絡(luò)上存在性能差距。此外,在部分場景下,MSAC的表現(xiàn)與Native AC相當(dāng)甚至不如Native AC,這表明對于通信消息的單純?nèi)B接結(jié)構(gòu)并不能準(zhǔn)確把握通信消息中的有效信息。

    AMSAC在所有任務(wù)中獲得了最佳性能,表明本文提出的注意力消息共享機(jī)制是有效的。此外,在較為簡單的場景如8m下,實(shí)驗(yàn)中的所有算法都表現(xiàn)出不錯的性能,即便是綜合表現(xiàn)最差的CommNet也能在訓(xùn)練后期取得60%以上的勝率,在該場景下AMSAC收斂到穩(wěn)定勝率的速度比MSAC和Native AC慢,我們認(rèn)為這是因?yàn)樽⒁饬ο⒐蚕頇C(jī)制的架構(gòu)更加復(fù)雜造成的。

    在2s3z和1c3s5z等難度提升的場景下,只有少數(shù)算法能夠?qū)W習(xí)到有效的獲勝策略。在綜合難度最大的3s5z場景下,其他基線和消融算法基本完全無法取勝,但AMSAC卻能通過其特殊設(shè)計(jì)的通信架構(gòu)學(xué)習(xí)到對于智能體決策真正有價值的信息,在3s5z場景下獲得突破性地超過12.5%的平均勝率。

    4.4 注意力消息共享機(jī)制分析

    為了更細(xì)粒度地顯示消息共享網(wǎng)絡(luò)的注意力機(jī)制如何工作,對2s3z環(huán)境中特定智能體對其他智能體消息的注意力權(quán)重進(jìn)行可視化分析。如圖5所示,選取一局對局的錄像進(jìn)行分析,同時輸出智能體①對于其他智能體消息的注意力權(quán)重。可以看出,影響注意力權(quán)重的最主要因素是智能體①與其他智能體的距離。例如,由于智能體②和智能體①在本回合中始終保持較近的距離,并且兩者均為追獵者角色,因此智能體①始終對智能體②傳輸?shù)南⒈в休^大的注意力權(quán)重。此外,智能體③先是遠(yuǎn)離①而后又接近①,智能體①對于③的注意力權(quán)重經(jīng)歷了先減小后增大的過程。最后,智能體①對于對戰(zhàn)陣亡的智能體則取消對其消息分配注意力權(quán)重。

    除此以外,根據(jù)輸出的注意力權(quán)重值,我們認(rèn)為智能體①對其他智能體投入的關(guān)注度還與智能體的角色或種類有關(guān),這是由于相同角色或種類的智能體具備相同的觀測能力,因此得到的觀測向量在生成消息后有更大地具備高相似度的可能性。圖中戰(zhàn)斗的最后智能體①對于相近距離的智能體②和智能體⑤投入的注意力權(quán)重差距明顯也印證了本文的想法。

    上述結(jié)果與人類的直接認(rèn)知是一致的:附近的智能體或相同角色的智能體通常對當(dāng)前智能體有更大的影響,因此通信消息更重要,并且當(dāng)前智能體已經(jīng)學(xué)會將更多的注意力放在與其更相關(guān)的智能體傳輸?shù)南⑸?。因此,這種結(jié)果支持本文的想法,AMSAC的注意力消息共享機(jī)制可以自適應(yīng)地關(guān)注更重要的信息,加快智能體學(xué)習(xí)到對于其決策真正有價值信息的速度。

    表2 單次獨(dú)立實(shí)驗(yàn)的平均勝率 單位: %

    表3 獨(dú)立實(shí)驗(yàn)獲得的單次評估最高勝率 單位: %

    圖5 注意力消息共享機(jī)制分析的對戰(zhàn)過程截圖

    5 結(jié)語

    本文提出了一種注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC來自適應(yīng)識別和處理多個智能體間的大量通信消息。首先設(shè)計(jì)了消息共享網(wǎng)絡(luò),負(fù)責(zé)對智能體通信的消息進(jìn)行寫入和讀取;同時,為了提高智能體對通信消息的處理能力,本文提出了一種注意力消息共享機(jī)制,對消息進(jìn)行有側(cè)重的識別和處理,使智能體學(xué)習(xí)到真正有價值的信息。此外,AMSAC在Critic網(wǎng)絡(luò)通過TD優(yōu)勢策略梯度更好地利用全局狀態(tài)信息評判執(zhí)行動作的價值。在星際爭霸Ⅱ多智能體挑戰(zhàn)賽SMAC的四個場景下進(jìn)行實(shí)驗(yàn),結(jié)果表明本文方法性能優(yōu)于基線模型。同時,消融模型對比表明,本文提出的注意力消息共享機(jī)制對于實(shí)現(xiàn)更好和更穩(wěn)定的性能是必要的;對注意力機(jī)制的分析表明,AMSAC確實(shí)掌握了自適應(yīng)處理消息的方式。

    下一步將考慮應(yīng)用多頭注意力機(jī)制或圖注意力機(jī)制關(guān)注來自不同相關(guān)智能體和不同消息表征子空間的通信消息。本文關(guān)注的智能體數(shù)量大多集中在8~10的較大規(guī)模,未來也可以考慮將MARL通信方法引入更大規(guī)模的多智能體系統(tǒng),當(dāng)前的大規(guī)模智能體通信方法均包含一系列假設(shè)前提,研究如何處理大規(guī)模多智能體系統(tǒng)的通信消息,仍然存在極強(qiáng)的必要性。

    [1] MNIH V, KAVUKCUOGLU K, SILVER D, et al. Human?level control through deep reinforcement learning[J]. Nature, 2015, 518(7540): 529-533.

    [2] 劉全,翟建偉,章宗長,等. 深度強(qiáng)化學(xué)習(xí)綜述[J]. 計(jì)算機(jī)學(xué)報(bào), 2018, 41(1):1-27.(LIU Q, ZHAI J W, ZHANG Z Z, et al. A survey on deep reinforcement learning[J]. Chinese Journal of Computers, 2018, 41(1):1-27.)

    [3] TROITZSCH K G. Multi-agent systems and simulation: a survey from an application perspective[M]// UHRMACHER A M, WEYNS D. Multi-Agent Systems: Simulation and Applications. Boca Raton: CRC Press, 2009: 53-76.

    [4] HERNANDEZ?LEAL P, KARTAL B, TAYLOR M E. A survey and critique of multiagent deep reinforcement learning[J]. Autonomous Agents and Multi?Agent Systems, 2019, 33(6): 750-797.

    [5] 孫長銀,穆朝絮. 多智能體深度強(qiáng)化學(xué)習(xí)的若干關(guān)鍵科學(xué)問題[J]. 自動化學(xué)報(bào), 2020, 46(7):1301-1312.(SUN C Y, MU C X. Important scientific problems of multi?agent deep reinforcement learning[J]. Acta Automatica Sinica, 2020, 46(7):1301-1312.)

    [6] SUKHBAATAR S, SZLAM A, FERGUS R. Learning multiagent communication with backpropagation[C]// Proceedings of the 30th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2016: 2252-2260.

    [7] PENG P, WEN Y, YANG Y D, et al. Multiagent bidirectionally? coordinated nets: emergence of human?level coordination in learning to play StarCraft combat games[EB/OL]. (2017-09-14)[2021-02-12].https://arxiv.org/pdf/1703.10069.pdf.

    [8] DAS A, GERVET T, ROMOFF J, et al. TarMAC: targeted multi? agent communication[C]// Proceedings of the 36th International Conference on Machine Learning. New York: JMLR.org, 2019: 1538-1546.

    [9] SINGH A, JAIN T, SUKHBAATAR S. Learning when to communicate at scale in multiagent cooperative and competitive tasks[EB/OL]. (2018-12-23)[2021-02-12].https://arxiv.org/pdf/1812.09755.pdf.

    [10] LIU Y, WANG W X, HU Y J, et al. Multi?agent game abstraction via graph attention neural network[C]// Proceedings of the 34th Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 7211-7218.

    [11] MAO H Y, ZHANG Z C, XIAO Z, et al. Learning multi?agent communication with double attentional deep reinforcement learning[J]. Autonomous Agents and Multi?Agent Systems, 2020, 34(1): No.32.

    [12] SU J Y, ADAMS S, BELING P. Value?decomposition multi?agent actor?critics[C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2021: 11352-11360.

    [13] SAMVELYAN M, RASHID T, SCHROEDER DE WITT C, et al. The StarCraft multi?agent challenge[C]// Proceedings of the 18th International Conference on Autonomous Agents and MultiAgent Systems. Richland, SC: International Foundation for Autonomous Agents and MultiAgent Systems, 2019: 2186-2188.

    [14] WILLIAMS R J. Simple statistical gradient?following algorithms for connectionist reinforcement learning[J]. Machine Learning, 1992, 8(3/4): 229-256.

    [15] LOWE R, WU Y, TAMAR A, et al. Multi?agent actor?critic for mixed cooperative?competitive environments[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6382-6393.

    [16] LILLICRAP T P, HUNT J J, PRITZEL A, et al. Continuous control with deep reinforcement learning[EB/OL]. (2019-07-05)[2021-02-12].https://arxiv.org/pdf/1509.02971.pdf.

    [17] FOERSTER J N, FARQUHAR G, AFOURAS T, et al. Counterfactual multi?agent policy gradients[C]// Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 2974-2982.

    [18] ZHANG K Q, YANG Z R, LIU H, et al. Fully decentralized multi?agent reinforcement learning with networked agents[C]// Proceedings of the 35th International Conference on Machine Learning. New York: JMLR.org, 2018: 5872-5881.

    [19] JIANG J C, LU Z Q. Learning attentional communication for multi-agent cooperation[C]// Proceedings of the 32nd International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2018: 7265-7275.

    [20] IQBAL S, SHA F. Actor?attention?critic for multi?agent reinforcement learning[C]// Proceedings of the 36th International Conference on Machine Learning. New York: JMLR.org, 2019: 2961-2970.

    [21] BERNSTEIN D S, GIVAN R, IMMERMAN N, et al. The complexity of decentralized control of Markov decision processes[J]. Mathematics of Operations Research, 2002, 27(4): 819-840.

    [22] SUTTON R S, McALLESTER D, SINGH S, et al. Policy gradient methods for reinforcement learning with function approximation[C]// Proceedings of the 12th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 1999: 1057-1063.

    [23] KONDA V R, TSITSIKLIS J N. Actor?critic algorithms[C]// Proceedings of the 12th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 1999: 1008-1014.

    [24] MNIH V, HEESS N, GRAVES A, et al. Recurrent models of visual attention[C]// Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2014: 2204-2212.

    [25] CHO K, MERRI?NBOER B van, GU?L?EHRE ?, et al. Learning phrase representations using RNN encoder?decoder for statistical machine translation[C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2014: 1724-1734.

    [26] XU K, BA J, KIROS R, et al. Show, attend and tell: neural image caption generation with visual attention[C]// Proceedings of the 32nd International Conference on Machine Learning. New York: JMLR.org, 2015: 2048-2057.

    [27] CHUNG J, GU?L?EHRE ?, CHO K, et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[S/OL]. (2014-12-11)[2021-10-25].https://arxiv.org/pdf/1412.3555.pdf.

    [28] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6000-6010.

    Multi?agent reinforcement learning based on attentional message sharing

    ZANG Rong1, WANG Li1*, SHI Tengfei2

    (1,,030600,;2,030006,)

    Communication is an important way to achieve effective cooperation among multiple agents in a non? omniscient environment. When there are a large number of agents, redundant messages may be generated in the communication process. To handle the communication messages effectively, a multi?agent reinforcement learning algorithm based on attentional message sharing was proposed, called AMSAC (Attentional Message Sharing multi?agent Actor?Critic). Firstly, a message sharing network was built for effective communication among agents, and information sharing was achieved through message reading and writing by the agents, thus solving the problem of lack of communication among agents in non?omniscient environment with complex tasks. Then, in the message sharing network, the communication messages were processed adaptively by the attentional message sharing mechanism, and the messages from different agents were processed with importance order to solve the problem that large?scale multi?agent system cannot effectively identify and utilize the messages during the communication process. Moreover, in the centralized Critic network, the Native Critic was used to update the Actor network parameters according to Temporal Difference (TD) advantage policy gradient, so that the action values of agents were evaluated effectively. Finally, during the execution period, the decision was made by the agent distributed Actor network based on its own observations and messages from message sharing network. Experimental results in the StarCraft Multi?Agent Challenge (SMAC) environment show that compared with Native Actor?Critic (Native AC), Game Abstraction Communication (GA?Comm) and other multi?agent reinforcement learning methods, AMSAC has an average win rate improvement of 4 - 32 percentage points in four different scenarios. AMSAC’s attentional message sharing mechanism provides a reasonable solution for processing communication messages among agents in a multi?agent system, and has broad application prospects in both transportation hub control and unmanned aerial vehicle collaboration.

    multi?agent system; agent cooperation; deep reinforcement learning; agent communication; attention mechanism; policy gradient

    This work is partially supported by National Natural Science Foundation of China (61872260).

    ZANG Rong, born in 1997, M. S. candidate. His research interests include reinforcement learning, multi-agent system.

    WANG Li, born in 1971, Ph. D., professor. Her research interests include data mining, artificial intelligence, machine learning.

    SHI Tengfei, born in 1990, M. S., engineer. His research interests include deep reinforcement learning.

    1001-9081(2022)11-3346-08

    10.11772/j.issn.1001-9081.2021122169

    2021?12?21;

    2022?01?14;

    2022?01?24。

    國家自然科學(xué)基金資助項(xiàng)目(61872260)。

    TP181

    A

    臧嶸(1997—),男,山西太原人,碩士研究生,主要研究方向:強(qiáng)化學(xué)習(xí)、多智能體系統(tǒng);王莉(1971—),女,山西太原人,教授,博士,CCF高級會員,主要研究方向:數(shù)據(jù)挖掘、人工智能、機(jī)器學(xué)習(xí);史騰飛(1990—),男,山西晉城人,工程師,碩士,CCF會員,主要研究方向:深度強(qiáng)化學(xué)習(xí)。

    猜你喜歡
    集中式梯度消息
    一個改進(jìn)的WYL型三項(xiàng)共軛梯度法
    一種自適應(yīng)Dai-Liao共軛梯度法
    一張圖看5G消息
    一類扭積形式的梯度近Ricci孤立子
    光伏:分布式新增裝機(jī)規(guī)模首次超越集中式
    能源(2018年8期)2018-09-21 07:57:16
    組串式、集中式逆變器的評估選定淺析
    電子測試(2017年23期)2017-04-04 05:07:46
    接觸網(wǎng)隔離開關(guān)集中式控制方案研究
    電氣化鐵道(2016年5期)2016-04-16 05:59:55
    光伏集中式逆變器與組串式逆變器
    消息
    消息
    久久婷婷青草| 久久人妻熟女aⅴ| av线在线观看网站| 国产精品不卡视频一区二区| 亚洲丝袜综合中文字幕| 国产精品麻豆人妻色哟哟久久| 中文字幕免费在线视频6| 一边摸一边做爽爽视频免费| 校园人妻丝袜中文字幕| 亚洲精品aⅴ在线观看| 国产精品国产av在线观看| 欧美成人精品欧美一级黄| 亚洲精品日本国产第一区| 国产 精品1| 十分钟在线观看高清视频www| 少妇被粗大猛烈的视频| 最黄视频免费看| 观看av在线不卡| 亚洲欧美一区二区三区黑人 | 中文乱码字字幕精品一区二区三区| 制服人妻中文乱码| 色吧在线观看| av网站免费在线观看视频| 国产在线视频一区二区| 国产精品国产av在线观看| 国产亚洲av片在线观看秒播厂| 黄网站色视频无遮挡免费观看| 免费黄网站久久成人精品| 免费黄网站久久成人精品| 亚洲精品一区蜜桃| 亚洲av综合色区一区| 亚洲精品成人av观看孕妇| 亚洲美女搞黄在线观看| 国产又色又爽无遮挡免| 不卡视频在线观看欧美| 女性生殖器流出的白浆| 久久狼人影院| 久久久精品免费免费高清| 午夜福利,免费看| 考比视频在线观看| 啦啦啦啦在线视频资源| 一二三四在线观看免费中文在 | 美女中出高潮动态图| 亚洲伊人色综图| 国产精品久久久久久精品电影小说| 精品国产国语对白av| www日本在线高清视频| 欧美成人午夜精品| 日韩成人伦理影院| 亚洲精品乱码久久久久久按摩| 十分钟在线观看高清视频www| av国产久精品久网站免费入址| 亚洲国产成人一精品久久久| 在线精品无人区一区二区三| 美女主播在线视频| 精品卡一卡二卡四卡免费| 亚洲国产欧美日韩在线播放| 国产在线免费精品| 国产麻豆69| 亚洲 欧美一区二区三区| 麻豆精品久久久久久蜜桃| 少妇的逼水好多| 成人毛片60女人毛片免费| 各种免费的搞黄视频| 免费观看无遮挡的男女| 欧美成人精品欧美一级黄| 99国产精品免费福利视频| 蜜臀久久99精品久久宅男| 亚洲欧洲日产国产| 99热全是精品| 亚洲精品美女久久久久99蜜臀 | 三上悠亚av全集在线观看| 国产探花极品一区二区| 成人国产麻豆网| 久久97久久精品| 久久精品久久久久久久性| kizo精华| 一区在线观看完整版| 精品少妇久久久久久888优播| 激情视频va一区二区三区| 久久亚洲国产成人精品v| 午夜日本视频在线| 久久精品久久精品一区二区三区| 少妇 在线观看| 高清毛片免费看| h视频一区二区三区| 日韩,欧美,国产一区二区三区| 高清毛片免费看| 国产成人精品婷婷| 18禁裸乳无遮挡动漫免费视频| 又大又黄又爽视频免费| 国产精品三级大全| 欧美国产精品va在线观看不卡| 国产精品一二三区在线看| 男人舔女人的私密视频| 久热这里只有精品99| 亚洲精品久久成人aⅴ小说| 亚洲精品久久成人aⅴ小说| 国产白丝娇喘喷水9色精品| 国产精品偷伦视频观看了| 2018国产大陆天天弄谢| 久久国产亚洲av麻豆专区| 女性被躁到高潮视频| 18禁观看日本| 99国产精品免费福利视频| 亚洲人成77777在线视频| 国产福利在线免费观看视频| 汤姆久久久久久久影院中文字幕| 纵有疾风起免费观看全集完整版| 草草在线视频免费看| 精品第一国产精品| 国产精品一区www在线观看| 国产免费又黄又爽又色| 观看av在线不卡| 99热网站在线观看| 久久影院123| 国产亚洲精品久久久com| 国产成人欧美| 国产av一区二区精品久久| 美女脱内裤让男人舔精品视频| 国产国语露脸激情在线看| 黄片播放在线免费| 国产精品嫩草影院av在线观看| 亚洲美女搞黄在线观看| 不卡视频在线观看欧美| 大香蕉久久成人网| 亚洲内射少妇av| 制服人妻中文乱码| 国产 精品1| 国产日韩欧美在线精品| 新久久久久国产一级毛片| 91成人精品电影| 国产不卡av网站在线观看| 国产成人精品久久久久久| 最黄视频免费看| 亚洲内射少妇av| 久久99热这里只频精品6学生| 午夜免费鲁丝| 日韩成人av中文字幕在线观看| 天美传媒精品一区二区| 国产1区2区3区精品| 午夜福利视频精品| 精品一区二区三区视频在线| 国产精品蜜桃在线观看| 黑丝袜美女国产一区| 色婷婷av一区二区三区视频| 国产精品一区www在线观看| 国产精品不卡视频一区二区| 亚洲国产av新网站| 人妻少妇偷人精品九色| 久久精品国产亚洲av涩爱| 日韩不卡一区二区三区视频在线| 亚洲四区av| 亚洲人成网站在线观看播放| 久久99蜜桃精品久久| 91在线精品国自产拍蜜月| 自线自在国产av| 看免费成人av毛片| 精品一区二区三区四区五区乱码 | 亚洲图色成人| 午夜福利网站1000一区二区三区| 观看美女的网站| 亚洲国产成人一精品久久久| 亚洲精品aⅴ在线观看| 久久久精品94久久精品| 久久久久久久国产电影| 精品福利永久在线观看| 人人妻人人添人人爽欧美一区卜| 国产深夜福利视频在线观看| 亚洲一区二区三区欧美精品| 精品卡一卡二卡四卡免费| 亚洲丝袜综合中文字幕| 亚洲色图 男人天堂 中文字幕 | 亚洲,欧美,日韩| 波多野结衣一区麻豆| 久久国产亚洲av麻豆专区| 国产高清三级在线| 国产精品偷伦视频观看了| 毛片一级片免费看久久久久| 亚洲第一av免费看| 91aial.com中文字幕在线观看| 精品国产国语对白av| 日韩电影二区| 亚洲色图 男人天堂 中文字幕 | 亚洲成av片中文字幕在线观看 | 国产精品三级大全| 内地一区二区视频在线| 天天躁夜夜躁狠狠久久av| 在线观看国产h片| 飞空精品影院首页| 欧美xxⅹ黑人| 国产视频首页在线观看| 99久久人妻综合| 99视频精品全部免费 在线| 各种免费的搞黄视频| 下体分泌物呈黄色| 国产在线视频一区二区| 桃花免费在线播放| www日本在线高清视频| 国产淫语在线视频| 亚洲精品自拍成人| 亚洲婷婷狠狠爱综合网| 国产免费又黄又爽又色| 国产一区二区三区av在线| 丰满迷人的少妇在线观看| 亚洲av综合色区一区| 久久久久久久久久久免费av| 亚洲精品色激情综合| 久久人人爽人人片av| 久久鲁丝午夜福利片| av播播在线观看一区| 一边亲一边摸免费视频| 久久久精品94久久精品| 欧美人与善性xxx| 看免费成人av毛片| 国产黄频视频在线观看| 亚洲国产精品专区欧美| 人人妻人人爽人人添夜夜欢视频| 欧美精品人与动牲交sv欧美| 亚洲国产精品一区三区| 天堂俺去俺来也www色官网| videos熟女内射| 中文字幕人妻丝袜制服| 精品一区二区三区四区五区乱码 | 亚洲 欧美一区二区三区| 午夜福利影视在线免费观看| 女性被躁到高潮视频| 巨乳人妻的诱惑在线观看| 边亲边吃奶的免费视频| 国产激情久久老熟女| 97人妻天天添夜夜摸| 久久精品熟女亚洲av麻豆精品| 成人免费观看视频高清| 国产麻豆69| 亚洲精品国产av成人精品| 国产乱人偷精品视频| 99久久综合免费| 看免费av毛片| 在线亚洲精品国产二区图片欧美| 日本黄色日本黄色录像| 99热国产这里只有精品6| 午夜福利影视在线免费观看| 亚洲欧美色中文字幕在线| 高清黄色对白视频在线免费看| 我的女老师完整版在线观看| 免费日韩欧美在线观看| 亚洲精品久久成人aⅴ小说| 亚洲一区二区三区欧美精品| 免费大片18禁| 香蕉精品网在线| 十八禁网站网址无遮挡| 久久精品久久久久久噜噜老黄| 在线观看免费高清a一片| 成年av动漫网址| 国产精品不卡视频一区二区| 波多野结衣一区麻豆| 精品国产国语对白av| 国产xxxxx性猛交| 亚洲av国产av综合av卡| 成人18禁高潮啪啪吃奶动态图| 午夜激情av网站| 亚洲国产毛片av蜜桃av| 欧美最新免费一区二区三区| 亚洲美女黄色视频免费看| 91午夜精品亚洲一区二区三区| 久久久久视频综合| 高清欧美精品videossex| 亚洲美女搞黄在线观看| 亚洲成av片中文字幕在线观看 | 91成人精品电影| 国产一区有黄有色的免费视频| 精品人妻熟女毛片av久久网站| 久久精品国产亚洲av涩爱| 婷婷色麻豆天堂久久| 日韩三级伦理在线观看| 国产av国产精品国产| 18禁动态无遮挡网站| 九草在线视频观看| 中文天堂在线官网| 精品久久国产蜜桃| 一本大道久久a久久精品| 极品少妇高潮喷水抽搐| 亚洲在久久综合| 不卡视频在线观看欧美| 国产黄频视频在线观看| 9色porny在线观看| 午夜激情av网站| 久久久国产欧美日韩av| 波野结衣二区三区在线| 国产成人91sexporn| 欧美精品av麻豆av| 一本久久精品| 亚洲av在线观看美女高潮| 在线天堂中文资源库| 欧美日韩精品成人综合77777| 超色免费av| 亚洲av.av天堂| av国产精品久久久久影院| 欧美精品亚洲一区二区| 青春草视频在线免费观看| 久久久国产精品麻豆| 成人国产av品久久久| 国产成人a∨麻豆精品| 午夜福利影视在线免费观看| 久久午夜综合久久蜜桃| 下体分泌物呈黄色| 91精品三级在线观看| 成人毛片60女人毛片免费| 日韩中文字幕视频在线看片| 毛片一级片免费看久久久久| 女人被躁到高潮嗷嗷叫费观| 午夜免费男女啪啪视频观看| 亚洲av中文av极速乱| 国产视频首页在线观看| 麻豆乱淫一区二区| 欧美97在线视频| 男的添女的下面高潮视频| √禁漫天堂资源中文www| 久久久久久人人人人人| 黄色一级大片看看| 爱豆传媒免费全集在线观看| 97人妻天天添夜夜摸| 欧美激情国产日韩精品一区| 久久精品国产自在天天线| 春色校园在线视频观看| 欧美97在线视频| 亚洲av国产av综合av卡| 夜夜骑夜夜射夜夜干| 亚洲精品美女久久久久99蜜臀 | 亚洲三级黄色毛片| 日韩精品有码人妻一区| 欧美丝袜亚洲另类| 亚洲第一区二区三区不卡| 日日摸夜夜添夜夜爱| 亚洲成av片中文字幕在线观看 | 亚洲婷婷狠狠爱综合网| 90打野战视频偷拍视频| 中文字幕av电影在线播放| 午夜福利乱码中文字幕| 免费人妻精品一区二区三区视频| 久久 成人 亚洲| 亚洲少妇的诱惑av| 欧美日韩一区二区视频在线观看视频在线| 亚洲精品,欧美精品| 国产亚洲精品久久久com| 国产精品一区www在线观看| 一二三四在线观看免费中文在 | 18在线观看网站| 精品久久久精品久久久| 十八禁高潮呻吟视频| 黄色配什么色好看| 搡女人真爽免费视频火全软件| 女性被躁到高潮视频| 精品人妻熟女毛片av久久网站| 午夜激情久久久久久久| 麻豆乱淫一区二区| 熟女av电影| 热99久久久久精品小说推荐| 两性夫妻黄色片 | 亚洲欧美色中文字幕在线| 91aial.com中文字幕在线观看| 日韩欧美精品免费久久| 国产精品国产av在线观看| 亚洲av成人精品一二三区| 最近2019中文字幕mv第一页| 热99久久久久精品小说推荐| 日韩精品有码人妻一区| 我要看黄色一级片免费的| 亚洲人成网站在线观看播放| 国产精品无大码| 午夜福利影视在线免费观看| 国产成人午夜福利电影在线观看| 亚洲美女视频黄频| 性色av一级| 日本-黄色视频高清免费观看| 久久精品久久精品一区二区三区| 赤兔流量卡办理| 亚洲伊人久久精品综合| 成人二区视频| 人成视频在线观看免费观看| 久久99热这里只频精品6学生| 男女无遮挡免费网站观看| 亚洲天堂av无毛| 热re99久久国产66热| 国产淫语在线视频| 久久99精品国语久久久| 我要看黄色一级片免费的| 日本黄色日本黄色录像| 日日撸夜夜添| 精品一区二区三区视频在线| 捣出白浆h1v1| 性高湖久久久久久久久免费观看| 18禁裸乳无遮挡动漫免费视频| 三级国产精品片| 捣出白浆h1v1| 91国产中文字幕| 国产1区2区3区精品| 性色avwww在线观看| 韩国精品一区二区三区 | 菩萨蛮人人尽说江南好唐韦庄| 丝袜美足系列| 亚洲精华国产精华液的使用体验| 久久久久久伊人网av| 啦啦啦啦在线视频资源| 一级毛片黄色毛片免费观看视频| 久久午夜综合久久蜜桃| 亚洲国产毛片av蜜桃av| av免费观看日本| 妹子高潮喷水视频| 黄片无遮挡物在线观看| 热re99久久精品国产66热6| 亚洲激情五月婷婷啪啪| 麻豆乱淫一区二区| 久久99精品国语久久久| 国产精品久久久久久精品古装| 中文欧美无线码| 建设人人有责人人尽责人人享有的| 日韩av在线免费看完整版不卡| 亚洲av免费高清在线观看| 亚洲国产精品一区二区三区在线| 国产成人aa在线观看| 久久免费观看电影| 一级黄片播放器| 国产精品偷伦视频观看了| 国产一级毛片在线| 国产麻豆69| 国产高清三级在线| 亚洲内射少妇av| 少妇被粗大的猛进出69影院 | 涩涩av久久男人的天堂| 中文精品一卡2卡3卡4更新| 在线观看一区二区三区激情| 黑人高潮一二区| 欧美精品高潮呻吟av久久| 久久人人爽人人爽人人片va| 国产成人午夜福利电影在线观看| 久久久久人妻精品一区果冻| 亚洲精品美女久久久久99蜜臀 | 日本-黄色视频高清免费观看| 成年人午夜在线观看视频| 男的添女的下面高潮视频| 亚洲五月色婷婷综合| 亚洲精品久久久久久婷婷小说| 国产精品国产三级国产专区5o| 欧美亚洲 丝袜 人妻 在线| 一二三四在线观看免费中文在 | 99久久精品国产国产毛片| 永久网站在线| 国产成人aa在线观看| 亚洲av欧美aⅴ国产| 最近的中文字幕免费完整| 丝袜人妻中文字幕| 国产亚洲一区二区精品| 观看av在线不卡| 丝袜在线中文字幕| av免费观看日本| 男人舔女人的私密视频| 久久精品久久久久久噜噜老黄| 十八禁高潮呻吟视频| 日韩大片免费观看网站| 欧美成人午夜精品| 亚洲精品美女久久久久99蜜臀 | 中文欧美无线码| 99久久精品国产国产毛片| kizo精华| 精品国产一区二区久久| 国产精品国产三级国产专区5o| 国产高清不卡午夜福利| 人人澡人人妻人| 午夜影院在线不卡| av播播在线观看一区| 中文乱码字字幕精品一区二区三区| 精品少妇黑人巨大在线播放| 极品人妻少妇av视频| 韩国av在线不卡| 欧美日韩综合久久久久久| 精品第一国产精品| 巨乳人妻的诱惑在线观看| 亚洲欧美成人综合另类久久久| 黄色视频在线播放观看不卡| 亚洲久久久国产精品| 亚洲欧洲日产国产| 国产深夜福利视频在线观看| 欧美亚洲 丝袜 人妻 在线| 久久久久网色| 国产欧美亚洲国产| 国产精品女同一区二区软件| 国产成人精品一,二区| 日韩伦理黄色片| 999精品在线视频| 美女大奶头黄色视频| 亚洲欧美中文字幕日韩二区| 美女脱内裤让男人舔精品视频| 亚洲高清免费不卡视频| 国产免费现黄频在线看| h视频一区二区三区| 日韩大片免费观看网站| 乱码一卡2卡4卡精品| 一级毛片 在线播放| 国产深夜福利视频在线观看| 国产精品秋霞免费鲁丝片| 黄色 视频免费看| 中文欧美无线码| 国产无遮挡羞羞视频在线观看| 国产极品天堂在线| 在现免费观看毛片| 天堂中文最新版在线下载| 国内精品宾馆在线| 高清黄色对白视频在线免费看| 在线 av 中文字幕| 国产免费一级a男人的天堂| 成年人午夜在线观看视频| 一级,二级,三级黄色视频| 久久久久国产精品人妻一区二区| a级毛片在线看网站| 亚洲欧美日韩另类电影网站| 国产黄色免费在线视频| 在线免费观看不下载黄p国产| 国产免费一级a男人的天堂| a级毛片黄视频| 色网站视频免费| 日韩欧美精品免费久久| 欧美最新免费一区二区三区| 国产精品久久久久成人av| 高清黄色对白视频在线免费看| 久久久久网色| 最近中文字幕2019免费版| av国产久精品久网站免费入址| 国产白丝娇喘喷水9色精品| 9色porny在线观看| 国产精品人妻久久久久久| 多毛熟女@视频| 一级爰片在线观看| av网站免费在线观看视频| 午夜91福利影院| 亚洲成av片中文字幕在线观看 | 国产精品.久久久| 黑人猛操日本美女一级片| 亚洲五月色婷婷综合| 国产女主播在线喷水免费视频网站| 9191精品国产免费久久| 不卡视频在线观看欧美| 91在线精品国自产拍蜜月| 国产精品熟女久久久久浪| 日本91视频免费播放| 只有这里有精品99| 欧美亚洲 丝袜 人妻 在线| 久久午夜福利片| 国产精品人妻久久久久久| 国产又爽黄色视频| 伊人亚洲综合成人网| 久久免费观看电影| 欧美xxxx性猛交bbbb| 久久久欧美国产精品| 国产国语露脸激情在线看| 新久久久久国产一级毛片| 国产精品国产三级专区第一集| 下体分泌物呈黄色| 久久亚洲国产成人精品v| 最新中文字幕久久久久| 国产在线一区二区三区精| 女人精品久久久久毛片| 最近的中文字幕免费完整| 人人妻人人爽人人添夜夜欢视频| 成人影院久久| 久久精品熟女亚洲av麻豆精品| 日韩中文字幕视频在线看片| 久久人人97超碰香蕉20202| 精品一区二区三区四区五区乱码 | 免费人成在线观看视频色| 欧美精品国产亚洲| 丝袜喷水一区| 国产精品免费大片| 高清毛片免费看| 七月丁香在线播放| 国产亚洲av片在线观看秒播厂| 欧美精品一区二区免费开放| 三上悠亚av全集在线观看| 夜夜爽夜夜爽视频| 有码 亚洲区| 91成人精品电影| 亚洲内射少妇av| 精品一区二区三卡| 国产精品国产三级专区第一集| 建设人人有责人人尽责人人享有的| 久久人妻熟女aⅴ| 下体分泌物呈黄色| 九九在线视频观看精品| 久久久久网色| 久久国产精品大桥未久av| 日本欧美国产在线视频| av有码第一页| 18禁在线无遮挡免费观看视频| 久久久精品免费免费高清| 午夜免费鲁丝| 日韩熟女老妇一区二区性免费视频| 国国产精品蜜臀av免费| 熟女av电影| 国产男女内射视频| 精品一品国产午夜福利视频| 亚洲av.av天堂| 国产淫语在线视频| 最近最新中文字幕免费大全7| 精品视频人人做人人爽| 日韩制服骚丝袜av| 亚洲第一av免费看| 九色成人免费人妻av| 久久精品人人爽人人爽视色| 天堂俺去俺来也www色官网| 婷婷色麻豆天堂久久| 伊人久久国产一区二区| 国产精品女同一区二区软件| 高清黄色对白视频在线免费看| 亚洲精品成人av观看孕妇| 大码成人一级视频|