• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于函數(shù)逼近的強化學習FANET 路由優(yōu)化算法

      2021-11-18 02:19:10謝勇盛楊余旺邱修林王吟吟
      計算機工程 2021年11期
      關鍵詞:時隙原型路由

      謝勇盛,楊余旺,邱修林,王吟吟

      (南京理工大學計算機科學與工程學院,南京 210094)

      0 概述

      近年來,無人機群在森林防火、智能農業(yè)、滲透偵察、火力打擊等民用和軍用領域具有廣泛應用。為完成復雜的協(xié)同任務,穩(wěn)健的通信方式是必不可少的。移動自組網(wǎng)(Mobile Ad-Hoc Network,MANET)[1]作為一種無中心、多跳、自治的無線網(wǎng)絡,被認為是最適合無人機的通信方式之一[2-3]。在MANET 中,每個節(jié)點不僅作為終端主機,也充當轉發(fā)消息的路由器。但由于節(jié)點是移動的,這導致通信鏈路的頻繁變化,因此需要一個能夠幫助網(wǎng)絡組網(wǎng)和維護鏈路穩(wěn)定的路由協(xié)議。目前,對MANET 路由協(xié)議的研究已經(jīng)有了很大的發(fā)展,根據(jù)不同的路由策略,可將路由協(xié)議分為主動路由協(xié)議、按需路由協(xié)議和混合路由協(xié)議。在主動路由協(xié)議中,在進行業(yè)務傳輸前,節(jié)點主動探測周邊鄰居節(jié)點并維護鏈路信息。這種優(yōu)先確定路由鏈路的方式相較按需路由協(xié)議和混合路由協(xié)議具有更高的實時性[4]。但由于無人機節(jié)點移動速度快,網(wǎng)絡拓撲變化迅速,傳統(tǒng)的MANET 路由協(xié)議已經(jīng)難以滿足無人機通信組網(wǎng)的需求,為此研究人員提出飛行自組網(wǎng)(Flying Ad-Hoc Network,F(xiàn)ANET)[5],因此探究適用于FANET 環(huán)境的路由技術對改善網(wǎng)絡性能具有著重要的意義。

      FANET 雖源于MANET,但 比MANET 有著更復雜的應用環(huán)境,具有高動態(tài)性、高稀疏性、鏈路質量多變等通信特點,為建立穩(wěn)定鏈路帶來很大困難。因此,F(xiàn)ANET 路由協(xié)議應綜合考慮無人機應用、服務器性質、節(jié)點高速移動等特性。常見的FANET 路由協(xié)議設計思路源于對傳統(tǒng)的MANET 路由協(xié)議進行適當改進。MANET 研究初期的路由協(xié)議對節(jié)點移動性并不敏感,若要使網(wǎng)絡適應飛行節(jié)點的動態(tài)特性,則需要節(jié)點自身能夠通過問候消息(即HELLO 消息)或鏈路層反饋機制探測和維護可連通鄰居節(jié)點,以此保障鏈路暢通。與鏈路反饋機制相比,通過路由協(xié)議定期交換問候消息更優(yōu),因為前者并不受限于任何特定的鏈路層技術[6]。這種主動發(fā)送探測包的路由技術在MANET 中被稱為主動路由協(xié)議,其中應用較廣泛的為最優(yōu)鏈路狀態(tài)路由(Optimal Link State Routing,OLSR)[4]協(xié)議。

      但對于高動態(tài)FANET 而言,這種定期交換HELLO 消息的路由協(xié)議難以適應多變的網(wǎng)絡環(huán)境。在主動路由協(xié)議中,HELLO 消息時隙的選擇對于鏈路的發(fā)現(xiàn)起著決定性的作用[3]。時隙越短,越有助于快速檢測新鄰居或鏈路中斷,但會產生更高的開銷,阻礙正常數(shù)據(jù)包的發(fā)送。時隙越長,開銷會越少,但會限制鄰居發(fā)現(xiàn)和鏈接中斷檢測能力。在高動態(tài)FANET 中,需要在實時感知環(huán)境的同時自適應修改HELLO 時隙并優(yōu)化整個網(wǎng)絡性能[7-8]。針對FANET 高動態(tài)網(wǎng)絡場景下的節(jié)點鏈路探測問題,本文對傳統(tǒng)OLSR 算法進行改進,提出一種基于強化學習的自適應鏈路狀態(tài)路由算法QLA-OLSR。通過感知動態(tài)環(huán)境下節(jié)點鄰居數(shù)量變化程度和業(yè)務負載能力,獲取最優(yōu)HELLO 時隙決策,并利用自學習不斷調整和完善這一決策,以達到優(yōu)化網(wǎng)絡性能的目的。

      1 相關工作

      主動路由協(xié)議節(jié)點定期發(fā)送HELLO 消息,探測周圍鏈路情況,能幫助網(wǎng)絡更快地適應環(huán)境。但無人機高速移動和分布稀疏的特性又造成了節(jié)點交匯的時間減少、相遇的可能性降低等問題。針對傳統(tǒng)MANET 路由協(xié)議的HELLO 時隙改進以適應節(jié)點高速運動,一些研究人員提出了不同的方案。

      MAHMUD 等[7]提出一 種EE-OLSR 路由協(xié) 議,通過計算網(wǎng)絡密度,感知節(jié)點能量消耗、綜合節(jié)點密度等多種參量達到選擇時隙的目的。

      HERNANDEZ-CONS 等[9]提出一種基于鏈路變化率的自適應HELLO 時隙方法。節(jié)點統(tǒng)計單位時間內添加或刪除的鏈路總數(shù)作為衡量鏈路變化的標準,如果鏈路變化率高,則鄰居變化快,探測消息時隙縮短,反之,增加時隙。

      GIRUKA 等[10]提出另一種解決方案,節(jié)點感知自身運動速度,在特定速度時采用響應的時隙發(fā)送HELLO 消息。由于節(jié)點具有不同速度,因此為高速節(jié)點分配了較短的探測報文時隙,為低速節(jié)點分配了較長的探測報文時隙,且局部采用最優(yōu)時隙,達到整個網(wǎng)絡性能的均衡穩(wěn)定。

      HAN 等[11]提出一種用于鄰居發(fā)現(xiàn)的自適應HELLO 消息傳遞方案。該方案利用平均事件間隔,即節(jié)點上兩個連續(xù)事件(發(fā)送或接收數(shù)據(jù)包)之間的平均時間間隔,估計節(jié)點在發(fā)送或轉發(fā)中的活躍程度。如果某個節(jié)點在給定時間內未參與任何通信,則無需維護鏈路狀態(tài),在此期間廣播HELLO 消息是不必要的,因為抑制不必要的問候消息可節(jié)省能量,并且能持續(xù)對鏈路狀態(tài)進行檢測。

      2 QLA-OLSR 算法

      2.1 Q 學習算法流程

      Q 學習[12]是一種智能體在可控馬爾科夫域中選取并執(zhí)行最優(yōu)動作的強化學習算法,類似于一種動態(tài)規(guī)劃的增量方法,通過不斷獲取特定狀態(tài)下特定動作的累計獎懲值,為下一次遇到相似環(huán)境狀態(tài)時選擇最優(yōu)動作提供依據(jù)。強化學習不同于機器學習,學習過程沒有監(jiān)督者,智能體通過接收環(huán)境反饋獎勵信號來評估動作價值,并且反饋是延遲的,表現(xiàn)為一系列狀態(tài)價值函數(shù)對下一步動作的影響。

      圖1 給出了強化學習流程。智能體通過與環(huán)境進行交互獲得回報來修正動作,其行為步驟可以表示為一個馬爾科夫決策(Markov Decision Process,MDP)過程。MDP 可以描述為一個三元組其基本流程是:當t時刻智能體的狀態(tài)為st(st∈S)時,智能體會收到環(huán)境給予它的回報rt(rt∈R);智能體根據(jù)累計的回報值,做出決策選擇動作at(at∈A)并執(zhí)行;智能體進入新的狀態(tài)st+1。循環(huán)執(zhí)行這些操作,達到在特定環(huán)境下選擇最優(yōu)策略的目的。

      圖1 強化學習流程Fig.1 Procedure of reinforcement learning

      2.2 模型構建

      在使用強化學習優(yōu)化OLSR 路由協(xié)議前,需要先將HELLO 時隙調整問題描述為MDP 過程。

      2.2.1 狀態(tài)

      無人機節(jié)點具有高動態(tài)特點,網(wǎng)絡拓撲變化可能很復雜,尤其是考慮到網(wǎng)絡一直在運行,可用于表示網(wǎng)絡的連續(xù)高維狀態(tài)空間,可以生成幾乎無限數(shù)量的狀態(tài)。因此,無人機節(jié)點需要確定適當?shù)臓顟B(tài)變量,以捕獲節(jié)點選擇時隙帶來的性能差異并保障學習過程中的易處理性。本文選擇以下3 個狀態(tài)變量:

      1)snbr,表示當前節(jié)點時間步長Δt內鄰居節(jié)點變化程度。snbr計算如式(1)所示:

      其中:nt表示t時刻鄰居表中的節(jié)點數(shù)目。

      2)sload,表示節(jié)點接口隊列中待發(fā)送的數(shù)據(jù)包個數(shù)。

      3)ssolt,表示當前節(jié)點的HELLO 時隙長度。

      節(jié)點主要是通過與鄰居節(jié)點交互HELLO 消息來發(fā)現(xiàn)連通鏈路。頻繁的HELLO 消息可以讓節(jié)點更快地探測出鄰居節(jié)點的存在,并改變鄰居表中節(jié)點的數(shù)目,但是這也必然會增加網(wǎng)絡負載,阻礙節(jié)點數(shù)據(jù)隊列中數(shù)據(jù)的發(fā)送。本文通過QLA-OLSR 權衡兩者之間的關系,使其處于一個平衡的狀態(tài)。

      2.2.2 動作

      選擇下一動作是Q 學習的主要目標,也是影響協(xié)議性能的關鍵因素。在本文中動作指定為智能體感知鄰居節(jié)點拓撲變化和周邊環(huán)境的變化來更改其HELLO 消息發(fā)送時隙。本文使用3 個動作來簡化動作空間,如表1 所示。動作指定節(jié)點為響應網(wǎng)絡環(huán)境的變化需要改變其感知時隙,減少時隙必然能加快鄰居節(jié)點的感知速度,但是隨之會帶來網(wǎng)絡開銷的增長,節(jié)點通過接收到的獎勵來選擇一個動作,從而達到感知速度快與網(wǎng)絡開銷低之間的均衡。

      表1 QLA-OLSR 動作Table 1 QLA-OLSR action

      2.2.3 效用函數(shù)和回報函數(shù)

      學習的目標是找到調整HELLO 時隙的調整策略,采取決策動作后,接收環(huán)境反饋的回報,累計此回報值作為下一次決策的依據(jù)。為此,需要根據(jù)環(huán)境給出回報正負價值的衡量標準,并定義如下效用函數(shù):

      其中:C表示節(jié)點在時間步t內鄰居節(jié)點的數(shù)量變化程度,計算公式如式(3)所示;L表示當前節(jié)點的業(yè)務負載能力[13-14],計算公式如式(4)所示,其中l(wèi)表示節(jié)點的隊列緩存長度;α和δ表示鄰居節(jié)點變化程度和業(yè)務負載能力的相對權重,在本文中分別設置為50%。可以直觀地看出,該函數(shù)能夠表示在最大程度上快速平穩(wěn)鄰居節(jié)點探測并最大化保留節(jié)點轉發(fā)業(yè)務數(shù)據(jù)的能力。

      在連續(xù)的效用值中,通過其差值來定義如下回報函數(shù):

      其中:ζ表現(xiàn)為一個可調參數(shù)。當連續(xù)時刻效用函數(shù)差值大于ζ時,取兩者之差為回報函數(shù),若回報函數(shù)為正值,則表現(xiàn)為獎勵,若回報函數(shù)為負值時,則表現(xiàn)為懲罰。

      2.3 算法訓練

      訓練QLA-OLSR 算法試圖找到一種策略,該策略選定特定狀態(tài)下的動作執(zhí)行,并使智能體所接收到的長期獎勵值最大。在QLA-OLSR 中,獎勵通過效用值函數(shù),訓練策略的目的是自適應調整HELLO時隙變化策略,在高拓撲變化情況下,以最大程度地提高節(jié)點感知鄰居的速度,達到更高的吞吐量,同時在低拓撲變化情況下,最大程度地減少網(wǎng)絡開銷。因此,訓練算法的學習速度和質量是QLA-OLSR 性能的關鍵。

      Q 學習用一個簡單的迭代值去更新決策過程,決策動作記錄在一個Q 表中。在時間步t時,對應有一個狀態(tài)st和一個動作at。算法計算出該時間步的預期折扣獎勵Q(st,at),更新規(guī)則如下:

      其中:α為學習率,滿足0 ≤α≤1;γ為折扣因子,滿足0<γ≤1。在Q 學習中所有狀態(tài)下的Q(st,at)存儲在Q 表中。

      Q 學習為小規(guī)模、離散狀態(tài)空間問題提供了一個良好的解決方案,并且表現(xiàn)出較好的學習性和收斂性,但在大規(guī)模、非離散狀態(tài)空間中的伸縮性非常差。因為在這種情況下,枚舉狀態(tài)量是無限的,使用Q 表記錄每個狀態(tài)或狀態(tài)動作的價值函數(shù)是不切實際的。為了減少存儲大Q 表所需的內存和更新訪問狀態(tài)或動作狀態(tài)對應的Q值所需的訓練時間,在采用RL 算法時,使用函數(shù)逼近將相似狀態(tài)之間的值關聯(lián)起來,使連續(xù)狀態(tài)空間能夠映射到有限的域,添加函數(shù)逼近方式后的強化學習流程如圖2 所示。

      圖2 基于函數(shù)逼近的強化學習流程Fig.2 Procedure of reinforcement learning based on function approximation

      3 基于函數(shù)逼近的QLA-OLSR 算法

      節(jié)點可感知的狀態(tài)空間是極大且連續(xù)的,對于Q 學習算法而言,迭代出完整的Q 表是極具挑戰(zhàn)性的。為此,本文采用Kanerva 編碼的函數(shù)逼近策略,以減少訓練所需的狀態(tài)數(shù)量,可以在存在高維連續(xù)狀態(tài)空間的情況下簡化Q 學習[15]。

      3.1 Kanerva 編碼算法

      在Kanerva 編碼算法中,選擇一組原型狀態(tài),并用于估計值函數(shù),其中狀態(tài)值是通過本地原型狀態(tài)值的線性組合來估算的。在每次迭代中,只有與輸入狀態(tài)相鄰的原型狀態(tài)才會被更新。原型狀態(tài)由一系列狀態(tài)變量描述,每個狀態(tài)變量都有一定的數(shù)值范圍。在迭代學習之前選擇k個原型作為狀態(tài)集。假設給定狀態(tài)s和原型狀態(tài)pi,‖s-pi‖表示兩者數(shù)值差值,如果相差小于某一定值ε,則認為狀態(tài)s和原型狀態(tài)pi相鄰,定義s與pi的隸屬度μ(s,pi)如下:

      若相差大于給定值,則μ(s,pi)=0??紤]到原型狀態(tài)pi的Q值由其相鄰狀態(tài)共同決定,因此使每一個原型狀態(tài)pi和動作a維護一個θ(pi,a),則狀態(tài)-動作對應的為狀態(tài)s與動作a的相鄰原型狀態(tài)的θ值之和,具體定義如下:

      當智能體在狀態(tài)s時采取動作a、獲得獎勵r并進入下一狀態(tài)s′時,在新的狀態(tài)下已經(jīng)選擇出了新的動作a′,每個原型pi與動作a維護的θ值更新規(guī)則如下:

      其中:N是狀態(tài)s的相鄰原型的數(shù)量。

      對于原型狀態(tài)集,Kanerva 編碼通常從整個狀態(tài)空間中隨機選擇一組初始原型開始學習。然而,原型的選擇對Kanerva 編碼的性能有著重要影響,即估計并分配原型集對于逼近函數(shù)能力是非常敏感的,如果原型不能很好地分布在狀態(tài)空間區(qū)域中,可能造成許多輸入樣本找不到足夠的相鄰原型,這樣很難估計它們的Q值。若原型設置不合理,則會造成大量原型碰撞,使得在強化學習過程中遇到兩個不同的狀態(tài)動作具有相同的隸屬度[16]。

      3.2 優(yōu)化的Kanerva 編碼算法

      由上文可知,每個原型狀態(tài)pi維護一個半徑為ε的接收場,接收場的大小反映原型狀態(tài)的泛化程度。文獻[17]提出一種自適應鄰接法,為每個原型接收場調整大小。以該方式管理泛化能力,代替整個學習過程中的固定接收場,但需要在原型饑餓時(接收場過小難以起到函數(shù)逼近的功能),將其與避免過度概括進行權衡。

      為進一步提高Kanerva 的性能,本文提出一種狀態(tài)相似度機制(State Similarity Mechanism,SSM),它能夠準確測量出多維連續(xù)狀態(tài)空間中的狀態(tài)相似性,并計算出輸入狀態(tài)與原型狀態(tài)的相似度等級,以此代替二進制隸屬度,具體步驟如下:

      1)定義相似距離dij(s,pi),表示為多維狀態(tài)空間中n維輸入狀態(tài)與原型狀態(tài)p=在第j維上的差值平方除以一個恒定方差σ2,如式(10)所示:

      2)對相似距離進行歸一化處理,表示為相似度等級mij。相似度等級mij在2 個狀態(tài)變量相同時數(shù)值為1,2 個狀態(tài)變量相差很大時數(shù)值接近0,如式(11)所示:

      3)在s和p的所有維度中選擇最小狀態(tài)等級作為狀態(tài)s與原型p的隸屬度μ(s,pi),如式(12)所示:

      3.3 算法步驟

      將每個節(jié)點看作是一個獨立的智能體,智能體以當前HELLO 報文時隙為周期感知自身所在狀態(tài),并根據(jù)當前狀態(tài)下的Q值選擇調整時隙的下一決策,以此進入下一狀態(tài),具體算法流程如下:

      算法1基于Kanerva 編碼函數(shù)逼近的時隙決策

      對于每個智能體,循環(huán)感知自身所在狀態(tài),并通過上述算法做出下一步的HELLO 報文時隙調整策略,與此同時不停更新θ值,計算出新的Q值。

      4 仿真結果與性能分析

      實驗選取傳統(tǒng)OLSR算法、EE-OLSR算法[7]作為本文QLA-OLSR 算法的比較對象。通過仿真實驗對比分析各算法之間的吞吐量與網(wǎng)絡開銷這兩個網(wǎng)絡性能指標,根據(jù)路由算法在不同迭代次數(shù)下的性能表現(xiàn),驗證算法的穩(wěn)定性與收斂性。

      4.1 仿真設置

      實驗采用NS2 仿真工具進行建模仿真,將每個節(jié)點看作是智能體,即要求每個節(jié)點有相應的計算能力。在仿真實驗中,為方便起見,將每個節(jié)點的狀態(tài)輸入到一個智能體中,輸出各自不同的時隙結果,有利于智能體獲得更多的狀態(tài),并且學習效果更好,如圖3 所示。

      圖3 建模仿真框架Fig.3 Framework of modeling and simulation

      為體現(xiàn)網(wǎng)絡拓撲的高動態(tài)性,貼合真實情況下無人機群飛行場景,實驗選用高斯馬爾科夫模型(Gauss Markov Model,GMM)模擬無人機飛行場景[18-20],仿真參數(shù)設置如表2 所示。

      表2 仿真參數(shù)設置Table 2 Setting of simulation parameters

      4.2 性能分析

      4.2.1 網(wǎng)絡動態(tài)拓撲分析

      實驗節(jié)點以不同速度在GMM 模型下運動仿真無人機飛行實際場景,其中以速度這一變量來直觀表示高動態(tài)網(wǎng)絡拓撲的變化程度[21]。實驗目的是在相同業(yè)務負載下,模擬QLA-OLSR 算法在高動態(tài)FANET 場景下的性能表現(xiàn),并與EE-OLSR[7]、傳統(tǒng)OLSR 算法進行比較,分析各協(xié)議的吞吐量與網(wǎng)絡開銷。

      無人機在不同節(jié)點移動速度下的網(wǎng)絡吞吐量與網(wǎng)絡開銷如圖4 所示,可以看出吞吐量受節(jié)點移動速度的影響較大。隨著節(jié)點移動速度的增加,網(wǎng)絡拓撲變化隨之加快,原來穩(wěn)定的鏈路由于節(jié)點離開而斷開,新來的節(jié)點由于HELLO 消息時隙長而未被發(fā)現(xiàn),節(jié)點路由表跟不上鏈路的變化,因此網(wǎng)絡吞吐量降低。但是,在QLA-OLSR 算法中節(jié)點能夠更快速地感知鏈路變化,維護新的鏈路,保持較優(yōu)的吞吐量。對于網(wǎng)絡開銷,固定時隙的OLSR 協(xié)議在相同時刻發(fā)送的HELLO 消息應該是相近的,QLA-OLSR和EE-OLSR 算法在節(jié)點移動速度增加時相應的節(jié)點需減少時隙,導致開銷增加,并且節(jié)點在感知鏈路變化的同時也會感知業(yè)務負載,低業(yè)務負載的節(jié)點會減少HELLO 時隙。由此可見,在不同節(jié)點移動速度下,QLA-OLSR 算法相比OLSR 與EE-OLSR 算法具有更優(yōu)的網(wǎng)絡吞吐量和網(wǎng)絡開銷。

      圖4 不同節(jié)點移動速度下的網(wǎng)絡吞吐量和網(wǎng)絡開銷對比Fig.4 Comparison of network throughput and overhead at different node moving speeds

      4.2.2 網(wǎng)絡負載分析

      實驗仿真在不同節(jié)點負載任務下,通過調整任務節(jié)點的發(fā)送數(shù)據(jù)量,分析相同節(jié)點移動速度下各協(xié)議的網(wǎng)絡吞吐量與網(wǎng)絡開銷。

      無人機在不同IP 業(yè)務負載下的網(wǎng)絡吞吐量與網(wǎng)絡開銷如圖5 所示,可以看出隨著業(yè)務負載的增加吞吐量隨之增加,但由于網(wǎng)絡容量的限制會達到峰值,但在QLA-OLSR 算法中,在不影響網(wǎng)絡性能的同時,會減少網(wǎng)絡開銷以增加網(wǎng)絡容量,因此峰值會在更靠后時刻到來。關于網(wǎng)絡開銷,OLSR 和EE-OLSR算法對于業(yè)務負載不形成依賴,因此它們的網(wǎng)絡開銷變化不明顯,但QLA-OLSR 算法在高業(yè)務負載時會更傾向于發(fā)送業(yè)務數(shù)據(jù)包,從而通過增加時隙來減少HELLO 消息的發(fā)送。由此可見,在不同節(jié)點業(yè)務負載下,QLA-OLSR 算法相比OLSR 與EE-OLSR協(xié)議具有更優(yōu)的網(wǎng)絡吞吐量和網(wǎng)絡開銷。

      圖5 不同IP 業(yè)務負載下的網(wǎng)絡吞吐量和網(wǎng)絡開銷對比Fig.5 Comparison of network throughput and overhead at different IP business loads

      4.2.3 算法性能分析

      強化學習算法是通過學習過往經(jīng)驗來優(yōu)化當前動作,當算法穩(wěn)定后節(jié)點只需查找Q值來對下一動作進行選擇。Kanerva 編碼方式可優(yōu)化網(wǎng)絡狀態(tài)空間,加快算法收斂,提高算法效率。為驗證Kanerva編碼方式的優(yōu)化效果,實驗給出了QLA-OLSR 算法的網(wǎng)絡性能隨迭代次數(shù)的變化情況。

      如表3 所示,在選定節(jié)點移動速度為100 m/s、IP業(yè)務負載為50 kb/s 的場景下,QLA-OLSR 算法初始時的性能表現(xiàn)并不好,此時算法隨機性較大,但隨著學習迭代次數(shù)的增加,吞吐量開始逐步上升,網(wǎng)絡開銷亦逐步下降,當?shù)揭欢ù螖?shù)時逐步趨于穩(wěn)定,在沒有較大網(wǎng)絡波動下算法收斂,可見QLA-OLSR算法具有較好的適應性。

      表3 QLA-OLSR 算法性能隨迭代次數(shù)的變化情況Table 3 The changes of QLA-OLSR algorithm performance with the number of iterations

      5 結束語

      本文提出一種基于強化學習的自適應鏈路狀態(tài)路由算法QLA-OLSR,利用強化學習算法對傳統(tǒng)OLSR 協(xié)議的HELLO 時隙算法進行優(yōu)化,使得節(jié)點對環(huán)境有認知能力,并采用最大回報的方式選擇調整時隙的決策。仿真結果表明:相比傳統(tǒng)OLSR、EE-OLSR 算法,QLA-OLSR 算法在高動態(tài)網(wǎng)絡拓撲場景下能夠更快適應環(huán)境,具有更高的吞吐量和更低的丟包率;在平穩(wěn)的網(wǎng)絡拓撲場景下,在保持較高網(wǎng)絡吞吐量的同時,降低了網(wǎng)絡開銷,為環(huán)境多變的FANET 通信提供了有效的解決方案。但由于拓撲控制分組傳輸也是影響QLA-OLSR 算法性能的重要因素,因此后續(xù)將優(yōu)化拓撲控制分組發(fā)送方式,并在時隙算法中考慮無人機在實際場景中節(jié)點能量受限這一因素,進一步提升網(wǎng)絡性能。

      猜你喜歡
      時隙原型路由
      包裹的一切
      復用段單節(jié)點失效造成業(yè)務時隙錯連處理
      探究路由與環(huán)路的問題
      《哈姆雷特》的《圣經(jīng)》敘事原型考證
      一種高速通信系統(tǒng)動態(tài)時隙分配設計
      時隙寬度約束下網(wǎng)絡零售配送時隙定價研究
      論《西藏隱秘歲月》的原型復現(xiàn)
      劍南文學(2016年14期)2016-08-22 03:37:42
      原型理論分析“門”
      人間(2015年20期)2016-01-04 12:47:08
      基于TDMA的無沖突動態(tài)時隙分配算法
      PRIME和G3-PLC路由機制對比
      临沂市| 苏尼特右旗| 蒙山县| 汾西县| 翁源县| 巴林右旗| 繁昌县| 祁门县| 泌阳县| 汕头市| 眉山市| 聂拉木县| 新源县| 博罗县| 常宁市| 光山县| 荆州市| 桃源县| 巫山县| 思茅市| 长宁县| 巧家县| 彭山县| 乌拉特中旗| 邯郸县| 大化| 仪陇县| 平原县| 新昌县| 定州市| 红河县| 英德市| 南平市| 焉耆| 莱州市| 仪征市| 汽车| 辉县市| 怀来县| 潜江市| 陵水|