• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于分布式存儲(chǔ)的應(yīng)用場(chǎng)景研究

      2020-08-07 07:56:42中國(guó)航空結(jié)算有限責(zé)任公司高紅巖
      網(wǎng)絡(luò)安全和信息化 2020年7期
      關(guān)鍵詞:磁盤集中式網(wǎng)卡

      ■ 中國(guó)航空結(jié)算有限責(zé)任公司 高紅巖

      編者按:伴隨著新一代信息技術(shù)的快速發(fā)展,未來(lái)的信息化建設(shè)的方向?qū)⑹窃诒U闲畔踩那疤嵯?,?yōu)化資源與架構(gòu),達(dá)到降本增效。IT 運(yùn)維部門,作為企業(yè)重要的成本部門,也應(yīng)該主動(dòng)探尋降低IT 成本的新方法,助力企業(yè)穩(wěn)步發(fā)展。

      傳統(tǒng)模式下的集中式SAN 存 儲(chǔ),隨著企業(yè)數(shù)據(jù)的急劇增加及對(duì)存儲(chǔ)類型的多樣化要求,已經(jīng)無(wú)法適應(yīng)企業(yè)發(fā)展的需要。集中式存儲(chǔ)通常采用 Scale-UP 的擴(kuò)展方式,存儲(chǔ)擴(kuò)容受到物理槽位數(shù)量、容量License 等因素的限制,并且擴(kuò)容后只能獲得容量的擴(kuò)展,無(wú)法獲得性能的提升,甚至有時(shí)還出現(xiàn)性能下降的情況。

      集中式存儲(chǔ)所有的數(shù)據(jù)訪問(wèn)都要通過(guò)磁盤控制器,這使得磁盤控制器成為了整個(gè)磁盤訪問(wèn)的瓶頸。

      同時(shí),不同廠商的存儲(chǔ)設(shè)備之間的數(shù)據(jù)遷移非常困難,需要依賴額外的軟硬件,導(dǎo)致集中式存儲(chǔ)的性能孤島和數(shù)據(jù)孤島的現(xiàn)象出現(xiàn)。

      此外,集中式存儲(chǔ)多是軟硬件一體機(jī),采購(gòu)成本很高,不同廠商的存儲(chǔ)設(shè)備其管理方式也不盡相同,加大了管理復(fù)雜度,造成管理成本和維護(hù)成本非常高。隨著云計(jì)算、大數(shù)據(jù)技術(shù)的發(fā)展,傳統(tǒng)集中式存儲(chǔ)在對(duì)新技術(shù)的支持上就更顯乏力。

      Ceph 是一款開(kāi)源軟件定義的分布式存儲(chǔ)解決方案,很多商業(yè)分布式存儲(chǔ)解決方案都是基于Ceph 發(fā)展而來(lái)的,如Bigtera的VirtualStor 系列產(chǎn)品,Hope Bay 的ArkFlex 云端大規(guī)模數(shù)據(jù)存儲(chǔ)平臺(tái)產(chǎn)品。

      作為一款統(tǒng)一存儲(chǔ)解決方案,Ceph 可以為用戶提供塊存儲(chǔ)、對(duì)象存儲(chǔ)和文件存儲(chǔ),Ceph 采用多副本方式保證數(shù)據(jù)可用性,無(wú)中心架構(gòu)避免中心節(jié)點(diǎn)性能瓶頸,整個(gè)分布式存儲(chǔ)架構(gòu)采用高可用架構(gòu),支持故障域隔離。與集中式存儲(chǔ)Scale-UP 的擴(kuò)展方式不同,Ceph 分布式存儲(chǔ)系統(tǒng)采用Scale-Out 橫向擴(kuò)展方式,集群規(guī)??蓴U(kuò)展到上千臺(tái),擴(kuò)展時(shí)實(shí)現(xiàn)性能與容量的同時(shí)提升,有效提高基礎(chǔ)架構(gòu)的敏捷性,并采用通用X86 服務(wù)器,實(shí)現(xiàn)與硬件的解耦,從而可獲得成本上的優(yōu)勢(shì)。

      圖2 磁盤分區(qū)

      Ceph 的分布式存儲(chǔ)平臺(tái)

      1.搭建基于Ceph 的分布式存儲(chǔ)平臺(tái)

      搭建POC 驗(yàn)證環(huán)境對(duì)Ceph 分布式存儲(chǔ)進(jìn)行性能方面的驗(yàn)證。服務(wù)器配置如表1 所示。

      2.Ceph 分布式集群設(shè)計(jì)

      (1)集群采用3 節(jié)點(diǎn)架構(gòu),三個(gè)節(jié)點(diǎn)均為OSD、MGR的角色,選擇其中一個(gè)節(jié)點(diǎn)作為監(jiān)控節(jié)點(diǎn)MON。

      (2)磁盤設(shè)計(jì):每個(gè)節(jié)點(diǎn)配 有6 塊SATA 硬 盤 和1 塊SSD 盤。使用其中2塊SATA 盤作為系統(tǒng)盤,剩 余4 塊SATA盤作為數(shù)據(jù)盤,設(shè)置為JBOD 模式,每個(gè)數(shù)據(jù)盤運(yùn)行一個(gè)OSD進(jìn)程。Ceph 使用日志卷保證數(shù)據(jù)強(qiáng)一致性,每個(gè)OSD 對(duì)應(yīng)一個(gè)日志卷。因日志卷使用空間很小,為了提升Ceph 集群性能,SSD 剩余容量作為OSD 緩存使用。使用Parted 命令將SSD 使用劃分4 個(gè)分區(qū),并保證4KB 分區(qū)對(duì)齊。

      磁盤分區(qū)如圖2 所示,sda 為SSD 盤,sda1、sda2、sda3 和sda4 這4 個(gè) 分 區(qū) 分別4 個(gè)OSD 的日志卷,sda5、sda6、sda7 和sda8 分別作為4 個(gè)OSD 的緩存來(lái)使用。

      集群包括3 節(jié)點(diǎn),每個(gè)節(jié)點(diǎn) 包 括4 塊1.8 TB SATA盤作為數(shù)據(jù)盤,整個(gè)集群的裸存儲(chǔ)容量為1.8 TB×4×3=21.6 TB,采用三副本保護(hù),整個(gè)集群可用容量為7.2 TB。

      表1 服務(wù)器配置

      (3)網(wǎng)絡(luò)設(shè)計(jì):

      每個(gè)節(jié)點(diǎn)都有三組網(wǎng)絡(luò):內(nèi)部數(shù)據(jù)交換網(wǎng)絡(luò)、對(duì)外數(shù)據(jù)訪問(wèn)網(wǎng)絡(luò)和集群節(jié)點(diǎn)管理網(wǎng)絡(luò)。每個(gè)節(jié)點(diǎn)具有2 塊雙口萬(wàn)兆網(wǎng)卡,每塊網(wǎng)卡的第1 口和第2 口分別做綁定,采用mode4 雙活模式,在擴(kuò)大網(wǎng)絡(luò)帶寬的情況下實(shí)現(xiàn)網(wǎng)絡(luò)冗余保護(hù)。

      綁定后的一組網(wǎng)卡作為內(nèi)部數(shù)據(jù)交換,另一組網(wǎng)卡作為對(duì)外提供數(shù)據(jù)訪問(wèn)。每個(gè)節(jié)點(diǎn)的千兆網(wǎng)卡作為集群節(jié)點(diǎn)的管理網(wǎng)。因?yàn)镃eph采用多副本方式存放數(shù)據(jù),節(jié)點(diǎn)之間會(huì)進(jìn)行數(shù)據(jù)交換,所以集群內(nèi)部的數(shù)據(jù)交換網(wǎng)絡(luò)要采用萬(wàn)兆網(wǎng)絡(luò)或者更高速的網(wǎng)絡(luò)。

      對(duì)外提供數(shù)據(jù)訪問(wèn)的網(wǎng)絡(luò)可以使用千兆網(wǎng)絡(luò),也可以使用萬(wàn)兆網(wǎng)絡(luò),這主要依據(jù)業(yè)務(wù)數(shù)據(jù)流量以及業(yè)務(wù)性能要求,推薦使用萬(wàn)兆網(wǎng)。節(jié)點(diǎn)管理網(wǎng)只是用于節(jié)點(diǎn)管理,數(shù)據(jù)量很小,可以使用千兆網(wǎng)絡(luò)也可以和對(duì)外數(shù)據(jù)網(wǎng)絡(luò)共用。網(wǎng)絡(luò)拓?fù)鋱D如圖3 所示。

      圖3 網(wǎng)絡(luò)拓?fù)鋱D

      3.性能測(cè)試

      在Ceph 集群中劃分兩個(gè)塊存儲(chǔ)卷,分別叫做vmw-600和vmw-500,在VMware 集 群中的每個(gè)主機(jī)上通過(guò)iSCSI Software Adapter 識(shí)別到這兩個(gè)卷。從VMware 虛擬化集群中選擇一臺(tái)磁盤空間為124 GB 的虛擬機(jī),做下列存儲(chǔ)遷移測(cè)試。作,這個(gè)時(shí)間也會(huì)算作虛擬機(jī)遷移的時(shí)間。對(duì)于VMware 平臺(tái)的虛擬機(jī)存儲(chǔ)遷移,遷移的塊大小為63 KB, 可以計(jì)算出整個(gè)分布式集群的IOPS 約為(310×1024)÷64=4960。

      測(cè)試一:將虛擬機(jī)從IBM DS 系列存儲(chǔ)遷移到分布式存儲(chǔ)上,查看磁盤性能情況。

      在遷移過(guò)程中,從底層看到SSD 盤寫(xiě)帶寬達(dá)到310MB/s 以上,SSD IO 繁忙率達(dá)到80%以上,SATA 數(shù)據(jù)盤沒(méi)有IO,這是因?yàn)镾SD 盤作為數(shù)據(jù)緩存使用,所有數(shù)據(jù)是先寫(xiě)入SSD 的。虛擬機(jī)存儲(chǔ)遷移共用610 s 完成,遷移速度為208 MB/s。

      對(duì)于虛擬機(jī)實(shí)際遷移速度比分布式存儲(chǔ)底層看到的速度慢的原因,是因?yàn)樘摂M化平臺(tái)在虛擬機(jī)遷移時(shí)會(huì)做一些預(yù)處理的工

      測(cè)試二:將虛擬機(jī)從vmw-600 遷移到vmw-500 上。

      此時(shí)SSD 盤寫(xiě)帶寬在216 至239 MB/s,讀帶寬在50 至76 MB/s,IO 繁忙率達(dá)到87% 至91% 之間上,SATA數(shù)據(jù)盤沒(méi)有讀寫(xiě)IO。

      當(dāng)虛擬機(jī)遷到61% 時(shí),SATA 數(shù)據(jù)盤出現(xiàn)寫(xiě)IO。此時(shí)SATA 數(shù)據(jù)盤寫(xiě)帶寬17至31MB/s 之 間,IO 繁忙 率超 過(guò)25% 至41% 之 間。SSD盤讀帶寬為136 至149 MB/s,寫(xiě) 帶 寬124 至127 MB/s,IO 繁 忙 率 超 過(guò)85%, 計(jì)算出集群的平均讀IOPS 為(134×1024)÷64=2 280,平 均 寫(xiě) I O P S 約 為(146×1024)÷64=2 008。整個(gè)虛擬機(jī)存儲(chǔ)遷移共用670 s 完成,遷移速度為189 MB/s。

      當(dāng)sdd、sdb、sde 和sdc磁盤出現(xiàn)寫(xiě)IO 時(shí)可知,SSD盤緩存使用量已經(jīng)達(dá)到向底層磁盤刷數(shù)據(jù)的條件,SSD盤正在向底層SATA 盤遷移數(shù)據(jù)。此時(shí),SSD 盤既要作為寫(xiě)緩存接收來(lái)自上層應(yīng)用的寫(xiě)數(shù)據(jù),又要將自身數(shù)據(jù)讀取出來(lái)傳到SATA 盤上,所以對(duì)于上層應(yīng)用來(lái)說(shuō),整個(gè)集群IOPS 相比測(cè)試下降了59.5%。

      4.集群服務(wù)器配置建議

      根據(jù)實(shí)際測(cè)試結(jié)果,對(duì)于實(shí)際生產(chǎn)環(huán)境中的分布式集群配置有以下幾條建議:

      (1)不同類型接口的SSD盤對(duì)集群性能影響很大,如果預(yù)算允許,建議配置NVMe接口的SSD 盤。同時(shí)不同的SSD 盤有其不同的適用場(chǎng)景,如讀密集型場(chǎng)景或讀寫(xiě)均衡型,可根據(jù)具體使用場(chǎng)景進(jìn)行選擇。

      (2)建議配置大容量SSD磁盤或多塊SSD 磁盤:因?yàn)镾SD 作為緩存使用,容量較小會(huì)導(dǎo)致系統(tǒng)頻繁的從SSD 向底層數(shù)據(jù)盤刷數(shù)據(jù),影響整個(gè)集群的IOPS。

      (3)對(duì)于集群性能,既要關(guān)注IOPS 和帶寬,還要關(guān)注延遲。要根據(jù)業(yè)務(wù)的實(shí)際負(fù)載情況及性能要求對(duì)分布式集群的配置進(jìn)行合理規(guī)劃。

      (4)從安全性角度考慮,每個(gè)節(jié)點(diǎn)的數(shù)據(jù)盤數(shù)量不宜過(guò)多,避免單節(jié)點(diǎn)故障影響面過(guò)大,而且故障恢復(fù)后數(shù)據(jù)恢復(fù)時(shí)間會(huì)比較長(zhǎng)。

      5.分布式存儲(chǔ)應(yīng)用場(chǎng)景

      根據(jù)分布式存儲(chǔ)的架構(gòu)特點(diǎn)及測(cè)試的情況,對(duì)于分布式存儲(chǔ)的應(yīng)用場(chǎng)景主要在以下幾個(gè)方面:

      (1)基于應(yīng)用服務(wù)的虛擬化平臺(tái)。

      對(duì)于承載業(yè)務(wù)應(yīng)用層的虛擬化平臺(tái),對(duì)存儲(chǔ)帶寬和IOPS 要求相對(duì)較低,而且對(duì)延遲的容忍度較高,可以使用分布式存儲(chǔ)來(lái)滿足。

      (2)下沉數(shù)據(jù)的保存。

      使用分布式存儲(chǔ),通過(guò)對(duì)數(shù)據(jù)的分級(jí)管理實(shí)現(xiàn)數(shù)據(jù)生命周期管理,即滿足了業(yè)務(wù)對(duì)歷史數(shù)據(jù)隨時(shí)在線可查的要求,也實(shí)現(xiàn)了數(shù)據(jù)低成本存儲(chǔ)。此外,因?yàn)榭蛻魧?duì)數(shù)據(jù)安全性要求不斷地提高,有些客戶要求歷史數(shù)據(jù)要離線保存5 年甚至7 年時(shí)間,而且數(shù)據(jù)量也非常龐大。對(duì)于這樣的存儲(chǔ)需求,也可以采用分布式存儲(chǔ)來(lái)滿足。

      具體可以采用兩種方式,一種是通過(guò)分布式存儲(chǔ)中的文件存儲(chǔ),為業(yè)務(wù)系統(tǒng)劃分一個(gè)大容量的文件存儲(chǔ)空間。另一種是通過(guò)備份軟件將歷史數(shù)據(jù)備份到分布式存儲(chǔ)中,將分布式存儲(chǔ)作為備份空間使用。

      (3)文件存儲(chǔ)及對(duì)象存儲(chǔ)。

      使用分布式存儲(chǔ)的文件存儲(chǔ),可以很好的滿足業(yè)務(wù)的NAS 空間需求,在實(shí)現(xiàn)成本降低的同時(shí),采用多副本方式實(shí)現(xiàn)數(shù)據(jù)的保護(hù)。

      隨著業(yè)務(wù)功能的不多豐富,業(yè)務(wù)的數(shù)據(jù)類型也開(kāi)始多樣化,出現(xiàn)了圖片、音頻、視頻等非結(jié)構(gòu)化數(shù)據(jù),對(duì)于這些非結(jié)構(gòu)化數(shù)據(jù),對(duì)象存儲(chǔ)因其扁平化的獨(dú)特結(jié)構(gòu)有著天然的優(yōu)勢(shì)。而且,由于云計(jì)算的推廣,對(duì)象存儲(chǔ)也對(duì)企業(yè)云平臺(tái)提供了很好的支持,這些場(chǎng)景都非常適合使用分布式存儲(chǔ)的對(duì)象存儲(chǔ)方式來(lái)滿足。

      結(jié)束語(yǔ)

      企業(yè)業(yè)務(wù)場(chǎng)景是多樣的,了解業(yè)務(wù)的實(shí)際工作負(fù)載情況、性能要求、高可用要求以及存儲(chǔ)容量等要求,對(duì)于存儲(chǔ)規(guī)劃工作至關(guān)重要。針對(duì)不同類型的需求設(shè)計(jì)不同的存儲(chǔ)解決方案有助于實(shí)現(xiàn)性能和成本的平衡。

      猜你喜歡
      磁盤集中式網(wǎng)卡
      在DDS 中間件上實(shí)現(xiàn)雙冗余網(wǎng)卡切換的方法
      解決Windows磁盤簽名沖突
      Server 2016網(wǎng)卡組合模式
      修改磁盤屬性
      光伏:分布式新增裝機(jī)規(guī)模首次超越集中式
      能源(2018年8期)2018-09-21 07:57:16
      組串式、集中式逆變器的評(píng)估選定淺析
      磁盤組群組及iSCSI Target設(shè)置
      創(chuàng)建VSAN群集
      接觸網(wǎng)隔離開(kāi)關(guān)集中式控制方案研究
      電氣化鐵道(2016年5期)2016-04-16 05:59:55
      光伏集中式逆變器與組串式逆變器
      邹平县| 咸丰县| 巴青县| 平塘县| 林西县| 邢台市| 昔阳县| 金秀| 独山县| 杂多县| 朝阳区| 竹北市| 兴文县| 汽车| 唐河县| 辽宁省| 波密县| 德安县| 闸北区| 宁海县| 河南省| 翁牛特旗| 通道| 澄城县| 环江| 安徽省| 阿坝| 时尚| 青阳县| 平罗县| 琼结县| 花垣县| 措勤县| 新邵县| 永和县| 高雄县| 淅川县| 鹤岗市| 长宁区| 西平县| 孙吴县|