• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于循環(huán)生成對(duì)抗網(wǎng)絡(luò)的逆時(shí)偏移成像結(jié)果優(yōu)化

    2024-01-01 00:00:00黃建平劉博黃韻博孫加星李亞林雷剛林段文勝陳飛旭侯中根

    摘要:在常規(guī)逆時(shí)偏移方法基礎(chǔ)上,通過引入循環(huán)生成對(duì)抗網(wǎng)絡(luò)(CycleGAN)發(fā)展一種基于循環(huán)生成對(duì)抗網(wǎng)絡(luò)的逆時(shí)偏移成像結(jié)果優(yōu)化方法。首先構(gòu)建包含兩個(gè)生成器和兩個(gè)判別器的CycleGAN。在對(duì)抗損失、循環(huán)一致性損失函數(shù)的基礎(chǔ)上,添加身份損失函數(shù),以避免訓(xùn)練過度;然后,組建樣本集來訓(xùn)練網(wǎng)絡(luò),使其學(xué)習(xí)常規(guī)逆時(shí)偏移成像結(jié)果和最小二乘逆時(shí)偏移成像結(jié)果之間的映射關(guān)系;最后,利用其他合成數(shù)據(jù)和實(shí)際資料測(cè)試網(wǎng)絡(luò)效果。結(jié)果表明,提出的基于循環(huán)生成對(duì)抗網(wǎng)絡(luò)的逆時(shí)偏移成像結(jié)果優(yōu)化方法在獲得高精度、高信噪比成像結(jié)果的同時(shí)有效地提高了計(jì)算效率。

    關(guān)鍵詞:循環(huán)生成對(duì)抗網(wǎng)絡(luò); 殘差網(wǎng)絡(luò); 逆Hessian; 最小二乘逆時(shí)偏移

    中圖分類號(hào):P 631.4"" 文獻(xiàn)標(biāo)志碼:A

    引用格式:黃建平,劉博文,黃韻博,等.基于循環(huán)生成對(duì)抗網(wǎng)絡(luò)的逆時(shí)偏移成像結(jié)果優(yōu)化[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2024,48(5):36-45.

    HUANG Jianping, LIU Bowen, HUANG Yunbo, et al. Optimization of migrated images based on cycle generative adversarial network[J]. Journal of China University of Petroleum(Edition of Natural Science), 2024,48(5):36-45.

    Optimization of migrated images based on cycle generative

    adversarial network

    HUANG Jianping1, LIU Bowen1,2,3, HUANG Yunbo1, SUN Jiaxing1,

    LI Yalin4, LEI Ganglin4, DUAN Wensheng4, CHEN Feixu1,4, HOU Zhonggen5

    (1.School of Geosciences in China University of Petroleum (East China), Qingdao 266580, China;

    2.Pilot National Laboratory for Marine Science and Technology (Qingdao), Qingdao 266071, China;

    3.School of Pharmacy, Dezhou University, Dezhou 253004, China;

    4.Tarim Oilfield Branch, CNPC, Korla 841000, China;

    5.School of Chemistry and Chemical Engineering, University of Jinan, Jinan 25002 China)

    Abstract:This paper presents an optimization method for reverse time migration (RTM) imaging using a cycle generative adversarial network (CycleGAN). Based on the conventional RTM method, the CycleGAN framework is introduced, comprising two generators and two discriminators. To prevent overfitting, an identity loss function is added alongside the adversarial and cyclic consistency loss function. A training dataset is constructed to train the network, enabling it to learn the mapping between the conventional RTM imaging results and least-squares RTM imaging results. Finally, synthetic data and real data are used to test the networks performance. The prediction results from both datasets demonstrate that the proposed method effectively enhances computational efficiency while producing high-precision and high-SNR imaging results.

    Keywords: CycleGAN; residual net; inverse Hessian; least-squares reverse time migration

    高效地獲得高質(zhì)量的偏移圖像在如今勘探逐步轉(zhuǎn)向以深部為主的碳酸鹽儲(chǔ)層和非常規(guī)油氣儲(chǔ)層[1]的大背景下具有重要意義。在進(jìn)行復(fù)雜構(gòu)造成像時(shí),無傾角限制的逆時(shí)偏移成像(RTM)被認(rèn)為是較好的成像方法[2-3]。但由于逆時(shí)偏移僅僅是正演算子的共軛,而不是它的逆,通常會(huì)產(chǎn)生模糊化的成像結(jié)果[4-5]。相對(duì)于RTM,在反演框架下進(jìn)行偏移成像的最小二乘偏移(LSM)方法,能夠顯著提升成像質(zhì)量[6-8]。最小二乘逆時(shí)偏移(LSRTM)具有高信噪比、高分辨率、高保真度等優(yōu)點(diǎn),但由于實(shí)際資料的復(fù)雜性及算法本身的局限性,其在實(shí)際應(yīng)用時(shí)還存在計(jì)算效率低、收斂速度慢等問題[9-12]。另一種改善計(jì)算效率的思路通過對(duì)炮數(shù)據(jù)進(jìn)行采樣,在每次更新模型時(shí)只計(jì)算部分?jǐn)?shù)據(jù),從而減少計(jì)算量,但由于偏移子集會(huì)隨迭代次數(shù)變化,且誤差函數(shù)和梯度都具有隨機(jī)性,該方法應(yīng)用于全波形反演時(shí)收斂效率較低[13-15]。生成對(duì)抗網(wǎng)絡(luò)(generative adversarial network,GAN)是一種基于博弈論的生成模型,它使用兩個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行對(duì)抗訓(xùn)練,通過反向傳播更新網(wǎng)絡(luò)權(quán)值來避免很多或然性問題的計(jì)算困難,這種方式易于計(jì)算且效果顯著[16-17]。該模型一經(jīng)提出就引起神經(jīng)網(wǎng)絡(luò)領(lǐng)域研究人員的關(guān)注并對(duì)其進(jìn)行了大量的研究和改進(jìn)[18-20]。Zhu等[21]提出循環(huán)生成對(duì)抗網(wǎng)絡(luò)(CycleGAN),通過引入循環(huán)一致性損失函數(shù),改進(jìn)了這種網(wǎng)絡(luò)。這種網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練不需要成對(duì)的數(shù)據(jù)集,而且穩(wěn)定性更優(yōu)異,同時(shí)保留了常規(guī)GAN的優(yōu)點(diǎn),應(yīng)用十分廣泛,激發(fā)了學(xué)者們對(duì)這種深度神經(jīng)網(wǎng)絡(luò)在地球物理和勘探領(lǐng)域的興趣[22-25]。筆者利用循環(huán)生成對(duì)抗網(wǎng)絡(luò)建立常規(guī)逆時(shí)偏移成像結(jié)果與最小二乘逆時(shí)偏移成像結(jié)果的聯(lián)系;用若干模型的逆時(shí)偏移和最小二乘逆時(shí)偏移的成像結(jié)果組成訓(xùn)練樣本集,使用訓(xùn)練后的網(wǎng)絡(luò)來對(duì)其他的常規(guī)逆時(shí)偏移成像剖面進(jìn)行優(yōu)化。

    1 基本原理

    1.1 最小二乘逆時(shí)偏移

    傳統(tǒng)的偏移運(yùn)算公式表示為

    mmig=LTd.(1)

    式中,d 為觀測(cè)地震數(shù)據(jù);LT 為偏移算子,本文中使用的是逆時(shí)偏移算子;mmig為偏移結(jié)果的矩陣表示。

    為了得到與觀測(cè)數(shù)據(jù)最佳匹配的偏移結(jié)果,引入最小二乘思想,定義如下目標(biāo)函數(shù):

    f(m)=Lm-d2.(2)

    式(2)的最小二乘解為

    m=(LTL)-1LTd,(3)

    m=(LTL)-1mmig.(4)

    式中,(LTL)-1即為Hessian矩陣的逆。由于最小二乘逆時(shí)偏移中Hessian矩陣非常龐大,計(jì)算和儲(chǔ)存都非常困難。本文中通過循環(huán)生成對(duì)抗網(wǎng)絡(luò)來表征Hessian矩陣的逆,訓(xùn)練后的網(wǎng)絡(luò)可以直接優(yōu)化常規(guī)偏移結(jié)果,大量減少最小二乘求解的計(jì)算量。

    1.2 生成對(duì)抗網(wǎng)絡(luò)

    1.2.1 常規(guī)生成對(duì)抗網(wǎng)絡(luò)

    Goodfellow等引入深度神經(jīng)網(wǎng)絡(luò)的架構(gòu)提出了生成對(duì)抗網(wǎng)絡(luò),以一個(gè)對(duì)抗的過程來塑造一個(gè)生成模型。GAN的主框架是由一個(gè)生成器模型G和一個(gè)判別器模型D組成。其基本結(jié)構(gòu)如圖1所示。

    圖1 生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)

    Fig.1 Structure of generative adversarial nets

    GAN的基本思想類似于博弈論中的經(jīng)典問題——“零和博弈”。作為參與“零和博弈”的雙方:生成模型的任務(wù)是抓住目標(biāo)域中整體數(shù)據(jù)的分布并進(jìn)行建模,然后產(chǎn)生與目標(biāo)域中樣本的分布相同或相似的輸出;鑒別模型的任務(wù)是估計(jì)所輸入的樣本是來源于訓(xùn)練數(shù)據(jù)還是來源于生成模型并將結(jié)果反饋給生成器和鑒別器自身,對(duì)各自的參數(shù)進(jìn)行優(yōu)化。這就在二者之間形成了一個(gè)“對(duì)抗”的過程,當(dāng)生成器再無法生成更接近于目標(biāo)分布的輸出,鑒別器再無法判定生成器的輸出為假,就達(dá)到了納什平衡,此時(shí)整個(gè)網(wǎng)絡(luò)模型的參數(shù)達(dá)到最佳。網(wǎng)絡(luò)的目標(biāo)函數(shù)為

    minGmaxDV(D,G)=Ex~Pdata(x)[logD(x)]+Ez~Pz(z){log[1-D(G(z))]}.(5)

    式中,G為生成器;D為鑒別器;V(D,G)為關(guān)于G和D的價(jià)值函數(shù);x為輸入的真實(shí)數(shù)據(jù),它服從Pdata這一分布;z為隨機(jī)噪音,是隨機(jī)噪音的分布;E是一個(gè)期望,x~Pdata(x),z~Pz(z)都表示數(shù)據(jù)服從其分布的采樣。如果輸入鑒別器的數(shù)據(jù)y不夠接近真實(shí)數(shù)據(jù)的分布或鑒別器功能足夠優(yōu)時(shí)PzD(y)的值越接近0,反之越接近1。因此模型的目標(biāo)可以理解為訓(xùn)練D和G以最大化logD(x),最小化log[1-D(G(z))]。

    1.2.2 循環(huán)生成對(duì)抗網(wǎng)絡(luò)

    循環(huán)生成對(duì)抗網(wǎng)絡(luò)是由一個(gè)X→Y單向GAN1加上一個(gè)Y→X單向GAN2,兩個(gè)GAN共享兩個(gè)生成器GXY、GYX又各自含有一個(gè)判別器DX、DY。網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

    這種網(wǎng)絡(luò)結(jié)構(gòu)的提出解決了傳統(tǒng)的GAN網(wǎng)絡(luò)中存在一個(gè)問題:如果在足夠大的樣本容量下,網(wǎng)絡(luò)可以將相同的輸入圖像集合映射到目標(biāo)域中圖像的任何隨機(jī)排列,其中任何學(xué)習(xí)的映射可以歸納出與目標(biāo)分布匹配的輸出分布,從而導(dǎo)致預(yù)測(cè)脫離輸入或者無論作何輸入,預(yù)測(cè)結(jié)果都接近目標(biāo)域中同一樣本。本文中在CycleGAN中加入了循環(huán)一致性損失函數(shù)的計(jì)算即GYX(GXY(X))≈X、GXY(GYX(Y))≈Y,含義是把從源域通過生成器輸出的圖片再映射回源域,分布依然是趨于相同的。

    根據(jù)CycleGAN的結(jié)構(gòu)和原理,Zhu等[21]重新構(gòu)建了目標(biāo)函數(shù)形式如下:

    minGXY,GYXmaxDX,DYloss(GXY,GYX,DX,DY)=LGAN1(GXY,DY,x,y)+LGAN2(GYX,DX,y,x)+λLcycle(GXY,GYX).(6)

    式(6)由兩部分組成:其中一部分為L(zhǎng)GAN1、LGAN2組成的對(duì)抗損失函數(shù),其作用與傳統(tǒng)GAN目標(biāo)函數(shù)含義相同,既盡可能保證生成器生成的數(shù)據(jù)分布接近于目標(biāo)數(shù)據(jù)。對(duì)于GAN1的對(duì)抗損失函數(shù)表達(dá)式為

    LGAN1(GXY,DY,X,Y)=Ey~pdata(y)[logDY(y)]+Ex~pdata(x)[log(1-DY(GXY(x))].(7)

    同理GAN2的對(duì)抗損失函數(shù)表達(dá)式為

    LGAN2(GYX,DX,Y,X)=Ex~pdata(x)[logDX(X)]+Ey~pdata(y)[log(1-DX(GYX(y))].(8)

    式(6)的另一部分由循環(huán)一致性損失函數(shù)Lcycle及其所占的權(quán)重λ相乘得到。循環(huán)一致性損失函數(shù)的具體表達(dá)式為

    Lcycle(GXY,GYX)=Ex~Pdata(x){GYX[GXY(x)]-x1}+Ey~Pdata(y){GXY[GYX(y))]-y1}.(9)

    式中,·1表示L1范數(shù)。該損失函數(shù)進(jìn)一步提高了對(duì)抗訓(xùn)練的準(zhǔn)確性,減少了可能的映射函數(shù)空間,如圖2所示,將源域數(shù)據(jù)x轉(zhuǎn)換至目標(biāo)域后再轉(zhuǎn)換為x′,即x→GXY(x)→y′→GYX(y′)→x′,使得x與x′接近。避免了網(wǎng)絡(luò)將所有源域數(shù)據(jù)轉(zhuǎn)換為目標(biāo)域內(nèi)同一數(shù)據(jù),防止網(wǎng)絡(luò)學(xué)習(xí)的退化。

    2 CycleGAN的構(gòu)建

    2.1 成像結(jié)果優(yōu)化模型

    給定一個(gè)數(shù)據(jù)集U∈{X,Y},由常規(guī)逆時(shí)偏移方法的結(jié)果和效果更好的最小二乘逆時(shí)偏移結(jié)果組成。本文中采用CycleGAN將其中效果有待提升的偏移結(jié)果進(jìn)行優(yōu)化,且所付出的時(shí)間和計(jì)算成本較少。其模型如圖3所示。生成器G1的輸入是逆時(shí)

    偏移的結(jié)果x∈X,輸出為趨于最小二乘方法水平的成像結(jié)果y′。生成器G2的輸入是最小二乘方法的結(jié)果y∈Y,輸出為逆時(shí)偏移方法的成像結(jié)果x′。

    鑒別器D1判斷生成的x′是否屬于常規(guī)逆時(shí)偏移結(jié)果,鑒別器D2判斷生成的y′是否屬于真實(shí)的最小二乘結(jié)果。在訓(xùn)練過程中,生成器和鑒別器不斷進(jìn)行對(duì)抗,最終使得生成器輸出效果更優(yōu)的成像結(jié)果。

    2.2 生成器結(jié)構(gòu)

    生成器的主體由初始化卷積(ConvInit)模塊、降采樣(Downsampling)模塊、殘差網(wǎng)絡(luò)(Resnet)、上采樣(Upsampling)模塊、輸出層(Output layer)組成,結(jié)構(gòu)如圖4所示。由于本方法中每個(gè)樣本的每個(gè)像素點(diǎn)的信息都非常重要,因此在每次卷積運(yùn)算前進(jìn)行填充(Padding)操作以保證運(yùn)算過程中邊緣數(shù)據(jù)不丟失;

    對(duì)于卷積結(jié)果均采用實(shí)例歸一化(instance normalization),這種算法保留了張量中批次軸、通道軸的維度,只在通道內(nèi)部對(duì)空間軸進(jìn)行歸一化操作,保證了每個(gè)圖像實(shí)例之間獨(dú)立的同時(shí)保留了各自特有的細(xì)節(jié)。

    初始化卷積塊,將輸入的256×256的數(shù)據(jù)矩陣經(jīng)過填充(Padding)后由64個(gè)7×7的卷積核進(jìn)行卷積處理,再經(jīng)歸一化、ReLU激活函數(shù),轉(zhuǎn)化成下采樣中卷積層輸入所需要的層數(shù)。降采樣由3個(gè)卷積塊完成,每個(gè)卷積塊包含:一個(gè)2D卷積層,一個(gè)實(shí)例歸一化層和一個(gè)ReLU激活函數(shù)。然后是9個(gè)殘差塊(Residual blocks)組成的殘差網(wǎng)絡(luò),每個(gè)殘差塊包含2個(gè)卷積層,每個(gè)卷積層后都有一個(gè)實(shí)例歸一化層和一個(gè)ReLU激活函數(shù),通過殘差連接。由于在經(jīng)過降采樣過程后,網(wǎng)絡(luò)深度來到512層,殘差網(wǎng)絡(luò)有效地避免了深度神經(jīng)網(wǎng)絡(luò)難以訓(xùn)練和訓(xùn)練退化的問題。上采樣模塊包含3個(gè)2D轉(zhuǎn)置卷積層,每個(gè)卷積層后都有一個(gè)實(shí)例歸一化層和ReLU激活函數(shù)。輸出層是一個(gè)2D卷積層,使用Tanh作為激活函數(shù),該層生成的參數(shù)為(256,256)的輸出。

    2.3 鑒別器結(jié)構(gòu)

    判別網(wǎng)絡(luò)的架構(gòu)類似于PatchGAN中的判別網(wǎng)絡(luò)架構(gòu),本方法選用包含5個(gè)卷積塊的卷積神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)如圖5所示。原始GAN的判別器的設(shè)計(jì)是僅輸出一個(gè)評(píng)價(jià)值,這個(gè)值就代表了輸入樣本為真樣本的概率。PatchGAN設(shè)計(jì)成全卷積的形式,使用卷積將輸入映射為N×N(16×16)矩陣X,該矩陣中每個(gè)點(diǎn)Xij即代表原始圖像中的一塊小區(qū)域?yàn)檎鏄颖镜母怕剩?/p>

    將Xij求平均值作為最終判別器的輸出。原來用一個(gè)值衡量整幅圖,現(xiàn)在使用N×N的矩陣,最終結(jié)果求平均值來評(píng)價(jià)整體,考慮到了數(shù)據(jù)的不同部分的影響,能得到更為精確的差異表示。

    2.4 損失函數(shù)

    為了完成圖3中的過程,需要對(duì)生成器和判別器進(jìn)行交替訓(xùn)練,每次訓(xùn)練中將生成器和判別器的損失函數(shù)的梯度傳遞回生成器和判別器進(jìn)行網(wǎng)絡(luò)參數(shù)優(yōu)化。

    其中生成器的損失函數(shù)表達(dá)式為

    L_G=L_adv+λcycL_cycle+λidL_id.(10)

    式中,L_adv為對(duì)抗損失函數(shù);L_cycle為循環(huán)一致性損失;L_id為身份損失函數(shù);λcyc、λid分別為循環(huán)一致性損失函數(shù)和身份損失函數(shù)所占的權(quán)重。

    對(duì)抗損失函數(shù)的表達(dá)式為

    L_adv=(L_adv_G1+L_adv_G2)/2=[M(D2(G1(x)),T)+M(D1(G2(y)),T)]/2.(11)

    式中,M為均方差;T為樣本的正常值;D2(G1(x))為將判別器D2對(duì)G1輸出的判別結(jié)果,希望盡可能為T;D1(G2(y))為將判別器D1對(duì)G2輸出的判別結(jié)果,同樣也希望更接近T。

    循環(huán)一致性損失函數(shù)表達(dá)式為

    L_cycle=(L_cycle1+L_cycle2)/2=(G2(G1(x))-x1+G1(G2(y))-y1)/2.(12)

    式中,x為源域中一個(gè)樣本;G1(x)為x輸入生成器G1的輸出;G2(G1(x))表示將G1(x)輸入生成器G2的結(jié)果,希望此結(jié)果跟x盡可能地接近。

    身份損失函數(shù)的表達(dá)式為

    L_id=(L_id1+L_id2)/2=(G2(x)-x1+G1(y)-y1)/2.(13)

    式中,增加這個(gè)損失函數(shù)主要用于保證輸出結(jié)果的連續(xù)性,避免遷移過度。

    判別器的損失函數(shù)表達(dá)式為

    L_D=(L_D1+L_D2)/2. (14)

    式中,L_D1、L_D2分別為兩個(gè)判別器的損失函數(shù),其構(gòu)成是相同的,都由L_real和L_fake求均值得到,即

    L_D1=(L_real1+L_fake1)/2=(M(D1(x),T)+M(D1(G2(y)),F(xiàn)))/2.(15)

    L_D2=(L_real2+L_fake2)/2=(M(D2(y),T)+M(D2(G1(x)),F(xiàn)))/2.(16)

    式中,F(xiàn)為樣本的異常值;L_real為真實(shí)損失,是判別器對(duì)真實(shí)樣本的判別結(jié)果和T的均方差;L_fake為生成損失,是判別器對(duì)生成器輸出樣本的判別結(jié)果和F的均方差。本方法運(yùn)用真實(shí)樣本作為正樣本,生成的樣本作為負(fù)樣本來訓(xùn)練,從而保證判別器的功能。

    3 數(shù)據(jù)準(zhǔn)備

    對(duì)于訓(xùn)練集,本文中選擇BP 2.5D模型[26],Overthrust Canada模型以及準(zhǔn)東油田模型的逆時(shí)偏移和最小二乘逆時(shí)偏移成像結(jié)果來制作訓(xùn)練樣本。

    3個(gè)模型如圖6所示。圖6(a) 所示Overthrust Canada模型尺寸為8.34 km×5 km,網(wǎng)格間距為10 m。圖6(b) 所示準(zhǔn)東油田模型尺寸為7.5 km×534 km,網(wǎng)格長(zhǎng)度為5 m。圖6(c) 所示的BP 25D尺寸為17.61 km×3.21 km,網(wǎng)格間距為10 m,此模型的水平方向較大,因此將其分成了3部分分別成像,以獲得合適的訓(xùn)練數(shù)據(jù),保證訓(xùn)練效果。這3部分模型如圖6(d)~(f)所示。采用30 Hz雷克子波對(duì)其進(jìn)行有限差分正演[27]。隨后,對(duì)正演模擬得到的炮記錄分別做逆時(shí)偏移和最小二乘逆時(shí)偏移。偏移結(jié)果如圖7所示。圖7(a) 是逆時(shí)偏移成像結(jié)果,圖7(b) 是對(duì)應(yīng)的最小二乘逆時(shí)偏移迭代30次的結(jié)果。對(duì)比可知,最小二乘逆時(shí)偏移成像質(zhì)量更好,有效地壓制了低頻噪音,照明均勻,且對(duì)深層成像效果較好。但是,最小二乘逆時(shí)偏移需要由最小二乘迭代求解帶來的巨大計(jì)算量,導(dǎo)致其大規(guī)模工業(yè)化應(yīng)用收到限制。因此,本文中采用循環(huán)生成對(duì)抗網(wǎng)絡(luò)建立起逆時(shí)偏移成像結(jié)果和最小二乘逆時(shí)偏移成像結(jié)果之間的映射關(guān)系,將逆時(shí)偏移成像結(jié)果作為GAN1的輸入和D1的標(biāo)簽數(shù)據(jù),將最小二乘逆時(shí)偏移成像結(jié)果作為GAN2的輸入數(shù)據(jù)和D2的標(biāo)簽數(shù)據(jù)。經(jīng)過網(wǎng)絡(luò)的訓(xùn)練后,選取訓(xùn)練好的GAN1作為預(yù)測(cè)網(wǎng)絡(luò),直接作用于逆時(shí)偏移結(jié)果,快速優(yōu)化成像質(zhì)量。

    對(duì)圖5中3個(gè)模型得到的成像數(shù)據(jù)進(jìn)行隨機(jī)裁切,圖8是最終構(gòu)建的訓(xùn)練數(shù)據(jù)集樣本示例。

    4 數(shù)據(jù)測(cè)試

    4.1 理論數(shù)據(jù)測(cè)試

    4.1.1 簡(jiǎn)單模型

    簡(jiǎn)單模型測(cè)試選擇如圖9(a)所示的層狀模型,模型水平距離2.5 km,深度為2.5 km,網(wǎng)格長(zhǎng)度10 m,包含3個(gè)水平同相軸。圖9(b) 為層狀模型逆時(shí)偏移圖像,圖9(c) 為最小二乘逆時(shí)偏移迭代30次的結(jié)果。

    分別選取689組圖8所示的樣本組成訓(xùn)練集,然后利用此訓(xùn)練集,經(jīng)歷100個(gè)訓(xùn)練批次,用時(shí)約14 h可得到訓(xùn)練好的網(wǎng)絡(luò)結(jié)構(gòu)。網(wǎng)絡(luò)預(yù)測(cè)結(jié)果如圖9(d) 所示,與逆時(shí)偏移結(jié)果相比可以看出,同相軸能量明顯增強(qiáng),偏移圖像的信噪比有所提升。這說明本方法可以優(yōu)化逆時(shí)偏移成像結(jié)果,并且網(wǎng)絡(luò)預(yù)測(cè)所消耗的時(shí)間較少,相比于最小二乘方法的迭代反演,能夠在更短的時(shí)間內(nèi)得到高質(zhì)量偏移剖面。但本方法也存在如圖9(c) 和圖9(d) 中紅色箭頭處所示預(yù)測(cè)不準(zhǔn)確的情況。

    4.1.2 復(fù)雜模型數(shù)據(jù)測(cè)試

    選擇Marmousi模型來進(jìn)行測(cè)試,速度模型如圖10(a) 所示,水平距離7.37 km,深度為4.25 km,網(wǎng)格長(zhǎng)度10 m。該模型含有大量反射界面,斷層豐富,常用于測(cè)試。Marmousi模型的偏移成像剖面如圖10(b) 和(c) 所示,其中圖10(b) 為RTM成像結(jié)果,圖10(c) 為最小二乘逆時(shí)偏移迭代30次的成像結(jié)果。圖10(b) 和(c) 對(duì)比可以看出:RTM成像結(jié)果中深部及兩側(cè)照明不足,反射同相軸能量較弱;LSRTM成像效果明顯改善,壓制了成像噪音,補(bǔ)償了地震波弱照明區(qū)域的成像振幅,提高了成像分辨率。本測(cè)試將圖11(a) 所示的Marmousi模型逆時(shí)偏移成像結(jié)果輸入訓(xùn)練好的網(wǎng)絡(luò)中,預(yù)測(cè)得到的輸出結(jié)果如圖11(c) 所示,對(duì)比可知優(yōu)化后的結(jié)果反射同相軸能量顯著增強(qiáng),實(shí)現(xiàn)真振幅成像。對(duì)比圖11(b) 最小二乘逆時(shí)偏移結(jié)果和圖11(c) 網(wǎng)絡(luò)預(yù)測(cè)結(jié)果紅色箭頭指示可知,本方法在預(yù)測(cè)部分構(gòu)造的準(zhǔn)確性上還有待提高。分別記錄兩種偏移成像方法的計(jì)算時(shí)間和網(wǎng)絡(luò)預(yù)測(cè)輸出結(jié)果的時(shí)間,如表1所示。從表1中可知,本文方法的耗時(shí)明顯少于最小二乘逆時(shí)偏移方法的耗時(shí),具有更高的效率。

    4.2 實(shí)際數(shù)據(jù)測(cè)試

    使用中國(guó)西部某研究區(qū)實(shí)際的地震數(shù)據(jù)。使用逆時(shí)偏移方法進(jìn)行成像,得到圖12所示的偏移剖面。將如圖13(a) 所示經(jīng)過相應(yīng)處理的偏移結(jié)果輸入到神經(jīng)網(wǎng)絡(luò)中,得到如圖13(b) 所示的輸出。從圖中標(biāo)識(shí)處可以看出,網(wǎng)絡(luò)輸出的偏移圖像質(zhì)量有所提高,孔洞結(jié)構(gòu)更加明顯,斷層帶的劃分更加清晰。在實(shí)際生產(chǎn)過程中,龐大的計(jì)算量和較長(zhǎng)的計(jì)算時(shí)間限制著最小二乘逆時(shí)偏移方法的應(yīng)用。本次測(cè)試沒有重新訓(xùn)練網(wǎng)絡(luò),利用訓(xùn)練好的網(wǎng)絡(luò)預(yù)測(cè)需要花費(fèi)時(shí)間較少,說明本方法可以在短時(shí)間內(nèi)批量提高偏移圖像質(zhì)量。

    5 結(jié)束語(yǔ)

    本文中用合成數(shù)據(jù)的偏移成像結(jié)果構(gòu)建樣本集來訓(xùn)練網(wǎng)絡(luò),用以提高模型數(shù)據(jù)和實(shí)際資料的逆時(shí)偏移成像效果。數(shù)據(jù)測(cè)試結(jié)果證明了該算法在提升成像精度上的可行性和有效性。同時(shí),實(shí)際資料的測(cè)試結(jié)果表明,基于模擬數(shù)據(jù)訓(xùn)練的網(wǎng)絡(luò)在實(shí)際資料上具有良好的遷移學(xué)習(xí)能力,可以有效提升實(shí)際資料的成像質(zhì)量。相對(duì)于傳統(tǒng)最小二乘逆時(shí)偏移的海量計(jì)算耗時(shí),訓(xùn)練后的網(wǎng)絡(luò)在預(yù)測(cè)階段的耗時(shí)較少,在保證成像質(zhì)量的同時(shí),效率得到較大提升。

    參考文獻(xiàn):

    [1] 李闖.最二乘逆時(shí)偏移優(yōu)化方法及應(yīng)用研究[D].青島:中國(guó)石油大學(xué)(華東),2014.

    LI Chuang. Research on the optimized algorithm and application of least-squares reverse time migration[D]. Qingdao: China University of Petroleum (East China), 2014.

    [2] 李振春,雍鵬,黃建平,等.基于矢量波場(chǎng)分離彈性波逆時(shí)偏移成像[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,40(1):42-48.

    LI Zhenchun, YONG Peng, HUANG Jianping, et al.Elastic wave reverse time migration based on vector wave field separateon[J].Journal of China University of Petroleum (Edition of Natural Science), 2016,40(1):42-48.

    [3] YANG J D, HUANG J P, ZHU H, et al. Viscoacoustic reverse time migration with a robust space-wavenumber domain attenuation compensation operator[J]. Geophysics, 2021,86(5):S339-S353.

    [4] BAYSAL E, KOSLOFF D, SHERWOOD J W C. Reverse time migrate[J]. Geophysics,1983,48(11):1514-1524.

    [5] 程玖兵,王華忠,馬在田.頻率空間域有限差分法疊前深度偏移[J].地球物理學(xué)報(bào),2001,44(3):389-395.

    CHENG Jiubing, WANG Huazhong, MA Zaitian. Pre-stack depth migration with finite difference method in frequency-space domain[J]. Chinese Journal of Geophysicals,2001,44(3):389-395.

    [6] 周東紅,黃金強(qiáng),李振春,等.各向異性介質(zhì)一階速度-應(yīng)力方程平面波最小二乘逆時(shí)偏移[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,43(6):48-58.

    ZHOU Donghong, HUANG Jinqiang, LI Zhenchun, et al. Plane-wave least-squares reverse time migration based on the first order velocity-stress equation in anisotropic media[J]. Journal of China University of Petroleum (Edition of Natural Science), 2019,43(6):48-58.

    [7] 黃建平,張入化,國(guó)運(yùn)東,等.基于Seislet分?jǐn)?shù)階閾值算法約束的平面波最小二乘逆時(shí)偏移[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,44(3):26-37.

    HUANG Jianping, ZHANG Ruhua, GUO Yundong, et al. Plane-wave least-square reverse time migration with Seislet frac-tional threshold algorithm constraint[J]. Journal of China University of Petroleum(Edition of Natural Science), 2020,44(3):26-37.

    [8] YANG J D, HUANG J P, LI Z C, et al. Mitigating velocity errors in least-squares imaging using angle-dependent forward and adjoint Gaussian beam operators[J]. Surveys in Geophysics, 2021,42(6):1305-1346.

    [9] GUO X, HUANG J P, LI Z C, et al. Least-squares reverse time migration based on first-order velocity-stress wave equation in VTI media[J]. Chinese Journal of Geophysics, 2019,62(6):2188-2202.

    [10] 李慶洋,黃建平,李振春,等.基于L1范數(shù)正則化的三維多震源最小二乘逆時(shí)偏移[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,43(4):52-59.

    LI Qingyang, HUANG Jianping, LI Zhenchun, et al. 3D multi-source least-squares reverse time migration based on L1 norm regularization[J]. Journal of China University of Petroleum (Edition of Natural Science), 2019,43(4):52-59.

    [11] LI Q, HUANG J P, LI Z C, et al. Cross-correlation least-squares reverse time migration in pseudo-time domain[J]. Journal of Geophysics and Engineering, 2017,14(4):841-851.

    [12] MU X R, HUANG J P, FU L Y, et al. Diffraction imaging for the fault-karst structure by least-squares reverse time migration[J]. Interpretation, 2021,9(2):T385-T394.

    [13] LEEUWEN T V, HER1MANN F J. Fast waveform inversion without source-encoding[J]. Geophysical Prospecting, 2013,61(1):10-19.

    [14] HA W, SHIN C. Efficient Laplace-domain full waveform inversion using a cyclic shot subsampling method[J]. Geophysics,2013,78(2):R37-R46.

    [15] MOGHADDAM P P, KEERS H, HERRMANN F J, et al. A new optimization approach for source-encoding full-waveform inversion[J]. Geophysics,2013,78(3):R125-R132.

    [16] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C/OL]. Neural Information Processing Systems, Canada, June 10,2014 [2022-06-05]. https://api.semanticscholar.org/CorpusID:261560300.

    [17] MEHDI M, SIMON O. Conditional generative adversarial nets[J]. Computer Science, 2014,11(6):2672-2680.

    [18] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image translation with conditional adversarial networks[C/OL]. IEEE Conference on Computer Vision amp; Pattern Recognition, America, November 21, 2016 [2022-06-28]. https://arxiv.org/abs/1611.07004v1.

    [19] CHOI Y, CHOI M, KIM M, et al. StarGAN: Unified generative adversarial networks for multi-domain image-to-image translation[C/OL]. IEEE Conference on Computer Vision and Pattern Recognition, America. September 14, 2018 [2022-07-01]. https://doi.org/10.48550/arXiv.1711.09020.

    [20] ODENA A, OLAH C, SHLENS J. Conditional image synthesis with auxiliary classifier GANs[C/OL]. The 34th International Conference on Machine Learining, Australia, July 20, 2017 [2022-07-3]. https://arxiv.org/pdf/1610.09585.

    [21] Z J Y, TAESUNG P, PHILLIP I, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]. IEEE Conference on Computer Vision amp; Pattern Recognition, Italia, March 30, 2017 [2022-08-12]. https://arxiv.org/abs/1703.10593.

    [22] 劉玉敏,魏海軍,袁碩,等.基于卷積循環(huán)生成對(duì)抗網(wǎng)絡(luò)的地震數(shù)據(jù)隨機(jī)噪聲去除[J].吉林大學(xué)學(xué)報(bào)(信息科學(xué)版),2022,40(2):1-9.

    LIU Yumin, WEI Haijun, YUAN Shuo, et al. Random noise removal of seismic data based on convolution cycle generation adversarial network[J]. Journal of Jilin University (Information Science Edition),2022,40(2):1-9.

    [23] 李偉,袁新安,曲萌,等.基于GA-BP神經(jīng)網(wǎng)絡(luò)的ACFM實(shí)時(shí)高精度裂紋反演算法[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,40(5):128-134.

    LI Wei, YUANXinan, QU Meng, et al. Real-time and high-precision cracks inversion algorithm for ACFM based on GA-BP neural network[J]. Journal of China University of Petroleum (Edition of Natural Science),2016,40(5):128-134.

    [24] 馮其紅,李玉潤(rùn),王森,等.基于深度卷積生成對(duì)抗神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)氣竄方向[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,46(1):20-27.

    FENG Qihong, LIYurun, WANG Sen, et al. Predicting gas migration development using deep convolutional generative adversarial network[J]. Journal of China University of Petroleum (Edition of Natural Science),2022,46(1):20-27.

    [25] ZHONG Z, SUN A Y, WU X M. Inversion of time-lapse seismic reservoir monitoring data using CycleGAN: a deep learning-based approach for estimating dynamic reservoir property changes[J]. Journal of Geophysical Research: Solid Earth,2020,125(3):e2019JB018408.

    [26] ETGEN J, REGONE C. Strike shooting, dip shooting, widepatch shooting: does prestack depth migration care a model study[C/OL]. SEG Technical Program Expanded Abstracts, 1998[2022-07-20]. https://library.seg.org/doi/abs/10.1190/1.1820541.

    [27] 雍鵬,黃建平,李振春,等.優(yōu)化的時(shí)空域等效交錯(cuò)網(wǎng)格有限差分正演模擬[J].中國(guó)石油大學(xué)學(xué)報(bào)(自然科學(xué)版),2017,41(6):71-79.

    YONG Peng, HUANG Jianping, LI Zhenchun, et al. Forward modeling by optimized equiva-lent staggered-grid finite-difference method for time-space domain[J]. Journal of China University of Petroleum (Edition of Natural Science),2017,41(6):71-79.

    (編輯 修榮榮)

    海安县| 冕宁县| 洞头县| 武冈市| 易门县| 会同县| 响水县| 麦盖提县| 乐山市| 汉寿县| 通州市| 常德市| 吴江市| 沐川县| 化州市| 汤原县| 亚东县| 贵定县| 营山县| 北海市| 美姑县| 桂林市| 秀山| 永胜县| 马山县| 始兴县| 儋州市| 湖州市| 平南县| 昌平区| 彭州市| 莒南县| 平原县| 祁东县| 康保县| 漳州市| 吴忠市| 贡山| 贵阳市| 尉犁县| 乌拉特中旗|