基金項(xiàng)目:福州外語(yǔ)外貿(mào)學(xué)院2023年教育教學(xué)研究項(xiàng)目(JF2023016)
第一作者簡(jiǎn)介:張宏展(1974-),男,博士,副教授。研究方向?yàn)榇髷?shù)據(jù)分析技術(shù)、網(wǎng)絡(luò)與分布式軟件。
DOI:10.19981/j.CN23-1581/G3.2024.21.004
摘" 要:當(dāng)前我國(guó)正在經(jīng)歷著數(shù)字化轉(zhuǎn)型,大數(shù)據(jù)受到各行各業(yè)的重點(diǎn)關(guān)注,對(duì)大數(shù)據(jù)技術(shù)人才的需求正在不斷增長(zhǎng)。AI技術(shù)的突破和發(fā)展使得傳統(tǒng)大數(shù)據(jù)處理技術(shù)的不足和局限性進(jìn)一步被放大,探討AI在大數(shù)據(jù)技術(shù)中的創(chuàng)新與應(yīng)用勢(shì)在必行。針對(duì)這一問(wèn)題,該文首先在分析使用大數(shù)據(jù)技術(shù)面臨的問(wèn)題時(shí)提出使用AI的解決方案,然后從大數(shù)據(jù)處理流程出發(fā),提出增加AI數(shù)據(jù)感知階段,最后展望AI的優(yōu)勢(shì)和存在的不足之處。
關(guān)鍵詞:AI;大數(shù)據(jù);ChatGPT;數(shù)據(jù)處理;模型
中圖分類號(hào):TP319" " " 文獻(xiàn)標(biāo)志碼:A" " " " " 文章編號(hào):2095-2945(2024)21-0016-04
Abstract: Currently, China is undergoing digital transformation, and big data is receiving significant attention from various industries. The demand for big data technology talents is constantly increasing. The breakthrough and development of AI technology have further magnified the shortcomings and limitations of traditional big data processing technologies, so it is imperative to explore the innovation and application of AI in big data technology. To address this issue, this paper first proposes a solution of using AI when analyzing the problems existing in using big data technology. Then, starting with the big data processing process, it is proposed to add an AI data perception stage. Finally, the advantages and shortcomings of AI are discussed.
Keywords: AI; big data; ChatGPT; data processing; model
當(dāng)前,我國(guó)正在經(jīng)歷數(shù)字化的轉(zhuǎn)型[1],“數(shù)字化”這一名詞術(shù)語(yǔ)鋪天蓋地,成了經(jīng)濟(jì)與科技領(lǐng)域最熱門(mén)的話題。作為數(shù)字化時(shí)代的數(shù)據(jù)要素,大數(shù)據(jù)正受到各行各業(yè)的重點(diǎn)關(guān)注。2023年3月,中共中央、國(guó)務(wù)院明確提出組建國(guó)家數(shù)據(jù)局,并于2023年10月正式成立。數(shù)據(jù)作為一種新型的生產(chǎn)要素,由中央部委來(lái)管理,預(yù)示著在數(shù)字經(jīng)濟(jì)和社會(huì)發(fā)展中的作用越來(lái)越強(qiáng),在未來(lái)很長(zhǎng)一段時(shí)間內(nèi),大數(shù)據(jù)技術(shù)人才需求會(huì)持續(xù)增長(zhǎng),發(fā)展前景十分廣闊[2]。
2023年,大模型技術(shù)取得的突破使得人工智能技術(shù)發(fā)生了深刻的變革[3],以ChatGPT為代表的新一代生成式人工智能技術(shù)應(yīng)用火遍全球。AI技術(shù)主要是通過(guò)大量訓(xùn)練樣本數(shù)據(jù)的深度機(jī)器學(xué)習(xí)得出算法模型實(shí)現(xiàn)的,AI技術(shù)的突破和發(fā)展離不開(kāi)高質(zhì)量大數(shù)據(jù)的支撐和基礎(chǔ)。另一方面,AI是處理數(shù)據(jù)產(chǎn)生的智能,能更智能地處理大數(shù)據(jù),借助AI的輸出,大數(shù)據(jù)技術(shù)能更有效挖掘和分析數(shù)據(jù)中的價(jià)值信息。隨著AI和大數(shù)據(jù)的不斷發(fā)展,它們之間的融合和滲透將會(huì)越來(lái)越緊密。一方面,大數(shù)據(jù)技術(shù)與時(shí)俱進(jìn),尋求與AI技術(shù)的融合貫通和應(yīng)用創(chuàng)新;另一方面,AI技術(shù)應(yīng)用于大數(shù)據(jù),能解決大數(shù)據(jù)技術(shù)面臨的一些痛點(diǎn)問(wèn)題。本文主要以ChatGPT為主,探討AI與大數(shù)據(jù)技術(shù)的融合創(chuàng)新與應(yīng)用。
1" 大數(shù)據(jù)技術(shù)中的痛點(diǎn)與機(jī)遇
1.1" 數(shù)據(jù)清洗和預(yù)處理
原始大數(shù)據(jù)中通常包含有噪音、冗余、缺失值或錯(cuò)誤信息等問(wèn)題,這些問(wèn)題可能導(dǎo)致分析結(jié)果不準(zhǔn)確甚至錯(cuò)誤。因此,先進(jìn)行數(shù)據(jù)清洗和預(yù)處理是非常關(guān)鍵的一步,這需要學(xué)習(xí)大數(shù)據(jù)知識(shí)和技術(shù),編寫(xiě)程序來(lái)完成。例如面對(duì)金融大數(shù)據(jù)或醫(yī)療健康大數(shù)據(jù)時(shí),大數(shù)據(jù)處理人員除了需要掌握大數(shù)據(jù)專業(yè)知識(shí),還必須耗費(fèi)大量時(shí)間和精力學(xué)習(xí)掌握大數(shù)據(jù)處理技術(shù),導(dǎo)致精力分散而不能做到術(shù)業(yè)有專攻。尤其是對(duì)從事藝術(shù)、傳媒等社科或人文工作的人員來(lái)說(shuō),知識(shí)跨度大,很難實(shí)現(xiàn),只能定性描述而不能定量計(jì)算得到想要的結(jié)果。
AI的出現(xiàn),使得人們已經(jīng)不滿足于僅僅使用這些傳統(tǒng)的大數(shù)據(jù)清洗和預(yù)處理方法,而是希望能借助AI技術(shù)的創(chuàng)新來(lái)改進(jìn)方法提高效率。AI輸入的可能是含有異常信息的數(shù)據(jù)集,通過(guò)分析和學(xué)習(xí)正常數(shù)據(jù)的特征,可以輸出正常的處理結(jié)果。使用AI可以自動(dòng)完成數(shù)據(jù)清洗和預(yù)處理,確保數(shù)據(jù)的準(zhǔn)確性和完整性。
1.2" 分布式計(jì)算和數(shù)據(jù)安全
大數(shù)據(jù)多年來(lái)已經(jīng)存在并存儲(chǔ)于行業(yè)、組織、企業(yè)或高校中,且其生產(chǎn)經(jīng)營(yíng)狀況或科研體系運(yùn)行良好,沒(méi)有必要為了專門(mén)迎合大數(shù)據(jù)時(shí)代的到來(lái)而進(jìn)行設(shè)備的全面更新和升級(jí)換代,以免造成大量資金投入和資源浪費(fèi)。大數(shù)據(jù)時(shí)代要求信息共享避免產(chǎn)生信息孤島,需要對(duì)這些數(shù)據(jù)進(jìn)行整合和使用,分析可能潛藏的價(jià)值。傳統(tǒng)大數(shù)據(jù)技術(shù)側(cè)重于海量數(shù)據(jù)的挖掘和分析,對(duì)這些已經(jīng)存在的分散數(shù)據(jù)的分布式計(jì)算要求,在處理上顯得力不從心。AI技術(shù)中采用了分布式計(jì)算和存儲(chǔ)技術(shù)可以解決這些問(wèn)題[4]。
為了得到最佳數(shù)據(jù)分析處理結(jié)果,首先在大數(shù)據(jù)采集環(huán)節(jié)中,需要拓寬數(shù)據(jù)來(lái)源渠道采集各種不同數(shù)據(jù),其中不乏很多行業(yè)或企業(yè)的隱私和關(guān)鍵數(shù)據(jù)。出于數(shù)據(jù)隱私和安全保護(hù),數(shù)據(jù)源擁有者通常會(huì)要求必須對(duì)這些數(shù)據(jù)進(jìn)行脫敏或加密后才能被使用,傳統(tǒng)的大數(shù)據(jù)采集方法由于人工處理容易引起數(shù)據(jù)泄露導(dǎo)致隱私權(quán)受到侵犯。AI提供實(shí)現(xiàn)隱私保護(hù)的自動(dòng)數(shù)據(jù)脫敏和加密技術(shù)[5],數(shù)據(jù)脫敏的方法有數(shù)據(jù)匿名化、數(shù)據(jù)泛化和數(shù)據(jù)擾動(dòng)等。加密算法有對(duì)稱加密算法和非對(duì)稱加密算法,還可以借助差分隱私技術(shù)實(shí)現(xiàn)[6]。
1.3" 海量數(shù)據(jù)處理和增強(qiáng)學(xué)習(xí)
面對(duì)海量數(shù)據(jù),尤其是大規(guī)模圖像和視頻數(shù)據(jù)時(shí),傳統(tǒng)的大數(shù)據(jù)處理技術(shù)往往效率較低,有些需要幾個(gè)小時(shí)甚至更長(zhǎng)時(shí)間才能完成。例如在涉及這些海量數(shù)據(jù)的實(shí)時(shí)事務(wù)處理系統(tǒng)中,通常不允許等待很長(zhǎng)時(shí)間才能得到響應(yīng)結(jié)果,而是要求系統(tǒng)能快速有效地處理,實(shí)時(shí)響應(yīng)。AI的分布式存儲(chǔ)系統(tǒng)和并行計(jì)算能力可以將海量數(shù)據(jù)均勻地分配到各個(gè)節(jié)點(diǎn)并同時(shí)進(jìn)行計(jì)算,最后再將結(jié)果匯總。AI技術(shù)中還引入了圖像處理方法[7],專門(mén)針對(duì)圖像和視頻數(shù)據(jù)的快速處理。AI能幫助大數(shù)據(jù)處理人員高效使用大數(shù)據(jù),提高數(shù)據(jù)質(zhì)量和效率。
隨著海量數(shù)據(jù)的不斷積累壯大,尤其是隨著低空經(jīng)濟(jì)的蓬勃發(fā)展并快速邁向萬(wàn)億級(jí)規(guī)模的經(jīng)濟(jì)圈[8],不斷涌現(xiàn)的三維空間數(shù)據(jù)將呈指數(shù)級(jí)迅猛增長(zhǎng),數(shù)據(jù)的乘數(shù)效應(yīng)愈加明顯[9]。傳統(tǒng)的大數(shù)據(jù)處理技術(shù)已經(jīng)很難從這些海量數(shù)據(jù)中發(fā)掘出有價(jià)值的信息。發(fā)展經(jīng)濟(jì),科技先行,尋找新的大數(shù)據(jù)處理技術(shù)勢(shì)在必行。AI的出現(xiàn)為探索這種新的大數(shù)據(jù)處理技術(shù)提供了契機(jī),AI算法可以自動(dòng)發(fā)現(xiàn)、提取、識(shí)別和分類數(shù)據(jù)中的模式和關(guān)聯(lián)信息,并且將其轉(zhuǎn)化為實(shí)用的知識(shí)和洞見(jiàn)。利用AI的自學(xué)習(xí)能力和智能性,在與環(huán)境的交互中尋找隱藏在海量數(shù)據(jù)背后的規(guī)律和模式,可以獲取最優(yōu)策略。
1.4" 統(tǒng)計(jì)和可視化展現(xiàn)
大數(shù)據(jù)應(yīng)用的目的是通過(guò)數(shù)據(jù)挖掘和分析形成統(tǒng)計(jì)結(jié)果,供分析決策使用。以圖形可視化方式展現(xiàn)統(tǒng)計(jì)結(jié)果,清晰、明了,是最容易接受的一種形式。當(dāng)前很多大數(shù)據(jù)技術(shù)人員數(shù)據(jù)素養(yǎng)相對(duì)較弱,無(wú)法熟練使用Excel、SPSS(Statistical Product and Service Solutions)[10]等數(shù)據(jù)分析軟件,在進(jìn)行大數(shù)據(jù)統(tǒng)計(jì)和可視化展現(xiàn)時(shí)常常會(huì)遇到各種困難,尤其是處理三維數(shù)據(jù)進(jìn)行三維圖形展現(xiàn)時(shí),更是無(wú)從下手。而且,有些技術(shù)人員的數(shù)據(jù)分析能力單一和局限,即便系統(tǒng)中存有豐富的統(tǒng)計(jì)數(shù)據(jù),也無(wú)法通過(guò)工具將其最大限度地展現(xiàn)出來(lái)。
AI可視化分析模型采用大語(yǔ)言模型(Large Language Models,LLM),可以根據(jù)用戶的“文本”需求,轉(zhuǎn)化為“可視化”分析模型甚至UI界面,生成多種可視化圖形,如餅狀圖、柱狀圖、甘特圖、看板及三維態(tài)勢(shì)感知圖等,具有更出色的展現(xiàn)效果。
2" AI與大數(shù)據(jù)技術(shù)融合模型
如上所述,在大數(shù)據(jù)技術(shù)中融入AI可以有效解決當(dāng)前大數(shù)據(jù)處理中面臨的一些問(wèn)題。大數(shù)據(jù)傳統(tǒng)處理流程是數(shù)據(jù)收集、數(shù)據(jù)清洗和預(yù)處理、數(shù)據(jù)挖掘建模、數(shù)據(jù)分析、統(tǒng)計(jì)報(bào)告和可視化展現(xiàn)幾個(gè)階段。AI賦能大數(shù)據(jù),利用AI技術(shù)進(jìn)行大數(shù)據(jù)處理時(shí),可以在數(shù)據(jù)挖掘建模和分析之前新增一個(gè)階段:數(shù)據(jù)感知,通過(guò)抽取特征對(duì)原始數(shù)據(jù)進(jìn)行初始了解、探究和可視化,增強(qiáng)對(duì)原始數(shù)據(jù)的直覺(jué)和初步感知,從而對(duì)數(shù)據(jù)有更深刻的理解,為下一步的挖掘建模和分析預(yù)測(cè)提供實(shí)證假設(shè)構(gòu)建的思路或靈感。
ChatGPT是當(dāng)前流行且比較成熟的AIGC產(chǎn)品,在數(shù)據(jù)處理的各個(gè)階段都能展現(xiàn)出一定的智能性,可以根據(jù)需要將其融入大數(shù)據(jù)處理的各個(gè)階段,增強(qiáng)數(shù)據(jù)的處理能力,圖1是ChatGPT與大數(shù)據(jù)技術(shù)的融合模型。
2.1" 數(shù)據(jù)采集
在大規(guī)模的數(shù)據(jù)采集中,ChatGPT并不直接參與,可采用“ChatGPT+”軟件或工具集成的思想來(lái)操作。ChatGPT集成這些軟件或工具有幾種方式。
1)直接使用成熟的網(wǎng)絡(luò)爬蟲(chóng)工具、API抓取工具或IoT設(shè)備接口程序,采集不同的數(shù)據(jù)源,然后利用ChatGPT中的數(shù)據(jù)交換格式轉(zhuǎn)化成ChatGPT能處理的格式。
2)在ChatGPT中使用Python語(yǔ)言編寫(xiě)Web爬蟲(chóng)工具。按照預(yù)設(shè)的規(guī)則,調(diào)用Python庫(kù)中的Scrapy或BeautifulSoup框架,很容易實(shí)現(xiàn)。
3)使用軟件開(kāi)發(fā)工具包。部分軟件提供SDK,可以方便地將ChatGPT集成到應(yīng)用程序包中,或者有些工具和平臺(tái)允許開(kāi)發(fā)者創(chuàng)建自定義插件或擴(kuò)展,以實(shí)現(xiàn)數(shù)據(jù)采集功能。
2.2" 數(shù)據(jù)清洗和預(yù)處理
這一階段包括去除噪音數(shù)據(jù)、糾正拼寫(xiě)錯(cuò)誤、去除廣告和冗余內(nèi)容等,以提高數(shù)據(jù)質(zhì)量,同時(shí)進(jìn)行聚類和標(biāo)簽、文本分類等。早期這一工作同樣需要編碼實(shí)現(xiàn),是使用ChatGPT之前的準(zhǔn)備工作。ChatGPT新增Code Interpreter功能之后,這一工作變得相對(duì)簡(jiǎn)單,由ChatGPT Interpreter通過(guò)自然語(yǔ)言人機(jī)交互完成, 并能給出相應(yīng)的糾正建議。ChatGPT在這個(gè)過(guò)程中主要發(fā)揮自然語(yǔ)言理解和生成能力。
Code Interpreter使用了Python的一個(gè)非常流行的NLP的庫(kù)NLTK(自然語(yǔ)言工具包),可以用來(lái)執(zhí)行廣泛的NLP任務(wù),如標(biāo)記化、部分語(yǔ)音標(biāo)記、命名實(shí)體識(shí)別、脫敏處理、情感分析和文本分類等。利用NLTK,沒(méi)有豐富數(shù)據(jù)分析經(jīng)驗(yàn)的人也可以有效地處理和分析文本數(shù)據(jù)。
2.3" 數(shù)據(jù)感知
ChatGPT的探索性數(shù)據(jù)分析(Exploratory Data Analysis,EDA)能力,包含數(shù)據(jù)摘要、單變量分析和多變量分析3部分[11]。數(shù)據(jù)摘要采用中心趨勢(shì)度量、離中趨勢(shì)度量或分布形態(tài)度量等描述性統(tǒng)計(jì)量,幫助了解數(shù)據(jù)的整體特征和分布情況,并用圖表展現(xiàn),便于直觀地理解數(shù)據(jù)的基本屬性和規(guī)律。單變量分析通過(guò)數(shù)據(jù)類型、數(shù)據(jù)分布等信息對(duì)單一變量(數(shù)據(jù)字段)進(jìn)行統(tǒng)計(jì)描述和可視化展現(xiàn),從一個(gè)維度探究單個(gè)變量的差異性和分布特征,為多變量分析創(chuàng)造條件。多變量分析通過(guò)研究2個(gè)或多個(gè)變量之間的相互關(guān)系和作用,確定各變量之間的關(guān)系強(qiáng)弱,進(jìn)而展現(xiàn)不同因素之間的相互作用,輔助選擇不同的預(yù)測(cè)模型,提高研究的準(zhǔn)確性。因此,通過(guò)EDA能提高數(shù)據(jù)預(yù)處理后的可信度和準(zhǔn)確度,使數(shù)據(jù)具有更深入、豐富的信息價(jià)值,更能發(fā)現(xiàn)先前未被發(fā)現(xiàn)的信息,為下一階段的數(shù)據(jù)挖掘和分析提供依據(jù)和契機(jī)。
2.4" 數(shù)據(jù)挖掘和分析
傳統(tǒng)的數(shù)據(jù)挖掘是從包含大量數(shù)據(jù)的學(xué)習(xí)集(或訓(xùn)練集)中找出知識(shí)規(guī)則完成建模,并需要從持續(xù)新增的數(shù)據(jù)集中不斷學(xué)習(xí)并優(yōu)化模型,非常耗費(fèi)時(shí)間和精力。Code Interpreter利用計(jì)算機(jī)自動(dòng)學(xué)習(xí)模式和Python豐富的機(jī)器學(xué)習(xí)庫(kù)建模,比如Scikit-learn,還提供多種類似模型供選擇借鑒,包括內(nèi)容推薦、類型預(yù)測(cè)、情緒分析和趨勢(shì)預(yù)測(cè)等,方便快捷。ChatGPT也允許使用Google Colab、Jupyter Notebook、Databricks等平臺(tái),訓(xùn)練、評(píng)估和部署自定義的ChatGPT模型,不斷豐富模型庫(kù)。用好AI機(jī)器學(xué)習(xí)模型庫(kù)能提高建模的效率和準(zhǔn)確度。
大數(shù)據(jù)分析主要是使用機(jī)器學(xué)習(xí)和統(tǒng)計(jì)分析等技術(shù)和算法,從大規(guī)模的數(shù)據(jù)集中發(fā)現(xiàn)模式、趨勢(shì)和見(jiàn)解,以支持業(yè)務(wù)決策和預(yù)測(cè)。ChatGPT是一種基于深度學(xué)習(xí)的生成模型,使用遞歸神經(jīng)網(wǎng)絡(luò)和自注意力機(jī)制,通過(guò)訓(xùn)練模型來(lái)生成與用戶進(jìn)行對(duì)話的自然語(yǔ)言回應(yīng),能夠模擬人類對(duì)話。所以,使用與ChatGPT對(duì)話來(lái)進(jìn)行專業(yè)的數(shù)據(jù)分析,更具有智能性,結(jié)果更準(zhǔn)確。
2.5 統(tǒng)計(jì)報(bào)告和可視化展現(xiàn)
傳統(tǒng)情況下,數(shù)據(jù)分析結(jié)果是通過(guò)編程方式生成統(tǒng)計(jì)報(bào)告,并以二維或者三維圖形的形式展現(xiàn)出來(lái),因此需要數(shù)據(jù)分析人員具有較強(qiáng)的編程能力,而且工作量比較大。AI文生圖工具Dall-E的出現(xiàn),為從文本數(shù)據(jù)轉(zhuǎn)化為可視化圖形提供了強(qiáng)有力的工具。Dall-E是一種基于深度學(xué)習(xí)的強(qiáng)大計(jì)算機(jī)視覺(jué)模型,能夠?qū)⒍陶Z(yǔ)或描述的要求轉(zhuǎn)換為圖片。使用Dall-E生成統(tǒng)計(jì)報(bào)告和可視化,可以讓人使用自然語(yǔ)言編寫(xiě)圖片,通過(guò)交互式對(duì)話不斷調(diào)整模型精度來(lái)提高圖片質(zhì)量,并能在短時(shí)間內(nèi)生成復(fù)雜圖形。這種原生集成模型讓用戶無(wú)須在編程上花費(fèi)過(guò)多時(shí)間和精力,同時(shí)也使得圖形更能夠精確反映用戶的想法和需求。ChatGPT的Python庫(kù)有數(shù)據(jù)可視化庫(kù)(Matplotlib、Plotly等),可以用于對(duì)數(shù)據(jù)進(jìn)一步可視化,提供更為個(gè)性化的服務(wù)。
OpenAI Point-E主要用于從文本生成三維圖形,而且通常只需要一個(gè)GPU和1~2 min,而現(xiàn)有系統(tǒng)如 Google 的DreamFusion通常需要數(shù)個(gè)小時(shí)和多個(gè)GPU來(lái)生成三維圖形。Point-E是基于大量文本、圖像對(duì)語(yǔ)料庫(kù),遵循多樣化和復(fù)雜提示的方式從文本創(chuàng)建三維圖形模型的。在生成3D統(tǒng)計(jì)報(bào)告和可視化展現(xiàn)時(shí),選用Point-E是很好的選擇。
3" 結(jié)束語(yǔ)
AI最強(qiáng)的優(yōu)勢(shì)是數(shù)據(jù)分析能力,AI和大數(shù)據(jù)技術(shù)的結(jié)合可以讓數(shù)據(jù)更好地為人類服務(wù),提高數(shù)據(jù)的價(jià)值和效益。然而,由于AI技術(shù)剛剛興起,仍然存在一些局限性和不足。如果ChatGPT缺乏實(shí)時(shí)知識(shí),可能不了解項(xiàng)目,從而影響判斷的準(zhǔn)確性;由于模型本身的隨機(jī)性,每次的分析方法可能存有差異,可能會(huì)造成分析結(jié)果不穩(wěn)定;缺乏一些中文的支持,在數(shù)據(jù)分析過(guò)程中,如果使用中文顯示可能會(huì)不正常。另外,機(jī)器學(xué)習(xí)能力不足,如果涉及復(fù)雜的機(jī)器學(xué)習(xí)建模,可能就不能勝任。因此,AI并不是靈丹妙藥,未來(lái)還有很長(zhǎng)的研發(fā)之路要走。
參考文獻(xiàn):
[1] 姚小濤,亓?xí)?,劉琳琳,?企業(yè)數(shù)字化轉(zhuǎn)型:再認(rèn)識(shí)與再出發(fā)[J].西安交通大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2022,42(3):1-9.
[2] 陳云龍,翟曉磊.教育數(shù)字化轉(zhuǎn)型的構(gòu)想與策略[J].中國(guó)電化教育,2022(12):101-106.
[3] 夏潤(rùn)澤,李丕績(jī).ChatGPT大模型技術(shù)發(fā)展與應(yīng)用[J].數(shù)據(jù)采集與處理,2023,38(5):1017-1034.
[4] M.CORCHADO J,WEIGANG L,BAJO J, et al.Editorial: Special issue on distributed computing and artificial intelligence[J].Frontiers of Information Technology amp; Electronic Engineering,2016,17(4):281-282.
[5] ZHANG F. Desensitization method of meteorological data based on differential privacy protection[J].Journal of cleaner production,2023:389.
[6] 梁文娟,陳紅,吳云乘,等.持續(xù)監(jiān)控下差分隱私保護(hù)[J].軟件學(xué)報(bào),2020,31(6):1761-1785.
[7] LIU Y Q.Design of Graphic Design Assistant System Based on Artificial Intelligence[J].International journal of information technologies and systems approach,2023,16(3).
[8] 林典馳.訪國(guó)際歐亞科學(xué)院院士李世鵬:深圳“勇闖”低空經(jīng)濟(jì)無(wú)人區(qū),為何“可計(jì)算空域”如此重要?[EB/OL].[2023-04-24]https://www.163.com/dy/article/I332RJC705199NPP.html.
[9] 李璐明,蔣新華,廖律超.基于彈性分布數(shù)據(jù)集的海量空間數(shù)據(jù)密度聚類[J].湖南大學(xué)學(xué)報(bào):自然科學(xué)版,2015,42(8):116-124.
[10] XINTONG L,P. M M,WOLFGANG W.Conditional Direction of Dependence Modeling:Application and Implementation in SPSS[J].Social Science Computer Review,2023,41(4):1252-1275.
[11] FABIANA C,MARTINS G R,ALEXANDRE Q, et al.Ydata-profiling:Accelerating data-centric AI with high-quality data[J].Neurocomputing,2023,554.