摘要:在人工智能技術(shù)不斷革新的過程中,ChatGPT以其在創(chuàng)造性任務(wù)上的表現(xiàn)引起了廣泛關(guān)注。本文闡述了ChatGPT創(chuàng)造性分析產(chǎn)生的社會影響和倫理與法律問題,并分析其產(chǎn)生原因,最后探討了ChatGPT在創(chuàng)造性任務(wù)中所面臨的挑戰(zhàn),并對ChatGPT在未來人工智能創(chuàng)造性發(fā)展中的潛在作用進(jìn)行展望。ChatGPT作為人工智能領(lǐng)域的一個(gè)重要進(jìn)展,其展現(xiàn)的創(chuàng)造性能力預(yù)示未來人工智能將能夠在更廣泛的領(lǐng)域與人類合作,共同推動社會的創(chuàng)新和發(fā)展。
關(guān)鍵詞:ChatGPT;人工智能;人工智能倫理
1. 人工智能的創(chuàng)造性分析
1.1 以ChatGPT為例的創(chuàng)造性分析
近年來,人工智能飛速發(fā)展,展現(xiàn)了其應(yīng)用的普遍性,但同時(shí)引發(fā)了人們關(guān)于其是否具有創(chuàng)造性以及能否獨(dú)立生成創(chuàng)造物的討論。ChatGPT是當(dāng)今極具代表性以及創(chuàng)造可能性的生成式人工智能,因此,本文以ChatGPT為例,對人工智能的創(chuàng)造性做簡要分析。
ChatGPT的生成創(chuàng)造并不是完全自發(fā)的,而是建立在大量數(shù)據(jù)分析和模式學(xué)習(xí)的基礎(chǔ)上,其展現(xiàn)出來的創(chuàng)造主要體現(xiàn)在語言模型的多樣性應(yīng)用和問題解決能力上,能夠基于海量數(shù)據(jù)訓(xùn)練,通過學(xué)習(xí)和模仿人類的語言習(xí)慣,創(chuàng)造出符合語境的文本內(nèi)容。在編程、數(shù)學(xué)問題解答等領(lǐng)域,ChatGPT通過深度學(xué)習(xí)模型應(yīng)用,展示在邏輯推理和創(chuàng)造性思維方面的能力。此外,ChatGPT在語言翻譯和跨文化交流方面展現(xiàn)出的創(chuàng)造性,也為用戶提供了極大的便利。值得注意的是,ChatGPT的“創(chuàng)意”實(shí)際上是對已有信息的重新組合和應(yīng)用,這一過程依賴于算法的優(yōu)化和數(shù)據(jù)的豐富性[1]。上述對于創(chuàng)造性的分析表明,通過縝密的算法設(shè)計(jì)和大規(guī)模的數(shù)據(jù)訓(xùn)練,人工智能技術(shù)如ChatGPT能夠在語言生成、問題解決及跨文化交流等多個(gè)領(lǐng)域展現(xiàn)出相當(dāng)強(qiáng)大的創(chuàng)新能力。然而,這種依賴于算法設(shè)計(jì)和數(shù)據(jù)支持的生成創(chuàng)造,本質(zhì)上是人類智慧的一種延伸和放大。
1.2 ChatGPT創(chuàng)造性的社會影響
ChatGPT不僅是技術(shù)領(lǐng)域的重大突破,更影響了社會的諸多方面。作為人工智能的一個(gè)代表性應(yīng)用,其引發(fā)了關(guān)于創(chuàng)造性、知識產(chǎn)權(quán)、人機(jī)交互和人類自我認(rèn)知等方面的廣泛討論。
首先,ChatGPT在提高公眾對人工智能技術(shù)認(rèn)知上起到了積極作用。通過與ChatGPT的互動,用戶可以直接體驗(yàn)到人工智能的進(jìn)步和潛力,這種體驗(yàn)直觀且深刻,有助于增強(qiáng)公眾對科技發(fā)展的興趣和支持。其次,ChatGPT對教育和學(xué)習(xí)方式產(chǎn)生了影響。學(xué)生和教育工作者開始利用這類工具輔助學(xué)習(xí)和教學(xué),從而推動了教育領(lǐng)域的創(chuàng)新。再次,ChatGPT在促進(jìn)跨文化交流方面發(fā)揮了作用。通過提供多語言支持,讓不同語言背景的人們能夠更容易地溝通和理解對方的文化,從而促進(jìn)了全球化進(jìn)程[2]。最后,人工智能引發(fā)的包括侵犯隱私、威脅公正、導(dǎo)致失業(yè)等諸多問題,已經(jīng)逐漸成為人們關(guān)注的焦點(diǎn)。如何規(guī)避與防范人工智能倫理風(fēng)險(xiǎn),也是學(xué)術(shù)界面臨的重大理論與現(xiàn)實(shí)問題。
ChatGPT對社會的影響是深遠(yuǎn)且復(fù)雜的,既帶來了技術(shù)創(chuàng)新和應(yīng)用的便利,也引發(fā)了一系列對社會、文化、倫理的討論和反思。未來,如何平衡這些利弊,從而引導(dǎo)人工智能技術(shù)的健康發(fā)展,將是社會各界需要共同努力的方向。
2. 人工智能創(chuàng)造性產(chǎn)生的倫理困境
2.1 數(shù)據(jù)安全問題
ChatGPT的技術(shù)架構(gòu)決定了其迭代升級的過程必須不斷擴(kuò)容各類新數(shù)據(jù),因此,ChatGPT會最大限度收集各類數(shù)據(jù),以不斷提升其使用性能。以數(shù)據(jù)來源為參照,ChatGPT使用的數(shù)據(jù)既可能是公司購買的第三方平臺數(shù)據(jù),還可能是ChatGPT自行采集、獲取的數(shù)據(jù),這兩種數(shù)據(jù)來源路徑都可能存在數(shù)據(jù)安全隱患。
2.2 責(zé)任歸屬問題
當(dāng)AI系統(tǒng)如ChatGPT在創(chuàng)作文本、藝術(shù)作品或作出決策時(shí),其結(jié)果可能會對現(xiàn)實(shí)世界產(chǎn)生深遠(yuǎn)影響。因此,當(dāng)由AI產(chǎn)生的作品或決策導(dǎo)致法律或道德爭議時(shí),責(zé)任應(yīng)當(dāng)如何歸屬,成為另一個(gè)亟待解決的問題。
一方面,對于AI生成的內(nèi)容,如文本、音樂或圖像,如果這些內(nèi)容侵犯了版權(quán)、傳播了錯(cuò)誤信息或是具有攻擊性,傳統(tǒng)的責(zé)任歸屬模式可能不再適用。在這種情況下,不僅開發(fā)AI的公司需要承擔(dān)一定的責(zé)任,使用這些AI工具的個(gè)人或?qū)嶓w也可能需要承擔(dān)相應(yīng)的責(zé)任。
另一方面,AI在作出具有重大社會影響的決策時(shí),如自動駕駛車輛的安全事故、金融交易中的錯(cuò)誤決策等,責(zé)任歸屬的問題變得尤為復(fù)雜。這些情形不僅涉及技術(shù)故障的責(zé)任,還牽扯對AI決策邏輯的評估,以及對AI訓(xùn)練過程中可能存在的偏見和錯(cuò)誤的責(zé)任追究。解決責(zé)任歸屬問題的關(guān)鍵在于建立一套全新的法律框架和道德準(zhǔn)則,這需要對AI技術(shù)的特性有深入的理解[3]。
2.3 公平性和偏見問題
人工智能技術(shù)的迅速發(fā)展為社會帶來了前所未有的變革,其中創(chuàng)造性的人工智能系統(tǒng)如ChatGPT推動了技術(shù)與人類交互方式的深度融合。在這一進(jìn)程中,公平性和偏見問題逐漸成為無法忽視的倫理風(fēng)險(xiǎn)。人工智能的偏見通常源于訓(xùn)練數(shù)據(jù)。如果輸入的數(shù)據(jù)存在偏見,那么輸出結(jié)果同樣會反映這種數(shù)據(jù)中存在的社會和文化偏見。這些偏見可以以多種方式影響語言模型,如延續(xù)刻板印象,造成誤解,或傳播有害和虛假的信息。人工智能系統(tǒng)在處理包含性別、種族或其他社會敏感信息時(shí),可能會復(fù)制甚至放大現(xiàn)有的社會偏見。例如,在招聘、貸款審批等領(lǐng)域,基于錯(cuò)誤或偏見性數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng)可能會不公平地對待某些群體,導(dǎo)致出現(xiàn)歧視現(xiàn)象。解決人工智能系統(tǒng)中的公平性和偏見問題,是一個(gè)復(fù)雜但至關(guān)重要的任務(wù)。
3. 人工智能創(chuàng)造性產(chǎn)生的倫理困境的原因剖析
3.1 算法決策的不透明性
現(xiàn)代人工智能基于深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的算法,通常被視為“黑箱”,即其內(nèi)部操作和決策過程難以理解和解釋。這種不透明性帶來了一系列復(fù)雜的倫理和法律挑戰(zhàn)。
首先,算法的不透明性使得責(zé)任歸屬變得困難。ChatGPT是一種基于大量用戶數(shù)據(jù)訓(xùn)練的人工智能模型,其決策是通過大量的數(shù)據(jù)訓(xùn)練和復(fù)雜的數(shù)學(xué)模型計(jì)算得出,這些過程通常缺乏解釋性。這意味著,當(dāng)人工智能系統(tǒng)作出錯(cuò)誤或有害的決定時(shí),難以確定責(zé)任主體。
其次,不透明的算法決策可能導(dǎo)致歧視和偏見。如ChatGPT在算法設(shè)計(jì)與調(diào)整時(shí),可能存在一定的偏見。由于算法設(shè)計(jì)人員本身的偏見或盲區(qū),或收集的語料本身存在的如種族、地區(qū)等偏見,ChatGPT的輸出也會受到影響[4]。若算法不透明,我們無法判斷其作出決策的依據(jù),也無法得知其中是否存在隱含偏見。
最后,這一特性會影響公共信任。當(dāng)公眾對人工智能系統(tǒng)的決策過程缺乏了解和信任時(shí),可能會對這些系統(tǒng)產(chǎn)生懷疑和抵觸情緒,進(jìn)而影響其廣泛應(yīng)用。尤其是在涉及個(gè)人隱私和公共安全的領(lǐng)域,如醫(yī)療診斷和刑事司法,公眾對人工智能系統(tǒng)的信任尤為重要。
3.2 技術(shù)法規(guī)的滯后
人工智能技術(shù)的快速發(fā)展,使新的應(yīng)用和技術(shù)不斷涌現(xiàn),這些技術(shù)往往能夠在短時(shí)間內(nèi)對社會和經(jīng)濟(jì)產(chǎn)生深遠(yuǎn)影響。然而,法規(guī)的制定和實(shí)施過程相對緩慢,通常需要經(jīng)過多次審議、討論和修訂,才能最終形成具有法律效力的條文。因此,法律法規(guī)總滯后于新的技術(shù)進(jìn)展。近年來,自動駕駛技術(shù)取得了顯著突破,各大科技公司和汽車制造商競相研發(fā)和測試自動駕駛系統(tǒng)。然而,關(guān)于自動駕駛汽車的法律法規(guī)卻未完善。自動駕駛汽車涉及交通安全、責(zé)任認(rèn)定、數(shù)據(jù)隱私等諸多法律問題,但現(xiàn)行的交通法規(guī)并未針對這些新興問題進(jìn)行充分的規(guī)定,使自動駕駛汽車在實(shí)際應(yīng)用中面臨諸多法律障礙,無法在法律保障下良性發(fā)展[5]。
3.3 社會觀念與道德標(biāo)準(zhǔn)的沖突
人工智能在某些情況下可能會違反現(xiàn)有的社會道德標(biāo)準(zhǔn)。例如,隨著ChatGPT的智能學(xué)習(xí)和優(yōu)化,其能否真正理解和遵循道德規(guī)范成為一個(gè)關(guān)鍵問題。在自動駕駛技術(shù)中,ChatGPT需要具備判斷和決策的能力,以應(yīng)對不同的道路情況和緊急情況。然而,如何確保ChatGPT的決策符合道德標(biāo)準(zhǔn),遵守交通法規(guī)和倫理原則,仍然是一個(gè)挑戰(zhàn)。
此外,人工智能的應(yīng)用可能會加劇社會不平等。ChatGPT作為一個(gè)智能語言模型,需要大量的數(shù)據(jù)進(jìn)行學(xué)習(xí)和訓(xùn)練,而這些數(shù)據(jù)通常來自特定的社會群體。如果在人工智能系統(tǒng)的設(shè)計(jì)和訓(xùn)練過程中忽視了社會多樣性,那么其決策結(jié)果可能會不公平地對待某些群體。例如,在招聘過程中,如果人工智能系統(tǒng)基于歷史數(shù)據(jù)進(jìn)行篩選,可能會無意中強(qiáng)化性別、種族等方面的偏見,從而導(dǎo)致不公平的結(jié)果。
4. 策略建議
4.1 技術(shù)發(fā)展趨勢預(yù)測
未來,人工智能技術(shù)的發(fā)展趨勢呈現(xiàn)出幾個(gè)重要的方向。首先,強(qiáng)化學(xué)習(xí)將繼續(xù)成為人工智能領(lǐng)域的熱點(diǎn)之一。隨著深度學(xué)習(xí)和大數(shù)據(jù)技術(shù)的不斷發(fā)展,強(qiáng)化學(xué)習(xí)在處理復(fù)雜任務(wù)和實(shí)現(xiàn)自主決策方面的表現(xiàn)將得到進(jìn)一步提升。其次,遷移學(xué)習(xí)和元學(xué)習(xí)等技術(shù)也將成為人工智能研究的重要方向,通過將已有知識遷移到新任務(wù)中,可以更快地實(shí)現(xiàn)新任務(wù)的學(xué)習(xí)和適應(yīng)[6]。最后,人機(jī)協(xié)同智能系統(tǒng)將成為未來人工智能應(yīng)用的重要趨勢。這種系統(tǒng)將結(jié)合人類的智慧和創(chuàng)造力,與人類共同完成復(fù)雜的任務(wù),從而在更廣泛的領(lǐng)域?qū)崿F(xiàn)人工智能的應(yīng)用和發(fā)展。
4.2 政策制定的建議
2017年7月8日《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》[7]和2021年9月25日《新一代人工智能倫理規(guī)范》[8]等文件均是我國人工智能發(fā)展規(guī)劃的基石,為我國積極應(yīng)對新興技術(shù)帶來的挑戰(zhàn)和機(jī)遇提供了政策指導(dǎo)。未來,可以從以下幾個(gè)方面著手制定政策。
首先,加強(qiáng)對人工智能領(lǐng)域的研究和監(jiān)管,確保技術(shù)發(fā)展在符合社會倫理和法律框架的基礎(chǔ)上進(jìn)行。政府應(yīng)當(dāng)投入資源成立專門機(jī)構(gòu),負(fù)責(zé)人工智能的發(fā)展監(jiān)測、倫理審查和風(fēng)險(xiǎn)評估,以便及時(shí)發(fā)現(xiàn)并解決可能出現(xiàn)的問題。其次,制定明確的人工智能技術(shù)標(biāo)準(zhǔn)和規(guī)范,這些標(biāo)準(zhǔn)和規(guī)范應(yīng)當(dāng)涵蓋數(shù)據(jù)的采集、處理、存儲和使用等各個(gè)環(huán)節(jié),確保人工智能應(yīng)用的透明度和安全性。同時(shí),這些標(biāo)準(zhǔn)也應(yīng)當(dāng)鼓勵開放創(chuàng)新,促進(jìn)技術(shù)的合理競爭和發(fā)展。最后,鼓勵跨部門合作,形成政府、企業(yè)、學(xué)術(shù)機(jī)構(gòu)和非營利組織等多方參與的合作模式。通過搭建平臺促進(jìn)信息共享,共同探討人工智能技術(shù)的應(yīng)用和監(jiān)管。
4.3 教育與人才培養(yǎng)策略
在當(dāng)今人工智能迅猛發(fā)展的背景下,教育體系與人才培養(yǎng)策略面臨前所未有的挑戰(zhàn)和機(jī)遇。針對這一現(xiàn)狀,本文提出一系列策略,旨在培養(yǎng)未來符合時(shí)代需求的人才。
首先,教育內(nèi)容和課程設(shè)置須與時(shí)俱進(jìn),加強(qiáng)對人工智能基礎(chǔ)知識、技術(shù)應(yīng)用、倫理法規(guī)等方面的教學(xué)。例如,通過編程實(shí)踐,讓學(xué)生掌握如ChatGPT等人工智能工具的開發(fā)和應(yīng)用,增強(qiáng)解決實(shí)際問題的能力。其次,跨學(xué)科人才培養(yǎng)模式成為必然趨勢。未來的人才不僅要掌握深厚的專業(yè)技能,更要具備跨學(xué)科整合能力,能在人工智能與其他領(lǐng)域之間建立聯(lián)系。因此,建議高校設(shè)置人工智能與心理學(xué)、人工智能與社會學(xué)等交叉課程,促進(jìn)學(xué)生全面發(fā)展。再次,加強(qiáng)實(shí)踐和創(chuàng)新能力的培養(yǎng)。高校可以與企業(yè)、研究機(jī)構(gòu)等建立合作,為學(xué)生提供實(shí)習(xí)、實(shí)訓(xùn)機(jī)會。同時(shí),鼓勵學(xué)生參與人工智能相關(guān)的創(chuàng)新項(xiàng)目和競賽,激發(fā)其創(chuàng)造性思維和解決問題的能力。最后,強(qiáng)化倫理教育和社會責(zé)任感培養(yǎng)對于人工智能時(shí)代的人才尤為重要。隨著人工智能技術(shù)的廣泛應(yīng)用,倫理問題日益凸顯。教育機(jī)構(gòu)應(yīng)將人工智能倫理納入教學(xué)大綱,引導(dǎo)學(xué)生深入討論人工智能技術(shù)的社會影響、隱私保護(hù)、數(shù)據(jù)安全等問題,培養(yǎng)學(xué)生的責(zé)任感和道德判斷力。
4.4 行業(yè)應(yīng)用的潛在機(jī)會
在探討行業(yè)應(yīng)用的潛在機(jī)會時(shí),ChatGPT的出現(xiàn)和發(fā)展為不同行業(yè)帶來了顛覆性的變革。具體來看,一些行業(yè)應(yīng)用的機(jī)會包括:其一,在教育領(lǐng)域,人工智能的創(chuàng)造性應(yīng)用提供了個(gè)性化學(xué)習(xí)的可能,可以根據(jù)學(xué)生的學(xué)習(xí)進(jìn)度和理解能力,調(diào)整教學(xué)內(nèi)容和難度。ChatGPT類工具可以作為輔助教學(xué)工具,幫助學(xué)生在家自學(xué),提供即時(shí)的問題解答和解釋,從而優(yōu)化學(xué)習(xí)體驗(yàn)。其二,在創(chuàng)意產(chǎn)業(yè)中,如文學(xué)、藝術(shù)和音樂,人工智能可以作為藝術(shù)家的助手,提供創(chuàng)意靈感和新的創(chuàng)作手段。例如,音樂家可以利用人工智能生成新的音樂元素或編曲,作家可以通過人工智能輔助完成劇本創(chuàng)作,而設(shè)計(jì)師可以利用人工智能來生成新的設(shè)計(jì)方案或者模擬設(shè)計(jì)效果。其三,在法律領(lǐng)域,人工智能可以幫助律師進(jìn)行法律文獻(xiàn)的搜索和案件研究,甚至預(yù)測案件的可能結(jié)果,從而提高工作效率和案件處理能力。
綜上所述,人工智能技術(shù)在各行業(yè)中展現(xiàn)出巨大的應(yīng)用潛力,有望推動這些行業(yè)向更加智能化、高效和個(gè)性化的方向發(fā)展。隨著人工智能的快速發(fā)展,其在不同行業(yè)中的應(yīng)用機(jī)會將更加廣泛,社會也將迎來更多變革。
結(jié)語
目前,國內(nèi)外相關(guān)學(xué)者及相關(guān)行業(yè)的一個(gè)基本共識是“人工智能將會在未來幾十年對人類社會產(chǎn)生巨大影響,帶來不可逆轉(zhuǎn)的改變”,而“人工智能倫理將是未來智能社會的發(fā)展基石”。這一智能體對人類日常生活的影響是全面而深刻的,其將塑造新的交往方式、教育方式、出行方式、政治經(jīng)濟(jì)行為等各個(gè)方面。
以ChatGPT為代表的人工智能在創(chuàng)造性方面具有巨大的潛力和價(jià)值,但也面臨不少挑戰(zhàn)。通過不斷的技術(shù)創(chuàng)新和政策引導(dǎo),有望在保障倫理和法律問題得到妥善處理的同時(shí),最大限度地發(fā)揮人工智能的創(chuàng)造性,為社會帶來更多的積極影響。
參考文獻(xiàn):
[1]景麗萍,劉健.ChatGPT:人工智能時(shí)代的雙刃劍[J].前線,2023(6):46-48.
[2]王寧,林卓然,陳思帆,等.ChatGPT對社會主要行業(yè)的影響:優(yōu)勢、挑戰(zhàn)與風(fēng)險(xiǎn)[J].情報(bào)探索,2024(5):43-50.
[3]陳元,黃秋生.ChatGPT技術(shù)中的人工智能倫理風(fēng)險(xiǎn)及其科學(xué)祛魅[J].湖南科技大學(xué)學(xué)報(bào)(社會科學(xué)版),2023,26(3):135-142.
[4]董浩.生成式人工智能時(shí)代人機(jī)對話的傳播倫理風(fēng)險(xiǎn)及其應(yīng)對[J].閱江學(xué)刊,2024,16(1):104-114,174.
[5]姜濤,葉思雨.生成式人工智能浪潮下的學(xué)術(shù)生態(tài):機(jī)遇、挑戰(zhàn)及應(yīng)對[J].河北科技大學(xué)學(xué)報(bào)(社會科學(xué)版),2024,24(2):85-92.
[6]陳銳,江奕輝.生成式AI的治理研究:以ChatGPT為例[J].科學(xué)學(xué)研究,2024,42(1):21-30.
[7]國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知(國發(fā)〔2017〕35號)[A/OL].(2017-07-20)[2024-06-20].https://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[8]國家新一代人工智能治理專業(yè)委員會.《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL].(2021-09-26)[2024-06-20].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
作者簡介:張曉宇,碩士研究生,研究方向:科學(xué)技術(shù)哲學(xué)。