肖雨
摘要:在當(dāng)今社會中,人工智能系統(tǒng)已經(jīng)是十分普遍的存在了,關(guān)于人工智能運用在法學(xué)研究上時,人多相關(guān)人士認(rèn)為這是一項不靠譜的設(shè)定。以此本文就人工智能在法學(xué)研究上出現(xiàn)的一些問題和當(dāng)前人工在智能在法學(xué)研究上出現(xiàn)的困境做了相關(guān)分析,具體如下。
關(guān)鍵詞:人工智能;法學(xué)研究;困境研究
前言:
當(dāng)人工智能帶給人們便利的同時也帶給人們一些隱患。作為一項新的研究領(lǐng)域,人工智能在法學(xué)研究上是否能幫助到人類,是否能在法學(xué)領(lǐng)域有效的利用人工智能就是當(dāng)前出現(xiàn)的最大問題。
一、提出把人工智能運用到法學(xué)研究
在當(dāng)今社會上,智能產(chǎn)品的不斷涌出,也越來越受到人們的關(guān)注,因此人工智能領(lǐng)域也在不斷的發(fā)展,一度受到了社會的廣泛關(guān)注。在這些關(guān)注中,也不乏有法學(xué)研究領(lǐng)域的人,因此這些人也是想把人工智能領(lǐng)域帶到法學(xué)研究當(dāng)中去,就把這個觀點表達了出來,這些觀點對以后研究人員都具有深遠(yuǎn)影響。就現(xiàn)有的人工智能法學(xué)研究上,已經(jīng)有了一個比較深入研究。本文筆者認(rèn)為就現(xiàn)在提出的人工智能在法學(xué)研究上的運用上,有不少的缺點,一些學(xué)者使用編造問題代替現(xiàn)實問題,這對人工智能法學(xué)的研究和發(fā)展來說都創(chuàng)造了不小的麻煩。我們可以把近些年一些學(xué)者在人工智能法學(xué)研究上的成果對比來看,不難發(fā)現(xiàn)這些問題的的確確是存在的,可能在現(xiàn)實中也發(fā)生過這些問題,但是我們從另一方面來看的話,這些研究成果在人工智能在法學(xué)上的研究也是一種消極的態(tài)度。在我國的人工智能法學(xué)領(lǐng)域中,一些學(xué)術(shù)成果的確有一些虛假熱度,這只是一小部分人的學(xué)術(shù)秀而已,我們不能將所有的學(xué)術(shù)研究成果因為這些人的學(xué)術(shù)秀就對整個行業(yè)進行一個否認(rèn)。
二、因人工智能法學(xué)引發(fā)的法律問題
1、隱私問題
在當(dāng)今大數(shù)據(jù)橫行的時代。對于人工智能領(lǐng)域來說,隱私問題更是尤為明顯,人工智能雖然帶給了我們很多的便利,但是也帶給我們很多隱私隱患。有學(xué)者提出可以利用“實際實現(xiàn)透明”的方案來進行操作,但是這種方案對于用戶來說也是帶給了他們更大的風(fēng)險,這種方案想要實現(xiàn)的話,也是比較困難的,因為這種方案的實施要建立在大數(shù)據(jù)的基礎(chǔ)上,來進行公平處理的原則。
2、對于人工智能的權(quán)限問題
人工智能其中有一個最核心的問題,就是人工智能是否會有自我意識,人工智能一旦有自己的意識的話,就不能作為機器來使用。在國外的一些學(xué)者認(rèn)為,在人工智能領(lǐng)域不斷發(fā)展的趨勢下,人工智能慢慢一定會擁有自己的意識,但是我們不能從把人工智能全面否定,對于人類來講,在某種意義上也是一種人工智能的機器??赡茉谖磥淼娜斯ゎI(lǐng)域上,人工智能會擁有自己的意識,但是隨著社會體系的不斷健全,相關(guān)的法律法規(guī)也會不斷的完善,因此我們就目前階段來說還不需要考慮這些問題。
3、人工智能的監(jiān)管和責(zé)任問題
人工智能的責(zé)任問題上,外國有學(xué)者提出過,對于人工智能的歸屬和責(zé)任問題必須有著明確的劃分,這其實是一個比較現(xiàn)實的話題,一旦人工智能真的在人類社會上造成一些不可挽回的傷害時,我們應(yīng)該追求其開發(fā)者。人工智能的研究必須是在現(xiàn)在的社會體系和規(guī)則下進行研究和開發(fā)的,只有把人工智能建立在我們的規(guī)則下才能保證使用者在人身安全有保證。,就現(xiàn)有的法律而言,人工智能設(shè)備的歸屬權(quán)是屬于購買者的個人財產(chǎn),因此一旦人工智能設(shè)備在實際的生產(chǎn)生活中對人類造成損傷時應(yīng)及時向其財產(chǎn)發(fā)責(zé)任人進行追責(zé)。
4、人工智能在倫理上的問題探討
隨著人工智能的不斷發(fā)展,我們不難發(fā)現(xiàn)其在法律上還沒有明文規(guī)定,這就造成了新的法律問題。人工智能在倫理上的問題更是一片空白,這不單單關(guān)系到人工智能的發(fā)展,也關(guān)系到整個人類社會的發(fā)展。但是筆者認(rèn)為這些問題都是一些循序漸進的問題,是隨著人工智能的發(fā)展慢慢解決的,法律也是隨著社會的發(fā)展不斷進行完善的。
三、現(xiàn)在人工智能咋法學(xué)研究下的難題
1、研究者之間缺少有效性溝通
因為現(xiàn)在人工智能問題是才興起的,所以我們沒有相關(guān)的歷史和可參考的文件。當(dāng)這些問題出現(xiàn)在我們研究人員的面前時,就會引發(fā)比較大的爭議。現(xiàn)在一大部分學(xué)者認(rèn)為人工智能不應(yīng)當(dāng)有著作權(quán),因為就現(xiàn)在的人工智能領(lǐng)域來說,還不足為其專門設(shè)立一個著作權(quán),但是也有一小部分學(xué)者認(rèn)為應(yīng)當(dāng)有自己的著作權(quán),在這一觀點上,學(xué)者們持有的觀點都不盡相同。
人工智能領(lǐng)域的問題雜亂無章,缺乏整合。在傳統(tǒng)的法學(xué)問題研究中,都是在具體事務(wù)上進行談?wù)?,但是在人工智能領(lǐng)域上,由于這是一個完全沒有先例的領(lǐng)域上,大體的方向上,沒有人能站出來將這些問題進行整合,沒有基本的理論基礎(chǔ)來進行問題的研究,究其根本就是所有問題都沒有進行有效的整合,雜亂無章。因此就人工智能法學(xué)研究上,需要這樣的人才進行資源和問題的整個,讓所有的研究人員有一個共同的研究方向和理論基礎(chǔ)。只有這樣我們才能慢慢從現(xiàn)在的困境中走出來,去不斷完善人工智能法學(xué)研究。
在我們將這些現(xiàn)有問題進行整合分類之后,我們還應(yīng)關(guān)注我們與其他研究人員之間的溝通問題,一旦缺少了溝通,我們在后續(xù)進行研究時可能還會出現(xiàn)之前出現(xiàn)過的問題,那么這時候溝通就顯得尤其重要,其實我們可以適當(dāng)進行一些線下的溝通來交流彼此之間的觀點,在將大家在研究過程中出現(xiàn)的問題進行階段性的整合和分類,這才能保證我們在研究人工智能在法學(xué)研究上前進的道路暢通無阻。
結(jié)束語:
綜上所述,人工智能領(lǐng)域的法學(xué)研究是現(xiàn)階段的困境,這其中有很多問題是不單單存在于人工智能技術(shù)本身和相關(guān)研究人員的觀點上,更多的是存在于這些研究人員自身的看待法律的方向。在現(xiàn)階段我們想要走出這種困境,相關(guān)的研究人員就必須學(xué)會整理自己的研究方向和研究思路,必須想清楚自己是在目前的人工智能方向進行研究還是面對未來的人工智能領(lǐng)域進行研究,只有這樣我們才能慢慢的走出當(dāng)前的困境。
參考文獻:
[1]劉艷紅.人工智能法學(xué)研究的反智化批判[J].東方法學(xué),2019,( 5) .
[2]左衛(wèi)民.熱與冷:中國法律人工智能的再思考[J].環(huán)球法律評論,2019,( 2) .
[3]劉強,彭南勇.人工智能作品著作權(quán)問題研究[J].南京理工大學(xué)學(xué)報(社會科學(xué)版),2018,(2).