[韓 ]尹玟燮 著
栗鵬飛 王 淼 譯
2016年3月,在與李世石九段的5局對弈中,谷歌(Google)制造的人工智能“阿爾法狗”以4比1獲勝,令全世界矚目。在李世石和“阿爾法狗”的圍棋對弈之后,韓國對人工智能的興趣日益高漲,最近結(jié)合第4次工業(yè)革命的熱點(diǎn),全產(chǎn)業(yè)領(lǐng)域利用人工智能技術(shù)的事例正在增加。人工智能主要被用于經(jīng)營策略樹立、金融資產(chǎn)運(yùn)營、客戶答疑、撰寫文章和音樂創(chuàng)作等多種目的。在韓國金融領(lǐng)域中因使用人工智能的“機(jī)器人顧問”而聞名①機(jī)器人投顧(RoboAdvisor)作為機(jī)器人(Robot)和顧問(Adviser)的合成詞,指的是通過事先程序性的規(guī)則(主要以價(jià)格數(shù)據(jù)等為對象,借助大數(shù)據(jù)分析、最佳投資戰(zhàn)略)可以進(jìn)行投資決定和財(cái)產(chǎn)配定的程序性行為,抑或者指的是該程序本身。,最近在互聯(lián)網(wǎng)門戶網(wǎng)站Naver上的報(bào)道排列據(jù)稱也運(yùn)用了人工智能。在“11號街”等網(wǎng)上購物中心,為了接待顧客及推薦商品,也正在使用人工智能。據(jù)推測,像這樣使用人工智能的事例并不是僅限于金融領(lǐng)域,而是在各個(gè)領(lǐng)域都存在。
在韓國,對人工智能的看法既存在肯定的方面,也有否定的方面。使用人工智能的情況下,交易成本降低、產(chǎn)量縮減、與市場環(huán)境相適應(yīng)的最佳價(jià)格設(shè)定等工作效率的提高是肯定的層面;就業(yè)崗位減少、個(gè)人信息侵害等類似的副作用是否定的層面。但是仔細(xì)審視報(bào)道內(nèi)容,比起否定性的報(bào)道,肯定性的報(bào)導(dǎo)形成了主流。韓國目前關(guān)于人工智能的規(guī)制體系和內(nèi)容并不明確,還處于熱議的初始階段。但是,隨著民間領(lǐng)域使用人工智能事例的不斷出現(xiàn),對人工智能相關(guān)的規(guī)則和內(nèi)容的動(dòng)向加以分析研究就很有必要。
為了促進(jìn)智能機(jī)器人的開發(fā)和相關(guān)產(chǎn)業(yè)的發(fā)展,《智能機(jī)器人開發(fā)和普及促進(jìn)法》(以下簡稱“《智能機(jī)器人法》”)于2008年制定。該法對“智能機(jī)器人”定義為“自行識別外部環(huán)境并判斷情況,進(jìn)而自主操作的機(jī)械裝置”,根據(jù)這一定義,僅以軟件形式存在的人工智能很難被囊括其中。于是,2018年6月12日通過修正案以包含軟件在內(nèi)的形式變更了定義(表1)。因此,除了單純的電算裝置外,與之相連的人工智能也包含在智能機(jī)器人中。
表1 “智能機(jī)器人”的定義修訂
表2 《智能機(jī)器人法》主要內(nèi)容
《智能機(jī)器人法》共由8章49個(gè)條文構(gòu)成,根據(jù)該法規(guī)定,要針對智能機(jī)器人制定倫理憲章,但迄今為止尚未制定。據(jù)悉,最近韓國科學(xué)技術(shù)信息通信部考慮到智能信息技術(shù)的復(fù)雜特性,為制定倫理憲章提出了公共性、責(zé)任性、可控性和透明度等4大原則和其指導(dǎo)下的開發(fā)者、供應(yīng)者、使用者的細(xì)部方針,而醞釀中的“第4次工業(yè)革命時(shí)代倫理方針”草案等相關(guān)程序正在進(jìn)行。
《制造物責(zé)任法》于2000年制定,旨在保護(hù)消費(fèi)者因產(chǎn)品缺陷造成的損害,并被視為是針對韓國《民法》第750條規(guī)定的一般損害賠償責(zé)任的特別法。關(guān)于人工智能是否適用《制造物責(zé)任法》的研討正在進(jìn)行中。下文中對人工智能是否能適用《制造物責(zé)任法》進(jìn)行研究。
1.人工智能的制造物屬性
要適用《制造物責(zé)任法》,首先要判斷人工智能是否屬于《制造物責(zé)任法》上的制造物?!吨圃煳镓?zé)任法》第2條第1號規(guī)定“制造物”是指制造或加工而成的動(dòng)產(chǎn)(包括其他動(dòng)產(chǎn)或部分不動(dòng)產(chǎn)的一部分)。一方面,《制造物責(zé)任法》第4條第1項(xiàng)第4號規(guī)定:“原材料和零部件的情形,是因使用該原材料或零部件的制造業(yè)者對設(shè)計(jì)或制造的相關(guān)指示而發(fā)生缺陷的事實(shí)”,確定了放入產(chǎn)品的原材料或零部件的制造業(yè)者的免責(zé)事由。換言之,制造物責(zé)任法不僅認(rèn)定了產(chǎn)品的制造業(yè)者的制造物責(zé)任,而且也認(rèn)定了對原材料或零部件制造業(yè)者的制造物責(zé)任。①要求制造物的部件制造者承擔(dān)制造物責(zé)任的立法例有:《美國不法行為法》第3次法律重述第5條,《法國缺陷制造物責(zé)任法》第1389條之8,《德國制造物責(zé)任法》第4條第1項(xiàng),《歐共體立法指南》第3條第1項(xiàng),《日本制造物責(zé)任法》第4條第2號等。參見李相洙:《關(guān)于嵌入軟件缺陷與適用制造物責(zé)任的考察》,《法學(xué)論文集》第39輯第2號,中央大學(xué)法學(xué)研究院(2015),第93頁。因此,如果人工智能可以被視為一種制造物,受害者就可以選擇向人工智能的制造商或運(yùn)營商要求損害賠償。討論人工智能算法的制造物屬性的意義在于,如果人工智能算法的制造物屬性得到認(rèn)可,那么對受害者的救濟(jì)有相當(dāng)大的幫助。
對于人工智能是否可以被視為《制造物責(zé)任法》上的制造物,肯定與否定的見解并存。首先,從認(rèn)可人工智能的制造物屬性的觀點(diǎn)來看,根據(jù)人工智能提供服務(wù)的方式存在些許差異。人工智能向消費(fèi)者提供服務(wù)的方式大致可分為兩種,一種是采用軟件與硬件相結(jié)合的形態(tài)提供服務(wù)的方式,另一種是僅憑人工智能提供服務(wù)的方式。近來流行的智能音箱就是前一種方式,機(jī)器人顧問等形式與后一種方式相同。就前者而言,有觀點(diǎn)認(rèn)為,認(rèn)定其制造物沒有太大困難;②梁宗模:《人工智能的危險(xiǎn)特性和法律限制方案》,《弘益法學(xué)》第17卷第4號,弘益大學(xué)法學(xué)研究所(2016),第553頁。在后一種情況下,人工智能也是軟件,不能與存儲(chǔ)媒介分離,由此其制造物屬性被認(rèn)定。③許明國:《標(biāo)準(zhǔn)電腦程序交易的法律性質(zhì):對授權(quán)說及混合合同說的批判性立場》,《比較私法》第16卷第3號,韓國比較私法協(xié)會(huì)(2009) ,第38頁;金敏仲:《制造物責(zé)任法立法化的最新國際動(dòng)向》, 《Justice》第25卷第2號,韓國法學(xué)院(1992),第31頁。在美國和德國,多數(shù)觀點(diǎn)認(rèn)為,當(dāng)軟件在USB等類同存儲(chǔ)媒介中物化時(shí),通常被視為制造物。④鄭龍壽等:《制造物責(zé)任法修訂方案》,《政策研究》,韓國消費(fèi)者院(2010),第26頁;李相洙:《關(guān)于嵌入軟件缺陷與適用制造物責(zé)任的考察》,《法學(xué)論文集》第39輯第2號,中央大學(xué)法學(xué)研究院(2015),第26頁。相反,否定說認(rèn)為,軟件既非有形物又非自然力,因此其產(chǎn)品屬性難以被認(rèn)定。⑤裴大憲:《擴(kuò)大作為交易對象的數(shù)碼信息和物品概念的相關(guān)檢討》, 《商事判例研究》第14卷,韓國商事判例學(xué)會(huì)(2003),第307頁。
目前,對人工智能的產(chǎn)品屬性的研討不足。前面的觀察探討也是以普通軟件而非人工智能為前提。雖然人工智能也可以被稱作軟件,但與現(xiàn)有的普通軟件的不同點(diǎn)在于,它并沒有像商品一樣銷售,而是以向消費(fèi)者提供服務(wù)為目的。另外,人工智能與硬件或存儲(chǔ)裝置的結(jié)合并不能說是必須要素。例如,像最近的智能音箱等類似的情況,可以看到人工智能和音箱相結(jié)合,但如果音箱未和網(wǎng)絡(luò)連接,則無法提供人工智能服務(wù)。最終,智能音箱中音箱只不過是網(wǎng)絡(luò)連接裝置,人工智能是通過網(wǎng)絡(luò)連接提供服務(wù)。另一方面,《制造物責(zé)任法》自2000年制定以來就以有形物為前提,其間經(jīng)過兩次修訂,這個(gè)大前提沒有變更,因此,根據(jù)目前的《制造物責(zé)任法》難以認(rèn)定人工智能的制造物屬性。
2.是否屬于《制造物責(zé)任法》上的缺陷
即使可以認(rèn)定人工智能的制造物屬性,也會(huì)產(chǎn)生一個(gè)爭議點(diǎn),即因?yàn)槿斯ぶ悄茉斐傻膿p害能否被認(rèn)定為缺陷?!吨圃煳镓?zé)任法》第2條第2號規(guī)定:“所謂‘缺陷’是指相關(guān)產(chǎn)品符合下列各項(xiàng)中任何一項(xiàng)的制造、設(shè)計(jì)或標(biāo)識缺陷,或其他通??深A(yù)期的安全缺陷?!贝藭r(shí)對安全性沒有明確定義,但該法第3條第1項(xiàng)規(guī)定,因缺陷導(dǎo)致生命、身體或財(cái)產(chǎn)損害發(fā)生的情況,考慮到讓制造業(yè)者承擔(dān)損害賠償責(zé)任這點(diǎn),所謂安全性的意思可以說是制造物不會(huì)給使用者造成生命、身體或財(cái)產(chǎn)損害。
那么,因人工智能給消費(fèi)者等造成了損害的話,能否判斷人工智能有缺陷?對此沒有明確的定論,甚至連探討也沒有。只是安全性要件包括財(cái)產(chǎn)損害,所以因人工智能的行為給消費(fèi)者造成了損害的話,則可能被判斷為缺乏安全性,也可能被判斷為屬于制造物責(zé)任法上的缺陷。例如,智能音箱在消費(fèi)者預(yù)訂飯店時(shí)出錯(cuò),給消費(fèi)者造成了財(cái)產(chǎn)損失的情形,可以被稱為制造物責(zé)任法上的缺陷嗎?《制造物責(zé)任法》規(guī)定的財(cái)產(chǎn)損失是指因制造物造成的任何物理事故以及由此產(chǎn)生的財(cái)產(chǎn)損失。因此,很難說由于人工智能的錯(cuò)誤而未能正常實(shí)現(xiàn)服務(wù)屬于產(chǎn)品責(zé)任法案中的缺陷。只是,如果搭載人工智能的機(jī)動(dòng)車輛自動(dòng)駕駛中,由于運(yùn)轉(zhuǎn)不正常踩下了急剎車,從而給消費(fèi)者造成身體上、財(cái)產(chǎn)上的損害,則可以看作是由于缺陷而引起的。
假設(shè)像這樣人工智能的制造物屬性可以認(rèn)定的情況下,對人工智能的《制造物責(zé)任法》上的缺陷能否認(rèn)定則取決于具體事例。但是,如果人工智能直接向消費(fèi)者提供服務(wù),同時(shí)伴隨物理現(xiàn)象的情況,可以認(rèn)定為《制造物責(zé)任法》上的缺陷。反之,如果情況并非如此,則難以認(rèn)定存在缺陷。即使是基于人工智能的數(shù)字卡特爾也能幫助經(jīng)營者作出決策,或者代為履行職責(zé),所以人工智能也可以說和《制造物責(zé)任法》沒有關(guān)聯(lián)性。
3.“監(jiān)管沙箱”的相關(guān)法案
所謂“監(jiān)管沙箱”可以被稱為是在一定期限內(nèi)對現(xiàn)有規(guī)制免除或者推遲的制度。沙箱是填滿沙子供兒童玩耍的空間,是兒童在游戲過程即使摔倒,沙子也能最大限度減少負(fù)傷等安全隱患的空間。因此,為了促進(jìn)事業(yè)發(fā)展,減少因規(guī)制等造成的危險(xiǎn),我們需要?jiǎng)?chuàng)建一個(gè)像沙箱這樣的制度。
關(guān)于人工智能,在進(jìn)入規(guī)制、營業(yè)行為規(guī)制等事前規(guī)制強(qiáng)有力的領(lǐng)域的情境,樹立內(nèi)部經(jīng)營戰(zhàn)略,利用人工智能并不受限,但在投資咨詢、全權(quán)委托投資等同類營業(yè)活動(dòng)上,全面使用人工智能事實(shí)上是不可能的。越是在規(guī)制強(qiáng)力的領(lǐng)域,“法律沒有規(guī)定的就不能做”的認(rèn)識越強(qiáng)烈,所以人工智能和相關(guān)產(chǎn)業(yè)處于困難的發(fā)展環(huán)境。為了解決這一難題,最近“監(jiān)管沙箱”和相關(guān)的《行政規(guī)制基本法部分修訂法案》《金融革新支持特別法案》《產(chǎn)業(yè)融合促進(jìn)法部分修訂法案》《信息通信振興及融合活性化等相關(guān)特別法部分修訂法案》等5項(xiàng)法案在國會(huì)上被提出。
從5項(xiàng)法案的主要內(nèi)容來看,核心是新項(xiàng)目推進(jìn)者可以就相關(guān)規(guī)制向政府提出質(zhì)疑,經(jīng)過審查被認(rèn)定為特例的情形時(shí),在一定期間內(nèi)免責(zé)適用相關(guān)規(guī)則。
韓國目前對人工智能的相關(guān)規(guī)制是以事前規(guī)制的方式進(jìn)行的,沒有明確規(guī)定事后規(guī)制方式。根據(jù)前述的《智能機(jī)器人法》,預(yù)計(jì)只采取《倫理憲章》等基本的事后規(guī)制為原則的方式。
原則上,人工智能適用什么樣的規(guī)制是根據(jù)使用的方式不同而不同。例如,在金融領(lǐng)域,金融公司為了內(nèi)部的資產(chǎn)運(yùn)營而使用機(jī)器人顧問的情況下,無需接受金融監(jiān)督當(dāng)局的事前審查。金融公司的機(jī)器人顧問接受事前審查的理由是使用該機(jī)器人顧問運(yùn)營顧客資產(chǎn)。在下文中,將對有關(guān)金融領(lǐng)域的機(jī)器人顧問的規(guī)制現(xiàn)狀、有關(guān)數(shù)字卡特爾的規(guī)制討論等有關(guān)問題加以探討。
機(jī)器人顧問(RoboAdvisor)是“以機(jī)器人(Robot)和顧問(Advisor)的合成詞為基礎(chǔ),基于對算法、大數(shù)據(jù)分析等技術(shù)反映的個(gè)人投資傾向等,自動(dòng)生成‘構(gòu)建投資組合’‘再平衡(重組)’,并加以‘應(yīng)用’的在線資產(chǎn)管理服務(wù)?!雹倮罡溃骸秶鴥?nèi)外智能投顧的動(dòng)向及現(xiàn)狀分析》, 《電子金融與金融安全》第6號(2016),第38頁。簡略地說,就是使用人工智能的資產(chǎn)管理服務(wù)。過去的資產(chǎn)管理服務(wù)是金融公司以資本家顧客為對象提供的服務(wù),但由于人工智能的問世,其對象擴(kuò)大到普通大眾。在美國,機(jī)器人顧問已經(jīng)得到廣泛應(yīng)用,機(jī)器人顧問的類型可以分為運(yùn)營型、咨詢型、混合型等。
表3 機(jī)器人顧問的類型②參見 金融投資協(xié)會(huì): 《全球網(wǎng)絡(luò)資產(chǎn)管理產(chǎn)業(yè)動(dòng)向及啟示》,2014年7月8日。
韓國擁有以規(guī)制為中心的法律體系,所以,在個(gè)別金融業(yè)法中嚴(yán)格規(guī)定了金融規(guī)制的要件和課稅與否等,監(jiān)管當(dāng)局能夠賦予的自由裁量余地非常有限。因此,現(xiàn)行的金融服務(wù)僅能通過啟動(dòng)在和實(shí)際金融市場相類似的虛擬環(huán)境中才能進(jìn)行事前檢測的虛擬測試臺(tái)(Virtual Test-Bed)來允許合格的機(jī)器人顧問的方式進(jìn)行規(guī)制。
為此,金融委員會(huì)已于2017年5月通過部分修訂《金融投資業(yè)規(guī)定》,制訂“電子投資建議裝置(機(jī)器人顧問)細(xì)部要件(第4-73條的2)”,以搞活投資咨詢業(yè)相關(guān)事宜,維護(hù)為執(zhí)行機(jī)器人顧問投資咨詢及全權(quán)委托的投資行為。規(guī)定了具備確保維護(hù)人員、禁止有偏見的投資咨詢、通過測試床等要件。
在韓國,機(jī)器人顧問現(xiàn)在處于起步階段,向投資者推薦資產(chǎn)構(gòu)成等,可以分為投資者直接運(yùn)營的“咨詢型”和機(jī)器人顧問不只是推薦而且還直接參與資產(chǎn)運(yùn)營的“全權(quán)委托型”。屆時(shí),根據(jù)顧客及咨詢?nèi)藛T的參與與否,可以分為4個(gè)階段。
表4 使用機(jī)器人顧問(RA)的服務(wù)類型分類
目前,韓國對機(jī)器人顧問的測試臺(tái)正在運(yùn)營中,但至今為止非會(huì)面的全權(quán)委托尚不被允許,第4階段是不可能的。但據(jù)悉,最近金融委員會(huì)在具備要件的情況下,將允許非會(huì)面全權(quán)委托方式,所以,預(yù)計(jì)不久后第4階段將被允許。
如果今后引進(jìn)“監(jiān)管沙箱”,可以預(yù)想“虛擬試驗(yàn)臺(tái)”(Virtual Test-Bed)通過與否的審查基準(zhǔn)將取決于人工智能的使用方式。但是,即使引入“監(jiān)管沙箱”,在金融領(lǐng)域的人工智能使用給消費(fèi)者的財(cái)產(chǎn)等帶來直接影響的情況下,預(yù)計(jì)事前審查仍是義務(wù),這一點(diǎn)毋庸置疑。
1.“數(shù)字卡特爾”概述
“數(shù)字卡特爾”是指人工智能被用于公司之間的串謀,也被OECD(經(jīng)濟(jì)合作與發(fā)展組織,Organization for Economic Cooperation and Development)作為主要議題討論過。①OECD, “Algorithm and Collusion-Background Note by Secretariat” (2017)(https://one.oecd.org/document/DAF/COMP(2017)4/en/pdf).根據(jù)OECD推出的白皮書,②OECD, supra note 3.企業(yè)們不要求通過算法在傳統(tǒng)反壟斷的意義上達(dá)成“合意”,甚至以都不要求人類互動(dòng)的新方式提供能夠引出串謀結(jié)果的機(jī)會(huì),③白皮書促進(jìn)了算法對競爭法無法掩蓋的市場成果(market outcome)的默認(rèn)性調(diào)整(tacit co-ordination),這就表明可以向公司提供發(fā)送信號、采取同樣的政策、脫離消費(fèi)者監(jiān)督的懲罰的自動(dòng)化算法。并且強(qiáng)調(diào)了所謂的隨著時(shí)間的推移擴(kuò)張“壟斷問題”的范圍的話將實(shí)現(xiàn)進(jìn)入高壁壘、高透明度的寡頭壟斷市場與傳統(tǒng)的默示性串謀結(jié)果,在難以維持的市場中比起算法如何達(dá)成默示性的串謀更應(yīng)該明白算法能否實(shí)現(xiàn)這一目的。由此可見競爭格局將如何被改變。
谷歌的人工智能研究的DeepMind最近發(fā)表的研究資料中對人工智能在類似“囚徒困境”的狀況中如何行動(dòng)的研究結(jié)果顯示,④Joel Z.Leibo·Vinicius Zambaldi·JanuszMarecki·Marc Lanctot·Thore Graepel, Multi-agent Reinforcement Learning in Sequential Social Dilemmas, Proceedings of the 16th Conference on Autonomous Agentsand MultiAgentSystems(AA-MAS 2017)(S.Das et al.eds.,2017)(https://storage.googleapis.com/deepmind-media/papers/multi-agent-rl-in-ssd.pdf;https://arxiv.org/pdf/1702.03037.pdf).人工智能會(huì)根據(jù)目標(biāo)采取不同的行動(dòng),表現(xiàn)出和人類相似的行動(dòng)模式。DeepMind進(jìn)行了兩項(xiàng)實(shí)驗(yàn):第1項(xiàng)是收集很多蘋果的游戲。在這個(gè)游戲中,如果蘋果充足的話,人工智能不會(huì)攻擊其他人工智能,但如果蘋果不足的話,則看到人工智能攻擊并清除其他人工智能的行動(dòng)。據(jù)說,如果是更強(qiáng)大的人工智能,即更被精心設(shè)計(jì)的人工智能,盡管自己收集的蘋果充足,也會(huì)為了獨(dú)占先攻擊其他人工智能。如果將其適用于現(xiàn)實(shí),有類似規(guī)模的經(jīng)營者的情況下,起初并不互相攻擊,但在資源或市場萎縮的時(shí)候,就會(huì)采取誹謗或攻擊其它經(jīng)營者的態(tài)度,可以想象一旦大企業(yè)出現(xiàn),大企業(yè)就會(huì)攻擊其他中小經(jīng)營者以壟斷市場。第2項(xiàng)游戲是“狼群”(Wolfpack)游戲。狼群游戲的內(nèi)容是狼組隊(duì)狩獵,若是一個(gè)玩家狩獵成功,周圍的其他玩家都會(huì)得分,所以這是一種人工智能成為狼追尋食物,捕獲到食物的時(shí)候給它周圍所有的人工智能予以補(bǔ)償?shù)挠螒?。即,這算是一場合作比攻擊更有利的游戲。在這個(gè)游戲中展現(xiàn)出越是被精心設(shè)計(jì)出來的人工智能就越不是獨(dú)自而是與其他人工智能合作狩獵的面貌。也就是說將此應(yīng)用于現(xiàn)實(shí)的話,人工智能之間也有相互合作的樣態(tài),換句話說,它們也可能相互串謀。
總之,該研究結(jié)果證明,根據(jù)規(guī)則和情況,人工智能采取的行動(dòng)不同。換句話說,在攻擊會(huì)取得利益的規(guī)則下,人工智能會(huì)采取攻擊性的行動(dòng);在合作能看到利益的情況下則會(huì)進(jìn)行合作。最近,在美國和歐洲等地的數(shù)字卡特爾事例中,經(jīng)觀察出現(xiàn)了人工智能伙同串謀和以人工智能為媒介的串謀等現(xiàn)象。
韓國公正交易委員會(huì)也曾在2017年7月24日對成為全球熱點(diǎn)話題的“數(shù)字卡特爾”的監(jiān)督加以闡明,提及競爭企業(yè)有可能會(huì)利用算法一致決定商品價(jià)格、供應(yīng)量的行為進(jìn)行串謀,具有可見隱患,①電子新聞(Electronic Times)2017年7月24日版報(bào)道,“公平交易委員會(huì)委員長金相祚表示‘?dāng)?shù)字經(jīng)濟(jì)’與算法合謀”,http://www.etnews.com/20170724000405。以學(xué)界為代表的諸多領(lǐng)域也開始著手研究數(shù)字卡特爾。②崔蘭雪軒:《通過算法交換價(jià)格信息和競爭法的評價(jià)》,《經(jīng)濟(jì)法研究》第35卷(2017);金建優(yōu):《用算法運(yùn)作的經(jīng)濟(jì)數(shù)碼卡特爾增大的可能性》, LG經(jīng)濟(jì)研究院 (2017)。
2.數(shù)字卡特爾的事例
具有代表性的數(shù)字卡特爾的事例有:Topkins·Aston③Plea Agreement, United States v.David Topkins (April 30, 2015) ; Information, Plea Agreement, United States v.David Topkins(April 6, 2015).,Uber,ATPCO④United States v.Aston, No.3:15-cr-00149 WHO (N.D.Cal.Aug.27, 2015).,E-turas⑤Case C-74/14 Eutras, ECLI:EU:C:2016:42, 21 January 2016.等。本文對Uber事例簡略觀察如下:
居住在康涅狄格州的Uber顧客Spencer Meyer以Uber和 Uber的CEO Travis Kalanick為被告向紐約南區(qū)聯(lián)邦地區(qū)法院提起了禁止串謀的訴訟。當(dāng)時(shí)Uber向出租車司機(jī)提供了搭載根據(jù)供求狀況自動(dòng)調(diào)節(jié)費(fèi)用的“彈性收費(fèi)制”(Surge pricing)算法的人工智能服務(wù)。當(dāng)時(shí)出租車司機(jī)直接將Uber提供的出租車計(jì)費(fèi)標(biāo)準(zhǔn)適用于消費(fèi)者。Spencer Meyer主張:“Uber公司在同一公司的計(jì)算機(jī)平臺(tái)的算法中企圖通過限制司機(jī)之間的價(jià)格競爭,起到構(gòu)筑和推進(jìn)固定價(jià)格的卡特爾的作用。”但是Uber公司辯稱:“每一個(gè)司機(jī)都是獨(dú)立行事的,只不過是與Uber公司分別簽訂了合同,并不存在橫向壟斷協(xié)議?!奔~約南區(qū)聯(lián)邦地區(qū)法院判決認(rèn)定:“根據(jù)Uber公司的合同條件和應(yīng)用程序(app),有可能有橫向的共謀(串謀)。Uber公司的系統(tǒng)會(huì)遏制司機(jī)進(jìn)行降價(jià)競爭,使卡特爾穩(wěn)定化獲得超額利潤的可能性提高的同時(shí),以人工智能為媒介的Uber和使用它的出租車司機(jī)共謀出租車費(fèi)用,形成卡特爾壟斷。⑥U.S.District court Southern District of New York (2016), “Meyer v.Kalanick”, Opinion and Order.
3.數(shù)據(jù)卡特爾的類型
OECD把重點(diǎn)放在了人工智能的行為上,并將其分類如下:
表5 OECD的數(shù)字卡特爾類型
(1)第一種類型的監(jiān)控算法,是使用人工智能對已經(jīng)參與串謀的經(jīng)營者,在串謀中是否有脫離的行為進(jìn)行監(jiān)控。監(jiān)控算法的運(yùn)作方式相當(dāng)簡單,通過各種數(shù)據(jù)將收集的價(jià)格等交易信息與特定的價(jià)格(例如串謀價(jià)格)相比較,一致的話維持串謀,不一致的話,看到脫離串謀,將與其他經(jīng)營者一起對脫離的經(jīng)營者給予報(bào)復(fù)性攻擊。雖然這是在人工智能出現(xiàn)之前就已經(jīng)存在的方法,但如果使用人工智能,價(jià)格等要素的分析就會(huì)更快實(shí)現(xiàn),由此對脫離經(jīng)營者的攻擊也會(huì)迅速完成。因此,從經(jīng)營者的立場來看,串謀中脫離的誘因?qū)?huì)減少,而持續(xù)串謀的誘因會(huì)增大。監(jiān)控算法可以避開不必要的價(jià)格戰(zhàn),助長非法協(xié)議(illegal agreements),通過經(jīng)營者之間的監(jiān)視,使串謀更有效率。然而,由于卡特爾在形成和實(shí)現(xiàn)的過程中需要明確的溝通,只要價(jià)格和其他交易條件由人類調(diào)整,傳統(tǒng)的反壟斷工具就可以用來防止這種行為。①OECD, supra not 5, at 25~27.
(2)第二種類型的并行算法,意味著即使在參與串謀的經(jīng)營者之間并沒有明確的意思交流,也能為了使經(jīng)營者及時(shí)對市場變化自動(dòng)應(yīng)對,而使用共同的人工智能,將經(jīng)營者的交易條件等因素統(tǒng)一并固定下來。②Id.at 26.該類型大致可以區(qū)分為兩種方式:一種是作為與前述相類似的Hub-and-Spoke類型,是經(jīng)營者以同一人工智能為中心軸進(jìn)行使用,經(jīng)營者之間不存在相互的意思交流而進(jìn)行的串謀行為的類型;另一種是即使經(jīng)營者各自利用不同的人工智能,通過相似性的功能或者類似的設(shè)定,使得經(jīng)營者中的1個(gè)人的價(jià)格發(fā)生變化,其他經(jīng)營者也隨之變更價(jià)格的類型。因?yàn)樵趦r(jià)格躍動(dòng)性非常高的市場中,經(jīng)營者們?yōu)榱藢r(jià)格、生產(chǎn)量、其他交易條件等進(jìn)行調(diào)整,需要隨時(shí)以會(huì)議、電話通話、電子郵件或第三者進(jìn)行溝通,但如果運(yùn)用并行算法,經(jīng)營者之間無需額外的程序也可以進(jìn)行實(shí)際上的溝通。
(3)第三種信令算法的類型,是特定的領(lǐng)軍經(jīng)營者單方面地發(fā)布價(jià)格變動(dòng)的信號,競爭經(jīng)營者受領(lǐng)相應(yīng)信號后變更價(jià)格的形態(tài)。領(lǐng)軍經(jīng)營者在其他經(jīng)營者沒有形成串謀價(jià)格的情況下,變動(dòng)自己的價(jià)格時(shí),重新向競爭經(jīng)營者發(fā)送信號,最終達(dá)成一致的串謀價(jià)格,可以說是通過某種追從行為操縱價(jià)格的行為。由這樣的追從行為導(dǎo)致與串謀相同的結(jié)果的情況下,對此是否可以認(rèn)定為違法行為值得商榷。美國著名的競爭法專家Richard Posner教授曾擔(dān)任聯(lián)邦法院法官,在2002年審理的“玉米糖漿”一案的判決中判定:“如果某企業(yè)提高價(jià)格的同時(shí),期待自己的競爭對手也會(huì)那樣做,也實(shí)際上發(fā)生了那樣的事的話,該企業(yè)的行為可以通過提出要求其他企業(yè)提高價(jià)格的單方面合同(offer of a unilateral contract)實(shí)現(xiàn)概念化?!奔矗绻軌蝾A(yù)測到競爭經(jīng)營者會(huì)做出追從行為的話,領(lǐng)軍經(jīng)營者的行為就可以看作是串謀提案的意思表示,競爭對手的追從行為則可以視為默示性的協(xié)議。
(4)第四種自我學(xué)習(xí)算法類型,是指人工智能通過深度學(xué)習(xí)和類似的自我學(xué)習(xí)算法,作為經(jīng)營者追求利益的行為,對其他市場參與者的行為持續(xù)學(xué)習(xí)和再適應(yīng),以使具有強(qiáng)大預(yù)測能力的某種算法可以在沒有人類介入的情況下進(jìn)行串謀的類型。該類型與Ezrachi教授和Stucke教授分類中的 Autonomous Machine 類型相同。在這一類型中,經(jīng)營者將各種原始數(shù)據(jù)(Raw Data)投入人工智能,人工智能對此加以分析,針對市場狀況計(jì)算出最佳戰(zhàn)略,此時(shí)經(jīng)營者對其人工智能是否向競爭者發(fā)出信號,人工智能通過怎樣的過程得出的結(jié)論都是無從知悉的。即,具有自我學(xué)習(xí)能力的人工智能與前述的谷歌的“deep mind”研究資料一樣,可能會(huì)發(fā)生串謀和相同的結(jié)果,而自我學(xué)習(xí)算法類型的使用經(jīng)營者可能不會(huì)認(rèn)識到這個(gè)過程。但是如果市場狀況很容易形成串謀局面的話,比人類學(xué)習(xí)速度更快的算法經(jīng)過高速的反復(fù)試錯(cuò),最終達(dá)到合作均衡(cooperative equilibrium)的可能性將更高。最終,依靠把經(jīng)營決策從人類轉(zhuǎn)移到用電腦機(jī)械學(xué)習(xí),經(jīng)營者們可以在串謀的開始與實(shí)現(xiàn)階段中避免明確的溝通,即使無休止的反競爭性價(jià)格持續(xù),自我學(xué)習(xí)算法也可以更容易地確定共同利益最大化并嚴(yán)重?fù)p害消費(fèi)者的價(jià)格。①Id.at 31-32.像這樣,企業(yè)依靠深度學(xué)習(xí),串謀何時(shí)發(fā)生都無從得知就可以達(dá)成串謀的結(jié)果,使得傳統(tǒng)的反壟斷手段的使用變得更加困難,如果深度學(xué)習(xí)算法存在違法情形,企業(yè)是否承擔(dān)責(zé)任將引發(fā)復(fù)雜的問題。②Id.at 32.
4.《限制壟斷與公正交易法》的適用探討
《限制壟斷與公正交易法》(下稱“《公正交易法》”)是旨在確保市場秩序及交易公正性的法律。公正交易法為確保市場秩序,在第19條規(guī)定“禁止不當(dāng)共同行為即串謀”,在第23條規(guī)定,為了交易公正性,禁止不公正交易行為。《公正交易法》第19條規(guī)定:“經(jīng)營者不得以合同、協(xié)定、決議等其他任何方式與其他經(jīng)營者共同以不當(dāng)?shù)南拗聘偁幎_(dá)成下列的任何一項(xiàng)協(xié)議(以下稱為“不當(dāng)?shù)墓餐袨椤保┗虿荒茏屍渌?jīng)營者從事該事項(xiàng)?!备鶕?jù)該條的規(guī)定,雖然對共同行為的方法沒有限制,但是禁止為不當(dāng)?shù)南拗聘偁幍男袨檫M(jìn)行“協(xié)議”,禁止讓其他經(jīng)營者不正當(dāng)?shù)叵拗聘偁幍男袨?。公正交易委員會(huì)對“行為和不當(dāng)性”在“共同行為審查標(biāo)準(zhǔn)(公正交易委員會(huì)例規(guī)第235號)”中進(jìn)行了明確。根據(jù)共同行為審查標(biāo)準(zhǔn):2人以上的經(jīng)營者進(jìn)行協(xié)議的,不僅包括合同、協(xié)定、協(xié)議、決議、諒解備忘錄、同意書等明示性的協(xié)議,還包括經(jīng)營者之間的“默認(rèn)協(xié)議”。為了認(rèn)定默示協(xié)議經(jīng)營者通過自己的行為與其他經(jīng)營者串謀或者發(fā)生同樣結(jié)果的,必須認(rèn)識到其他經(jīng)營者會(huì)效仿追隨自身的行為。因?yàn)榇藭r(shí)要證明存在協(xié)議是一件非常困難的事情,即使沒有關(guān)于協(xié)議的明確證據(jù),通過市場與結(jié)果分析,無法推定沒有發(fā)生串謀就推定協(xié)議存在。
那么,以現(xiàn)行的不當(dāng)行為規(guī)制體系來規(guī)范數(shù)字卡特爾是否行得通? 如上所述,數(shù)字卡特爾的類型大體分為兩類。OECD把數(shù)字卡特爾分為監(jiān)控算法、并行算法、信號算法、自我學(xué)習(xí)算法。
第一,監(jiān)控算法是基于起初經(jīng)營者之間存在協(xié)議為前提的,人工智能履行了監(jiān)視其他經(jīng)營者行為的作用。因此,以經(jīng)營者之間的串謀為前提,所以可以直接適用現(xiàn)行的不當(dāng)共同行為規(guī)則。
第二,并行算法是經(jīng)營者用來共享相同或者相似的人工智能,被認(rèn)為是很難利用第三方提供的人工智能系統(tǒng)在經(jīng)營者之間達(dá)成明示性的串謀協(xié)議。但是,經(jīng)營者可以通過靈活地運(yùn)用人工智能來做出與其他經(jīng)營者相同的定價(jià)決策。據(jù)此,可以判斷出存在一個(gè)隱含的默示性協(xié)議。例如,當(dāng)人工智能被認(rèn)為是一個(gè)商業(yè)組織時(shí)(從經(jīng)營者團(tuán)體的角度看),可以看到并行算法與商業(yè)實(shí)體的交易條件策略相同。因此,如果可以推斷出2人以上經(jīng)營者之間存在的要求與默示性協(xié)議,就可以適用現(xiàn)行的不當(dāng)共同行為規(guī)則。
第三,信號算法是指經(jīng)營者通過自己的行為,使其他經(jīng)營者公開或者傳播追蹤信息的行為。因?yàn)?,此時(shí)經(jīng)營者單方面地公開或者傳播信息,其他經(jīng)營者只是收取相應(yīng)信息的行為,很難判斷存在無條件的默示性協(xié)議。這是因?yàn)楦鶕?jù)收取信息的經(jīng)營者的行為不僅會(huì)發(fā)生串謀的結(jié)果,而且信息公開或者傳播的經(jīng)營者的意圖也是重要的因素。但是即使公開信息的經(jīng)營者的意圖不明確,如果因?yàn)槭占畔⒌慕?jīng)營者的行為發(fā)生了串謀的結(jié)果,根據(jù)共同行為審查標(biāo)準(zhǔn),推定為串謀的可能性更高。據(jù)此,判斷以目前的不當(dāng)共同行為規(guī)則進(jìn)行規(guī)制是可能的。
第四,自我學(xué)習(xí)演算法的情形,如果沒有經(jīng)營者的介入,僅根據(jù)人工智能發(fā)生了合謀的結(jié)果,就判斷為經(jīng)營者之間存在明示性的或者默示性的串謀是很難的。如前所述,自我學(xué)習(xí)演算法是指利用人工智能的經(jīng)營者也無法得知相應(yīng)結(jié)果的過程,因此,經(jīng)營者對串謀的發(fā)生都很難進(jìn)行預(yù)測。再者,現(xiàn)行法律體系下并沒有承認(rèn)人工智能具有法人人格,實(shí)際上在想要承認(rèn)人工智能法人人格討論的開始階段,都很難將人工智能的行為直接認(rèn)定為經(jīng)營者的行為。①Jerry Kaplan, Humans Need Not Apply: A Guide to Wealth and Work in the Age of Arti ficial Intelligence, Yale University Press(2015) (設(shè)定‘a(chǎn)rti ficial persons’).所以,自我學(xué)習(xí)演算法應(yīng)該可以說是現(xiàn)行的不當(dāng)共同行為規(guī)則最難適用的類型。但是,如前面提到的谷歌“Deep Mind”事例一樣,證明了人工智能之間的合作,即人工智能也有串謀行為存在的可能性,因此,相關(guān)研究也會(huì)持續(xù)下去。另外,靈活運(yùn)用人工智能的經(jīng)營者們,可以充分預(yù)見人工智能之間的相互勾結(jié)(串謀)。這樣一來,經(jīng)營者在獨(dú)自運(yùn)用人工智能時(shí),就有義務(wù)采取預(yù)防措施,防止人工智能相互間發(fā)生串謀。盡管可以預(yù)測到會(huì)發(fā)生數(shù)字卡特爾,但是如果沒有采取預(yù)防措施,可以看作是利用人工智能工具回避法律規(guī)定的做法。因此,即使不承認(rèn)人工智能的法人格,也可以把人工智能視為經(jīng)營者的工具,可以通過現(xiàn)行不當(dāng)共同行為規(guī)范來進(jìn)行規(guī)制。
如果賦予人工智能法人人格,作為使用人的經(jīng)營者的責(zé)任形態(tài)將發(fā)生變化。首先,賦予人工智能法人人格的情況下,經(jīng)營者要承擔(dān)使用人的責(zé)任,現(xiàn)行法對使用人責(zé)任的形態(tài)并沒有規(guī)定為無過失責(zé)任,并且還規(guī)定在履行監(jiān)督和監(jiān)視義務(wù)時(shí),經(jīng)營者的使用人責(zé)任可以獲得免除。但是如果不賦予人工智能法人人格,經(jīng)營者以工具的形式使用人工智能,經(jīng)營者承擔(dān)的不再是使用人責(zé)任而是本人自己的責(zé)任。因此,對于依照人工智能的行為而發(fā)生的結(jié)果要承擔(dān)本人的侵權(quán)行為責(zé)任。
如上所述,可以認(rèn)為,對數(shù)字卡特爾的情形能夠以現(xiàn)行的不當(dāng)共同行為規(guī)則進(jìn)行規(guī)制。但問題在于,認(rèn)定數(shù)字卡特爾比現(xiàn)有的串謀行為更難。利用人工智能的串謀行為比以往更隱秘, 再加上市場也會(huì)發(fā)生細(xì)微的變化,所以揭發(fā)數(shù)字卡特爾是很困難的。因此,為了確保市場秩序,應(yīng)該高度化地采用數(shù)字識別、實(shí)時(shí)市場監(jiān)控、異常交易探知等類似的市場監(jiān)督與分析方法,以此來適用人工智能時(shí)代。
經(jīng)營者使用人工智能時(shí)可能會(huì)發(fā)生黑客侵入或挪用個(gè)人信息等多種問題,從而可能對消費(fèi)者造成損害。因黑客或挪用個(gè)人信息使用等對消費(fèi)者造成的損失顯然是需要討論的焦點(diǎn)問題。但是該研究的目的是預(yù)測利用人工智能的經(jīng)營者和消費(fèi)者之間在正常的交易關(guān)系中可能發(fā)生的侵害消費(fèi)者權(quán)益的行為,并尋求妥當(dāng)?shù)馗纳品桨福虼吮疚牟惶峒昂诳图芭灿脗€(gè)人信息等問題。
經(jīng)營者利用人工智能,分析訪問自己營業(yè)場所的消費(fèi)者的行動(dòng)方式、職業(yè)及收入等信息,然后根據(jù)不同的消費(fèi)者,采取不同交易條件的行為。據(jù)2017年5月《華爾街日報(bào)》的報(bào)道稱,荷蘭一家品牌加油站為了制定價(jià)格,正在利用人工智能學(xué)習(xí)市場數(shù)據(jù),對支付意向較高的顧客來訪時(shí)提高價(jià)格,反之,則會(huì)降低價(jià)格。該人工智能自動(dòng)運(yùn)作的方式如下:第一階段,人工智能算法首先要將過去的交易信息構(gòu)建成數(shù)據(jù)庫;第二階段,收集實(shí)時(shí)購買的數(shù)據(jù)和主要影響消費(fèi)者購買的天氣、交通等數(shù)據(jù);第三階段,學(xué)習(xí)加油站市場的人工智能算法(第1階段)以市場實(shí)時(shí)數(shù)據(jù)(第2階段)為基礎(chǔ),依據(jù)價(jià)格水平預(yù)測需求;第四階段,加油站的經(jīng)營者設(shè)定銷售的目標(biāo)、利潤和最低價(jià)格等制約條件;第五階段,人工智能算法實(shí)時(shí)預(yù)測需求、自動(dòng)決定價(jià)格;第六階段,重新學(xué)習(xí)通過人工智能算法發(fā)生的交易數(shù)據(jù),更加準(zhǔn)確地改善需求預(yù)測和價(jià)格決定的算法。
這種行為在網(wǎng)上購物商城中更為明顯。目前,網(wǎng)上購物中心對現(xiàn)存的消費(fèi)者購物明細(xì)進(jìn)行分析,當(dāng)該消費(fèi)者登錄購物中心的網(wǎng)站時(shí),該購物中心的網(wǎng)站就會(huì)以分析資料為基礎(chǔ),提供商品介紹服務(wù)。但是,如果不僅僅是分析購買明細(xì),而進(jìn)行更詳細(xì)的分析,那么不僅可以預(yù)測消費(fèi)模式,還可以預(yù)測收入水平及消費(fèi)意向等。如果這樣的話,根據(jù)消費(fèi)者個(gè)人的不同,制定不同的價(jià)格或配送費(fèi)等也是有可能的。
另外,最近活躍起來的智能投顧也可能出現(xiàn)歧視消費(fèi)者的行為問題,智能投顧根據(jù)消費(fèi)者的投資傾向、消費(fèi)模式、資產(chǎn)規(guī)模等因素,金融公司向?qū)ψ约焊欣南M(fèi)者提供更優(yōu)質(zhì)的信息服務(wù),或者向特定消費(fèi)者提供不利的信息。例如,現(xiàn)在類似投資咨詢業(yè)者根據(jù)會(huì)員的等級不同提供不同的信息。
事實(shí)上,因人口的構(gòu)成、偏好等不同地域性因素形成的消費(fèi)模式也是存在差異的。例如,韓國世宗市平均年齡低、適齡生育人口占比較高的地區(qū)嬰幼兒用品的銷量會(huì)很高;而高齡化的地區(qū)對白銀制品的需求會(huì)很高。流通企業(yè)在確定賣場的產(chǎn)品構(gòu)成時(shí),將反映各個(gè)地區(qū)的差異。但是,如果流通企業(yè)利用人工智能實(shí)時(shí)變更各類產(chǎn)品的價(jià)格,那么各地區(qū)的特性也可以反映在價(jià)格上。換句話說,在嬰幼兒用品銷售額較高的地區(qū),可以決定幼兒用品的價(jià)格要高于其他地區(qū);而在老齡化地區(qū)可以采取上調(diào)白銀產(chǎn)品價(jià)格的行為。這種地域性的差別交易條件行為在不存在人工智能的市場也有,但現(xiàn)在更加蔓延開來。當(dāng)然,目前地域性的差別交易條件行為不僅僅是在一個(gè)國家內(nèi),而是在世界范圍內(nèi)出現(xiàn)國家歧視行為。例如,根據(jù)2013年和2017年的國政監(jiān)察披露的 “現(xiàn)代汽車”的“內(nèi)需用和出口用產(chǎn)品差別”那樣,其在召回GDi-2發(fā)動(dòng)機(jī)時(shí)對韓國消費(fèi)者采取逆向歧視,即,在汽車產(chǎn)業(yè)中存在韓國消費(fèi)者和美國消費(fèi)者不同的差別。據(jù)悉,最近蘋果的“舊電池門”也與損害賠償訴訟有關(guān),出現(xiàn)了韓國消費(fèi)者和美國消費(fèi)者差別化的歧視行為。這種對各國消費(fèi)者的差別歧視行為可以將各國的法律、環(huán)境等方面的差異視為其中的原因之一,也可以說不是歧視差別,而是差異使然。但是,由于在同一個(gè)國家其法律、環(huán)境及消費(fèi)趨勢等方面都相同的,因此,出現(xiàn)各地區(qū)交易條件差別的歧視行為很難被認(rèn)定為是存在“差異”。
上述分析的兩種差別行為主要是以消費(fèi)者為對象的歧視行為。但是,經(jīng)營者即使不以消費(fèi)者為對象進(jìn)行歧視行為,而是對其他經(jīng)營者進(jìn)行差別對待,也是采取限制消費(fèi)者選擇權(quán)等侵害權(quán)益的行為。例如,Stitch Fix公司與智能投顧的事例,基本上是遵循人工智能的分析及推薦程序。那么,在經(jīng)營者向消費(fèi)者推薦商品等的過程中,可以設(shè)定人工智能推薦或排除特定經(jīng)營者的商品。在沒有正當(dāng)理由的情況下對其他經(jīng)營者采取差別的行為雖然違反了《公平交易法》第23條第1項(xiàng),對于手續(xù)費(fèi)及廣告費(fèi)等方面的差異很難將其視為是不公正的反映。但是,差別對待經(jīng)營者的行為可能會(huì)限制消費(fèi)者的選擇權(quán),對此如何判斷是個(gè)問題。
串謀是規(guī)范性責(zé)難的對象,被作為規(guī)制對象的理由是因?yàn)橥ㄟ^與其他經(jīng)營者進(jìn)行意思交流,人為性地控制價(jià)格等交易條件。也就是說,因?yàn)榻灰讞l件不會(huì)隨市場變化而改變。但是,正如前面所分析到的,非數(shù)字壟斷的侵害消費(fèi)者權(quán)益的行為并不表現(xiàn)為經(jīng)營者的共同行為,即并非是串謀,而是個(gè)別經(jīng)營者的單獨(dú)行為。在決定價(jià)格等交易條件時(shí),經(jīng)營者不與其他經(jīng)營者進(jìn)行溝通就直接決定,這可以算是不道德的嗎?價(jià)格等交易條件原則上應(yīng)由經(jīng)營者和消費(fèi)者協(xié)商而決定,但實(shí)際上一般是由經(jīng)營者決定的。此時(shí),經(jīng)營者的判斷取決于市場的需求和供給等多種因素。也就是說,即使是同一地區(qū)、同一經(jīng)營者、同一消費(fèi)者、同一產(chǎn)品其交易條件也會(huì)根據(jù)其他條件要素發(fā)生變化。住宿業(yè)已區(qū)分旺季和淡季并以此制定不同的價(jià)格,而且飯店也在圣誕節(jié)實(shí)行預(yù)約制,上調(diào)價(jià)格,在發(fā)生放棄預(yù)定時(shí)也不退款。在資本主義社會(huì),市場的交易條件已經(jīng)由多種因素所改變是理所應(yīng)當(dāng)?shù)氖虑?,而且從某種角度看,這是不成文的規(guī)定。
如果說不正當(dāng)共同行為規(guī)制的主要目的是防止經(jīng)營者通過串謀造成市場秩序混亂,那么不公平交易行為則是以確保經(jīng)營者交易行為的公正性為目的。因此,拋開經(jīng)營者之間的共同行為或者經(jīng)營者的市場支配力等,都將個(gè)別經(jīng)營者不公平交易行為作為規(guī)制的對象。
《公平交易法》第23條列舉了5個(gè)不公正交易行為的類型,包括:(1)不當(dāng)拒絕交易或歧視對方的行為;(2)不當(dāng)排擠競爭者的行為;(3)不當(dāng)引誘或者強(qiáng)迫競爭者的客戶與自己進(jìn)行交易的行為;(4)不當(dāng)?shù)乩米约涸诮灰咨系牡匚慌c相對方進(jìn)行交易的行為;(5)以不當(dāng)拘束交易相對方的事業(yè)活動(dòng)為條件進(jìn)行的交易或妨礙其他經(jīng)營者活動(dòng)的行為等。前述的數(shù)字卡特爾以外的侵害消費(fèi)者權(quán)益的行為與不公正交易行為有關(guān)聯(lián)性。
特別是與消費(fèi)者關(guān)系密切的不公平交易行為是典型的差別對待行為。根據(jù)《公正交易法施行令》第36條第1項(xiàng)和附表1之2“不公正交易行為的類型及標(biāo)準(zhǔn)”明確了“不正當(dāng)?shù)馗鶕?jù)交易地區(qū)或交易對象以明顯有利或以不利的價(jià)格進(jìn)行交易的行為”“對特定經(jīng)營者在數(shù)量、質(zhì)量等交易條件或交易內(nèi)容上明顯有利或不利的行為”等是不公正交易行為。從對這種不公正交易行為的規(guī)制來看,成為規(guī)制對象的行為應(yīng)該具有“不當(dāng)性”,認(rèn)定為差別歧視行為的標(biāo)準(zhǔn)應(yīng)該是“明顯”。即,若將根據(jù)人工智能進(jìn)行的消費(fèi)者差別歧視行為等作為不公正交易行為進(jìn)行規(guī)制,該行為的內(nèi)容就必須具有不當(dāng)和明顯的內(nèi)容。
像歧視消費(fèi)者的行為等將通過人工智能的行為作為不公正交易行為進(jìn)行規(guī)制,對該行為應(yīng)當(dāng)證明的不是倫理上受到譴責(zé)的程度,而是作為法定規(guī)制對象應(yīng)當(dāng)對其不當(dāng)性的程度進(jìn)行證明。實(shí)際上對于不當(dāng)性的證明非常難。特別是要消費(fèi)者個(gè)人證明自己的權(quán)利受到侵害,證明其侵害是由經(jīng)營者不公平交易行為造成的,這幾乎是不可能的。
如前所述,經(jīng)營者內(nèi)部性的使用人工智能時(shí)不受規(guī)定的限制。但是,在使用人工智能對消費(fèi)者等第三人有影響時(shí),將成為被規(guī)制的對象。另一方面,到目前為止,人工智能所帶來的影響在現(xiàn)實(shí)中還屬于不可預(yù)測的。雖然現(xiàn)在只能展望人工智能的美好未來,但這也可能是商家們包裝后的未來。如前所述,經(jīng)營者們根據(jù)人工智能制定的戰(zhàn)略采取行動(dòng),市場秩序可能會(huì)被扭曲,消費(fèi)者的權(quán)益也可能會(huì)受到損害。依據(jù)人工智能而采取的行為中的串謀或者不正當(dāng)交易行為,即使不承認(rèn)人工智能的法人人格,也可以懲罰經(jīng)營者。但是人工智能的行為比人的行為更隱秘,甚至利用人工智能的經(jīng)營者也可能無法預(yù)測人工智能的行為?,F(xiàn)在韓國也認(rèn)識到了這樣的問題,制定了作為行為規(guī)范的倫理憲章等原則,對于具體的問題應(yīng)該是處于適時(shí)制定應(yīng)對方案的準(zhǔn)備階段。