李 丹
(西南大學 法學院,重慶 400715)
大數(shù)據(jù)時代,數(shù)據(jù)被稱為“新石油”,成為市場經(jīng)營主體競相爭奪的新興生產(chǎn)資源,可謂得數(shù)據(jù)者得市場。但單個、少量的數(shù)據(jù)價值密度低,需經(jīng)算法抓取、加工、處理后形成衍生大數(shù)據(jù)集合才會成為具有高市場價值的資源。算法是數(shù)據(jù)價值的核心,實現(xiàn)從低價值的原始數(shù)據(jù)向高價值的衍生數(shù)據(jù)轉(zhuǎn)化。數(shù)字經(jīng)濟的實質(zhì)是“算法定義經(jīng)濟”①韓旭至:《數(shù)據(jù)確權(quán)的困境及破解之道》,《東方法學》2020年第1期。。正如互聯(lián)網(wǎng)經(jīng)濟領域?qū)<夷岣颀嬄宓偎浴懊恳环N技術(shù)或科學的饋贈都有其黑暗面”②Negroponte N. Agents:From Direct Manipulation to Delegation. Software agents, 1997.,算法促進互聯(lián)網(wǎng)經(jīng)濟的飛速發(fā)展是其饋贈,而算法歧視就是算法技術(shù)產(chǎn)生的黑暗面。傳統(tǒng)市場環(huán)境下,經(jīng)營者無法獲知消費者的個人信息,無法精準獲取消費者的消費能力。因此,商品價格總是圍繞商品價值上下波動,不會出現(xiàn)太大偏離。但數(shù)字經(jīng)濟背景下,經(jīng)營者掌握了消費者的職業(yè)、個人偏好、消費經(jīng)歷、支付能力等海量信息,能描繪出每一個消費者的“信息畫像”,獲知其交易可能性以及所能承受的價格上限,并據(jù)此對消費者“貼標簽”,從而制定精準的個性化營銷策略。算法呈現(xiàn)出的技術(shù)性特點消弭了傳統(tǒng)經(jīng)濟中企業(yè)無法獲知個體消費能力的營銷障礙,改變了“同物同價”的傳統(tǒng)定價模式,使商品價格不再圍繞商品價值本身,而取決于每個消費者對該商品的主觀定價,算法歧視消費者的現(xiàn)象應運而生①徐景一、李昕陽:《共享經(jīng)濟背景下平臺企業(yè)利益關系演變研究》,《經(jīng)濟縱橫》2019年第6期。。
隨著算法被廣泛運用于商業(yè)交易中,具有技術(shù)和市場優(yōu)勢地位的經(jīng)營者尤其是互聯(lián)網(wǎng)企業(yè)頻繁使用算法技術(shù)在信息采集、特定推送與個性定價等交易階段實施算法歧視行為,掠奪消費者剩余價值,排除、限制市場競爭,從市場壟斷中攫取利潤。在對消費者信息進行采集時,互聯(lián)網(wǎng)企業(yè)常以消費者“數(shù)字畫像”為基礎利用算法技術(shù)“擅自”進行“消費偏好測試”,主動誘導消費者實施非理性消費②Lambrecht,Anja and C. E. Tucker. Algorithmic Bias? An Empirical Study into Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Social ence Electronic Publishing, 2016.。特定推送表現(xiàn)為平臺僅推送商家支付高額廣告費的商品,或反復推送基于消費者瀏覽數(shù)據(jù)判定為高關注度的商品,導致“信息繭房”。例如以“你關心的,才是頭條”作為宣傳理念的“今日頭條”施行的個性化推薦就涉嫌消費者身份歧視,曾被廣電總局約談。而在個性化定價中,互聯(lián)網(wǎng)企業(yè)針對不同標簽群體消費者采取價格歧視策略。如攜程旅行網(wǎng)對消費者實施的價格歧視,線上預訂同一酒店、同一房型的客房,有消費記錄的賬號顯示的價格明顯高于無消費記錄的賬號③肖帥、劉瀚文:《價格千人千面?攜程否認“大數(shù)據(jù)殺熟”!網(wǎng)購比價攻略在此……》,2018年5月28日,https://www.sohu.com/a/233 208 352_183 333,最后訪問時間:2021年1月18日。。無獨有偶,2018年滴滴、攜程等網(wǎng)約車平臺利用算法進行差異化定價被媒體曝光,相同路線、相同車型的行程,使用頻率高的消費者支付的價格高于其他消費者④孫伯龍、賈芳:《一場來自“殺熟”實驗的定價風暴》,《檢察風云》2019第14期,http://www.jizihe.com/page/2019/0726/5356590.shtml,最后訪問時間:2021年1月17日。。更有甚者,支付價格會因手機品牌不同而價格迥異,使用被某些算法判定為高檔品牌的“蘋果”手機支付的價格高于其他品牌手機⑤李崇:《“大數(shù)據(jù)殺熟”刷屏,一群網(wǎng)友親測后氣炸!》,《中國青年報》2018年3月23日,http://news.163.com/18/0323/21/DDK4OTT10001875P.html,最后訪問時間:2021年1月15日。。此外,監(jiān)管層對數(shù)字經(jīng)濟和算法技術(shù)的發(fā)展創(chuàng)新秉持包容支持的態(tài)度。因此,在信息偏在、技術(shù)劣勢、監(jiān)管包容等因素疊加效應作用下,消費者無力與互聯(lián)網(wǎng)企業(yè)相抗衡。2019年北京消費者協(xié)會調(diào)查報告結(jié)論顯示,由于舉證困難,算法歧視消費者具有極強的“隱蔽性”⑥北京消協(xié):《京市消協(xié)發(fā)布大數(shù)據(jù)“殺熟”問題調(diào)查結(jié)果》, http://www.bj315.org/xxyw/xfxw/201 907/t20190727_19494.shtml,最后訪問時間:2021年1月19日。。中國消費者協(xié)會則警告算法技術(shù)已在無形中削弱了消費者行使其知情權(quán)、選擇權(quán)、公平交易權(quán)等基本權(quán)利的能力⑦中國消協(xié):《加強網(wǎng)絡消費領域算法規(guī)制,保障消費者知情權(quán)、選擇權(quán)和公平交易權(quán)》,2021年1月7日,http://www.cca.org.cn/zxsd/detail/29897.html,最后訪問時間:2021年1月19日。,更侵蝕著數(shù)字經(jīng)濟市場的競爭秩序。
算法歧視消費者的法律規(guī)制應以損害消費者利益為前提。國外研究認為算法歧視會對消費者權(quán)益造成影響⑧Ramsi Woodcock,Personalized Pricing as Monopolization,Connecticut Law Review,Vol. 51,No.2,2019,pp. 311-373.,減少消費者剩余價值⑨Dirk Bergemann & Benjamin Brooks & Stephen Morris,The Limits of Price Discrimination,American Economic Review,Vol.105,No. 3,2015,pp. 921-957.。歐盟學者認為需要重新構(gòu)建個人數(shù)據(jù)權(quán)利⑩Bryce Goodman. Discrimination,Data Sanitisation and Auditing in the European Union’s General Data Protection Regulation,European Data Protection Law Review,Vol.2,No.4,2016,pp.493-605.,從源頭上規(guī)制算法歧視消費者①Betsy Anne Williams,Catherine F. Brooks,Yotam Shmargad,“How Algorithms Discriminate Based on Data They Lack:Challenges,Solutions,and Policy Implications”,Journal of Information Policy,Vol.8,2018,pp.78-115.。美國學界經(jīng)歷了從算法透明向算法審查的雙軌規(guī)制路徑轉(zhuǎn)變②Michael Scherman,Adam Goldenberg,Grace Waschuk,Kendra Levasseur,US Lawmakers Propose Algorithmic Accountability Act Intended to Regulate AI,retrieved from https://www.mccarthy.ca/en/insights/blogs/cyberlex/us-lawmakerspropose-algo rithmic-accountability-act-intended-regulate-ai,2021-1-1,最后訪問時間:2021年1月18日。。在承繼國外研究基礎上,國內(nèi)研究側(cè)重于算法歧視規(guī)制路徑③喬榛、劉瑞峰:《大數(shù)據(jù)算法的價格歧視問題》,《社會科學研究》2020年第5期;張恩典:《反算法歧視:理論反思與制度建構(gòu)》,《華中科技大學學報(社會科學版)》2020年第5期。、規(guī)制制度④楊成越、羅先覺:《算法歧視的綜合治理初探》,《科學與社會》2018年第4期。陳兵:《法治經(jīng)濟下規(guī)制算法運行面臨的挑戰(zhàn)與響應》,《學術(shù)論壇》2020年第1期;崔靖梓:《算法歧視挑戰(zhàn)下平等權(quán)保護的危機與應對》,《法律科學(西北政法大學學報)》2019年第3期。、法律責任⑤丁宇翔:《跨越責任鴻溝-共享經(jīng)營模式下平臺侵權(quán)責任的體系化展開》,《清華法學》2019年第4期。等內(nèi)容的討論,以回應“規(guī)制價格歧視”“棒殺大數(shù)據(jù)殺熟”等熱點輿情的現(xiàn)實需要。但算法歧視消費者的運行機制并未得到系統(tǒng)性解釋與回答,而算法歧視消費者的規(guī)制實踐迫切需要理論前提的破解與完善。因此,如何清晰而系統(tǒng)地解釋算法歧視消費者的運行機制與損益界定等理論前提,并以之為基礎明確算法歧視消費者的規(guī)制要義,進而完善其規(guī)制實踐,成為一個亟待解決的問題。
總之,不管是出于促進數(shù)字經(jīng)濟深度健康發(fā)展的考慮,還是基于保護個體消費者權(quán)利、維護正常競爭秩序的市場目標,我國相關法律都應對算法歧視保持足夠的警惕,防止算法歧視損害后果的發(fā)生⑥劉友華:《算法偏見及其規(guī)制路徑研究》,《法學雜志》2019年第6期。。希冀本研究能夠破解算法歧視消費者的研究難點,同時為算法歧視消費者的規(guī)制實踐提供有益參考。
算法決策在提升經(jīng)濟效率并促使市場各方主體對自動化決策產(chǎn)生依賴的同時,也帶來了諸多不可忽視的歧視行為。從社會心理學上講,歧視是不同利益群體間發(fā)生的一種不平等的情感反應和行為,消費者很難感性判斷其被何種類型的算法歧視侵犯了個人的何種合法權(quán)益⑦鄭智航、徐昭曦:《大數(shù)據(jù)時代算法歧視的法律規(guī)制與司法審查-以美國法律實踐為例》,《比較法研究》2019年第4期。。只有明晰算法歧視消費者“隱蔽性”的肇因,才能在規(guī)制制度的設計中“對癥下藥”,精準、高效地解決算法歧視消費者問題。因此,首先必須釋明算法歧視消費者的行為機制。算法會在信息采集、特定推送和個性定價三個階段,以信息輸入、數(shù)據(jù)整理、算法決策與后臺控制等運行環(huán)節(jié)為切入點,對消費者實施多階段多環(huán)節(jié)的“顯性歧視”或“隱性歧視”(見圖1)。
圖1 算法歧視消費者的行為機制
利用算法技術(shù)采集消費者信息是互聯(lián)網(wǎng)企業(yè)實施各類算法歧視活動的基礎,但數(shù)據(jù)與算法不可能完全獨立于人而保持客觀性,不可避免地帶有“以偏概全”的風險,因此,算法采集標準模型缺陷、數(shù)據(jù)樣本偏差都將導致或加劇消費者信息采集階段的算法歧視現(xiàn)象①李婕:《壟斷抑或公開:算法規(guī)制的法經(jīng)濟學分析》,《理論視野》2019年第1期。。一方面,算法采集模型以經(jīng)營者的營利性目的作為內(nèi)在驅(qū)動力,對消費者的個人信息有選擇性地進行收集,集結(jié)帶有消費者個性化屬性的經(jīng)濟狀況、支付能力、支付意愿、消費場景等信息,形成消費者個人的數(shù)字畫像,構(gòu)成算法歧視的基礎。另一方面,市場要素的數(shù)字化投射不一定真實,也不一定完整,導致數(shù)據(jù)采集受現(xiàn)實環(huán)境中的信息分布、表征、接近性和可得性、個體的動機和目標、所采集樣本的有限性、樣本搜索算法,以及元認知監(jiān)控能力不足等因素制約②馬丹丹、岑詠華、吳承堯:《信息樣本的有偏采集如何導致決策偏見?-基于采樣偏差的新視角述評》,《外國經(jīng)濟與管理》2017年第12期。,有可能發(fā)生偏差,這都在數(shù)據(jù)源頭為算法歧視埋下了隱患。這并不是真正針對個體的服務。模型在我們看不到的地方仍然把我們歸類為各種各樣的群體,以各種行為模式為指標。不管最終的分析正確與否,這種不透明性都會導致欺詐③凱文·沃巴赫、林少偉:《信任,但需要驗證:論區(qū)塊鏈為何需要法律》,《東方法學》2018年第4期。。
大數(shù)據(jù)是市場的一種鏡像,依賴于大數(shù)據(jù)的算法,從歷史數(shù)據(jù)中訓練而獲得數(shù)據(jù)的類型化特征。一旦市場對某個群體存在結(jié)構(gòu)性的負面偏見,這種偏差就會反映到數(shù)據(jù)上,算法也會“如實”地歸納出這些偏差,以此為基礎進行運算并作出市場決策。算法在關聯(lián)標記、置頂排名和過濾環(huán)節(jié)都可能存在潛在的歧視。具體而言:第一,被算法判定為存在關聯(lián)關系的不同數(shù)據(jù)之間有可能確實存在因果關系,但也可能僅是偶然巧合關聯(lián),可是算法不會像法律一樣進行嚴謹?shù)囊蚬P系分析,算法對因果關系和偶然關聯(lián)并不加以區(qū)分,直接把這些關聯(lián)數(shù)據(jù)用作分類和預測的依據(jù),就會導致算法歧視甚至錯誤④楊成越、羅先覺:《算法歧視的綜合治理初探》,《科學與社會》2018年第4期。。第二,算法運行依賴置頂排名。內(nèi)含置頂排名的算法必須事先嵌入優(yōu)先標準,而這些標準可能被植入了帶有偏見的價值理念以進行營利驅(qū)動。第三,過濾環(huán)節(jié)需要通過規(guī)則設置顯示有效信息,同時排除無效信息。過濾通常會根據(jù)前置環(huán)節(jié)中的關聯(lián)標記和置頂排名決定排除哪些信息以及最終顯示哪些信息,前置環(huán)節(jié)的錯誤和偏見會直接導致不公平的過濾,帶來歧視性顯示⑤劉培、池忠軍:《算法的倫理問題及其解決進路》,《東北大學學報(社會科學版)》2019年第2期。。例如,網(wǎng)約車平臺軟件在評估乘客的消費能力時,通常會從消費頻率推測消費者的忠誠度。倘若消費者使用軟件的頻率高,就會被算法自動判定為高忠誠度群體,而這類消費者就是被平臺收取高價的群體。這種“忠誠消費者”的范疇化,就形成了一種預前判斷,也構(gòu)成了信息采集算法的分類標準和預測基礎。然而,這種由算法構(gòu)建的市場主體“身份類型化”“個體特征化”已經(jīng)內(nèi)含歧視風險,在某種層面就是把數(shù)據(jù)本身存在的歧視進一步擴大。相較于設計者、使用者的故意歧視,因數(shù)據(jù)本體產(chǎn)生的針對消費者身份的歧視問題往往容易被忽視,并可能造成更為隱蔽和嚴重的后果。⑥卜素:《人工智能中的“算法歧視”問題及其審查標準》,《山西大學學報(哲學社會科學版)》2019年第4期。
在特定推送階段,算法在信息采集的“特征歧視”基礎上強化了經(jīng)營者歧視消費者的程度。特定推送算法基于強大的數(shù)據(jù)清洗和處理能力,在了解消費者支付意愿后,將商品信息推送給特定標簽群體或消費者,以實現(xiàn)用戶獲取有效信息的成本最小化和互聯(lián)網(wǎng)企業(yè)利潤最大化。例如,“因存貨和成本等因素的限制,Ebay 會把‘某清乾隆的梅瓶’賣給出價最高的張三,而不是只愿出價200元的李四①喻玲:《算法消費者價格歧視反壟斷法屬性的誤讀及辨明》,《法學》2020年第9期。?!钡?,當特定推送算法基于內(nèi)容推薦、協(xié)同過濾推薦、知識推薦、網(wǎng)絡結(jié)構(gòu)推薦、混合推薦等要素過濾機制將個性化推薦的程度發(fā)揮至極致時,同時也將消費者自身因素形成“信息偏食”②人的認知范圍與信息圈層受到主客觀條件限制,了解信息的范圍被稱為信息圈層,也被稱為“信息偏食”。的正常狀態(tài)推入由算法推送形成的“信息偏在”的“繭房”中,削弱了消費者獲取信息的主觀動力,導致消費者認知窄化,間接限制了消費者選擇交易的權(quán)利③雖然不少缺乏自制力的“信息偏食者”極度依賴特定推送算法進行商品選擇,但對這部分選擇以信息自主選擇權(quán)換取便利的消費者而言,推送算法已由信息適配者角色僭越為信息的投喂者。。
除此之外,特定推送算法決策的高技術(shù)性和不透明性使消費者難以理解算法決策過程,從而在互聯(lián)網(wǎng)企業(yè)與消費者之間形成了“技術(shù)鴻溝”。美國學者尼沃·埃爾金科倫等提出了著名的算法黑箱理論:算法在很大程度上就是一個黑箱子,即不透明的輸入和輸出系統(tǒng),普通人無從知曉輸入—輸出之間的相互作用是通過怎樣的結(jié)構(gòu)得以發(fā)生的,也不知道算法決策依據(jù)的具體數(shù)據(jù)指征和遵循的決策準則是什么④[美]尼沃·埃爾金科倫、尼爾·溫斯托克·內(nèi)坦尼爾:《信息的商品化》,中信出版社2003年版,第231-234頁。。隨著技術(shù)商業(yè)化的普及,“黑箱”這一形象的表述也越來越具有經(jīng)濟學意蘊。壟斷平臺企圖利用算法控制相關市場,而沒有掌握算法技術(shù)的市場主體(包括其他經(jīng)營者和消費者)都被排除在算法“黑箱”之外。隨著算法決策在特定推送領域的廣泛應用,人們開始擔心數(shù)字經(jīng)濟市場最終會演變成算法黑箱操作系統(tǒng)控制的“黑市”,侵害廣大經(jīng)營者的公平競爭權(quán)以及消費者的基本權(quán)利⑤丁曉東:《算法與歧視-從美國教育平權(quán)案看算法倫理與法律解釋》,《中外法學》2017年第6期。。長此以往,信息的過度不對稱導致技術(shù)劣勢方被迫臣服于技術(shù)強勢方的“算法權(quán)威”。在算法黑箱的助推下,算法實施了大量帶有歧視性的定價行為和推送行為,從而使算法演變成為大數(shù)據(jù)時代市場壟斷的幫兇⑥鄭智航、徐昭曦:《大數(shù)據(jù)時代算法歧視的法律規(guī)制與司法審查-以美國法律實踐為例》,《比較法研究》2019年第4期。。
定價算法以前面兩步驟為基礎,制定一個價格歧視機制(price algorithmic discrimination),確保不同消費者享受不同的產(chǎn)品價格⑦Hacker,Philipp. Teaching Fairness to Artificial Intelligence:Existing and Novel Strategies Against Algorithmic Discrimination Under EU Law. Social Science Electronic Publishing , 2018.。算法與幕后的設計者和控制人有著不可分離的關系,算法歧視可能源于設計者或控制人的違法行為。第一,受制于當前技術(shù)發(fā)展水平,算法介入市場的程度尚不足以完全改變?nèi)肆刂剖袌龅幕靖窬帧L幱谌跞斯ぶ悄芩降乃惴ú痪哂兄黧w性,算法的設計、運行還需要依賴人為操作和控制。正如有的學者所言,機器背后仍是有權(quán)者對多數(shù)人的控制⑧陳姿含:《人工智能算法中的法律主體性危機》,《法律科學(西北政法大學學報)》2019年第4期。。置換到市場中,即算法背后是擁有市場支配地位的經(jīng)營者對消費者的控制。在消費者面前出現(xiàn)的是一種更加“善解人意”的軟件,消費者不會意識到已經(jīng)處于“被決定”的被動地位。第二,依靠算法進行數(shù)據(jù)處理,將引入、擴大設計者或控制人的偏見并延續(xù)數(shù)據(jù)偏差,進而導致決策不公。信息爆炸使得人們必須依靠技術(shù)手段對海量信息進行篩選和評估。算法作出決策的基礎是數(shù)據(jù),決策的優(yōu)劣離不開人(算法設計者或控制人)對算法進行目標和程序設定,即如何采集和處理數(shù)據(jù)。在這一過程中算法如果承繼人的某些偏見,并通過高速處理將其擴大或循環(huán),就會導致算法歧視。第三,算法幕后的設計者或控制人可能濫用算法技術(shù)權(quán)力。如通過算法歧視進行個性化差異定價,快速謀取壟斷利潤。當算法設計者或控制人針對消費者指控而發(fā)布技術(shù)中立的免責聲明時,幕后隱藏的可能是人為的故意或疏忽大意。谷歌公司利用算法排除競爭案即為典型。眾所周知,谷歌公司主要提供搜索引擎服務,購物比價是其針對網(wǎng)絡購物提供的一款專業(yè)搜索服務,用戶輸入商品關鍵詞,就會出現(xiàn)不同網(wǎng)站的商品供用戶比較選擇。谷歌公司聲稱所展示的商品完全根據(jù)算法自動得出,算法能依據(jù)商品網(wǎng)頁的鏈接數(shù)量與質(zhì)量來判定該商品的重要性,并按重要程度排列向用戶展示。而當其自己的購物網(wǎng)站-Google Shopping 服務業(yè)務進入歐洲市場后,谷歌公司就通過技術(shù)編輯算法,將自己旗下的商品信息置于展示頁面的顯眼位置,以提高用戶的關注度和購買意愿,但是諸多證據(jù)顯示其商品并不是最優(yōu)①[美]弗蘭克·帕斯奎爾:《黑箱社會:控制金錢和信息的數(shù)據(jù)法則》,趙亞男譯,中信出版社2015年版,第131-133頁。。作為算法控制人和實際獲益者的谷歌公司卻聲稱該推薦與其無關,只是算法運行的結(jié)果,顯然其說辭難以令人信服。
當算法在不同領域階段實施歧視消費者行為時,會產(chǎn)生不同程度的消費者權(quán)益損失問題。算法歧視加劇了經(jīng)營者和消費者之間的技術(shù)鴻溝,導致消費者的信息劣勢地位進一步強化。算法使用者利用算法技術(shù)內(nèi)部的不透明性以及商業(yè)秘密保護制度的掩蓋,故意持續(xù)鞏固算法的黑箱效應,逐步將算法技術(shù)遷徙到市場規(guī)制的空白領域,導致既有的市場規(guī)制制度無法有效適用于算法歧視行為。算法歧視在操縱算法黑箱化的同時也使消費者進一步透明化,導致“強者行其所能為,弱者忍其所必受”的后果,消費者在算法歧視下的網(wǎng)絡市場環(huán)境中苦不堪言?!拔簞t西事件”折射出百度搜索算法設計中的漏洞,今日頭條因算法推薦內(nèi)容同質(zhì)化而廣受詬病,滴滴網(wǎng)約車軟件因算法動態(tài)定價被質(zhì)疑“殺熟”②杜小奇:《多元協(xié)作框架下算法的規(guī)制》,《河北法學》2019年第12期。。這使得算法這一新興商業(yè)運作模式面臨合法性質(zhì)疑。但算法歧視消費者行為的階段性特征使得算法歧視產(chǎn)生的損益結(jié)果具有極強的隱蔽性,消費者難以判斷其遭受何種程度的歧視。因此,對算法歧視消費者的損益界定,亟待根據(jù)其行為的階段性特征入手,從多法域角度界定損益后果。
如前所述,信息采集算法構(gòu)建的市場主體“身份類型化”“單體化特征”已經(jīng)內(nèi)含歧視風險。在信息采集階段算法的“歧視標準”損害的是不特定主體的數(shù)據(jù)權(quán)等基本權(quán)利,這些利益的享有人不確定,利益侵害的力度未知,危害后果難以遏制,且受損害的個體難以獲得救濟③章小杉:《人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑》,《華東理工大學學報(社會科學版)》2019年第6期。。主要表現(xiàn)為以消費者性別、消費者來源地與消費者職業(yè)等身份信息作為算法歧視的基礎④消費者性別差異會使男女間產(chǎn)生消費觀念、消費偏好的差別,消費者來源地是消費者的個人基本信息,而非直接的經(jīng)濟特征。此外,消費者職業(yè)是消費者的個人身份信息,不能直接反應一個人的收入水平、偏好。。按照德國社會學家馬克斯·韋伯的工具理性和價值理性理論,工具理性強調(diào)工具崇拜,主張發(fā)揮工具的最大效用,價值理性則以人的動機和選擇作為實現(xiàn)目標的決定因素。數(shù)字經(jīng)濟使得工具理性發(fā)生異化,算法技術(shù)由給人類提供輔助的工具轉(zhuǎn)化為反噬人類理性的工具。一方面,自我迭代的算法導致市場主體被全面奴役,它預設市場主體的身份,以統(tǒng)計學上的關聯(lián)性替代因果關系對個體進行歸類和預測,成為市場競爭規(guī)則的塑造者;另一方面,算法日益復雜化,使市場主體逐漸淪為被技術(shù)操縱的對象,人的主體性發(fā)生危機,出現(xiàn)越來越多市場主體無法解釋和控制的算法歧視行為。但科學技術(shù)并非無價值邊界,只有當其符合市場主體的普遍價值判斷時,才會逐漸被信任并接受。算法運行的邏輯是技術(shù)的自我迭代與革新,而法律運行的機理是公眾認知的理性選擇。因此,法律作為人類生活規(guī)則化的方向性指引,對算法歧視行為能夠起到制度性引領的作用。
消費者的自主權(quán),是指消費者依據(jù)自我決定的消費目的和自我判斷的商品價值作出理性抉擇的自由。然而,經(jīng)營者尤其是一些互聯(lián)網(wǎng)企業(yè)會通過算法對消費者的個人信息進行收集、整理和分析,從而給消費者提供“私人定制”的服務。其聲明會尊重和保護消費者數(shù)據(jù)權(quán)利,承諾算法具備客觀性和中立性,以吸引和誘導消費者將更多具有商業(yè)價值的決策權(quán)移交給互聯(lián)網(wǎng)企業(yè)。從搜索引擎、新聞推送到購物出行,甚至個人信息如何使用都嚴重依賴算法決策①王鍇:《基本權(quán)利保護范圍的界定》,《法學研究》2020年第5期。。隨著算法自主性的增強,作為主體的消費者的自主性卻隨之減弱,導致算法損害消費者權(quán)益的現(xiàn)象出現(xiàn)。特定推送算法對消費者瀏覽足跡和購買歷史累積的大數(shù)據(jù)進行技術(shù)性搜集和分析,推測出消費者能夠承受的最高價格,對不同的消費者實施個性化信息推送或屏蔽。算法的個性化推薦對在線消費者進行商品、服務和信息推送不僅會迎合消費者偏好,更直接關聯(lián)經(jīng)營者的經(jīng)濟利益,它決定誰的商品能夠在排序中置頂從而優(yōu)先推送給消費者②沈偉偉:《算法透明原則的迷思-算法規(guī)制理論的批判》,《環(huán)球法律評論》2019年第6期。。雖然消費者與經(jīng)營者之間始終存在信息不對稱狀態(tài),但特定推送算法的“黑箱機制”進一步加劇了這種不對稱,導致消費者按照經(jīng)營者所希望的意思在進行表示,根本沒有意識到意思表示已經(jīng)不真實,使得處于信息弱勢一方的消費者無法作出真正的自主決策。
消費者自主權(quán)的正常行使建立在信息多元化能夠得到保障的基礎之上,而算法的個性化推薦只推送部分信息,造成信息繭房,進而阻礙消費者自主權(quán)的行使。而且隨著算法深度學習功能越來越強大,個性化推薦甚至可以脫離消費者線上活動的足跡,引導消費者按照企業(yè)的營銷思路作出決策,即算法專業(yè)領域所稱的“無歷史數(shù)據(jù)用戶的冷啟動”。例如在谷歌地圖軟件上,如果軟件所使用的算法不關心用戶的實際定位以及其所希望到達的目的地,而只關注廣告商期待用戶將途經(jīng)或到達的地點,則依賴谷歌地圖確定出行路線的用戶,就會如同木偶表演一樣被引導走向既定路線③范紅霞、孫金波:《大數(shù)據(jù)時代算法偏見與數(shù)字魔咒-兼談“信息繭房”的破局》,《中國出版》2019年第10期。。從經(jīng)營者角度觀察,算法決策會越來越契合其營利性需求,但若站在消費者角度思考,消費者往往已經(jīng)落入經(jīng)營者的營銷套路。最終的結(jié)果就是消費者的自主權(quán)被進一步削弱,消費者自主選擇等基本權(quán)利的能力被持續(xù)削弱。
由于企業(yè)利益至上的營銷方案,支撐其營銷方案的算法會通過加強對用戶的監(jiān)控使其產(chǎn)生用戶黏性,在相關市場中獲取并鞏固壟斷地位,嚴重破壞了市場競爭秩序④馬長山:《智能互聯(lián)網(wǎng)時代的法律變革》,《法學研究》2018年第4期。??梢?,在個性化定價階段,定價算法歧視不僅損害了消費者個體權(quán)利,也損害了競爭性利益,具有明顯的違法性與損益性⑤從競爭法治的維度上看,算法歧視可歸入反壟斷法所禁止的價格歧視行為,對于價格歧視的認定標準、競爭損害等,域外執(zhí)法和司法實踐中積累了不少典型案例和成熟做法。國內(nèi)競爭執(zhí)法部門和法院在分析相關案件時傾向于利用《反壟斷法》第 1條中的“保護市場公平競爭”來解釋案件中實施價格歧視的經(jīng)營者的行為違法性。。
個性化定價導致過高定價。定價算法主導的個性化定價以行為經(jīng)濟學理論為基礎,通過收集消費者的個人信息數(shù)據(jù),在定價變量的設計中保留對自己有利的因子,剔除對消費者有利的因子,從而確保最大限度地抓取消費者的消費傾向和價格上限信息,制定契合消費者支付意愿的完美定價,促使交易量和交易額同時大幅增加。但個性化定價實質(zhì)是在侵犯消費者個人信息基礎上的過高定價,導致本應歸屬個體消費者的剩余毫無保留地向單個經(jīng)營者轉(zhuǎn)移。例如,在“Merci v.Siderurgica”案中,向特定客戶進行過高定價彌補其他價格優(yōu)惠損失的策略是非法的①EUR-Lex - 61990CJ0179- EN https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A61990CJ0179,最后訪問時間:2021年1月18日。。
個性化定價導致壟斷定價。定價算法主導的個性化定價使經(jīng)營者能夠在既有的產(chǎn)品種類上獲得高額利潤,其沒有創(chuàng)新動力再進行產(chǎn)品的更新?lián)Q代,相關產(chǎn)品市場會持續(xù)變窄,形成高度集中的市場環(huán)境。而高度集中的市場環(huán)境中,算法技術(shù)的應用使各經(jīng)營者能夠輕易獲取其他競爭者的定價信息,導致市場在經(jīng)營者端變得透明,透明且集中的市場又給默示共謀行為的滋生提供了養(yǎng)分和環(huán)境。故個性化定價會進一步促成經(jīng)營者之間的默示共謀,經(jīng)營者在默契配合下同時提高產(chǎn)品價格,消費者由于相關市場狹窄而無法利用手中的價格選票進行對抗,只能被迫接受經(jīng)營者的壟斷定價,進而導致整體消費者剩余向經(jīng)營者端轉(zhuǎn)移??梢?,個性化定價導致的壟斷定價在侵犯消費者自由選擇空間的同時也掠奪了價格福利。傳統(tǒng)司法實踐也認可了這種歧視行為的違法性。在“Deutsche Post AG”案中,德國郵政公司針對競爭對手故意延緩信件傳遞時間,并利用其德國國內(nèi)郵政市場的壟斷地位與信息優(yōu)勢收取過高定價,對消費者具有直接的負面影響②EUR-Lex - 32001D0892- EN https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32001D0892,最后訪問時間:2021年1月18日。。
算法歧視消費者的階段性行為使算法歧視的特征表現(xiàn)極具隱蔽性。在信息采集階段,算法的“歧視標準”損害的是不特定主體的公民基本權(quán)利。在特定推送階段,算法推送對象與排斥對象具有明晰的“身份特征”,損害的是消費者的自主決策權(quán)利;在個性定價階段,定價算法不僅損害消費者個體權(quán)利,也損害競爭性利益,具有明顯的違法性與侵權(quán)性。與損害公民基本權(quán)利的算法歧視相比,損害消費者利益的算法歧視有著明顯不同。首先,二者損害的對象不同,損害公民基本權(quán)利的算法歧視損害的是不特定主體的權(quán)利,包括性別平等、身份平等社會性基本權(quán)利;而損害消費者權(quán)益的算法歧視損害的則是特定消費者的公平交易權(quán)和自由選擇權(quán),即使損害范圍在個案中時大時小,但始終局限在消費者群體范圍內(nèi)。其次,損害利益的不同進而導致二者適用的法律規(guī)范也會存在差異,前者由于損害利益的不確定性,適合從法律原則層次進行引導;而后者基于損害消費者利益的確定性,適合由《消費者權(quán)益保護法》《電子商務法》《反壟斷法》等具體法律規(guī)則進行規(guī)制。
“在動態(tài)而復雜的數(shù)字經(jīng)濟市場中,增強消費者的信任度仍然是數(shù)字經(jīng)濟成功的基石”③Gokce,Ebru. Competition Issues in the Digital Economy UNCTAD Background Note 2019. 18th session of Intergovernmental Group of Experts on Competition Law and Policy, 2019.。雖然算法服務數(shù)字經(jīng)濟的功能得到主要經(jīng)濟體普遍承認,但數(shù)字經(jīng)濟的發(fā)展需要通過企業(yè)間的算法競爭來形成前進動力,算法競爭產(chǎn)生的歧視消費者現(xiàn)象同樣受到各國監(jiān)管層的密切關注④Vatamanescu E M,Nistoreanu B G,Mitan A. Competition and Consumer Behavior in the Context of the Digital Economy,Amfiteatru Economic Journal,2017,19(45), pp.354-366.。算法展現(xiàn)出對資源配置機制的創(chuàng)新性改造⑤姚前:《算法經(jīng)濟:資源配置的新機制》,《清華金融評論》2018年第10期。,又為其服務市場所面臨的市場競爭與公平秩序限定了邊界。追求公平的算法秩序決定了算法歧視消費者必然面臨“形式與實質(zhì)”“群組與個體”等不同維度的規(guī)制態(tài)勢,因此,對規(guī)制算法歧視消費者的多維度解讀,將有助于我國規(guī)制算法歧視消費者的基本邏輯構(gòu)建。
在信息采集階段,算法歧視使經(jīng)營者的算法自主決策權(quán)與消費者的隱私權(quán)等基本權(quán)利之間會產(chǎn)生沖突。一方面,經(jīng)營者主體享有算法使用的自主決策權(quán)限。例如,法律雖未禁止經(jīng)營者使用人臉、聲紋等識別技術(shù)依托的算法采集消費者個人生物信息,但經(jīng)營者未經(jīng)消費者同意偷攝、偷錄消費者個人生物識別信息,就會嚴重侵犯消費者隱私權(quán)。其后的甄別消費者身份的行為亦侵犯了消費者的身份平等權(quán)①新華網(wǎng):《為防人臉識別戴頭盔看房,警惕技術(shù)濫用加劇隱私危機》,http://www.xinhuanet.com/comments/2020-11/25/c_1126786219.htm,最后訪問時間:2021年1月20日。,并可能進一步限制公民相關的政治權(quán)力和自由。另一方面,經(jīng)營者與消費者“共享信息”,甚至比消費者先獲收益的同時,卻未能“共擔風險”。消費者按約提供信息是獲得經(jīng)營者提供信息推送、購買商品等服務的必然前提。根據(jù)消費者的消費意愿有無、強弱,大量消費者可能只停留在信息提供階段,而沒有進一步瀏覽信息或購買商品的行動。因此,經(jīng)營者可在向消費者提供服務前,將采集到的消費者信息整備成其數(shù)據(jù)資源庫的組成部分,發(fā)揮額外的商業(yè)價值。與此同時,經(jīng)營者在使用消費者信息的過程中也存在泄露消費者個人信息的行為。澳大利亞競爭和消費者委員會(ACCC)調(diào)研報告顯示,消費者在未享有部分收益的同時,還要額外承擔因信息泄露給自己帶來損害的風險②ACCC,NSW Young Lawyers (April 2018),https://www.accc.gov.au/system/files/NSW%20Young%20Lawyers%20%28April%202 018%29.pdf,最后訪問時間:2021年1月22日。。
在特定推送階段,算法歧視使經(jīng)營者的推薦策略權(quán)與消費者知情權(quán)、自主選擇權(quán)發(fā)生沖突。消費者的知情權(quán)是知悉商品或服務真實情況的權(quán)利;消費者的自主選擇權(quán)是消費者遵從自我意愿,自主選擇商品或服務的權(quán)利。對于經(jīng)營者的推薦策略,因不具體指向任何一項產(chǎn)品或服務,且本身無法產(chǎn)生強制購買的效果。從降低交易成本的角度看,不宜一概認定消費者對經(jīng)營者的推薦策略享有“選擇權(quán)”。若推薦策略的結(jié)果損害消費者知情權(quán)、選擇權(quán),那么經(jīng)營者通過特定推送算法推送給消費者的信息“應當同時向該消費者提供不針對其個人特征的選項”③參見:《電子商務法》第18條第1款。。例如,在互聯(lián)網(wǎng)平臺版權(quán)交易中,互聯(lián)網(wǎng)平臺通過特定推送算法、熱點排名算法、流量扶持算法等算法工具進行作品推廣,但平臺并未對推廣作品進行版權(quán)合法性審查。這導致消費者在購買作品時需“自擔風險”④以視頻分享平臺嗶哩嗶哩(bilibili)為例,其在《嗶哩嗶哩彈幕網(wǎng)用戶使用協(xié)議》(2019 年 7 月 23 日版)7.7條款中注明:“用戶理解并同意自主選擇免費下載和使用嗶哩嗶哩服務,風險自負,包括但不限于用戶使用嗶哩嗶哩服務過程中的行為,以及因使用嗶哩嗶哩服務產(chǎn)生的一切后果。”。同時,平臺將“征求著作權(quán)者授權(quán)或許可”的義務轉(zhuǎn)嫁給了消費者,剝奪了消費者向平臺追償?shù)臋?quán)利。
在個性定價階段,算法歧視使經(jīng)營者的市場利益與消費者剩余福利存在利益沖突。傳統(tǒng)經(jīng)濟領域,由于信息不對稱的問題雖然存在但并不突出,經(jīng)營者市場利益與消費者福利之間存在共生的可能性,經(jīng)營者由于無法準確判斷消費者的支付意愿,只能通過制定合理價格的方式提升產(chǎn)品的性價比,以此吸引消費者購買并由此獲利,故經(jīng)營者實現(xiàn)市場利益的同時也滿足了消費者福利。可是在算法主導的大數(shù)據(jù)經(jīng)濟領域中,經(jīng)營者基于其技術(shù)優(yōu)勢使信息不對稱演變?yōu)樾畔Ⅷ櫆希?jīng)營者可以通過對消費者信息的分析進行個性化定價,對忠誠消費者收取高價來獲取高額利潤,對部分潛在消費者收取相對低廉價格來獲取最大銷量,實現(xiàn)市場利益,而被算法判斷為“忠誠”等級的消費者卻因此付出高價。在 2016 年經(jīng)濟合作與發(fā)展組織(下文簡稱OECD)“價格歧視”圓桌會議上,美國、日本、俄羅斯等國家的競爭執(zhí)法部門就表示,由于基于數(shù)據(jù)的企業(yè)可以更準確預測每個消費者的支付意愿,價格歧視在數(shù)字經(jīng)濟中的應用更為廣泛,這就增加了企業(yè)實施剝削性價格歧視的風險,并且可能損害公平的市場競爭秩序①周圍:《人工智能時代個性化定價算法的反壟斷法規(guī)制》,《武漢大學學報》2021年第1期。??梢?,個性化定價階段,算法歧視直接導致了經(jīng)營者市場利益和消費者剩余福利之間的嚴重利益沖突。
數(shù)字經(jīng)濟作為經(jīng)濟新業(yè)態(tài)和新模式,必然對政府和市場監(jiān)管規(guī)則產(chǎn)生新的挑戰(zhàn)??傮w上,現(xiàn)有數(shù)字經(jīng)濟監(jiān)管模式仍然沿襲傳統(tǒng)市場的二元分散治理模式:市場競爭實現(xiàn)市場力量制衡;政府秉持包容、事后的監(jiān)管態(tài)度。算法歧視規(guī)制往往出現(xiàn)“打地鼠式”的治理困境,缺乏系統(tǒng)性的協(xié)同治理。2020年3月,工業(yè)和信息化部關于印發(fā)《中小企業(yè)數(shù)字化賦能專項行動方案》明確“發(fā)展數(shù)字經(jīng)濟新模式新業(yè)態(tài)”“鼓勵發(fā)展算法產(chǎn)業(yè)和數(shù)據(jù)產(chǎn)業(yè)”。無獨有偶,2020年4月,國家發(fā)展和改革委員會等13個部委印發(fā)《關于支持新業(yè)態(tài)新模式健康發(fā)展,激活消費市場帶動擴大就業(yè)的意見》(下稱《意見》)力促“質(zhì)量變革、效率變革、動力變革”,推動經(jīng)濟“新業(yè)態(tài)新模式”的確立。在諸多產(chǎn)業(yè)政策加持下,算法經(jīng)濟提速與算法競爭加劇的場景顯現(xiàn)也在情理之中。在產(chǎn)業(yè)激勵政策之外,《意見》提及對數(shù)字經(jīng)濟創(chuàng)新要“創(chuàng)新監(jiān)管模式,積極鼓勵創(chuàng)新,健全觸發(fā)式監(jiān)管機制”。因此,宏觀政策對算法歧視消費者所涉利益沖突的規(guī)制態(tài)度表現(xiàn)并不明確。
算法歧視消費者行為在法律責任認定及追究方面也存在諸多問題。在立法層面,如《反壟斷法》要求實施算法價格歧視行為的經(jīng)營者具有市場支配地位,但認定互聯(lián)網(wǎng)企業(yè)具備市場支配地位的標準并不明晰。在部門規(guī)范中,文旅部2020年出臺的《在線旅游經(jīng)營服務管理暫行規(guī)定》明確禁止在線旅游經(jīng)營者濫用大數(shù)據(jù)分析等技術(shù)手段,基于旅游者消費記錄、旅游偏好等設置不公平的交易條件,侵犯旅游者合法權(quán)益,但其適用范圍有限。在擬出臺立法層面,《個人數(shù)據(jù)保護法(草案)》構(gòu)建了“通知-使用”的個人信息權(quán)保護規(guī)則體系;《關于平臺經(jīng)濟的反壟斷指南(征求意見稿)》更是明確提出禁止算法歧視消費者;《深圳經(jīng)濟特區(qū)數(shù)據(jù)暫行條例(草案)》提出經(jīng)營性數(shù)據(jù)要素市場主體不得通過分析消費者的個人信息、消費記錄、偏好等數(shù)據(jù),對商品或者服務設置不公平的交易條件,侵犯消費者合法權(quán)益,但這些草案的保護效力尚待實踐檢驗。在適用內(nèi)容方面,消費者可以因公平交易權(quán)和知情權(quán)受到侵害獲得《消費者權(quán)益保護法》救濟,但實踐中算法的法律定位更多確定為企業(yè)商業(yè)競爭的“工具”而不是商品,不屬于消費者知情范圍,經(jīng)營者甚至以算法涉及商業(yè)秘密為由進行抗辯②葉明、郭江蘭:《數(shù)字經(jīng)濟時代算法價格歧視行為的法律規(guī)制》,《價格月刊》2020年第3期。。在司法實踐中,“劉權(quán)與北京三快科技有限公司侵權(quán)責任糾紛案”的原告主張美團外賣利用行業(yè)壟斷優(yōu)勢和“大數(shù)據(jù)殺熟”的技術(shù)手段來區(qū)別定價,侵犯了自己的知情權(quán)、公平交易權(quán)。二審法院認為原告兩份訂單雖然購買商家、商品、收貨地址一致,但關鍵下單時間不一致。三快科技公司根據(jù)平臺交易量對配送費進行動態(tài)調(diào)整,是自身正常經(jīng)營行為,不構(gòu)成侵權(quán)③劉權(quán)、北京三快科技有限公司侵權(quán)責任糾紛二審民事判決書〔2019〕湘01民終9501號。。因此,法律制度的滯后性以及政府規(guī)制的不完全性,導致宏觀政策在創(chuàng)新與限制、競爭與規(guī)制之間的邊界探索尚不充分。
平臺自我管制本是逐利本質(zhì)驅(qū)使的一己私利優(yōu)先行為,但平臺自我管制在逐利動機的驅(qū)使下,必然選擇平臺方或平臺生態(tài)圈的利益優(yōu)先策略。雖然算法歧視消費者問題備受關注,每次涉事企業(yè)都否認利用算法技術(shù)歧視消費者,最后結(jié)果也都往往不了了之。例如,2015 年 1 月國家工商管理部門指出淘寶正品率僅為37.25%,沒有擔負監(jiān)督檢查責任。但阿里聲稱雖然自己有義務監(jiān)管假貨,但憑借企業(yè)自身的監(jiān)督力量很難有效監(jiān)管淘寶市場,并認為前國家工商總局抽檢不合程序和規(guī)范,貿(mào)然公開其過低的產(chǎn)品合格率,影響了其市場聲譽④新華網(wǎng),《工商總局局長談網(wǎng)絡企業(yè)售假:可罰到傾家蕩產(chǎn)》,http://www.xinhuanet.com//politics/2015lh/2015-03/10/c_127 562 630_2.htm,最后訪問時間:2021年1月21日。。又如,在2019年10月北京消費者協(xié)會發(fā)布“大數(shù)據(jù)殺熟”調(diào)查報告,指出攜程、去哪兒、滴滴出行、淘票票等平臺存在“大數(shù)據(jù)殺熟”行為,但攜程、去哪兒、飛豬作出回應,均否認存在“大數(shù)據(jù)殺熟”行為,稱價格變動系優(yōu)惠活動導致,對所有用戶報價均一致①新華網(wǎng),《北京市消協(xié)發(fā)布“大數(shù)據(jù)殺熟”問題調(diào)查結(jié)果》,http://www.xinhuanet.com/2019-03/28/c_1210093451.htm,最后訪問時間:2021年1月18日。。
1. 消除差別待遇:個人數(shù)據(jù)賦權(quán)
歐盟建立追求消除差別待遇的“主體平等”的數(shù)據(jù)賦權(quán)規(guī)制路徑。算法運行以數(shù)據(jù)為基礎,算法歧視往往源于對消費者個人數(shù)據(jù)的采集、清洗和整合過程,故歐盟規(guī)制算法歧視的重心在于保護消費者的數(shù)據(jù)權(quán)利,通過對消費者賦權(quán),使消費者有能力干涉數(shù)據(jù)的處理過程。例如,《通用數(shù)據(jù)保護條例》(GDPR)明確規(guī)定消費者擁有數(shù)據(jù)的攜帶權(quán)、刪除權(quán)以及被遺忘權(quán),這些數(shù)據(jù)權(quán)利可以幫助消費者對抗算法的自動化決策,免受算法自動化決策帶來的歧視威脅。歐盟模式重在以個人權(quán)力抑制算法權(quán)力的擴張。但是,算法歧視的結(jié)構(gòu)性特征消解了《通用數(shù)據(jù)保護條例》(GDPR)的“數(shù)據(jù)清潔”條款確立的數(shù)據(jù)“差別待遇”標準?!安顒e待遇”標準否認算法決策的客觀性,要求算法歧視的決策在主觀意圖上具備 “歧視”(discrimination)特征??墒牵撝贫群茈y落到實處,因為主觀意圖在實際案例中很難被證明。一方面,由于算法運算的基礎是數(shù)據(jù),如果用于訓練算法的歷史數(shù)據(jù)存在偏差或歧視,則算法會如實地總結(jié)并在運算結(jié)果中體現(xiàn)該歧視,引發(fā)算法歧視的風險,可是此時很難闡釋算法控制者存在歧視消費者的主觀意圖;另一方面,由于算法運算過程的技術(shù)性和自動化特征,即使算法在運算過程中確實故意歧視消費者,由于技術(shù)鴻溝的存在,這種主觀故意很難被發(fā)現(xiàn),也不易被證明。
2. 差別性影響標準:追求結(jié)果正義
相對于歐盟賦權(quán)模式的“形式公平”,美國監(jiān)管層更加追求算法結(jié)果的“實質(zhì)正義”。遵循這一思路,美國選擇了主張以保護“群組公平”(group fairness)的差別性影響標準為導向②差別性影響標準是指如果某項法律、政策或行為對某個群體產(chǎn)生差別性的負面影響,這項法律、政策或行為就應當被宣布為非法。差別性影響標準是從特定決策行為所產(chǎn)生的外部影響上來判斷行為人是否構(gòu)成歧視,即只要當特定行為造成受保護階層不成比例地承受負面結(jié)果,造成所謂差別性影響,便極有可能構(gòu)成歧視。,以外部監(jiān)管為主的管制模式。美國國會在《2019年算法責任法案》中授權(quán)美國聯(lián)邦貿(mào)易委員會(FTC)作為算法影響消費者決策的監(jiān)管權(quán)力主體,并課以算法使用主體披露算法信息與危險防止義務。FTC要求算法使用主體在合理情況下應向消費者解釋算法核心機制,并接受監(jiān)管當局的嚴格審查,以降低算法歧視的風險③Using Artificial Intelligence and Algorithms , https://www.ftc.gov/news-events/blogs/business-blog/2020/04/using-artificialintelligence-algorithms,最后訪問時間:2021年1月22日。。但是,差別性影響標準也面臨著適用上的困境:第一,強調(diào)“群組公平”尚無法完全實現(xiàn)算法結(jié)果個體公平(individual fairness)。算法技術(shù)透過精準定位、特定推送將消費者個人信息與行為軌跡進行量化、形式化處理后,將其歸入某類群組中,其所遵循的仍是一種去個體化的邏輯理路,忽略了個體利益。第二,差別性影響標準存在被虛置的可能性。美國住房發(fā)展部(HUD)在依據(jù)《公平住房法案》適用差別性影響標準判斷住房貸款公司利用算法歧視購房者行為時,賦予住房貸款公司一定豁免條件。如其向貸款申請人作出禁止貸款決策受到質(zhì)疑時,若能證明其行為能有效促進“相關利益”,且能排除行為的“非人為”“武斷性”“不必要”等因素,便不構(gòu)成歧視④Rodriguez,Lorena. “‘All Data Is Credit Data’:Closing the Gap Between the Fair Housing Act and Algorithmic Decisionmaking in the Lending Industry.”Columbia Law Review , 120 (2020).。按照差別性影響標準,數(shù)據(jù)是證明住房定價算法能夠保護弱勢購房群體的關鍵工具,若不收集對應的數(shù)據(jù)將掩蓋住房定價算法的歧視性影響①https://www.federalregister.gov/documents/2020/09/24/2020-19 887/huds-implementation-of-the-fair-housing-acts-disparateimpact-standard,最后訪問時間:2021年1月22日。,因此其數(shù)據(jù)收集行為具備一定的正當性。但批評者認為差別性影響標準附加的“非人為”“武斷性”“不必要”因素的豁免條件,使得住房貸款公司可以“合法商業(yè)利益”標準、“較少歧視性的替代辦法”為由主張歧視豁免,即使其運用算法模型作出了導致實質(zhì)性不平等的后果②Prince,Anya ER,and Daniel Schwarcz. “Proxy discrimination in the age of artificial intelligence and big data.” Iowa L. Rev.105 (2019):1257.。
從歐美國家對算法歧視消費者的規(guī)制安排來審視,雖然消費者利益被置于與競爭利益同等重要的地位,但各有利益保護的側(cè)重點。歐盟側(cè)重消費者利益的直接保護,美國側(cè)重競爭者行為規(guī)制。因此,兩個獨立維度的規(guī)制思路各自存在其適用邊界與困境。算法歧視消費者的規(guī)制應是“能夠在取得最大社會效益的同時又能最大限度地避免浪費”,即在調(diào)整互聯(lián)網(wǎng)企業(yè)競爭利益、消費者利益間沖突關系時,應在最大程度上協(xié)調(diào)利益需求,避免互聯(lián)網(wǎng)利用算法技術(shù)過度、無序競爭,造成不必要的規(guī)制成本浪費。從此點出發(fā),對算法歧視消費者規(guī)制最切實可行之處莫過于其侵犯消費者利益的法定化界定,即糅合歐盟模式與美國標準,在規(guī)制政策中明確算法歧視消費者規(guī)制路徑,在此基礎上明確其行為要件與法律后果。作為制衡市場權(quán)力的有效手段,法律規(guī)制不僅可以平衡各方利益、規(guī)范算法行為與保護消費者權(quán)利,也可以降低市場運作成本。更為重要的是,法律規(guī)制所具有的政策信號機制,將實現(xiàn)對算法驅(qū)動數(shù)字經(jīng)濟發(fā)展的協(xié)同規(guī)制。
在明確對算法歧視消費者規(guī)制的利益平衡要義,充分認識到現(xiàn)有體制規(guī)制算法歧視消費者困境后,應對算法歧視消費者行為進行全面有序的監(jiān)管,從消費者、企業(yè)、行業(yè)、執(zhí)法機構(gòu)四維度制定協(xié)同規(guī)制方案是必然之舉③陳兵:《因應超級平臺對反壟斷法規(guī)制的挑戰(zhàn)》,《法學》2020年第2期。。
互聯(lián)網(wǎng)企業(yè)基于技術(shù)優(yōu)勢,能夠掌握并分析內(nèi)生于消費者群體中的大數(shù)據(jù),在企業(yè)與消費者之間形成數(shù)據(jù)鴻溝進而實施算法歧視。為了填補互聯(lián)網(wǎng)企業(yè)與消費者之間的數(shù)據(jù)鴻溝,《電子商務法》順應數(shù)字經(jīng)濟的發(fā)展,明確規(guī)定互聯(lián)網(wǎng)企業(yè)在提供個性化搜索服務時須征詢消費者同意,即消費者“選擇進入”機制。消費者“選擇進入”機制意味著在算法實施個性化決策之前,互聯(lián)網(wǎng)企業(yè)需要征得數(shù)據(jù)權(quán)利主體即消費者的同意,消費者“選擇進入”是“明示同意規(guī)則”下的產(chǎn)物。但是,消費者“選擇進入”機制下的免受算法個性化決策權(quán)存在效用上的困境:雖然互聯(lián)網(wǎng)企業(yè)在提供服務之前有義務征詢消費者同意,但實際上,消費者在使用之前,往往沒有意識到互聯(lián)網(wǎng)企業(yè)可能會濫用消費者個人數(shù)據(jù)實施算法歧視,為了正常使用互聯(lián)網(wǎng)企業(yè)提供的服務,消費者往往會選擇同意。而當形成使用習慣并產(chǎn)生用戶黏性之后,即使在使用過程中受到算法歧視的侵害,此時消費者已經(jīng)喪失了拒絕的機會。以淘寶購物平臺為例,消費者必須授權(quán)平臺收集、使用個人數(shù)據(jù)后方能正常使用淘寶平臺進行購物,當消費者為使用平臺服務而“明示同意”數(shù)據(jù)使用協(xié)議,授權(quán)淘寶平臺收集和使用個人數(shù)據(jù)后,消費者便沒有途徑要求淘寶平臺停止針對個人的算法個性化決策。
為解決上述困境,歐盟在《通用數(shù)據(jù)保護條例》(GDPR)中明確指出消費者免受算法自動化決策的影響,我國也可以考慮在《個人數(shù)據(jù)保護法》《電子商務法》《消費者權(quán)益保護法》中更明確地規(guī)定消費者享有免受算法個性化決策的權(quán)利。從保護消費者權(quán)益的視角規(guī)制算法歧視,重心不在于解釋其內(nèi)部究竟如何運作,而在于檢驗輸入數(shù)據(jù)與輸出結(jié)果之間的關聯(lián)關系。當統(tǒng)計學的關聯(lián)關系適用于受算法決策影響的消費者,并對消費者的合法權(quán)益造成實質(zhì)性影響時,消費者有權(quán)力不受此關聯(lián)分析的限制是保護其合法權(quán)益最為直接和有效的方式。
具體而言,應采用消費者“選擇退出”機制代替目前運行的“選擇進入”機制,以維護消費者的自主權(quán)。消費者“選擇退出”機制應滿足下列要求:在數(shù)據(jù)采集階段,消費者注冊或第一次使用軟件時遵循“默示同意規(guī)則”,默認消費者若不明確表示反對即視為同意授權(quán)互聯(lián)網(wǎng)企業(yè)使用個人數(shù)據(jù),互聯(lián)網(wǎng)企業(yè)可以收集消費者的個人數(shù)據(jù);在數(shù)據(jù)使用階段,互聯(lián)網(wǎng)企業(yè)在進行算法個性化決策之前,應向受算法決策影響的消費者進行明確的、有意義的、突出的提示,并提供“選擇退出”的選項,若消費者在此過程中認為受到歧視,可以隨時選擇退出個性化算法決策,要求互聯(lián)網(wǎng)企業(yè)提供不針對其個人特征的選項。消費者“選擇退出”機制的優(yōu)勢在于可以轉(zhuǎn)變互聯(lián)網(wǎng)企業(yè)因消費者“不知情同意”(形式上知情實質(zhì)上卻并不知情)授權(quán)而“一勞永逸”,使互聯(lián)網(wǎng)企業(yè)在提供服務的每個環(huán)節(jié)都注重合理、合法使用個人數(shù)據(jù),主動避免算法歧視行為的發(fā)生,也可以提升消費者對個人數(shù)據(jù)權(quán)利的重視與保護,激勵消費者挑戰(zhàn)可能存在歧視的算法個性化決策①高學強:《人工智能時代的算法裁判及其規(guī)制》,《陜西師范大學學報(哲學社會科學版)》2019年第3期。。
算法技術(shù)應用給個人數(shù)據(jù)權(quán)利帶來了威脅,因此,各國都十分重視對算法技術(shù)進行制度性的把控和規(guī)制。德國的個人數(shù)據(jù)保護顧問制度即為通過企業(yè)內(nèi)部制度進行管控的典型,在個人數(shù)據(jù)保護中發(fā)揮了極大功效。德國個人數(shù)據(jù)保護顧問制度要求互聯(lián)網(wǎng)企業(yè)設置專職崗位,進行數(shù)據(jù)活動的合規(guī)性審查和信息披露,確保數(shù)據(jù)收集和使用行為符合法律規(guī)范,在尊重公權(quán)力的同時最大限度地保障企業(yè)經(jīng)營自由。正如前文所述,算法是實現(xiàn)低價值的原始數(shù)據(jù)向高價值的衍生數(shù)據(jù)轉(zhuǎn)化的核心,故德國個人數(shù)據(jù)保護顧問實質(zhì)上監(jiān)管的是算法活動。隨著以算法技術(shù)為核心的數(shù)據(jù)活動被迅速應用至市場經(jīng)濟各大領域,我國也應當借鑒德國的算法管控模式,要求符合特定條件和規(guī)模的互聯(lián)網(wǎng)企業(yè)設置算法顧問崗位,聘用掌握專業(yè)技能和法律知識的人才作為算法顧問,主要從事數(shù)據(jù)透明化處理和算法解釋工作②林洹民:《自動決策算法的法律規(guī)制:以數(shù)據(jù)活動顧問為核心的二元監(jiān)管路徑》,《法律科學》(西北政法大學學報)2019年第3期。。當然,基于對技術(shù)和知識產(chǎn)權(quán)的保護,算法顧問對于數(shù)據(jù)透明化處理和算法解釋的對象可以限于相關執(zhí)法機關。具體如下:
第一,對數(shù)據(jù)進行透明化處理。正如美國前聯(lián)邦最高法院大法官、美國進步運動的主要推動人路易斯·布蘭代斯所言,“陽光是最好的殺毒劑,燈光是最好的警察?!睂λ惴ǖ囊?guī)制同樣如此,數(shù)據(jù)透明化處理就是算法歧視的陽光和燈光。針對算法歧視可能源于喂養(yǎng)數(shù)據(jù)中存在的偏見,為避免算法在設計和運行過程中內(nèi)生歧視,算法顧問需要披露數(shù)據(jù)來源,對數(shù)據(jù)進行透明化處理③張欣:《算法解釋權(quán)與算法治理路徑研究》,《中外法學》2019年第6期。。通過要求算法顧問公開算法設計、運行過程中使用的數(shù)據(jù)來源,執(zhí)法機關可以在調(diào)查過程中明晰數(shù)據(jù)是否被正當收集、分析和使用,以一種外部評估的方式來審視算法個性化決策,保證調(diào)查的客觀和公正④章小杉:《人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑》,《華東理工大學學報》(社會科學版)2019年第6期。。
第二,對算法進行解釋。由于算法“黑箱”決策機制的助推也是導致算法歧視的重要原因,僅公開算法決策的相關數(shù)據(jù)只是從表面上減少了算法的神秘性,并不能從實質(zhì)上消除對算法的認知障礙,從而也就無法消除對算法個性化決策可能存在歧視的擔憂⑤徐鳳:《人工智能算法黑箱的法律規(guī)制-以智能投顧為例展開》,《東方法學》2019年第6期。。其一,即使公開數(shù)據(jù)也不一定能確保有效跨越技術(shù)鴻溝,因此需要解釋程序作為執(zhí)法機關與企業(yè)之間的技術(shù)橋梁;其二,雖然算法規(guī)則本身隱藏在數(shù)據(jù)之中,但執(zhí)法機關很難僅通過公開的數(shù)據(jù)發(fā)現(xiàn)算法決策所依據(jù)的所有規(guī)則,需要企業(yè)進一步解釋作為補充①馬長山:《智慧社會背景下的“第四代人權(quán)”及其保障》,《中國法學》2019年第5期。。故公開數(shù)據(jù)之后還需要必要的解釋程序,要求算法顧問對算法遵循的程序和特定結(jié)果進行解釋。
由于算法的技術(shù)性特征帶來的算法黑箱效應,導致消費者雖無法洞悉算法決策是否侵害其數(shù)據(jù)權(quán)利,但對專業(yè)技術(shù)人員而言,算法的數(shù)據(jù)輸入和結(jié)果輸出則幾乎是透明的。所以,由專業(yè)人員構(gòu)成的行業(yè)協(xié)會對算法進行審查是可行的②徐琳:《人工智能推算技術(shù)中的平等權(quán)問題之探討》,《法學評論》2019年第3期。。而且,與執(zhí)法機關監(jiān)管相比,行業(yè)協(xié)會的技術(shù)性和專業(yè)性都更勝一籌,在處理關涉算法的市場行為時效率更高,成本也更低。故在啟動執(zhí)法程序之前,如果預先通過行業(yè)協(xié)會對算法進行商業(yè)倫理審查,可以有效避免算法在運用過程中出現(xiàn)的歧視問題。如美國相關法律制度即倡導由獨立的第三方機構(gòu)對算法進行預先審查,即算法可審計原則,要求從事算法活動的企業(yè)必須如實記載算法模型、基礎數(shù)據(jù)和決策環(huán)節(jié),便于第三方機構(gòu)審查。我國可以借鑒美國相關制度經(jīng)驗,要求行業(yè)協(xié)會進行算法審計,預防算法歧視。具體可以分為事前審查和事中審查。
第一,事前審查。對于算法應用中由于技術(shù)風險不確定性可能導致的算法歧視,應當由行業(yè)協(xié)會進行事前審查以合理預防風險。事前風險預防需要對算法設計的潛在缺陷進行審查,即算法設計是否可能對消費者基本權(quán)利和競爭秩序產(chǎn)生不利影響。盡管很多學者認為技術(shù)自身的屬性是中立的,但即使認可技術(shù)中立的客觀性,也并不等于價值中立。故法律應對技術(shù)應用進行價值引導。正如美國當代著名哲學家安德魯·芬伯格所言:“在技術(shù)和社會共同建構(gòu)的領域中,技術(shù)理性和社會經(jīng)驗處于相互糾纏的狀態(tài)?!雹鄹吆G啵骸稌r代思潮中的技術(shù)批判理論-安德魯·芬伯格教授訪談錄》,《自然辯證法研究》2015年第3期。算法技術(shù)一旦被應用于市場競爭,一定會受到市場主體營利價值屬性的影響。比如今日頭條采用的信息推薦算法就被質(zhì)疑在算法設計中信息質(zhì)量所占權(quán)重偏低,過于注重流量經(jīng)濟,導致低俗信息泛濫化。因此行業(yè)協(xié)會應當審查算法設計是否符合一定的商業(yè)倫理和社會倫理準則。
第二,事中審查。在算法的運營過程中,行業(yè)協(xié)會還應當持續(xù)審查算法模型是否會輸出歧視性結(jié)果。算法本身的技術(shù)邏輯決定,相較于算法設計階段,在算法運營階段產(chǎn)生的歧視所造成的危害更為隱蔽。算法決策構(gòu)成的“反饋循環(huán)”會加劇歧視的可能性。算法從含有偏見的數(shù)據(jù)中總結(jié)模型,會導致模型的輸出含有偏見,當輸出結(jié)果轉(zhuǎn)變?yōu)閿?shù)據(jù)被再次用于檢驗和完善模型,就會使得模型的偏見進一步深化甚至固化,這便構(gòu)成了完整的歧視“反饋循環(huán)”。由于算法無法理解數(shù)據(jù)內(nèi)容而且很難進行價值判斷,其僅能依據(jù)當前數(shù)據(jù)的統(tǒng)計分析進行權(quán)重分配,當這種關聯(lián)性適用于消費者個體時難免會產(chǎn)生誤差,而這種誤差可能對消費者的合法權(quán)益造成損害。因此,行業(yè)協(xié)會應當在算法運行過程中定期審查算法是否存在歧視④杜小奇:《多元協(xié)作框架下算法的規(guī)制》,《河北法學》2019年第12期。。
國務院在發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中明確提出政府應當履行人工智能(算法)的安全防范和市場監(jiān)管職責,《反壟斷法》有關規(guī)制濫用市場支配地位的制度中也禁止經(jīng)營者沒有正當理由,對交易相對人在交易價格等交易條件上實行差別待遇,《關于平臺經(jīng)濟的反壟斷指南(征求意見稿)》更是明確提出禁止算法歧視,其中第十七條明確規(guī)定:“禁止具有市場支配地位的平臺經(jīng)營者基于大數(shù)據(jù)和算法,根據(jù)交易相對人的支付能力、消費偏好、使用習慣等,實行差異性交易價格或者其他交易條件;對新老交易相對人實行差異性交易價格或者其他交易條件等?!弊鳛橄M者保護基本法的《消費者權(quán)益保護法》也提出消費者的知情、自主選擇、公平交易以及個人信息等權(quán)利應當受到法律保護。如果經(jīng)行業(yè)協(xié)會預先審查后,互聯(lián)網(wǎng)市場仍然出現(xiàn)算法歧視行為,則應當由市場監(jiān)管局進行監(jiān)管,嚴懲算法歧視。執(zhí)法機關可以通過明確監(jiān)管對象、監(jiān)管手段和監(jiān)管職責,建立完善的算法監(jiān)管體系。
第一,在確定監(jiān)管對象上,如同《公司法》中“刺透法人面紗”的法人人格否定制度一樣,算法監(jiān)管也應當穿透算法黑箱的層層“黑幕”,將監(jiān)管的對象直指算法幕后的控制人,準確定位監(jiān)管對象,確定真正責任主體。同時,由于反壟斷法規(guī)制的算法歧視行為要求經(jīng)營者具有市場支配地位的身份要件,執(zhí)法機關還需要確定算法幕后的控制人是否在相關市場具有市場支配地位。如2018 年ACCC針對數(shù)字平臺的市場調(diào)查顯示,F(xiàn)acebook 和 Instagram 的獨特受眾(unique audience)分別是 Snapchat 的三倍和兩倍,并據(jù)此認定 Facebook 的巨大市場份額可以被視為其社交媒體服務幾乎沒有競爭約束的證據(jù)。因應互聯(lián)網(wǎng)經(jīng)濟的特征,需要突破傳統(tǒng)市場份額標準的限制,依照《反壟斷法(征求意見稿)》中的標準:“認定互聯(lián)網(wǎng)領域經(jīng)營者具有市場支配地位還應當考慮網(wǎng)絡效應、規(guī)模經(jīng)濟、鎖定效應、掌握和處理相關數(shù)據(jù)的能力等因素”,以準確判斷相關經(jīng)營者是否具有市場支配地位。當然如果經(jīng)營者不具備市場支配地位,執(zhí)法機關就不能適用《反壟斷法》,但可以依據(jù)《消費者權(quán)益保護法》為消費者提供必要的保護。
第二,在選擇監(jiān)管手段上,當算法決策對市場競爭秩序產(chǎn)生不利影響時,除禁令禁止和罰款等傳統(tǒng)處罰措施之外,還可以通過行政約談的方式對算法應用進行政府有限干預。比如“今日頭條”和“鳳凰新聞”就曾被相關機構(gòu)約談,要求平臺提高推薦算法中信息質(zhì)量的權(quán)重,避免信息低俗化。約談可以最大限度地緩和政府干預和企業(yè)自由經(jīng)營權(quán)之間的矛盾,通過要求企業(yè)承諾改變其行為方式而不是一味禁止,既可以避免過度執(zhí)法傷害企業(yè)的創(chuàng)新積極性,也可以有效減少算法歧視行為對消費者和市場競爭秩序的侵害。
第三,在明確監(jiān)管職責上,首先,監(jiān)管機構(gòu)應當制定互聯(lián)網(wǎng)企業(yè)設計和使用算法應遵循的基本準則,進行底線把控。要求設計者在算法設計過程中就應當符合相關法律、政策的規(guī)定,要求算法控制人在算法的使用過程中融入消費者權(quán)益和競爭秩序維護的目標①張恩典:《大數(shù)據(jù)時代的算法解釋權(quán):背景、邏輯與構(gòu)造》,《法學論壇》2019年第4期。。若相關主體突破底線,則應對算法歧視產(chǎn)生的后果負責。其次,監(jiān)管機構(gòu)應當定期協(xié)同行業(yè)協(xié)會審查企業(yè)所使用的算法是否合乎預期的運行以及是否產(chǎn)生不良后果,并將審查結(jié)果向公眾披露,提升行業(yè)協(xié)會審查結(jié)果的權(quán)威性②張玉宏、秦志光、肖樂:《大數(shù)據(jù)算法的歧視本質(zhì)》,《自然辯證法研究》2017年第5期。。最后,可通過政府公開招標采購程序,面向市場征集采購可以監(jiān)控算法歧視的算法程序,通過技術(shù)手段控制算法技術(shù)異化,最大程度地節(jié)約執(zhí)法資源,提升執(zhí)法的效率和精準性。
算法是實現(xiàn)大數(shù)據(jù)價值的基礎設施,是人類社會技術(shù)應用的巨大進步,可以極大地促進經(jīng)濟發(fā)展、造福人類社會,輿論熱點中的“大數(shù)據(jù)殺熟”僅是算法歧視消費者的“冰山一角”。為破解算法歧視消費者的隱蔽性難題,本文基于信息采集、特定推送和個性定價等運作階段,以信息輸入、數(shù)據(jù)整理、算法決策與后臺控制等運行環(huán)節(jié)為切入點分析算法對消費者實施歧視的機制。研究結(jié)果表明,算法歧視在信息采集階段侵犯消費者的身份平等權(quán),在特定推送階段侵犯消費者知情權(quán)、選擇權(quán),在個性定價階段侵犯消費者公平交易權(quán)、掠奪消費者價格福利。算法加劇了經(jīng)營者和消費者之間的技術(shù)鴻溝,導致消費者的信息劣勢地位進一步強化。實際上,通過對算法技術(shù)服務消費者的過程分解,既折射出技術(shù)、市場在創(chuàng)新與競爭等維度中如何潛移默化地創(chuàng)造出新的市場模式,改變市場主體的行為,也透視了過度的創(chuàng)新與競爭所產(chǎn)生的市場無序與損害后果,最終都將累及市場本體與普通消費者。
對此,應當正視算法歧視給消費者權(quán)益帶來的損害,合理有效規(guī)制算法歧視消費者的行為。在查明信息采集、特定推送和個性定價等算法歧視場景中經(jīng)營者與消費者的利益沖突關系后,應協(xié)調(diào)經(jīng)營者算法自主權(quán)與消費者身份公平權(quán)、隱私權(quán),經(jīng)營者推薦策略權(quán)與消費者知情權(quán)、選擇權(quán),經(jīng)營者市場利益與消費者剩余福利等權(quán)益沖突,避免經(jīng)營者利用算法技術(shù)過度、無序競爭,造成不必要的規(guī)制成本浪費。在運用法律規(guī)制所具有的政策信號機制時,應從消費者賦權(quán)、經(jīng)營者透明度強化、行業(yè)協(xié)會審計與政府監(jiān)管等維度,實現(xiàn)對算法驅(qū)動數(shù)字經(jīng)濟發(fā)展的協(xié)同規(guī)制,將法律的平等和公正理念融入技術(shù)發(fā)展進程之中,在維護消費者基本權(quán)益的同時促進市場自由公平競爭,真正實現(xiàn)技術(shù)推動經(jīng)濟,技術(shù)造福社會。