一、算法的法律問題與傳統(tǒng)法律規(guī)制的困境
算法可簡單理解為一系列解決問題的指令,只要給定初始條件,這一系列指令就會自動給出相應(yīng)的答案。隨著大數(shù)據(jù)及人工智能的深度應(yīng)用,算法技術(shù)越來越多地融入日常生產(chǎn)及生活場景,也帶來了法律規(guī)制的問題。
算法技術(shù)廣泛應(yīng)用的同時,也產(chǎn)生了“大規(guī)模微型侵權(quán)”的典型風(fēng)險。這種損害雖然對于個體而言其所遭受的法益侵害較小,但往往涉及人數(shù)眾多,損害結(jié)果難以預(yù)料。這與傳統(tǒng)侵權(quán)的“明確實質(zhì)損害”特征構(gòu)成鮮明對照。當(dāng)然,在算法應(yīng)用的不同場景下,損害的特征亦有所差異,對于算法的規(guī)制需要結(jié)合具體的應(yīng)用場景進行有針對性的探討。
傳統(tǒng)意義上算法應(yīng)用的法律問題及挑戰(zhàn),主要表現(xiàn)為三個層面:
一是算法黑箱可能挑戰(zhàn)人類決策的知情權(quán)與自主決策。傳統(tǒng)上應(yīng)對的方式為主張對于算法進行公開,使算法能夠為人們所明晰。然而,公開算法的源代碼和架構(gòu)仍不能使一般的公眾明晰算法的功能;對于可解釋性,基于大數(shù)據(jù)的算法與可解釋性所要求的因果關(guān)系闡釋具有完全不同的邏輯;另外,算法透明與可解釋性也面臨“算計”的問題以及知識產(chǎn)權(quán)侵權(quán)的風(fēng)險。
二是算法可能威脅個體的隱私與自由。傳統(tǒng)上應(yīng)對的方式為個人數(shù)據(jù)賦權(quán)與反算法歧視,通過賦予個體以相關(guān)數(shù)據(jù)權(quán)利來規(guī)制算法。然而,以賦權(quán)方式將抉擇完全交由個人,存在更大的不公平風(fēng)險,同時可能妨礙數(shù)據(jù)融合,不利于算法與數(shù)字經(jīng)濟的發(fā)展。
三是算法可能導(dǎo)致歧視與偏見。傳統(tǒng)主張通過反算法歧視方式進行規(guī)制。實際上,在算法中禁止運用身份因素,不是實現(xiàn)身份平等的直接渠道。社會總會盡可能地基于群體的平均表現(xiàn)對其進行評價,比起信息不對稱產(chǎn)生的“抓瞎式”隨機篩選所帶來的不公,數(shù)據(jù)和統(tǒng)計至少為相關(guān)決策者提供了參考。
因此,針對算法存在的以上問題,傳統(tǒng)的規(guī)制手段都面臨解釋尺度、規(guī)制手段和可行性論證等難題,這要求對算法的法律規(guī)制應(yīng)進行本源層面的反思。
二、算法規(guī)制場景化原理及應(yīng)用
算法的風(fēng)險在不同應(yīng)用場景呈現(xiàn)差異化的表現(xiàn),如平臺用工算法的從業(yè)者勞動權(quán)利的損害,個性化推薦算法導(dǎo)致受眾由于信息失控產(chǎn)生的恐懼感。從具體的侵權(quán)表現(xiàn)來看,以上場景具有典型的“大規(guī)模微型侵權(quán)”的特征,其侵權(quán)往往以存在的“風(fēng)險”為損害的表征,注重行為的違法性,對于個人所遭受的法益侵害往往較小,但涉及人數(shù)眾多。與之不同的是,在自動駕駛算法場景,其侵權(quán)損害有可衡量的確定性損害結(jié)果,具有傳統(tǒng)的明確實質(zhì)損害的特征。而版權(quán)過濾算法則介于明確實質(zhì)性損害與大規(guī)模微型侵權(quán)之間,網(wǎng)絡(luò)服務(wù)提供者違反版權(quán)過濾算法的注意義務(wù),既存在具體的知識產(chǎn)權(quán)侵權(quán)行為表征,亦存在算法偏差對于“合理使用”等著作權(quán)限制制度的損害的廣泛性風(fēng)險。
在算法規(guī)制中,算法公開、個人數(shù)據(jù)賦權(quán)、算法反歧視的方式面臨困境的最根本原因在于,機械運用傳統(tǒng)算法規(guī)制方式,將算法看作相對孤立的規(guī)制對象,未能結(jié)合具體場景進行思考,因而都不符合算法規(guī)制的場景化特征。算法并不像一般的有形物或某些無形物一樣具有相對穩(wěn)定的法律屬性,可適用統(tǒng)一的法律框架。作為人機交互決策的算法并不具備物上的標(biāo)準(zhǔn)化特征,其法律屬性會因為具體場景的不同而有所不同,因而算法法律規(guī)制的原理必須建立在場景化基礎(chǔ)上。
(一)平臺用工算法的法律規(guī)制
平臺用工算法侵權(quán)屬于典型的“大規(guī)模微型侵權(quán)”,如在外賣場景,強大的算法系統(tǒng)驅(qū)動和控制,客觀上造成騎手困在算法系統(tǒng)的現(xiàn)象。在諸如必須30分鐘內(nèi)送達的配送時效及準(zhǔn)時率的要求下,大量外賣騎手為避免差評維持收入而疲于奔命,出現(xiàn)在配送過程選擇逆行、闖紅燈等做法,危及自己的生命安全,也對交通安全構(gòu)成隱患。另外,平臺用工基于勞動組織和管理的需要,收集、處理從業(yè)者大量個人信息,以及密集跟蹤、持續(xù)監(jiān)控從業(yè)者工作狀態(tài),并采集生物識別、行蹤軌跡等敏感信息,導(dǎo)致從業(yè)者個人信息隱私受到潛在威脅的法律風(fēng)險。
基于平臺用工算法的場景特征,算法規(guī)制中需要基于公法規(guī)制和平臺自治相結(jié)合的治理方式,培育和諧信任可持續(xù)的平臺用工關(guān)系。如將算法公開的規(guī)制方式轉(zhuǎn)化為以信任為核心的多元算法解釋,結(jié)合人工、機器、事前和事后等多種解釋方法,對評分評級、封號罰款等平臺行為及時進行解釋說明。平臺用工規(guī)制重心應(yīng)從“勞動關(guān)系”向“勞動權(quán)利”轉(zhuǎn)向,以漸進式勞動基準(zhǔn)不斷完善勞動權(quán)利保障,形成公私協(xié)作治理的綜合治理格局。
結(jié)合服務(wù)平臺的行業(yè)實踐,在具體合作治理路徑上,對于政府部門,通過明確“政府指導(dǎo)協(xié)議”的法律地位,合理確定、分配平臺與配送合作商所應(yīng)承擔(dān)的勞動保護義務(wù),并基于此落實平臺用工行為的主體責(zé)任。對于平臺企業(yè),應(yīng)對其主導(dǎo)和控制的勞動條件事項主動履行勞動保護義務(wù)。在合規(guī)義務(wù)方面,平臺應(yīng)主動使其處于關(guān)鍵環(huán)節(jié)控制的勞動條件項目符合國家有關(guān)標(biāo)準(zhǔn)(如專送騎手結(jié)算的單筆訂單勞務(wù)報酬或綜合計算薪資不得低于最低工資標(biāo)準(zhǔn));在騎手路線規(guī)劃的系統(tǒng)設(shè)計上避免“逆行”算法或不合理的配送時間要求;在平臺規(guī)則設(shè)計與算法開發(fā)中充分考慮騎手的勞動強度。對于勞動者,通過勞動者個體、勞動者集體、勞動者權(quán)益代表者共同行使權(quán)利,保護勞動者的微型權(quán)益。靈活就業(yè)服務(wù)平臺可通過協(xié)助維權(quán)系統(tǒng)幫助從業(yè)者在權(quán)利受侵害時及時實現(xiàn)救濟,并發(fā)揮數(shù)據(jù)價值優(yōu)勢,基于靈活用工服務(wù)的實踐經(jīng)驗,協(xié)助推動平臺用工行業(yè)法治的建設(shè),促進平臺從業(yè)者權(quán)益保障制度不斷完善。
(二)個性化推薦算法的法律規(guī)制
個性化推薦算法侵權(quán)亦屬于典型的“大規(guī)模微型侵權(quán)”。個性化推薦的法律風(fēng)險在于,個性化推薦需要收集個人信息,對于用戶而言,因不透明而導(dǎo)致信息失控,使受眾陷于恐懼;涉及用戶畫像的用戶信息收集、共享、處理過程中,匿名化處理失效導(dǎo)致用戶信息遭受侵害;基于算法推薦規(guī)則的不透明、不可知性,利用精準(zhǔn)用戶畫像實施“大數(shù)據(jù)殺熟”,進行差異化定價。
個性化推薦算法的場景化規(guī)制,需要首先強化信息控制者的風(fēng)險防范規(guī)則,確立基于風(fēng)險防范的個人信息使用規(guī)則。對于一些風(fēng)險較大的項目,管理者必須設(shè)立規(guī)章,規(guī)定數(shù)據(jù)使用者應(yīng)如何評估風(fēng)險、如何規(guī)避或者減輕潛在傷害。相關(guān)網(wǎng)站可以利用用戶的消費偏好與習(xí)慣進行個性化推薦,但不應(yīng)利用敏感類信息。在保護匿名行為信息過程中,也應(yīng)首先對其進行風(fēng)險評估,當(dāng)收集與處理此類信息的風(fēng)險較低時,則應(yīng)對其進行相對寬松的法律規(guī)制,要求信息的收集者與處理者承擔(dān)部分責(zé)任。
?。ㄈ┳詣玉{駛算法的法律規(guī)制
自動駕駛算法侵權(quán)則屬于典型的“明確實質(zhì)性侵權(quán)”,其侵權(quán)損害往往具有可衡量的確定性損害結(jié)果,損害發(fā)生的主觀方面以過錯為主。算法與產(chǎn)品融合并成為產(chǎn)品的一部分是自動駕駛算法的典型特征,車輛的駕駛者成為車輛監(jiān)督者,成為自動駕駛算法規(guī)制問題的根源。由此所導(dǎo)致的法律規(guī)制的難點在于,自動駕駛產(chǎn)品缺陷的技術(shù)及法律責(zé)任認定的困難、自動駕駛對于現(xiàn)行保險制度的沖擊(自動駕駛對于傳統(tǒng)保險機制下投保主體、保險對象、保險內(nèi)容以及責(zé)任分擔(dān)等形成系統(tǒng)性的挑戰(zhàn))、被動接管規(guī)則的應(yīng)用困境等。
基于自動駕駛算法的場景化特征,在自動駕駛汽車設(shè)計缺陷的認定上,應(yīng)通過“理性算法”標(biāo)準(zhǔn),確認發(fā)生事故的自動駕駛汽車產(chǎn)品是否符合一個理性算法的注意義務(wù)標(biāo)準(zhǔn),從而確定是否由生產(chǎn)者一方承擔(dān)產(chǎn)品責(zé)任,以破解缺陷認定的障礙。同時,確立基于危險責(zé)任理論的無過錯保有人責(zé)任制度,一體適用于所有機動車及交通事故類型;以無過錯責(zé)任為歸責(zé)原則,以現(xiàn)有民法典、道路交通安全法的責(zé)任框架下的侵權(quán)責(zé)任為依據(jù),引入“理性車”標(biāo)準(zhǔn),確定責(zé)任的承擔(dān)主體,以應(yīng)對責(zé)任分配的困境。
(四)版權(quán)過濾算法的法律規(guī)制
版權(quán)過濾算法的侵權(quán)兼有“大規(guī)模微型侵權(quán)”及“明確實質(zhì)性侵權(quán)”的特征,因此介于兩者之間。當(dāng)前,網(wǎng)絡(luò)服務(wù)提供者在內(nèi)容分發(fā)的形式上發(fā)生了重大改變,算法過濾技術(shù)和算法推薦技術(shù)作為互聯(lián)網(wǎng)平臺內(nèi)容治理的一體兩面,協(xié)同發(fā)揮著作用,在推送內(nèi)容前端通過版權(quán)過濾算法進行審查的要求是客觀存在的。
在此場景下,網(wǎng)絡(luò)服務(wù)提供者基于版權(quán)過濾算法的注意義務(wù)要求,需要從行業(yè)技術(shù)發(fā)展水平和平臺對著作權(quán)人的善意出發(fā),承擔(dān)相應(yīng)的信息審查風(fēng)險管理職責(zé)。同時,為了避免算法偏差對于“合理使用”等著作權(quán)限制制度的損害,需要構(gòu)建對于用戶權(quán)益保障的程序機制,如向因侵犯著作權(quán)而被過濾或刪除上傳內(nèi)容的用戶發(fā)送包含侵權(quán)情況說明的有效通知,為用戶建立快捷高效的申訴處理流程,明確用戶在收到侵犯著作權(quán)通知后可以提起確認不侵權(quán)之訴等。
(五)生成式人工智能算法的法律規(guī)制
生成式人工智能是算法的前沿方向,由其所產(chǎn)生的侵權(quán)具有“大規(guī)模微型侵權(quán)”的特征。我國當(dāng)前的生成式人工智能算法治理主要以落實技術(shù)提供者責(zé)任為目的,從技術(shù)發(fā)展來看,并不利于我國在日益復(fù)雜的國際競爭形勢下自主技術(shù)創(chuàng)新力度的提升。同時因生成式人工智能算法參與主體的多元性,單一責(zé)任主體的權(quán)責(zé)分配并不公平合理,不利于新興行業(yè)的技術(shù)創(chuàng)新。因此,可以考慮以“最小防范成本原則”,即在相關(guān)參與主體中誰能夠以較低成本作出防范,誰就應(yīng)當(dāng)承受未成功避免損失的責(zé)任,作為生成式人工智能算法更加適宜的規(guī)制路徑。
基于當(dāng)前我國生成式人工智能算法規(guī)制的現(xiàn)實,應(yīng)明確多方主體責(zé)任、多方監(jiān)管,在降低束縛技術(shù)前提下,對侵權(quán)責(zé)任實現(xiàn)合理分配。在此情形下,算法開發(fā)與部署主體,需重點承擔(dān)兩類責(zé)任,一是承擔(dān)算法透明的技術(shù)層面責(zé)任和對內(nèi)容審核義務(wù)的一般監(jiān)管責(zé)任;二是承擔(dān)對用戶侵權(quán)內(nèi)容的特殊監(jiān)管責(zé)任,支持維護個人、數(shù)據(jù)、平臺算法框架下的權(quán)責(zé)均衡。
三、以“大規(guī)模微型侵權(quán)”規(guī)制為核心的算法侵權(quán)的司法應(yīng)對
在司法層面,算法的司法規(guī)制需要融入場景化原理進行轉(zhuǎn)型改造。一方面,對于具有明確損害和損害較大的算法決策,對個體權(quán)利損害的補償是其主要目標(biāo);另一方面,對于損害不確定,特別是對于“大規(guī)模微型侵權(quán)”的算法侵害案件,算法的司法規(guī)制應(yīng)采取公共治理的路徑。
在平臺用工算法場景中,算法侵權(quán)往往以存在的“風(fēng)險”為損害的表征,注重行為的違法性、不過度關(guān)注行為主體的主觀過錯,對于個人所遭受的法益侵害往往較小,但涉及人數(shù)眾多,以外賣配送的平臺用工算法場景為例,不合理的算法規(guī)則將會致使數(shù)千萬在平臺上就業(yè)的勞動者陷于權(quán)益受侵害的風(fēng)險。另外,侵權(quán)訴訟中因果關(guān)系與損害結(jié)果常常難以確定,因此在救濟手段上則需要對傳統(tǒng)的事后單一的司法救濟理念予以轉(zhuǎn)變,通過事后救濟與事前預(yù)防相結(jié)合,實現(xiàn)行政與司法、救濟與預(yù)防的協(xié)調(diào)。
有人認為,傳統(tǒng)侵權(quán)責(zé)任法關(guān)注的重心是“單一行為的世界”,現(xiàn)代侵權(quán)責(zé)任法關(guān)注的重心則是“復(fù)雜活動的世界”。在傳統(tǒng)社會或現(xiàn)代社會的傳統(tǒng)侵權(quán)形態(tài)中,以歸責(zé)救濟功能為核心適用侵權(quán)法,具有較高的合理性。這類侵權(quán)往往發(fā)生在民事主體之間,損害的因果關(guān)系相對簡單,侵權(quán)方的過錯較為容易辨認,對被侵害方的救濟與復(fù)原也相對容易。而在數(shù)字時代,侵權(quán)法的重心從規(guī)則救濟轉(zhuǎn)向威懾治理,具有不可避免性。從侵權(quán)法的威懾與治理功能出發(fā),算法大規(guī)模微型侵權(quán)中的司法回應(yīng)也應(yīng)進行調(diào)整。在審理此類案件時,不宜對損害界定過寬,不宜將焦慮等非實質(zhì)性風(fēng)險納入損害范圍內(nèi)。從侵權(quán)法的威懾與治理功能出發(fā),引導(dǎo)行為人采取最優(yōu)預(yù)防行為則是選擇歸責(zé)原則的核心因素之一。基于效用理論,采用“最小防范成本原則”,將證明責(zé)任界定給最可能導(dǎo)致風(fēng)險的主體或者采取預(yù)防措施的成本最小的主體,更加符合效率標(biāo)準(zhǔn)。從侵權(quán)法的威懾與治理功能出發(fā),算法侵權(quán)救濟應(yīng)適用停止侵害、排除妨礙、消除危險等具有事前防控性作用的救濟方式。在損害較為明確而且損害數(shù)額較大的情形中,損害賠償?shù)臄?shù)額可以按照實際損失確定。
綜上,本課題通過以場景化的基本進路、“大規(guī)模微型侵權(quán)”規(guī)制為核心的算法侵權(quán)的司法應(yīng)對邏輯,對平臺用工算法、個性化推薦算法、自動駕駛算法和版權(quán)過濾算法、生成式人工智能算法進行制度梳理和反思,并提出立足于司法機關(guān)公共治理定位且符合場景化原理的規(guī)制建議,期望為高速發(fā)展的數(shù)字經(jīng)濟和算法應(yīng)用實踐保駕護航。
【中國人民大學(xué)、云賬戶(天津)共享經(jīng)濟信息咨詢有限公司聯(lián)合課題組,主持人:文繼榮 丁曉東 鄒永強】
