生成式人工智能具有自主性、不透明性、不可預(yù)測(cè)性等特征,這也導(dǎo)致了學(xué)界認(rèn)為人工智能侵權(quán)歸責(zé)需脫離產(chǎn)品責(zé)任,理由主要為產(chǎn)品責(zé)任為嚴(yán)格責(zé)任,生產(chǎn)者難以控制 人工智能運(yùn)行過(guò)程中存在的風(fēng)險(xiǎn),要求其承擔(dān)嚴(yán)格責(zé)任并不公平;生成式人工智能大多以服 務(wù)的形態(tài)存在,因此其不符合產(chǎn)品的定義。然而,從法律屬性來(lái)看,生成式人工智能提供者與網(wǎng)絡(luò)服務(wù)提供者二者存在實(shí)質(zhì)差異。生成式人工智能系統(tǒng)符合產(chǎn)品的定義,產(chǎn)品責(zé)任契合生成式人工智能系統(tǒng)多層次、多樣態(tài)的特征,能夠?qū)崿F(xiàn)與監(jiān)管的良性互動(dòng)。在產(chǎn)品責(zé)任框架下,開(kāi)發(fā)者與運(yùn)營(yíng)者可以類比為產(chǎn)品責(zé)任中生產(chǎn)者與銷售者的地位,可以根據(jù)生成式人工智 能的生命周期、層次屬性確定制造缺陷、設(shè)計(jì)缺陷、警示缺陷、跟蹤觀察缺陷,確定發(fā)展風(fēng) 險(xiǎn)抗辯適用的條件與標(biāo)準(zhǔn)——

作者簡(jiǎn)介:李雅男,女,河北唐山人。武漢大學(xué)本、碩、博畢業(yè)。2020年9月起任職于 華中科技大學(xué)法學(xué)院,現(xiàn)為法學(xué)院講師,主要研究方向?yàn)槊穹ā⑷烁駲?quán)法。
一、問(wèn)題的提出
人們對(duì)于生成式人工智能的性質(zhì)存在廣泛爭(zhēng)議,這也決定了人工智能侵權(quán)責(zé)任的歸責(zé)面臨諸多挑戰(zhàn)。就生成式人工智能侵權(quán)的歸責(zé)路徑而言,目前學(xué)界主要存在兩種解決思路:第一種是按照網(wǎng)絡(luò)服務(wù)提供者(internet service provider, ISP)和網(wǎng)絡(luò)內(nèi)容提供者(internet content provider, ICP)的區(qū)分思路,將生成式人工智能系統(tǒng)提供者解釋為網(wǎng)絡(luò)服務(wù)提供者或網(wǎng)絡(luò)內(nèi) 容提供者,適用過(guò)錯(cuò)責(zé)任原則,適用“通知—刪除”規(guī)則。第二種是按照產(chǎn)品責(zé)任,即將生成 式人工智能解釋為產(chǎn)品,并認(rèn)為在其存在產(chǎn)品缺陷時(shí)相關(guān)主體需要承擔(dān)產(chǎn)品責(zé)任,或者認(rèn)為 算法產(chǎn)品的開(kāi)發(fā)者承擔(dān)產(chǎn)品責(zé)任。1但是,學(xué)界對(duì)此歸責(zé)路徑的討論并不充分,且大多觀點(diǎn) 將產(chǎn)品責(zé)任與嚴(yán)格責(zé)任混同,認(rèn)為若認(rèn)定生成式人工智能侵權(quán)承擔(dān)產(chǎn)品責(zé)任,則對(duì)生成式人工智能提供者2來(lái)說(shuō)責(zé)任過(guò)于嚴(yán)苛,將不利于我國(guó)新興產(chǎn)業(yè)的發(fā)展。因此,就生成式人工智 能侵權(quán)責(zé)任的認(rèn)定應(yīng)當(dāng)首先厘清生成式人工智能的法律性質(zhì),在此基礎(chǔ)上構(gòu)建歸責(zé)路徑。
2023年4月國(guó)家互聯(lián)網(wǎng)信息辦公室等七部門(mén)聯(lián)合公布的《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》同時(shí)使用了“生成式人工智能服務(wù)”“生成式人工智能產(chǎn)品”“生成式人工 智能產(chǎn)品或服務(wù)”等表述,但在同年7月正式頒布的《生成式人工智能服務(wù)管理暫行辦法》 (以下簡(jiǎn)稱“《暫行辦法》”)中只使用了“生成式人工智能服務(wù)”的概念,這也表現(xiàn)出我國(guó) 立法中存在的困惑,如何選擇合適的規(guī)制路徑并確定責(zé)任承擔(dān)是亟需解決的問(wèn)題。此外,即 使在此框架之下,《暫行辦法》與《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》的條款也并不一致, 后者將服務(wù)提供者界定為技術(shù)服務(wù)提供者?!稌盒修k法》僅規(guī)定了生成式人工智能服務(wù)提供 者應(yīng)當(dāng)承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任以及個(gè)人信息處理者責(zé)任,對(duì)于“技術(shù)支持者”的身份以及生成式人工智能多個(gè)層次提供者的屬性與責(zé)任承擔(dān)均未明確,這實(shí)際上存在立法空白,也為我們思考生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任提供了契機(jī)。
二、生成式人工智能提供者為網(wǎng)絡(luò)服務(wù)提供者思路的排除
(一)認(rèn)為生成式人工智能提供者為網(wǎng)絡(luò)服務(wù)提供者的主要觀點(diǎn)
第一,生成式人工智能本身呈現(xiàn)“千人千面”的特點(diǎn),并不符合產(chǎn)品格式化、模式化的特 點(diǎn)。提供者或生產(chǎn)者不能通過(guò)批量銷售來(lái)分散其自身所承擔(dān)的風(fēng)險(xiǎn)。同時(shí),產(chǎn)品一旦脫離生 產(chǎn)者的控制,投入市場(chǎng)流通之后,生產(chǎn)者往往就不再對(duì)產(chǎn)品進(jìn)行控制;而生成式人工智能在 投入市場(chǎng)運(yùn)行之后,提供者仍然對(duì)生成式人工智能負(fù)有管理、控制責(zé)任,并不具有“一勞永 逸”的特點(diǎn)。大語(yǔ)言模型使用者眾多,且用途廣泛,因此所造成的損害也不同。生成式人工 智能輸出的內(nèi)容因受到人機(jī)交互與算法模型的影響而始終處于變化之中,其對(duì)用戶提供的服 務(wù)不具有同質(zhì)性,因此生成式人工智能的輸出應(yīng)當(dāng)被認(rèn)定為個(gè)性化的服務(wù),生成式人工智能 提供者應(yīng)當(dāng)為網(wǎng)絡(luò)服務(wù)提供者。生成式人工智能運(yùn)行過(guò)程中的運(yùn)營(yíng)一方往往需要不斷投入, 對(duì)系統(tǒng)完整性進(jìn)行維護(hù)、對(duì)系統(tǒng)漏洞進(jìn)行修補(bǔ)、對(duì)系統(tǒng)功能進(jìn)行升級(jí),完全不同于產(chǎn)品一經(jīng) 銷售,便脫離生產(chǎn)者和銷售者控制的特點(diǎn)。人工智能生成的內(nèi)容也不具有產(chǎn)品概念所要求的 大規(guī)模相同或者相似性特征。
第二,生成式人工智能提供者作為網(wǎng)絡(luò)服務(wù)提供者,其侵權(quán)責(zé)任的認(rèn)定依照過(guò)錯(cuò)責(zé)任原 則,而對(duì)過(guò)錯(cuò)的判斷能夠更好地兼容政策考量,將保障技術(shù)發(fā)展的價(jià)值取向融入過(guò)錯(cuò)的判定 之中。而產(chǎn)品責(zé)任為無(wú)過(guò)錯(cuò)責(zé)任,生成式人工智能技術(shù)屬于快速迭代中的新興技術(shù),對(duì)其提 供者的侵權(quán)行為施加嚴(yán)格責(zé)任會(huì)導(dǎo)致技術(shù)開(kāi)發(fā)成本過(guò)高,從而阻礙技術(shù)發(fā)展。生成式人工智 能與一般產(chǎn)品存在本質(zhì)區(qū)別,生成式人工智能主要提供信息內(nèi)容,并不會(huì)因?yàn)?ldquo;產(chǎn)品缺陷” 而對(duì)他人的生命、健康、安全、財(cái)產(chǎn)等造成直接危害,危險(xiǎn)性遠(yuǎn)小于一般產(chǎn)品,且風(fēng)險(xiǎn)不會(huì) 直接作用于人并產(chǎn)生損害,因此,若生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任將導(dǎo)致其提供者責(zé)任 過(guò)重。生成式人工智能大模型算法具有高度專業(yè)性、復(fù)雜性等特征,提供者無(wú)法控制大模型 的運(yùn)算結(jié)果,因此,若要求生成式人工智能提供者承擔(dān)嚴(yán)格責(zé)任,但是其又缺乏控制內(nèi)容生 成的能力,則顯然是不公平的。3
(二)生成式人工智能提供者并非網(wǎng)絡(luò)服務(wù)提供者的主要理由
技術(shù)層面上,生成式人工智能提供者與傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者相比,其控制的技術(shù)已不可同日而語(yǔ);規(guī)范層面上,我國(guó)尚無(wú)單行法對(duì)人工智能提供者的地位作出規(guī)定,目前可通過(guò) 《暫行辦法》第4條、第7條、第8條、第9條窺見(jiàn)人工智能提供者特殊的法律地位?!稌盒修k法》第9條的相關(guān)表述似將生成式人工智能提供者認(rèn)定為網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者。我國(guó)《信 息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例》將網(wǎng)絡(luò)服務(wù)提供者分為網(wǎng)絡(luò)內(nèi)容提供者與網(wǎng)絡(luò)服務(wù)提供者。網(wǎng)絡(luò)內(nèi) 容提供者主要負(fù)責(zé)提供具體的網(wǎng)絡(luò)信息內(nèi)容,網(wǎng)絡(luò)服務(wù)提供者則提供網(wǎng)絡(luò)基礎(chǔ)設(shè)施和相關(guān)服務(wù),主要包括:網(wǎng)絡(luò)自動(dòng)接入和自動(dòng)傳輸服務(wù)提供者、自動(dòng)存儲(chǔ)服務(wù)提供者、網(wǎng)絡(luò)信息存儲(chǔ) 空間服務(wù)提供者和搜索鏈接服務(wù)提供者。生成式人工智能提供者無(wú)法適用上述任何一種服務(wù) 提供者的規(guī)定。具體而言:
第一,生成式人工智能提供者難以被定性為技術(shù)服務(wù)提供者。其一,內(nèi)容來(lái)源與責(zé)任主 體的差異。在大多數(shù)場(chǎng)景下,生成式人工智能所生成的內(nèi)容并非來(lái)源于第三方,而是直接由人工智能本身產(chǎn)生。因此,生成式人工智能提供者不能簡(jiǎn)單地被視為“中介服務(wù)”提供者。其 二,獨(dú)立侵權(quán)責(zé)任的特殊性。在生成式人工智能的應(yīng)用中,存在用戶并未侵權(quán),但人工智能 提供者卻單獨(dú)侵權(quán)的特殊情況。此時(shí)人工智能提供者需要獨(dú)自承擔(dān)侵權(quán)責(zé)任?,F(xiàn)行法律中關(guān) 于技術(shù)服務(wù)提供者承擔(dān)共同侵權(quán)責(zé)任的規(guī)定無(wú)法涵蓋這種獨(dú)立承擔(dān)侵權(quán)責(zé)任的情形。其三, 避風(fēng)港規(guī)則的適用難題。在生成式人工智能場(chǎng)景下,內(nèi)容的生成過(guò)程并不公開(kāi),權(quán)利人難以 通過(guò)公開(kāi)渠道獲取足以定位侵權(quán)內(nèi)容的信息,如網(wǎng)絡(luò)鏈接等,以作為通知的必要組成部分發(fā) 送給生成式人工智能提供者。而且提供者也難以準(zhǔn)確定位侵權(quán)內(nèi)容,無(wú)法采取刪除等阻斷傳 播的措施。4另一方面,生成式人工智能算法結(jié)構(gòu)復(fù)雜,僅憑傳統(tǒng)的人工審核等技術(shù)手段難 以全面、準(zhǔn)確的識(shí)別所有潛在的侵權(quán)內(nèi)容。5人工智能生成過(guò)程的非公開(kāi)性,使得外在觀察 者難以判定生成式人工智能提供者對(duì)于侵權(quán)是否屬于“知道”或“應(yīng)該知道”。6
第二,生成式人工智能提供者并非網(wǎng)絡(luò)內(nèi)容提供者。其一,服務(wù)性質(zhì)不同。網(wǎng)絡(luò)內(nèi)容提 供者提供的內(nèi)容往往由提供者事先根據(jù)其服務(wù)的專業(yè)領(lǐng)域和創(chuàng)作方向決定,但是生成式人工 智能提供的內(nèi)容結(jié)果嚴(yán)格依照用戶的指令生成。生成式人工智能生成內(nèi)容的行為兼具服務(wù)與 內(nèi)容供給的雙重屬性。生成式人工智能生成的結(jié)果具有高度的不確定性,由于數(shù)據(jù)抓取存在 的時(shí)間、空間差異等,用戶相同的提示詞可能會(huì)產(chǎn)生不同的結(jié)果,這與傳統(tǒng)網(wǎng)絡(luò)內(nèi)容提供者 提供內(nèi)容的高度確定性存在較大差異。7其二,內(nèi)容的實(shí)際控制者不同。生成式人工智能的 輸出結(jié)果并非單純用戶提供的內(nèi)容,而是人工智能系統(tǒng)與用戶共同“創(chuàng)作”的結(jié)果。用戶通過(guò) “提示詞”對(duì)生成式人工智能進(jìn)行“微調(diào)”,模型與用戶交疊增強(qiáng),衍生出共生能動(dòng)性的關(guān)系。 8人工智能根據(jù)用戶提示將數(shù)據(jù)中的語(yǔ)句重新語(yǔ)境化,人工智能系統(tǒng)的復(fù)雜響應(yīng)性和自適應(yīng) 性超越了單純內(nèi)容選擇或總結(jié)的范疇。生成式人工智能實(shí)際上具有多重用途和功能,其不僅 可以直接服務(wù)于用戶端,更可以作為基礎(chǔ)模型供其他領(lǐng)域進(jìn)行更加細(xì)化的應(yīng)用,例如通過(guò)開(kāi) 放應(yīng)用程序接口的方式為其他企業(yè)提供技術(shù)底座。
第三,生成式人工智能提供者并非傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者。從技術(shù)類型上,生成式人工 智能既不能為用戶提供類似于電信運(yùn)營(yíng)商的互聯(lián)網(wǎng)接入服務(wù),也不能為用戶提供信息存儲(chǔ)服 務(wù)或者自動(dòng)傳輸服務(wù)。人工智能自身并不存儲(chǔ)數(shù)據(jù)或信息,人工智能訓(xùn)練數(shù)據(jù)需要由數(shù)據(jù)提 供者提供或者由開(kāi)發(fā)者進(jìn)行網(wǎng)絡(luò)抓取,并通過(guò)“數(shù)據(jù)喂養(yǎng)”與預(yù)訓(xùn)練的生成邏輯,經(jīng)過(guò)算法 轉(zhuǎn)化而生成結(jié)果,最終直接向用戶提供自我學(xué)習(xí)后的內(nèi)容。在實(shí)踐中,OpenAI公司在使用 協(xié)議中自認(rèn)的免責(zé)條件與美國(guó)《千禧年數(shù)字版權(quán)法》(Digital Millennium Copyright Act, DMCA)所規(guī)定的網(wǎng)絡(luò)通信服務(wù)提供者、緩存服務(wù)提供者的免責(zé)條件都不相同。9生成式人 工智能既包括面向公眾的程序,例如ChatGPT、文心一言等,還包括離線軟件,例如AntSK, 此種離線使用的性質(zhì)對(duì)生成式人工智能提供者為網(wǎng)絡(luò)服務(wù)提供者的身份認(rèn)定更是提出了險(xiǎn)小于一般產(chǎn)品。 其也可能造成個(gè)人隱私泄露、數(shù)據(jù)安全威脅、名譽(yù)損挑戰(zhàn)。此外,風(fēng)險(xiǎn)的內(nèi)涵是不確定的,不能簡(jiǎn)單地認(rèn)為生成式人工智能的危害,甚至提供錯(cuò)誤信息教唆他人自殺或 謀殺等危害。另一方面,即使認(rèn)為生成式人工智能為網(wǎng)絡(luò)服務(wù)提供者的學(xué)者,也承認(rèn)需對(duì)既 有的網(wǎng)絡(luò)服務(wù)提供者侵權(quán)責(zé)任進(jìn)行檢視而不能直接適用。10生成式人工智能的自動(dòng)化信息輸 出并非一個(gè)完全隨機(jī)的純粹技術(shù)過(guò)程,相反,它是基于早前給定的算法而發(fā)生的,即便存在 機(jī)器的自我學(xué)習(xí),但學(xué)習(xí)過(guò)程在一定程度上仍是由人決定的。
第四,將生成式人工智能提供者定位為新型網(wǎng)絡(luò)服務(wù)提供者的立法成本過(guò)大。有學(xué)者根 據(jù)生成式人工智能的特征提出,其應(yīng)當(dāng)為新型網(wǎng)絡(luò)服務(wù)。11但是,此種思路并未建立在深刻 審視現(xiàn)有路徑的基礎(chǔ)上,更多的是對(duì)現(xiàn)實(shí)需求的無(wú)奈折衷,或者是“學(xué)術(shù)的惰性”的體現(xiàn)。新 問(wèn)題出現(xiàn)后另設(shè)一種類型來(lái)應(yīng)對(duì)并非生成式人工智能出現(xiàn)后首次面對(duì)的問(wèn)題,這在新興權(quán)利 大爆發(fā)時(shí)期就已經(jīng)被廣泛討論了,目前學(xué)界也基本認(rèn)定不能新出現(xiàn)一種問(wèn)題就提出一種新的 說(shuō)法或理論,例如網(wǎng)絡(luò)法規(guī)制的傳統(tǒng)命題“馬法爭(zhēng)議”。如果試圖為每一個(gè)新出現(xiàn)的技術(shù)或現(xiàn) 象制定專門(mén)的法律,最終只會(huì)使法律體系變得支離破碎,難以形成統(tǒng)一的原則。12司法實(shí)踐 也大多堅(jiān)持偏保守的路徑,例如在“杭州刀豆網(wǎng)絡(luò)科技有限公司訴長(zhǎng)沙百贊網(wǎng)絡(luò)科技有限公 司等侵害作品信息網(wǎng)絡(luò)傳播權(quán)糾紛案”中,關(guān)于微信小程序的法律定位存在爭(zhēng)議,杭州互聯(lián) 網(wǎng)法院拒絕了騰訊認(rèn)為微信小程序是一種新型網(wǎng)絡(luò)服務(wù)的主張,認(rèn)定應(yīng)當(dāng)在現(xiàn)有的服務(wù)類型 中尋找適用路徑。法院最終認(rèn)定微信小程序類似于網(wǎng)絡(luò)接入、傳輸服務(wù)。13若主張生成式人 工智能為一種新型網(wǎng)絡(luò)服務(wù),那么僅憑目前其技術(shù)上的特征作為支撐顯然是遠(yuǎn)遠(yuǎn)不夠的,還 需要更為抽象、更為深入的論證。在當(dāng)前我國(guó)已有相關(guān)立法的情況下,若主張生成式人工智 能為新型網(wǎng)絡(luò)服務(wù),則修法成本過(guò)高,未必為最佳策略。因此,我們應(yīng)當(dāng)首先反思現(xiàn)有的路 徑,即是否存在成本更低、更能夠自圓其說(shuō)的規(guī)則作為認(rèn)定依據(jù),不可隨意將新生事物命名 為“新類型”。
生成式人工智能侵權(quán)適用網(wǎng)絡(luò)服務(wù)提供者責(zé)任的理論主要集中在規(guī)范與用戶直接交互 的內(nèi)容輸出行為方面,而忽視了“模型即服務(wù)”(model as a service, MaaS)模式下模型提供 者的行為評(píng)價(jià)。14具體而言,未能充分考慮以下方面:其一,模型提供者的行為規(guī)范。在“模 型即服務(wù)”模式下,模型提供者負(fù)責(zé)開(kāi)發(fā)、訓(xùn)練和維護(hù)用于生成內(nèi)容的算法模型。這些模型 的質(zhì)量和安全性直接影響最終輸出內(nèi)容的合規(guī)性和可靠性。因此,需要建立專門(mén)的責(zé)任機(jī)制 來(lái)評(píng)估和規(guī)范模型提供者的行為。其二,技術(shù)應(yīng)用場(chǎng)景的多樣性。生成式人工智能既可以作 為獨(dú)立軟件使用,也可以嵌入到各種硬件設(shè)備中,廣泛應(yīng)用于不同領(lǐng)域。這使得技術(shù)缺陷可 能出現(xiàn)在多個(gè)環(huán)節(jié),影響范圍更廣?,F(xiàn)有規(guī)則缺乏對(duì)這些多樣化應(yīng)用場(chǎng)景全面覆蓋的內(nèi)容, 難以有效防范和處理相關(guān)侵權(quán)行為。生成式人工智能技術(shù)的發(fā)展速度極快,新的應(yīng)用場(chǎng)景和技術(shù)手段不斷涌現(xiàn)?,F(xiàn)有規(guī)則往往滯后于技術(shù)創(chuàng)新的步伐,無(wú)法及時(shí)回應(yīng)技術(shù)缺陷帶來(lái)的負(fù) 面影響。因此,亟需構(gòu)建更加靈活和更具前瞻性的法律框架,以適應(yīng)快速變化的技術(shù)環(huán)境。
三、生成式人工智能的侵權(quán)責(zé)任認(rèn)定:產(chǎn)品責(zé)任的框架設(shè)想
(一)生成式人工智能產(chǎn)品屬性的證成
生成式人工智能具有無(wú)形性特征,這挑戰(zhàn)了傳統(tǒng)的產(chǎn)品認(rèn)定方式。生成式人工智能的生 產(chǎn)過(guò)程和傳播方式也不同于傳統(tǒng)意義上的“制造”和“銷售”。因此,單純依賴傳統(tǒng)的有形性檢 驗(yàn)標(biāo)準(zhǔn)顯然無(wú)法有效應(yīng)對(duì)這一新興技術(shù)所帶來(lái)的挑戰(zhàn)。對(duì)生成式人工智能系統(tǒng)定性的關(guān)鍵, 并不在于法律規(guī)范中產(chǎn)品的定義,而在于產(chǎn)品責(zé)任的規(guī)范目的,以及人工智能是否符合該目 的而落入產(chǎn)品責(zé)任的對(duì)象范圍之內(nèi)。我國(guó)產(chǎn)品質(zhì)量法第2條第2款所定義的產(chǎn)品指“經(jīng)加工、 制作用于銷售的產(chǎn)品”。就此而言,產(chǎn)品要件包括:加工、制作、銷售。
1.生成式人工智能的加工、制作屬性分析
從文義上考慮,“加工、制作”體現(xiàn)為人類通過(guò)勞動(dòng)創(chuàng)造價(jià)值的基本形式。當(dāng)前,生成式 人工智能的人造物屬性并未發(fā)生改變,盡管其具有一定的智能性,但是其仍然由人類設(shè)計(jì)、 編碼、訓(xùn)練,并未脫離人為制造的范疇,其輸出的內(nèi)容信息也是人類設(shè)計(jì)模型產(chǎn)出的結(jié)果。 就信息是否能夠作為產(chǎn)品責(zé)任的客體,在Winter v. G.P. Ptunam’s Sons案中,法官認(rèn)為產(chǎn)品 責(zé)任的適用對(duì)象為有形產(chǎn)品。此案的核心爭(zhēng)議在于《蘑菇百科全書(shū)》是否應(yīng)被視為“產(chǎn)品”, 從而適用嚴(yán)格責(zé)任。法院最終裁定,該書(shū)不應(yīng)被視為產(chǎn)品,而是思想和表達(dá)的載體。15然而, 在Saloomey v. Jeppesen & Co.案中,被告辯稱有缺陷的航空?qǐng)D表是一種服務(wù),因此其不受產(chǎn) 品責(zé)任的約束。法院駁回了這一論點(diǎn),認(rèn)為被告的圖表是大量生產(chǎn)和大規(guī)模銷售的,這對(duì)于 產(chǎn)品的認(rèn)定具有決定性作用。16航空?qǐng)D作為一種具有專業(yè)性的工具,通過(guò)將測(cè)繪得來(lái)的工程 數(shù)據(jù)用地理術(shù)語(yǔ)描述出來(lái),與指南針最有可比性,使用者需要依靠其指引完成工作,因而航 空?qǐng)D可以被認(rèn)為屬于產(chǎn)品范疇。在此案中,法院強(qiáng)調(diào)人們使用的是航行圖的物理特性而不是 其中包含的觀點(diǎn)。17對(duì)航空?qǐng)D與蘑菇指南案件的區(qū)別進(jìn)行分析,可以看出:航空?qǐng)D因其技術(shù) 性和機(jī)械性特征,性質(zhì)更接近于可以直接指導(dǎo)行動(dòng)的工具,因此其可以被視為“產(chǎn)品”;而 蘑菇指南則是關(guān)于如何使用工具的知識(shí)傳遞載體,屬于思想和表達(dá)范疇,因此其不能被認(rèn)定 為“產(chǎn)品”。然而,隨著人工智能技術(shù)的發(fā)展和應(yīng)用,這一界限變得模糊。人工智能輸出結(jié) 果究竟是更類似于可以直接使用的圖表(如航空?qǐng)D),還是更類似于指導(dǎo)如何使用工具的書(shū) 籍(如蘑菇指南)?
需要注意的是,人工智能系統(tǒng)的輸出并非完全獨(dú)立于人類設(shè)計(jì)和訓(xùn)練過(guò)程,這意味著責(zé) 任的分配可能需要綜合考慮開(kāi)發(fā)者、使用者以及系統(tǒng)本身的特性。在數(shù)字時(shí)代,信息的形式 日益多樣化,傳統(tǒng)的物質(zhì)形態(tài)已不再是判斷其性質(zhì)的唯一標(biāo)準(zhǔn)。相反,信息的功能、用途以 及對(duì)用戶行為的實(shí)際影響可能更為關(guān)鍵。生成式人工智能不僅僅是信息的傳遞媒介,它還是 信息生成的來(lái)源。換言之,生成式人工智能通過(guò)復(fù)雜的算法和數(shù)據(jù)分析,生成建議和決策支 持。因此,生成式人工智能的輸出應(yīng)當(dāng)被視為其系統(tǒng)的固有部分,而不是獨(dú)立于系統(tǒng)之外的 內(nèi)容。這意味著,如果生成式人工智能的輸出存在缺陷,例如導(dǎo)致錯(cuò)誤的醫(yī)療建議或診斷,那么這些缺陷應(yīng)當(dāng)被納入產(chǎn)品責(zé)任的考量范圍之內(nèi)。生成式人工智能輸出的內(nèi)容與系統(tǒng)的關(guān) 系十分緊密,輸出內(nèi)容往往由系統(tǒng)自動(dòng)生成或修改。因此生成式人工智能不僅僅是輸出內(nèi)容 的載體,更是其來(lái)源。生成式人工智能系統(tǒng)與其輸出內(nèi)容之間的緊密程度遠(yuǎn)遠(yuǎn)超于書(shū)籍與其 中刊載內(nèi)容之間的緊密程度,生成式人工智能系統(tǒng)與書(shū)籍的信息生成機(jī)制和存在形式有著根 本差異。生成式人工智能的輸出應(yīng)當(dāng)被視為其“固有特性”的一部分,系統(tǒng)或者模型本身符合 產(chǎn)品要件的要求。
隨著數(shù)字技術(shù)的發(fā)展,數(shù)字產(chǎn)品、無(wú)形產(chǎn)品同樣存在質(zhì)量瑕疵的問(wèn)題。信息本身是否符 合產(chǎn)品定義存在爭(zhēng)議,這是因?yàn)槿舫姓J(rèn)信息致害適用產(chǎn)品責(zé)任,則可能導(dǎo)致寒蟬效應(yīng),言論 自由將受到極大的干預(yù),影響社會(huì)公眾之間思想的自由交流,代價(jià)巨大。另外,出版社往往 難以控制書(shū)籍中的信息內(nèi)容,要求其承擔(dān)產(chǎn)品責(zé)任對(duì)其而言過(guò)于嚴(yán)苛。但同時(shí)法院也承認(rèn), 若出版社對(duì)出版的內(nèi)容起到了重要作用,則結(jié)果會(huì)大不相同。18生成式人工智能侵權(quán)適用產(chǎn) 品責(zé)任并不意味著其生成的信息本身為產(chǎn)品?;谘哉撟杂傻目剂浚荒軐⑿畔⒈旧懋?dāng)作產(chǎn) 品來(lái)對(duì)待。但是這并非意味著生成信息的軟件或系統(tǒng)本身不能被當(dāng)作產(chǎn)品來(lái)進(jìn)行規(guī)制,換言 之,若生成信息的系統(tǒng)本身并不存在缺陷,即便其生成的信息存在一定的瑕疵,也難以要求 生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任;但是,若因?yàn)樯墒饺斯ぶ悄鼙旧泶嬖谠O(shè)計(jì)、警示等缺陷而導(dǎo)致虛假 信息的產(chǎn)生,則在侵權(quán)的情況下要求相關(guān)主體承擔(dān)產(chǎn)品責(zé)任是合理的,這也是“成本最低避 免者”責(zé)任分配思想的體現(xiàn)。域外司法實(shí)踐也并未完全否認(rèn)平臺(tái)算法侵權(quán)適用產(chǎn)品責(zé)任的可 能性。19在Lemmon v. Snap, Inc.案中,法院認(rèn)可了原告認(rèn)為社交媒體平臺(tái)Snap存在設(shè)計(jì)缺 陷的控訴,承認(rèn)了平臺(tái)算法為產(chǎn)品,認(rèn)為算法存在缺陷,并對(duì)缺陷造成的損害適用產(chǎn)品責(zé)任。 20就人工智能系統(tǒng)而言,盡管其輸出的是無(wú)形的信息,但是因?yàn)樵O(shè)計(jì)者、開(kāi)發(fā)者對(duì)于結(jié)果的 生成具有一定的控制能力,對(duì)于減少產(chǎn)品缺陷處于有利地位,也能通過(guò)產(chǎn)品責(zé)任保險(xiǎn)、價(jià)格 機(jī)制等分散責(zé)任風(fēng)險(xiǎn)。人工智能系統(tǒng)提供者應(yīng)當(dāng)對(duì)系統(tǒng)自身生產(chǎn)機(jī)制中的缺陷,包括模型設(shè) 計(jì)、數(shù)據(jù)選擇等引發(fā)的不合理危險(xiǎn)所造成的損害,承擔(dān)產(chǎn)品責(zé)任,這符合大數(shù)據(jù)時(shí)代的技術(shù) 特征。21
2.生成式人工智能的銷售屬性分析
生成式人工智能具備可銷售屬性,其銷售對(duì)象是不特定的。22隨著人工智能和大語(yǔ)言模 型的興起,“產(chǎn)品”與“服務(wù)”之間的界限逐漸模糊。像ChatGPT、Claude和Gemini等模型的 基礎(chǔ)代碼庫(kù)通常是固定的,無(wú)論在哪臺(tái)計(jì)算機(jī)上運(yùn)行,其核心功能和性能都不會(huì)發(fā)生變化。 盡管用戶的體驗(yàn)可能因輸入的不同而有所差異,但這些模型本身的設(shè)計(jì)初衷是為了滿足廣泛 的市場(chǎng)需求,因此它們更接近于傳統(tǒng)意義上的“產(chǎn)品”。23與傳統(tǒng)制造業(yè)不同,軟件開(kāi)發(fā)和人 工智能系統(tǒng)的構(gòu)建通常涉及高度自動(dòng)化的流程,這使得單一錯(cuò)誤或漏洞可能迅速傳播至全球 范圍內(nèi)的數(shù)千萬(wàn)用戶。此種大規(guī)模生產(chǎn)的特征不僅提高了效率,也顯著增加了潛在風(fēng)險(xiǎn)暴露 的可能性。例如,微小的算法調(diào)整可能導(dǎo)致用戶沉迷、心理健康受損甚至社會(huì)分裂現(xiàn)象加劇 等問(wèn)題。隨著生成式人工智能逐漸嵌入到各種產(chǎn)品和服務(wù)中,這種技術(shù)驅(qū)動(dòng)的危害可能達(dá)到前所未有的規(guī)模。2022年9月28日,歐盟委員會(huì)頒布了《產(chǎn)品責(zé)任指令》(the Product Liability Directive, revised PLD),以適應(yīng)數(shù)字時(shí)代的發(fā)展需要。該提案擴(kuò)大了損害、產(chǎn)品、缺陷和 責(zé)任的概念,明確將無(wú)形軟件(intangible software)和數(shù)字制造文檔(digital manufacturing files)納入產(chǎn)品范疇。24
關(guān)于銷售方式的認(rèn)定,通常貨物等動(dòng)產(chǎn)可以進(jìn)行銷售,移轉(zhuǎn)物的所有權(quán);而對(duì)于軟件, 通常采用“著作權(quán)許可”的方式對(duì)外提供,用戶雖可使用但并不能獲得軟件著作權(quán)。這也是否 定生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的主要理由之一。但是,此種區(qū)分產(chǎn)品與服務(wù)的邏輯仍 然是建立在產(chǎn)品的有形性測(cè)試的基礎(chǔ)之上。然而,在人工智能已經(jīng)模糊了產(chǎn)品與服務(wù)的背景 下,此種認(rèn)定方式已經(jīng)不再適應(yīng)當(dāng)前的情況。許可使用的本質(zhì)在于保護(hù)知識(shí)產(chǎn)權(quán)人的權(quán)利, 并沒(méi)有改變產(chǎn)品被銷售的現(xiàn)實(shí),例如軟件被儲(chǔ)存在光盤(pán)中售賣(mài),也不能否認(rèn)其中存在著作權(quán) 人的知識(shí)產(chǎn)權(quán),二者并不存在必然的矛盾。換言之,即便購(gòu)買(mǎi)普通產(chǎn)品也不意味著其中蘊(yùn)含 的專利權(quán)、商標(biāo)權(quán)等被轉(zhuǎn)讓。而且“許可使用”大多以合同的形式存在,因此對(duì)于非合同受 害者保護(hù)不足,其救濟(jì)仍然限于違約責(zé)任之下,難以應(yīng)對(duì)大規(guī)模侵權(quán)行為。從產(chǎn)品責(zé)任發(fā)展 的歷史來(lái)看,其本身蘊(yùn)含著合同責(zé)任與侵權(quán)責(zé)任的雙重屬性,對(duì)受害者保護(hù)更為周全。另外, “銷售”體現(xiàn)了保護(hù)生產(chǎn)者利益的價(jià)值考量,即生產(chǎn)者并不對(duì)產(chǎn)品后續(xù)使用中產(chǎn)生的問(wèn)題一概 承擔(dān)責(zé)任,這是產(chǎn)品大規(guī)模銷售背景下對(duì)嚴(yán)格責(zé)任緩沖的體現(xiàn)。生成式人工智能是獨(dú)立運(yùn)行 的實(shí)體,其被設(shè)計(jì)和制造出來(lái)是為了實(shí)現(xiàn)特定功能或目的,例如輔助醫(yī)生進(jìn)行診斷。歐盟法 院在UsedSoft v. Oracle案中的裁決進(jìn)一步支持了將軟件視為產(chǎn)品的觀點(diǎn)。在該案中,法院 裁定通過(guò)互聯(lián)網(wǎng)下載的軟件與購(gòu)買(mǎi)實(shí)體材料獲得的副本具有相同的法律地位。這意味著,無(wú) 論是通過(guò)網(wǎng)絡(luò)下載還是購(gòu)買(mǎi)實(shí)體光盤(pán),用戶所獲得的軟件都應(yīng)被視為一種產(chǎn)品?;谶@一邏 輯,如果集成在硬件中的軟件被視為產(chǎn)品,那么獨(dú)立軟件也應(yīng)當(dāng)被視為產(chǎn)品。換言之,不應(yīng) 存在雙重標(biāo)準(zhǔn),即一方面要求硬件中的軟件設(shè)計(jì)者承擔(dān)責(zé)任,另一方面卻對(duì)獨(dú)立軟件的設(shè)計(jì) 者免除責(zé)任。這顯然是不合理的,也不符合法律的一致性和公平性原則。25
從實(shí)踐來(lái)看,我國(guó)現(xiàn)有法律法規(guī)已經(jīng)承認(rèn)了醫(yī)療人工智能軟件作為醫(yī)療器械的屬性。用 于診斷、評(píng)估的智能算法軟件在醫(yī)藥監(jiān)管領(lǐng)域如何定性,在實(shí)踐及監(jiān)管層面經(jīng)過(guò)一段時(shí)間的 探索之后,我國(guó)已經(jīng)有了較為清晰的監(jiān)管框架。根據(jù)國(guó)家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評(píng) 中心發(fā)布的《移動(dòng)醫(yī)療器械注冊(cè)技術(shù)審查指導(dǎo)原則》《人工智能醫(yī)療器械注冊(cè)審查指導(dǎo)原則》 《人工智能醫(yī)用軟件產(chǎn)品分類界定指導(dǎo)原則》等法律法規(guī)的定義:(A)確認(rèn)凡符合醫(yī)療器 械定義的移動(dòng)計(jì)算設(shè)備或軟件屬于醫(yī)療器械;(B)確認(rèn)若軟件產(chǎn)品的處理對(duì)象為醫(yī)療器械 數(shù)據(jù),且核心功能是對(duì)醫(yī)療器械數(shù)據(jù)的處理、測(cè)量、模型計(jì)算、分析等,并用于醫(yī)療用途的, 作為醫(yī)療器械管理。因此,此類醫(yī)療器械既包括人工智能獨(dú)立軟件,也包括含有生成式人工 智能軟件組件的醫(yī)療設(shè)備(包括體外診斷醫(yī)療器械)。26當(dāng)生成式人工智能被劃歸入物的集 合,且流通于市場(chǎng)時(shí),即體現(xiàn)出生成式人工智能的產(chǎn)品屬性。根據(jù)我國(guó)臺(tái)灣地區(qū)“消費(fèi)者保 護(hù)法”的規(guī)定,產(chǎn)品責(zé)任的客體包括商品、服務(wù)及混合產(chǎn)品等三種類型。德國(guó)針對(duì)醫(yī)療產(chǎn)品 另外制定了《醫(yī)療產(chǎn)品法》(Gesetz über Medizinprodukte, MPG),其是產(chǎn)品責(zé)任法的特別法;依據(jù)該法第3條第1款的規(guī)定,以診斷、治療或維持其他醫(yī)療產(chǎn)品正常功能為目的的軟 件,亦屬于醫(yī)療產(chǎn)品。因此,如果發(fā)生醫(yī)療人工智能軟件誤診的情形,患者也可以向開(kāi)發(fā)者 主張產(chǎn)品責(zé)任。27在Simulados Software, Ltd. v. Photon Infotech Private, Ltd.案中,法院認(rèn)為大 規(guī)模生產(chǎn)的(mass-produced)、標(biāo)準(zhǔn)化(standarized)的或普遍可用(generallly available) 的軟件,即使是為適應(yīng)特定需求開(kāi)發(fā)的軟件,其屬性也應(yīng)當(dāng)被認(rèn)定為“產(chǎn)品”。28盡管生成 式人工智能輸出結(jié)果可能“千人千面”,但是生成式人工智能系統(tǒng)本身均以標(biāo)準(zhǔn)格式進(jìn)行批量 模型訓(xùn)練和模型設(shè)計(jì),所謂輸出結(jié)果不同也僅僅是用戶誘導(dǎo)下生成結(jié)果的異化,本身也是算 法模型運(yùn)行結(jié)果的題中之義。29另外,可以將生成式人工智能與電力、熱力等非傳統(tǒng)有形動(dòng) 產(chǎn)類比,供應(yīng)者在制造、控制、輸送過(guò)程中的廣泛參與,使電力等非傳統(tǒng)有形動(dòng)產(chǎn)具備了產(chǎn) 品特征。盡管生成式人工智能會(huì)根據(jù)用戶輸入的數(shù)據(jù)而輸出不同的內(nèi)容,似乎有“私人定制” 的外在表象,但是這并非針對(duì)特定用戶的服務(wù),其內(nèi)在的算法邏輯是相同的,程序及模型的 設(shè)計(jì)并沒(méi)有實(shí)質(zhì)上的差異。生成式人工智能若已經(jīng)完成了測(cè)試,被投入市場(chǎng)中使用,則符合 投入流通的要求。因此,生成式人工智能符合產(chǎn)品的定義,生成式人工智能侵權(quán)應(yīng)當(dāng)適用產(chǎn) 品責(zé)任。
(二)產(chǎn)品責(zé)任契合生成式人工智能“基于風(fēng)險(xiǎn)”的動(dòng)態(tài)規(guī)制方式
生成式人工智能侵權(quán)責(zé)任的確定應(yīng)當(dāng)以風(fēng)險(xiǎn)分擔(dān)為依據(jù),以實(shí)現(xiàn)各主體之間的利益平 衡。風(fēng)險(xiǎn)分配通常指對(duì)風(fēng)險(xiǎn)本身的分配和對(duì)風(fēng)險(xiǎn)導(dǎo)致?lián)p害后果的分配。
第一,產(chǎn)品責(zé)任為無(wú)過(guò)錯(cuò)責(zé)任的誤區(qū)澄清。關(guān)于生成式人工智能侵權(quán)的歸責(zé)原則其實(shí)一 直存在過(guò)錯(cuò)責(zé)任與無(wú)過(guò)錯(cuò)責(zé)任的爭(zhēng)議,有觀點(diǎn)認(rèn)為基于鼓勵(lì)創(chuàng)新的價(jià)值取向,生成式人工智 能存在現(xiàn)有技術(shù)無(wú)法完全解決的固有缺陷,如果對(duì)此苛以無(wú)過(guò)錯(cuò)的嚴(yán)格責(zé)任,則會(huì)制約相關(guān) 技術(shù)的創(chuàng)新和發(fā)展,30此觀點(diǎn)也是否定生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的主要理由。但是, 這本身存在一定的誤區(qū),從法律經(jīng)濟(jì)分析的方法來(lái)看,無(wú)過(guò)錯(cuò)責(zé)任原則造成的整體社會(huì)成本 未必會(huì)大于過(guò)錯(cuò)責(zé)任原則。法律上的“合理注意”要求對(duì)應(yīng)的是事故成本與預(yù)防成本之和最小 的注意水平,若違背了此合理注意義務(wù)則被認(rèn)定為存在過(guò)失。但是,拋開(kāi)歸責(zé)原則的限制, 理性民事主體從事民事行為其實(shí)均追求私人成本的最小化。采納無(wú)過(guò)錯(cuò)責(zé)任原則并不意味著 行為人會(huì)為了防范事故而無(wú)限投入:一方面,無(wú)過(guò)錯(cuò)責(zé)任原則往往與責(zé)任保險(xiǎn)相配套,可以 減輕行為人的責(zé)任承擔(dān),同時(shí)無(wú)過(guò)錯(cuò)責(zé)任原則導(dǎo)致的損害往往具有額度的限制,責(zé)任人承擔(dān) 的責(zé)任并非是無(wú)限制的。另一方面,在無(wú)過(guò)錯(cuò)責(zé)任原則下,無(wú)論行為人采取何種注意義務(wù)和 措施,都不影響最終結(jié)果的實(shí)現(xiàn),即行為人均需要承擔(dān)與事故有關(guān)的全部社會(huì)成本,那么理 性經(jīng)濟(jì)人必然會(huì)選擇最小限度的注意措施。因此,若適用無(wú)過(guò)錯(cuò)責(zé)任原則將使行為人承擔(dān)責(zé) 任過(guò)重而制約人工智能產(chǎn)業(yè)發(fā)展的立論是站不住腳的。
另外,從國(guó)際立法趨勢(shì)來(lái)看,產(chǎn)品責(zé)任中嚴(yán)格責(zé)任逐漸衰弱,過(guò)錯(cuò)責(zé)任逐漸回歸。在早 期階段,大多數(shù)產(chǎn)品責(zé)任案件主要集中在制造缺陷上。法院為制造缺陷適用嚴(yán)格責(zé)任提供了 強(qiáng)有力的理論依據(jù):首先,制造商在預(yù)防產(chǎn)品事故發(fā)生方面具有顯著的優(yōu)勢(shì)地位。其可以通 過(guò)實(shí)施嚴(yán)格的測(cè)試程序、監(jiān)控生產(chǎn)過(guò)程中的數(shù)據(jù)以及改進(jìn)安全規(guī)程來(lái)減少事故發(fā)生的風(fēng)險(xiǎn)。其次,制造商有能力通過(guò)購(gòu)買(mǎi)保險(xiǎn)分?jǐn)傌?zé)任損害或?qū)⒊杀痉謹(jǐn)偟剿薪K端用戶的價(jià)格中。這 意味著即使發(fā)生個(gè)別事故,制造商也可以通過(guò)經(jīng)濟(jì)手段減輕自身的負(fù)擔(dān)。相比之下,在過(guò)錯(cuò) 責(zé)任原則下,原告往往面臨舉證困難的問(wèn)題。其需要證明制造商在裝配線管理或安全規(guī)程制 定方面未能履行合理的注意義務(wù),而這通常需要進(jìn)行復(fù)雜的證據(jù)收集和技術(shù)分析,對(duì)普通消 費(fèi)者來(lái)說(shuō)幾乎是不可能完成的任務(wù),因此嚴(yán)格責(zé)任更具有優(yōu)勢(shì)。然而,從20世紀(jì)中葉到21 世紀(jì)之初,隨著技術(shù)的進(jìn)步和大規(guī)模生產(chǎn)的普及,產(chǎn)品責(zé)任案件的數(shù)量和性質(zhì)都發(fā)生了顯著 變化。這一時(shí)期,強(qiáng)大的技術(shù)和復(fù)雜商品的出現(xiàn)促使產(chǎn)品責(zé)任歸責(zé)原則逐漸演變。設(shè)計(jì)缺陷 和警示缺陷的訴訟請(qǐng)求逐漸增多。設(shè)計(jì)缺陷和警示缺陷的判定要求制造商不僅要確保產(chǎn)品的 物理完整性,還要對(duì)其設(shè)計(jì)的安全性和信息透明度負(fù)責(zé)。這種轉(zhuǎn)變不僅體現(xiàn)了法律對(duì)消費(fèi)者 保護(hù)力度的加強(qiáng),也推動(dòng)了企業(yè)在產(chǎn)品研發(fā)和市場(chǎng)推廣過(guò)程中更加注重安全性和合規(guī)性。相 比制造缺陷,設(shè)計(jì)缺陷涉及的因素更為復(fù)雜,單純依賴消費(fèi)者預(yù)期可能無(wú)法全面評(píng)估產(chǎn)品的 安全性與合理性。因此,法院開(kāi)始轉(zhuǎn)向一種更具靈活性的標(biāo)準(zhǔn)——帶有過(guò)失色彩的“風(fēng)險(xiǎn)效 益”標(biāo)準(zhǔn)。根據(jù)這一標(biāo)準(zhǔn),法院需要對(duì)產(chǎn)品的設(shè)計(jì)屬性進(jìn)行全面評(píng)估,權(quán)衡其優(yōu)點(diǎn)與缺點(diǎn), 以判斷產(chǎn)品是否達(dá)到了合理的安全水平。對(duì)于警示缺陷的認(rèn)定,通常適用“合理性”標(biāo)準(zhǔn),即 評(píng)估制造商是否提供了充分的信息以使消費(fèi)者能夠合理預(yù)見(jiàn)和規(guī)避風(fēng)險(xiǎn)。設(shè)計(jì)缺陷和警示缺 陷的判定基本上適用過(guò)錯(cuò)責(zé)任原則,這體現(xiàn)了產(chǎn)品責(zé)任從嚴(yán)格責(zé)任向過(guò)失責(zé)任的價(jià)值轉(zhuǎn)變。 因此,以產(chǎn)品責(zé)任為無(wú)過(guò)錯(cuò)責(zé)任來(lái)否定生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,也是無(wú)法站住腳的。
第二,產(chǎn)品責(zé)任適合生成式人工智能系統(tǒng)多樣態(tài)、多層次的特征。生成式人工智能系統(tǒng) 十分復(fù)雜,涉及多個(gè)利益相關(guān)者,這使得追蹤其故障來(lái)源或?qū)⒐收系呢?zé)任歸咎于單個(gè)提供者 是十分困難的。判斷多元主體之間的過(guò)錯(cuò)程度和責(zé)任大小以及對(duì)受害人受損權(quán)益的保護(hù)在司 法實(shí)踐中是一個(gè)很大的難題。生成式人工智能通過(guò)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等技術(shù)實(shí)現(xiàn)了自主性 和自適應(yīng)性,削減了人類對(duì)生成式人工智能的控制,因此對(duì)人工智能侵權(quán)行為進(jìn)行歸因和責(zé)任的確定存在困境。
從產(chǎn)品責(zé)任的發(fā)展歷程來(lái)看,產(chǎn)品責(zé)任能夠應(yīng)對(duì)產(chǎn)品所帶來(lái)的復(fù)雜、交互式和動(dòng)態(tài)風(fēng)險(xiǎn)。 美國(guó)Air & Liquid Systems Corp. v. DeVries.31案中,制造商生產(chǎn)了一臺(tái)“裸金屬”渦輪機(jī),隨后, 另一家零部件制造商在渦輪機(jī)上加裝了含石棉的墊圈。工人因此接觸到了石棉而受到損害, 之后工人起訴了原渦輪機(jī)制造商,認(rèn)為其未對(duì)此作充分警示。問(wèn)題在于,原制造商是否應(yīng)對(duì) 在其產(chǎn)品投放市場(chǎng)后加裝的含石棉零部件所造成的損害承擔(dān)責(zé)任,法院給出了肯定的答案。 該判例為生成式人工智能侵權(quán)責(zé)任的承擔(dān)提供了重要參考:基礎(chǔ)模型開(kāi)發(fā)者需預(yù)見(jiàn)下游應(yīng)用 場(chǎng)景的潛在風(fēng)險(xiǎn);即便系統(tǒng)集成商添加有害組件,原始開(kāi)發(fā)者仍負(fù)有限警示義務(wù);持續(xù)監(jiān)測(cè) 義務(wù)涵蓋產(chǎn)品整個(gè)生命周期,包括算法迭代更新等。正如渦輪機(jī)制造商被認(rèn)定需要對(duì)產(chǎn)品投 入市場(chǎng)之后的改裝風(fēng)險(xiǎn)負(fù)責(zé),人工智能基礎(chǔ)模型開(kāi)發(fā)者也不能以“技術(shù)中立”為由逃避對(duì)衍 生應(yīng)用風(fēng)險(xiǎn)的警示責(zé)任。這種動(dòng)態(tài)責(zé)任機(jī)制恰能應(yīng)對(duì)機(jī)器學(xué)習(xí)系統(tǒng)在部署后持續(xù)演化的特 性。產(chǎn)品責(zé)任制度具有強(qiáng)大且富有活力的本質(zhì)在于:產(chǎn)品責(zé)任對(duì)制造商施加了售后義務(wù);生 產(chǎn)者需對(duì)產(chǎn)品進(jìn)行測(cè)試以及了解風(fēng)險(xiǎn)的義務(wù)并不會(huì)在產(chǎn)品投放市場(chǎng)時(shí)結(jié)束。
在容許風(fēng)險(xiǎn)范圍內(nèi),生成式人工智能開(kāi)發(fā)者作為創(chuàng)設(shè)風(fēng)險(xiǎn)的主體必須承擔(dān)回避風(fēng)險(xiǎn)的義 務(wù),因而有義務(wù)保障人工智能系統(tǒng)的安全風(fēng)險(xiǎn)處于合理范圍之內(nèi),這是產(chǎn)品責(zé)任對(duì)風(fēng)險(xiǎn)源監(jiān)督義務(wù)這一一般保證義務(wù)的要求所在,一旦生成式人工智能系統(tǒng)造成了危害后果,提供者則 應(yīng)當(dāng)對(duì)其風(fēng)險(xiǎn)源所引發(fā)的損害后果承擔(dān)責(zé)任。生成式人工智能開(kāi)發(fā)者、提供者對(duì)系統(tǒng)缺陷給 使用者或第三人造成損害的情況承擔(dān)產(chǎn)品責(zé)任,有利于督促開(kāi)發(fā)者、提供者更好地控制風(fēng)險(xiǎn)。 對(duì)于生成式人工智能不可預(yù)知的安全風(fēng)險(xiǎn),模型設(shè)計(jì)者、模型訓(xùn)練者、數(shù)據(jù)提供者等均具備 控制風(fēng)險(xiǎn)、承擔(dān)風(fēng)險(xiǎn)和分散風(fēng)險(xiǎn)的能力。32此種情況下,這不是過(guò)錯(cuò)問(wèn)題,而是風(fēng)險(xiǎn)分配和 損害救濟(jì)的承擔(dān)問(wèn)題。33生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,可以實(shí)現(xiàn)對(duì)其設(shè)計(jì)、訓(xùn)練等行 為的源頭規(guī)制。這對(duì)于減輕受害人的舉證責(zé)任、救濟(jì)非合同相對(duì)人來(lái)說(shuō)具有重要意義,對(duì)于 新型損害,例如歧視、虛假信息、信息泄露等也能更好地進(jìn)行規(guī)制和防范,具有無(wú)法比擬的 優(yōu)勢(shì)。34歐盟《關(guān)于缺陷產(chǎn)品的責(zé)任指令》(Liability for Defective Products Directive)認(rèn)定 人工智能侵權(quán)適用產(chǎn)品責(zé)任的主要原因是緩解受害人承擔(dān)的舉證困難,方便受害人快捷地獲 得賠償。生產(chǎn)者在將產(chǎn)品投入市場(chǎng)之前必然會(huì)對(duì)其進(jìn)行充分的檢測(cè)從而消除可能存在的缺 陷。生產(chǎn)者也最能通過(guò)價(jià)格、保險(xiǎn)等機(jī)制將風(fēng)險(xiǎn)內(nèi)化,防止風(fēng)險(xiǎn)擴(kuò)大造成他人的損害。35產(chǎn) 品在規(guī)模銷售中其實(shí)已經(jīng)將風(fēng)險(xiǎn)分散了,生產(chǎn)者通過(guò)產(chǎn)品的大規(guī)模銷售獲得巨額利潤(rùn)的同 時(shí),也應(yīng)當(dāng)承擔(dān)控制風(fēng)險(xiǎn)的義務(wù)。另一方面,針對(duì)人工智能的產(chǎn)品特性,在嚴(yán)苛無(wú)過(guò)錯(cuò)責(zé)任 與過(guò)錯(cuò)責(zé)任之間存在“缺陷認(rèn)定”、發(fā)展風(fēng)險(xiǎn)抗辯事由等制度以緩沖嚴(yán)格責(zé)任的絕對(duì)剛性,產(chǎn) 品責(zé)任實(shí)際上兼具過(guò)錯(cuò)責(zé)任與無(wú)過(guò)錯(cuò)責(zé)任的優(yōu)勢(shì)。針對(duì)生成式人工智能的開(kāi)發(fā)過(guò)程,從識(shí)別 超參數(shù)到清理訓(xùn)練數(shù)據(jù)再到測(cè)試模型,其實(shí)都與相關(guān)主體的選擇密切相關(guān),產(chǎn)品責(zé)任的歸責(zé) 原則并非絕對(duì)無(wú)過(guò)錯(cuò)責(zé)任,也并非單一過(guò)錯(cuò)責(zé)任,相反,產(chǎn)品責(zé)任往往根據(jù)風(fēng)險(xiǎn)來(lái)源與缺陷 類型匹配多樣化的歸責(zé)原則。這恰好契合了生成式人工智能系統(tǒng)多身份、多樣態(tài)、多層次的 特征,可以根據(jù)風(fēng)險(xiǎn)產(chǎn)生的來(lái)源或?qū)哟未_定缺陷的類型與屬性,并進(jìn)一步適用相關(guān)的歸責(zé)原 則。36作為不真正連帶責(zé)任的一種,產(chǎn)品責(zé)任有助于協(xié)調(diào)模型供給者與模型調(diào)用者之間的關(guān) 系。當(dāng)因產(chǎn)品缺陷導(dǎo)致?lián)p害時(shí),被侵權(quán)人既可以向模型供給者請(qǐng)求賠償,也可以向模型調(diào)用 者提出索賠請(qǐng)求。在這種責(zé)任框架下,無(wú)論是開(kāi)發(fā)者還是運(yùn)營(yíng)者,在向用戶承擔(dān)賠償責(zé)任后, 可以根據(jù)模型卡技術(shù)記錄、模型提供者的說(shuō)明等信息,確定價(jià)值鏈中其他相關(guān)主體是否存在 不當(dāng)行為,并向其進(jìn)行追償。這不僅有助于明確各方的責(zé)任,還能確保受害者能夠及時(shí)獲得 賠償,同時(shí)避免責(zé)任主體之間的推諉。
(三)產(chǎn)品責(zé)任有利于實(shí)現(xiàn)與監(jiān)管的良性互動(dòng)
社會(huì)主要通過(guò)兩種機(jī)制來(lái)管控諸如人工智能之類的新技術(shù)所帶來(lái)的風(fēng)險(xiǎn):責(zé)任和監(jiān)管。 這兩種機(jī)制在功能和實(shí)施方式上各有側(cè)重,但共同構(gòu)成了對(duì)新技術(shù)的全面治理框架。首先, 責(zé)任法是一種事后干預(yù)機(jī)制,僅在新技術(shù)造成損害時(shí)才發(fā)揮作用。其核心目的在于提供矯正 正義,即確保受害者能夠獲得適當(dāng)?shù)馁r償,同時(shí)為技術(shù)開(kāi)發(fā)者和使用者提供正確的激勵(lì),以 減少未來(lái)類似損害的發(fā)生。在人工智能領(lǐng)域,監(jiān)管機(jī)構(gòu)可能會(huì)要求開(kāi)發(fā)者在算法設(shè)計(jì)階段就 考慮公平性、透明性和安全性問(wèn)題,或者強(qiáng)制實(shí)施數(shù)據(jù)保護(hù)措施以防止隱私泄露。此外,政府還可以通過(guò)定期審計(jì)、認(rèn)證程序或強(qiáng)制報(bào)告制度來(lái)監(jiān)督技術(shù)的實(shí)際應(yīng)用情況。值得注意的 是,這兩種機(jī)制并非相互排斥,而是可以相輔相成的。責(zé)任法雖然主要關(guān)注事后救濟(jì),但它 也可以間接推動(dòng)事前預(yù)防,因?yàn)闈撛诘呢?zé)任風(fēng)險(xiǎn)會(huì)促使技術(shù)開(kāi)發(fā)者主動(dòng)采取更嚴(yán)格的防范措 施。而監(jiān)管則能夠通過(guò)明確的標(biāo)準(zhǔn)和要求,為責(zé)任法的實(shí)施提供基礎(chǔ)依據(jù),使得責(zé)任分配更 加清晰合理。通過(guò)精心設(shè)計(jì)的產(chǎn)品責(zé)任制度,可以有效促進(jìn)侵權(quán)責(zé)任與行政監(jiān)管之間的協(xié)調(diào) 互動(dòng)。這種制度設(shè)計(jì)不僅能夠明確各方的責(zé)任界限,還能確保在處理侵權(quán)問(wèn)題時(shí),行政監(jiān)管 措施與民事賠償機(jī)制相輔相成,共同維護(hù)市場(chǎng)秩序和消費(fèi)者權(quán)益。37
產(chǎn)品責(zé)任可以提供穩(wěn)健的框架,以處理人工智能模型和機(jī)器學(xué)習(xí)迭代問(wèn)題。以藥品為例, 在將藥品投放市場(chǎng)之前,監(jiān)管機(jī)構(gòu)往往要求制造商至少進(jìn)行三個(gè)階段的臨床試驗(yàn),并向監(jiān)督 機(jī)構(gòu)提交試驗(yàn)數(shù)據(jù),對(duì)藥品的安全性和有效性進(jìn)行嚴(yán)格的事前監(jiān)管審查。這個(gè)上市前的審批 過(guò)程是產(chǎn)生信息的過(guò)程。盡管存在此種嚴(yán)格的上市前審查措施,但是社會(huì)公眾對(duì)此藥品的特 性可能仍然知之甚少。因此,當(dāng)監(jiān)管機(jī)構(gòu)批準(zhǔn)的新藥品被投放市場(chǎng)之后,此藥品將與眾多患 者相互作用,可能產(chǎn)生關(guān)于此藥品的安全性和有效性的新信息。此種“學(xué)習(xí)”需設(shè)計(jì)反饋循環(huán), 一旦發(fā)現(xiàn)新的風(fēng)險(xiǎn)證據(jù),就應(yīng)當(dāng)調(diào)整監(jiān)管框架。制造商需要將新信息提交到監(jiān)督管理機(jī)構(gòu)(例 如額外風(fēng)險(xiǎn)或新的用途、副作用等),增加新的警告或批準(zhǔn)新的預(yù)期用途等。藥品的產(chǎn)品責(zé) 任框架為生成式人工智能侵權(quán)責(zé)任認(rèn)定提供了借鑒模版。
生成式人工智能由于其具有交互性特征而與其他技術(shù)不同。從美國(guó)來(lái)看,美國(guó)食品藥品 監(jiān)督管理局(FDA)最初只批準(zhǔn)了算法鎖定的人工智能/機(jī)器學(xué)習(xí)(AI/ML)設(shè)備,即設(shè)備 的代碼和輸出不會(huì)隨使用而改變。如今FDA已經(jīng)開(kāi)始批準(zhǔn)越來(lái)越復(fù)雜、自主的人工智能學(xué) 習(xí)系統(tǒng),這些系統(tǒng)可以根據(jù)數(shù)據(jù)輸入和分析進(jìn)行學(xué)習(xí)和適應(yīng)。FDA于2021年1月發(fā)布了“基 于人工智能/機(jī)器學(xué)習(xí)(AI/ML)的軟件作為醫(yī)療設(shè)備(SaMD)”的行動(dòng)計(jì)劃,并且在2022 年9月,完成了其數(shù)字健康軟件預(yù)認(rèn)證(Pre-Cert)試點(diǎn)計(jì)劃,該計(jì)劃旨在為自適應(yīng)監(jiān)管方 法的開(kāi)發(fā)提供信息。其中許多方法適用于機(jī)器學(xué)習(xí)設(shè)備,監(jiān)管機(jī)構(gòu)對(duì)進(jìn)一步的范式轉(zhuǎn)變持開(kāi) 放態(tài)度。FDA認(rèn)識(shí)到需要更新醫(yī)療器械上市前變更審查的傳統(tǒng)框架,于2023年4月發(fā)布了 “人工智能/機(jī)器學(xué)習(xí)設(shè)備的預(yù)定變更控制計(jì)劃”(Predetermined Change Control Plan for Artificial Intelligence/Machine Learning Devices, PCCP),旨在減少可通過(guò)迭代修改提高性能的 自適應(yīng)設(shè)備的監(jiān)管障礙。FDA要求制造商在將人工智能設(shè)備提交市場(chǎng)推廣申請(qǐng)時(shí)包涵PCCP (人工智能設(shè)備的預(yù)定變更控制計(jì)劃),以便“預(yù)先指定并尋求對(duì)AI/ML(人工智能/機(jī)器學(xué) 習(xí))設(shè)備的預(yù)期修改(及其實(shí)施方法)的上市前授權(quán),而不必為每個(gè)按照PCCP指定和實(shí)施 的修改單獨(dú)提交市場(chǎng)推廣申請(qǐng)”。PCCP的核心要求是對(duì)配備PCCP的AI/ML設(shè)備所帶來(lái)的 好處和風(fēng)險(xiǎn),及風(fēng)險(xiǎn)緩解措施進(jìn)行上市前影響評(píng)估。PCCP要求監(jiān)管機(jī)構(gòu)在人工智能或機(jī)器 學(xué)習(xí)設(shè)備在上市前進(jìn)行一定程度的審查,同時(shí)放寬變更限制范圍以便允許設(shè)備在上市后能夠 進(jìn)行有限調(diào)整,而不需要開(kāi)發(fā)者頻繁提交新提案。AI/ML技術(shù)推動(dòng)了FDA監(jiān)管范式的轉(zhuǎn)變, 即從將大部分精力及資源投入到上市前批準(zhǔn)的模式,轉(zhuǎn)變?yōu)閷W⒂诔掷m(xù)進(jìn)行市場(chǎng)后監(jiān)控的模 式。38因此,產(chǎn)品責(zé)任能夠與監(jiān)管實(shí)現(xiàn)良好的反饋循環(huán)。生成式人工智能契合產(chǎn)品的屬性, 對(duì)其侵權(quán)責(zé)任的路徑也不能舍近求遠(yuǎn),而應(yīng)當(dāng)從最契合其本質(zhì)的產(chǎn)品責(zé)任出發(fā),調(diào)整產(chǎn)品責(zé)任的相關(guān)內(nèi)容。我國(guó)國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出,要建立健全人工 智能監(jiān)管體系,實(shí)行設(shè)計(jì)問(wèn)責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu),實(shí)現(xiàn)對(duì)人工智能算法設(shè)計(jì)、 產(chǎn)品開(kāi)發(fā)和成果應(yīng)用的全流程監(jiān)管?!稌盒修k法》延續(xù)了上述文件從技術(shù)研發(fā)到使用的全過(guò) 程、全要素的監(jiān)管邏輯,并額外確立了安全評(píng)估、算法備案、預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)合規(guī)、 人工標(biāo)注合規(guī)等具體制度安排。因此,生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,能夠?qū)崿F(xiàn)責(zé)任與 監(jiān)管的良好互動(dòng)。
四、生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的具體展開(kāi)
(一)產(chǎn)品責(zé)任框架下的主體識(shí)別
由于傳統(tǒng)產(chǎn)品責(zé)任以工業(yè)制成品為藍(lán)本,所以生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任存在一 定的困境。傳統(tǒng)意義上的產(chǎn)品責(zé)任僅規(guī)制生產(chǎn)者和銷售者等主體的行為,設(shè)計(jì)者和運(yùn)營(yíng)者并 非產(chǎn)品責(zé)任的適格主體。然而,在生成式人工智能應(yīng)用的背景下,設(shè)計(jì)者與運(yùn)營(yíng)者對(duì)產(chǎn)品缺 陷的產(chǎn)生起著決定性作用,若將二者排除在責(zé)任主體范疇之外,則可能會(huì)帶來(lái)責(zé)任分配不公 的結(jié)果。生成式人工智能可能涉及多方,鑒于人工智能流通方式的特殊性及損害賠償?shù)膹?fù)雜 性,采納廣義的產(chǎn)品責(zé)任定義更為合理,產(chǎn)品責(zé)任主體應(yīng)當(dāng)從生產(chǎn)者、銷售者擴(kuò)充至生成式 人工智能流通鏈上負(fù)有責(zé)任的相關(guān)主體,承認(rèn)設(shè)計(jì)者、運(yùn)營(yíng)者的責(zé)任主體地位。根據(jù)我國(guó)民 法典和產(chǎn)品質(zhì)量法關(guān)于產(chǎn)品責(zé)任的規(guī)定,設(shè)計(jì)者與運(yùn)營(yíng)者應(yīng)類比為產(chǎn)品責(zé)任中生產(chǎn)者與銷售 者的地位,設(shè)計(jì)者與運(yùn)營(yíng)者承擔(dān)連帶責(zé)任,運(yùn)營(yíng)者承擔(dān)先行賠付義務(wù),再向具體過(guò)錯(cuò)方追償。
設(shè)計(jì)者也可以稱之為研發(fā)者,指研發(fā)人工智能模型的主體,即開(kāi)發(fā)人工智能模型、收集 訓(xùn)練數(shù)據(jù)、構(gòu)筑訓(xùn)練用的數(shù)據(jù)集以及使用數(shù)據(jù)集進(jìn)行人工智能訓(xùn)練的主體。其核心作用在于 通過(guò)使用數(shù)據(jù)進(jìn)行(預(yù))訓(xùn)練的方式,形成人工智能模型。設(shè)計(jì)者主要負(fù)責(zé)設(shè)計(jì)模型、算法 等,對(duì)系統(tǒng)運(yùn)行負(fù)有安全保障義務(wù),保障系統(tǒng)性能平衡,降低系統(tǒng)風(fēng)險(xiǎn)發(fā)生概率。設(shè)計(jì)者在 某種程度上即是系統(tǒng)、模型、軟件的“生產(chǎn)者”,因此人工智能的設(shè)計(jì)者應(yīng)當(dāng)承擔(dān)與生產(chǎn)者類 似的責(zé)任。設(shè)計(jì)者應(yīng)當(dāng)遵循“可信賴智能倫理原則”,注重產(chǎn)品的安全性、穩(wěn)定性、智能性, 在此基礎(chǔ)上追求功能性。設(shè)計(jì)者應(yīng)當(dāng)構(gòu)建可信模型,在產(chǎn)品設(shè)計(jì)研發(fā)過(guò)程直至進(jìn)入市場(chǎng)前, 應(yīng)當(dāng)進(jìn)行全方位的功能性測(cè)試和調(diào)整。開(kāi)發(fā)者必須披露相關(guān)風(fēng)險(xiǎn)、潛在缺陷、人工智能決策 的可解釋程度,以及該系統(tǒng)所運(yùn)用的“內(nèi)置價(jià)值或標(biāo)準(zhǔn)”。生成式人工智能侵權(quán)責(zé)任適用產(chǎn)品 責(zé)任,由最能夠控制算法安全風(fēng)險(xiǎn)的開(kāi)發(fā)者承擔(dān)主要責(zé)任,是比較公平與合理的。在生成式 人工智能基礎(chǔ)模型本身并無(wú)明顯缺陷,但下游用戶可能對(duì)其進(jìn)行調(diào)整或?yàn)E用時(shí),盡管直接導(dǎo) 致危害的是第三方的行為,但設(shè)計(jì)者仍可能因未能履行合理的注意義務(wù)而被追究責(zé)任。如果 設(shè)計(jì)者事先知曉其技術(shù)可能被用于此類用途,卻未采取任何措施來(lái)限制濫用行為或提醒用戶 相關(guān)風(fēng)險(xiǎn),則可能被視為未盡到應(yīng)有的謹(jǐn)慎義務(wù)。但是,此種責(zé)任分配并非絕對(duì),法院在判 定時(shí)會(huì)綜合考慮多種因素,包括但不限于設(shè)計(jì)者的實(shí)際預(yù)見(jiàn)能力、技術(shù)實(shí)現(xiàn)的可行性以及社 會(huì)利益的平衡,以防止開(kāi)發(fā)者責(zé)任過(guò)重而抑制創(chuàng)新。
運(yùn)營(yíng)者又被稱之為部署者,具有以下特點(diǎn):其一,在相當(dāng)多情況下,部署者會(huì)以“微調(diào)” 的方式對(duì)研發(fā)者的模型進(jìn)行二次訓(xùn)練。其二,部署者需要將模型以一定的方式“編入”特定的 軟件或者服務(wù)內(nèi),才能為使用者提供服務(wù)?!稌盒修k法》提到的“通過(guò)提供可編程接口”(API 接口)就是一種典型的“編入”方法,部署者通過(guò)API接口調(diào)用研發(fā)者的人工智能模型,從而 為他人提供服務(wù)。39歐洲《人工智能責(zé)任指令》(Artificial Intelligence Liability Directive)40 承認(rèn)了運(yùn)營(yíng)者為責(zé)任主體,并區(qū)分為前端運(yùn)營(yíng)者(fronted operator)和后端運(yùn)營(yíng)者(backend operator):前端運(yùn)營(yíng)者指控制系統(tǒng)風(fēng)險(xiǎn)且從中獲利的主體,或者指控制一定的風(fēng)險(xiǎn)并且持 續(xù)定義技術(shù)特征、提供數(shù)據(jù)或基礎(chǔ)支持服務(wù)的主體;41后端運(yùn)營(yíng)者指持續(xù)定義技術(shù)特征、提 供數(shù)據(jù)和必要的后端支持的主體,即對(duì)與人工智能的運(yùn)行和功能相關(guān)的風(fēng)險(xiǎn)進(jìn)行一定程度控 制的自然人或法人。系統(tǒng)運(yùn)營(yíng)者是指在人工智能開(kāi)發(fā)之后,購(gòu)買(mǎi)或受讓系統(tǒng)使用權(quán)、享有人 工智能系統(tǒng)運(yùn)行中所形成和收集到的數(shù)據(jù)所有權(quán)或利用收集的數(shù)據(jù)進(jìn)行系統(tǒng)優(yōu)化,從中獲取 利益的主體。換言之,運(yùn)營(yíng)者處于設(shè)計(jì)者的鏈條后端,當(dāng)設(shè)計(jì)者并未轉(zhuǎn)讓其設(shè)計(jì)開(kāi)發(fā)的系統(tǒng) 時(shí),就自動(dòng)轉(zhuǎn)變?yōu)檫\(yùn)營(yíng)者;若將系統(tǒng)轉(zhuǎn)讓時(shí),受讓方即為運(yùn)營(yíng)者,并負(fù)有對(duì)后續(xù)系統(tǒng)更新、 升級(jí)、測(cè)試、調(diào)整的義務(wù)。運(yùn)營(yíng)者承擔(dān)技術(shù)持有者責(zé)任,根據(jù)“可控制”要求下新的技術(shù)標(biāo)準(zhǔn) 與評(píng)價(jià)標(biāo)準(zhǔn)持續(xù)履行數(shù)據(jù)保護(hù)、內(nèi)容管控、溯源標(biāo)記、監(jiān)管、異常警告、緊急關(guān)閉系統(tǒng)、持 續(xù)支持和修補(bǔ)、召回等義務(wù)。運(yùn)營(yíng)者可以通過(guò)投保強(qiáng)制責(zé)任保險(xiǎn)等措施規(guī)避系統(tǒng)性風(fēng)險(xiǎn),除 利用生成式人工智能顛覆國(guó)家政權(quán)、輸出暴力色情內(nèi)容等違法行為以外,其僅應(yīng)承擔(dān)適度的 責(zé)任,鼓勵(lì)其投資新型技術(shù)、擴(kuò)展算力規(guī)模并保護(hù)其技術(shù)利益。
(二)產(chǎn)品責(zé)任框架下生成式人工智能缺陷的認(rèn)定標(biāo)準(zhǔn)
生成式人工智能大致可以分為基礎(chǔ)層、中間層和應(yīng)用層三層架構(gòu),生成式人工智能系統(tǒng) 的缺陷也應(yīng)當(dāng)根據(jù)不同的階段和層次進(jìn)行認(rèn)定,具體而言,可以根據(jù)生成式人工智能的生命 周期,即模型訓(xùn)練階段、模型設(shè)計(jì)階段、模型輸出階段,結(jié)合三個(gè)層次的特征綜合判斷其中 可能存在的“不合理危險(xiǎn)”,即產(chǎn)品缺陷。42
第一,制造缺陷。人工智能的算法構(gòu)建明顯不同于傳統(tǒng)的產(chǎn)品制造,在模型訓(xùn)練階段, 訓(xùn)練過(guò)程可以被認(rèn)定為制造過(guò)程,應(yīng)當(dāng)防止數(shù)據(jù)訓(xùn)練偏離設(shè)計(jì)預(yù)期,否則即可以認(rèn)定為系統(tǒng) 存在制造缺陷,開(kāi)發(fā)者應(yīng)當(dāng)承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任。如果瑕疵數(shù)據(jù)是由第三方提供的,此瑕疵數(shù)據(jù) 集也可以被視為組件部件。這意味著,如果第三方提供的數(shù)據(jù)存在質(zhì)量問(wèn)題或不符合預(yù)期標(biāo) 準(zhǔn),開(kāi)發(fā)者也需要對(duì)這些外部因素導(dǎo)致的問(wèn)題負(fù)責(zé)。數(shù)據(jù)提供者應(yīng)當(dāng)類比為原材料供應(yīng)者, 數(shù)據(jù)提供者與生成式人工智能開(kāi)發(fā)者之間可以通過(guò)合同關(guān)系進(jìn)行規(guī)制。但是,在數(shù)據(jù)來(lái)源于 開(kāi)發(fā)者網(wǎng)絡(luò)抓取的情況下,若因?yàn)閿?shù)據(jù)存在瑕疵而帶來(lái)不合理危險(xiǎn),則應(yīng)當(dāng)認(rèn)定系統(tǒng)存在制 造缺陷,開(kāi)發(fā)者應(yīng)承擔(dān)嚴(yán)格責(zé)任。模型訓(xùn)練的數(shù)據(jù)來(lái)源應(yīng)當(dāng)保證其合法性、安全性,不得侵 犯國(guó)家秘密或個(gè)人隱私。在基礎(chǔ)模型層上的模型訓(xùn)練,其運(yùn)行基礎(chǔ)為高度復(fù)雜的算法模型基 座,這就意味著使用者基本上難以舉證證明模型基座的過(guò)錯(cuò)及侵權(quán)行為,適用無(wú)過(guò)錯(cuò)責(zé)任原 則有利于夯實(shí)安全基礎(chǔ),此為保障安全的首要要義所在。另外,專業(yè)模型往往以相關(guān)行業(yè)的 數(shù)據(jù)進(jìn)行“喂養(yǎng)”,具有鮮明的行業(yè)特征,以醫(yī)療人工智能為例,在專業(yè)模型訓(xùn)練過(guò)程中往 往以患者、疾病、醫(yī)療規(guī)范等作為主要的數(shù)據(jù)訓(xùn)練對(duì)象,模型基座方無(wú)法直接與專業(yè)模型方 進(jìn)行模型融合設(shè)計(jì),需根據(jù)不同行業(yè)、不同類別的數(shù)據(jù)進(jìn)行訓(xùn)練。生成式人工智能開(kāi)發(fā)者可 以挑選數(shù)據(jù)提供者,或者本身同時(shí)為數(shù)據(jù)抓取者,故其應(yīng)當(dāng)對(duì)訓(xùn)練所使用的數(shù)據(jù)負(fù)有高度安 全責(zé)任。此時(shí),專業(yè)模型開(kāi)發(fā)者應(yīng)當(dāng)為制造者,承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任。例如,如果人工智能的初 始設(shè)計(jì)是使用不同患者群體的數(shù)據(jù)進(jìn)行訓(xùn)練,但實(shí)際操作中卻使用了同質(zhì)患者群體的數(shù)據(jù)進(jìn)行訓(xùn)練,這可能會(huì)被認(rèn)定為系統(tǒng)存在制造缺陷。這種情況下,由于數(shù)據(jù)集的偏差可能導(dǎo)致系 統(tǒng)無(wú)法準(zhǔn)確識(shí)別和處理多樣化的病例,從而影響系統(tǒng)診斷結(jié)果的準(zhǔn)確性,此為制造缺陷的表現(xiàn)。
第二,設(shè)計(jì)缺陷。在模型設(shè)計(jì)階段,設(shè)計(jì)缺陷一般由設(shè)計(jì)原理、設(shè)計(jì)方案、產(chǎn)品結(jié)構(gòu)錯(cuò) 誤等原因造成。生成式人工智能中最為核心的部分就是算法決策,設(shè)計(jì)缺陷是生成式人工智 能產(chǎn)品責(zé)任最重要的認(rèn)定要件,設(shè)計(jì)者應(yīng)當(dāng)承擔(dān)算法合規(guī)義務(wù)、算法公正控制義務(wù)。生成式 人工智能的缺陷通常是由于設(shè)計(jì)選擇不當(dāng)造成的,包括不完善的算法或?qū)吘壡闆r考慮不足 等原因。生成式人工智能在設(shè)計(jì)和編譯過(guò)程中可能出現(xiàn)的數(shù)據(jù)建模錯(cuò)誤、閾值設(shè)置錯(cuò)誤等, 均可以被認(rèn)定為設(shè)計(jì)缺陷。生成式人工智能的輸出往往不會(huì)直接導(dǎo)致?lián)p害結(jié)果的發(fā)生,因此, 就生成式人工智能的設(shè)計(jì)缺陷認(rèn)定而言,應(yīng)當(dāng)采納“消費(fèi)者可預(yù)期+同類型生成式人工智能模 型設(shè)計(jì)”標(biāo)準(zhǔn),即主觀標(biāo)準(zhǔn)加客觀標(biāo)準(zhǔn)的模式。換言之,生成式人工智能產(chǎn)品用戶的期待在 于其不會(huì)對(duì)個(gè)人的人格權(quán)、個(gè)人信息等造成損害,同時(shí)生成式人工智能的輸出不會(huì)產(chǎn)生損害 社會(huì)公共利益的行為。這就意味著,生成式人工智能的模型設(shè)計(jì)應(yīng)當(dāng)構(gòu)筑以倫理為先導(dǎo)的利益平衡機(jī)制,遵守法律法規(guī)的要求,尊重社會(huì)公德、公序良俗,體現(xiàn)社會(huì)主義核心價(jià)值觀, 防止出現(xiàn)歧視、生成虛假信息和實(shí)施不公平競(jìng)爭(zhēng)等行為,禁止非法獲取、披露、利用個(gè)人信 息和隱私、商業(yè)秘密等。如果在模型設(shè)計(jì)階段并未考量倫理要素,則可以認(rèn)定此系統(tǒng)存在設(shè) 計(jì)缺陷,設(shè)計(jì)者需承擔(dān)過(guò)錯(cuò)責(zé)任。但是,生成式人工智能具有高科技性、復(fù)雜性、專業(yè)性等 特征,消費(fèi)者預(yù)期可能并不能準(zhǔn)確判斷設(shè)計(jì)缺陷的存在,或者設(shè)計(jì)者可能通過(guò)培養(yǎng)消費(fèi)者預(yù) 期而逃避責(zé)任,因此,必須輔之以客觀標(biāo)準(zhǔn),且相關(guān)算法設(shè)計(jì)、模型設(shè)計(jì)需要進(jìn)行公示并接 受技術(shù)監(jiān)管部門(mén)的審查。43客觀標(biāo)準(zhǔn)以“模型可信賴”為準(zhǔn),換言之,設(shè)計(jì)缺陷的認(rèn)定需參考 同類型、同場(chǎng)景的生成式人工智能大模型的設(shè)計(jì)標(biāo)準(zhǔn),若實(shí)踐中存在效益更優(yōu)、更加安全的 模型設(shè)計(jì)方式或標(biāo)準(zhǔn),而致害的生成式人工智能系統(tǒng)的設(shè)計(jì)未達(dá)到此標(biāo)準(zhǔn),則應(yīng)當(dāng)認(rèn)定此系統(tǒng)存在設(shè)計(jì)缺陷。
第三,警示缺陷。生成式人工智能的設(shè)計(jì)者、運(yùn)營(yíng)者需要對(duì)其產(chǎn)品因使用說(shuō)明不足或未 能充分警示使用風(fēng)險(xiǎn)而導(dǎo)致的損害承擔(dān)責(zé)任。這一責(zé)任源于制造商對(duì)消費(fèi)者的安全保障義 務(wù),即制造商有義務(wù)確保其產(chǎn)品在合理使用范圍內(nèi)不會(huì)對(duì)用戶造成傷害。具體而言,設(shè)計(jì)者 與運(yùn)營(yíng)者有義務(wù)向消費(fèi)者提供關(guān)于產(chǎn)品固有風(fēng)險(xiǎn)的充分警示。這些風(fēng)險(xiǎn)不僅包括產(chǎn)品正常使 用中的潛在危險(xiǎn),還包括在合理可預(yù)見(jiàn)的誤用情況下可能出現(xiàn)的風(fēng)險(xiǎn)。所謂“可預(yù)見(jiàn)性”,指 的是客觀合理的預(yù)期,而非僅僅考慮理論上可能發(fā)生但實(shí)際概率極低的情況。例如,某一生 成式人工智能系統(tǒng)被設(shè)計(jì)用于醫(yī)療診斷活動(dòng),設(shè)計(jì)者應(yīng)當(dāng)考慮到醫(yī)生或護(hù)士可能會(huì)如何使用 該系統(tǒng),并預(yù)測(cè)到他們可能因?yàn)檎`解系統(tǒng)的功能而產(chǎn)生的錯(cuò)誤操作。因此,設(shè)計(jì)者必須確保 提供的使用說(shuō)明足夠詳細(xì),以避免用戶因誤解或誤用而受到傷害。設(shè)計(jì)者、運(yùn)營(yíng)者應(yīng)當(dāng)承擔(dān) 全鏈條監(jiān)管義務(wù),其警示義務(wù)應(yīng)當(dāng)與注意義務(wù)一致,包括算法解釋與說(shuō)明義務(wù),對(duì)生成內(nèi)容 進(jìn)行合規(guī)注釋或標(biāo)記的義務(wù)等。44警示缺陷既表現(xiàn)在設(shè)計(jì)者、運(yùn)營(yíng)者應(yīng)告知系統(tǒng)風(fēng)險(xiǎn)存在而 未告知方面,也表現(xiàn)在損害發(fā)生后設(shè)計(jì)者、運(yùn)營(yíng)者未及時(shí)進(jìn)行事后救濟(jì)方面。運(yùn)營(yíng)者應(yīng)當(dāng)加 強(qiáng)對(duì)用戶行為的監(jiān)督和指引,保障生成式人工智能在投入市場(chǎng)應(yīng)用流通時(shí)處于安全水平,并提升使用者的自我保護(hù)意識(shí)。在專業(yè)應(yīng)用層,由于生成式人工智能將被應(yīng)用到醫(yī)療、法律、 金融、教育等不同領(lǐng)域中,其可能產(chǎn)生的侵害后果與危害程度也不盡相同,此時(shí)提供者的警 示義務(wù)應(yīng)當(dāng)與專業(yè)相結(jié)合,區(qū)分不同的專業(yè)、場(chǎng)景、風(fēng)險(xiǎn)等級(jí)進(jìn)行告知。對(duì)于關(guān)鍵行業(yè)或者 高風(fēng)險(xiǎn)領(lǐng)域,提供者則應(yīng)當(dāng)著重進(jìn)行風(fēng)險(xiǎn)評(píng)估和警示。如果生成式人工智能的輸出內(nèi)容容易 讓用戶產(chǎn)生誤解,例如用戶認(rèn)為系統(tǒng)提供的信息是可靠的醫(yī)療建議,那么即便系統(tǒng)提供了免 責(zé)聲明,生成式人工智能系統(tǒng)的輸出仍可能被視為具有誤導(dǎo)性。因此,在設(shè)計(jì)和部署人工智 能時(shí),設(shè)計(jì)者和運(yùn)營(yíng)者必須考慮到這些潛在影響,并采取適當(dāng)?shù)念A(yù)防和警示措施,否則即可 以認(rèn)定系統(tǒng)存在警示缺陷。
第四,跟蹤觀察缺陷。由于基礎(chǔ)模型在投入流通時(shí)可能存在當(dāng)時(shí)科技水平下尚不能發(fā)現(xiàn) 的潛在缺陷和風(fēng)險(xiǎn),設(shè)計(jì)者與運(yùn)營(yíng)者還應(yīng)當(dāng)對(duì)基礎(chǔ)模型承擔(dān)跟蹤觀察義務(wù),并將新發(fā)現(xiàn)的潛 在缺陷和風(fēng)險(xiǎn)及時(shí)通知產(chǎn)業(yè)生態(tài)下游參與者并協(xié)助其采取特定補(bǔ)救措施。45對(duì)于數(shù)字化產(chǎn) 品,研發(fā)者無(wú)需通過(guò)物理召回修復(fù)錯(cuò)誤,只需安裝更新軟件來(lái)調(diào)整控制程序即可。因此,研 發(fā)者實(shí)際上需要在系統(tǒng)的整個(gè)生命周期內(nèi)持續(xù)進(jìn)行產(chǎn)品監(jiān)測(cè)和維護(hù)。歐盟《人工智能法》要 求高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供商必須對(duì)算法進(jìn)行“合格性評(píng)估”(comformity assessments), 并且建立“上市后監(jiān)測(cè)計(jì)劃”(post-market monitoring),以記錄高風(fēng)險(xiǎn)人工智能系統(tǒng)整個(gè)生命 周期中的性能。跟蹤觀察缺陷的認(rèn)定應(yīng)當(dāng)與發(fā)展風(fēng)險(xiǎn)抗辯制度相銜接,以充分平衡產(chǎn)業(yè)創(chuàng)新 與權(quán)利保護(hù)之間的關(guān)系。人工智能運(yùn)營(yíng)者負(fù)有上市后監(jiān)測(cè)的責(zé)任,這意味著運(yùn)營(yíng)者不能在產(chǎn) 品投入市場(chǎng)流通后就停止關(guān)注系統(tǒng)的安全性和有效性。相反,運(yùn)營(yíng)者需要持續(xù)審查與該人工 智能系統(tǒng)相關(guān)的各種數(shù)據(jù)來(lái)源,如不良反應(yīng)報(bào)告、科學(xué)文獻(xiàn)等,以評(píng)估現(xiàn)有的警示和使用說(shuō) 明是否仍然充分。如果發(fā)現(xiàn)新的風(fēng)險(xiǎn)或問(wèn)題,運(yùn)營(yíng)者應(yīng)及時(shí)更新產(chǎn)品說(shuō)明,以確保用戶能夠 獲得最新的安全信息。在生成式人工智能運(yùn)行期間,運(yùn)營(yíng)者可以采用“紅隊(duì)測(cè)試”的方式,通 過(guò)大模型間的攻防對(duì)抗測(cè)試以持續(xù)監(jiān)測(cè)受攻擊大模型的可能漏洞,并對(duì)可能存在的漏洞進(jìn)行 警示和修補(bǔ),或?qū)ζx軌道的算法進(jìn)行規(guī)制和修正,并為受害者提供救濟(jì)途徑。
(三)生成式人工智能發(fā)展風(fēng)險(xiǎn)抗辯的適用
第一,生成式人工智能發(fā)展風(fēng)險(xiǎn)抗辯適用的條件。生成式人工智能流入市場(chǎng)并不會(huì)截?cái)?設(shè)計(jì)者對(duì)系統(tǒng)中存在的潛在風(fēng)險(xiǎn)的掌握權(quán)。在既有技術(shù)水平的范疇內(nèi),生成式人工智能所引 發(fā)的危害結(jié)果,應(yīng)被視為一種難以規(guī)避的殘余風(fēng)險(xiǎn)的體現(xiàn)。風(fēng)險(xiǎn)將責(zé)任歸咎于個(gè)體,本質(zhì)上 是創(chuàng)新局限性的體現(xiàn)。即使生成式人工智能系統(tǒng)已經(jīng)進(jìn)入市場(chǎng)流通,提供者也應(yīng)當(dāng)承擔(dān)風(fēng)險(xiǎn) 控制義務(wù),一旦發(fā)現(xiàn)損害風(fēng)險(xiǎn)抬頭,開(kāi)發(fā)者就應(yīng)當(dāng)采取修正算法、限制訪問(wèn)等遏制風(fēng)險(xiǎn)結(jié)果 繼續(xù)蔓延的有效措施?;A(chǔ)模型設(shè)計(jì)者應(yīng)承擔(dān)后續(xù)信息支持服務(wù),這要求基礎(chǔ)模型設(shè)計(jì)者通 過(guò)必要的信息披露和風(fēng)險(xiǎn)追蹤措施以協(xié)助產(chǎn)業(yè)生態(tài)下游各參與者更好地依據(jù)該信息設(shè)定合 規(guī)計(jì)劃和履行風(fēng)險(xiǎn)管理義務(wù)。例如,歐盟《人工智能法》序言第60條要求基礎(chǔ)模型提供者 在不損害其自身知識(shí)產(chǎn)權(quán)或商業(yè)秘密的前提下向下游運(yùn)營(yíng)者等利益相關(guān)方提供關(guān)于基礎(chǔ)模 型的必要信息以促進(jìn)其對(duì)于合規(guī)義務(wù)的遵循,并于附件列明基礎(chǔ)模型設(shè)計(jì)者需要向下游運(yùn)營(yíng) 商披露的關(guān)于必要技術(shù)參數(shù)、模型性能測(cè)試結(jié)果、存在的缺陷和漏洞、所采取的風(fēng)險(xiǎn)緩和措 施等信息示例。發(fā)展風(fēng)險(xiǎn)抗辯適用的時(shí)間點(diǎn)是“將產(chǎn)品投入市場(chǎng)流通時(shí)”,一般來(lái)說(shuō),產(chǎn)品 投入流通的時(shí)間點(diǎn)是指生產(chǎn)者正式將產(chǎn)品推向市場(chǎng)、開(kāi)始銷售的時(shí)間。然而,在人工智能產(chǎn)品領(lǐng)域,這個(gè)時(shí)間點(diǎn)可能并不那么明確。人工智能系統(tǒng)的缺陷是在投入流通時(shí)已經(jīng)存在的, 還是在測(cè)試階段或銷售之后經(jīng)過(guò)人工智能的自主學(xué)習(xí)而產(chǎn)生的,這一事實(shí)認(rèn)定對(duì)發(fā)展風(fēng)險(xiǎn)抗 辯的適用至關(guān)重要。具有自主學(xué)習(xí)能力的人工智能產(chǎn)品,由于其能夠在使用過(guò)程中根據(jù)用戶 數(shù)據(jù)自行更新算法,從而改變功能和性能,有時(shí)甚至超出生產(chǎn)者原本的設(shè)計(jì)和控制范圍,這 就要求在評(píng)估產(chǎn)品缺陷和責(zé)任時(shí)應(yīng)當(dāng)采取更為靈活的標(biāo)準(zhǔn)。當(dāng)產(chǎn)品缺陷致害狀態(tài)無(wú)法準(zhǔn)確確 定或難以判斷時(shí),可將最后一次實(shí)質(zhì)性更新的時(shí)間作為衡量是否適用發(fā)展風(fēng)險(xiǎn)抗辯的關(guān)鍵節(jié) 點(diǎn)。如果在當(dāng)時(shí)的技術(shù)能力下無(wú)法采取結(jié)果回避或止損措施的,實(shí)質(zhì)上屬于法所容許的風(fēng)險(xiǎn) 范圍,可以構(gòu)成免責(zé)事由。為了有效管控風(fēng)險(xiǎn),必須明確區(qū)分一般更新和重大更新,發(fā)展風(fēng) 險(xiǎn)抗辯的適用需對(duì)重大更新進(jìn)行重點(diǎn)審查。
第二,生成式人工智能發(fā)展風(fēng)險(xiǎn)抗辯適用的標(biāo)準(zhǔn)。生成式人工智能的模型訓(xùn)練是一個(gè)動(dòng) 態(tài)且持續(xù)的過(guò)程,訓(xùn)練數(shù)據(jù)來(lái)源巨大且分散,同時(shí)輸出結(jié)果可能與人類輸入的內(nèi)容息息相關(guān), 如何認(rèn)定生成式人工智能的發(fā)展風(fēng)險(xiǎn),是否適用相關(guān)的免責(zé)事由則成為侵權(quán)歸責(zé)的重點(diǎn)?,F(xiàn) 有技術(shù)手段和人力資源基本上無(wú)法實(shí)現(xiàn)對(duì)生成式人工智能訓(xùn)練數(shù)據(jù)進(jìn)行實(shí)時(shí)和全面的監(jiān)控。 《暫行辦法》基本上延用了網(wǎng)絡(luò)治理的避風(fēng)港規(guī)則思路,46這實(shí)際上仍然是將生成式人工智 能提供者當(dāng)作網(wǎng)絡(luò)服務(wù)提供者的思路進(jìn)行的立法,混同了二者的本質(zhì),無(wú)法實(shí)現(xiàn)多方利益平 衡。在基礎(chǔ)層,大模型預(yù)訓(xùn)練是生成式人工智能集納海量數(shù)據(jù)進(jìn)行分析的主要環(huán)節(jié)。當(dāng)前, 生成式人工智能所采用的主流模型是深度學(xué)習(xí)模型Transformer,預(yù)訓(xùn)練模型所包含的參數(shù) 量都是上百億甚至是上千億的,巨額參數(shù)正是海量數(shù)據(jù)匯聚的結(jié)果。由于生成式人工智能的 涌現(xiàn)性,無(wú)法完全排除其誘發(fā)風(fēng)險(xiǎn)的可能,故應(yīng)當(dāng)構(gòu)建以發(fā)展風(fēng)險(xiǎn)抗辯為核心的“安全港” 制度。此制度可以為技術(shù)應(yīng)用提供一個(gè)相對(duì)安全的環(huán)境,只要企業(yè)在開(kāi)發(fā)和部署人工智能系 統(tǒng)時(shí)遵循了某些預(yù)先確定的最佳實(shí)踐和標(biāo)準(zhǔn),就可以在某種程度上免于擔(dān)責(zé)。這可以為企業(yè) 提供清晰的行為指引框架,鼓勵(lì)其采取積極措施。也有學(xué)者將此稱為“技術(shù)避風(fēng)港”,即監(jiān)管 機(jī)構(gòu)通過(guò)技術(shù)審核,認(rèn)定一項(xiàng)或多項(xiàng)技術(shù)方案作為合規(guī)技術(shù)方案,開(kāi)發(fā)者采取了技術(shù)合規(guī)方 案就能夠獲得責(zé)任豁免。47安全港制度本質(zhì)就是發(fā)展風(fēng)險(xiǎn)抗辯理念的體現(xiàn),即設(shè)計(jì)者只要采 取了“當(dāng)時(shí)科學(xué)技術(shù)水平”要求下的技術(shù)措施,就可以據(jù)此免于承擔(dān)侵權(quán)責(zé)任。“當(dāng)時(shí)科學(xué)技 術(shù)水平”的認(rèn)定需要綜合考慮技術(shù)水平的時(shí)間性、行業(yè)性、區(qū)域性。針對(duì)生成式人工智能的 特征,應(yīng)當(dāng)對(duì)“必要措施”采取限縮解釋,即主要包括停止生成、停止傳輸、消除等處置措施。 明確“消除”不等同于“刪除”,在生成式人工智能中若直接將語(yǔ)料庫(kù)刪除,使作品在物理意義 上消失,那么在系統(tǒng)判斷錯(cuò)誤的情況下代價(jià)過(guò)高,畢竟生成式人工智能不等同于司法裁判。 設(shè)計(jì)者的事后注意義務(wù)則集中于生成式人工智能的風(fēng)險(xiǎn)等級(jí)和被損害的利益價(jià)值判斷方面, 設(shè)計(jì)者需采取從限制功能、暫停到終止人工智能等多項(xiàng)處置措施,防止風(fēng)險(xiǎn)進(jìn)一步演化。此 外,生成式人工智能運(yùn)營(yíng)者不僅是將風(fēng)險(xiǎn)源引入市場(chǎng)或社會(huì)的責(zé)任主體,而且其還可以利用 技術(shù)和資本權(quán)力,控制生成式人工智能本身的制造安全,直接管理應(yīng)用中的生成式人工智能 的實(shí)時(shí)安全水平。生成式人工智能的技術(shù)風(fēng)險(xiǎn)在系統(tǒng)開(kāi)發(fā)和應(yīng)用階段逐步形成并實(shí)現(xiàn),設(shè)計(jì) 者熟知生成式人工智能技術(shù)開(kāi)發(fā)的全過(guò)程,對(duì)其應(yīng)用風(fēng)險(xiǎn)具有超越其他一般人的預(yù)見(jiàn)可能 性。運(yùn)營(yíng)者還掌握著生成式人工智能應(yīng)用安全風(fēng)險(xiǎn)的支配管理能力,不僅在應(yīng)然上承擔(dān)風(fēng)險(xiǎn)管理責(zé)任,還必須在實(shí)然上采取各項(xiàng)風(fēng)險(xiǎn)預(yù)防措施,如嚴(yán)厲的風(fēng)險(xiǎn)評(píng)估、持續(xù)的監(jiān)控機(jī)制和 有效的應(yīng)急處理措施等,以最大程度地減少和控制生成式人工智能技術(shù)可能帶來(lái)的各類風(fēng) 險(xiǎn)。
五、結(jié)語(yǔ)
在當(dāng)今人工智能技術(shù)迅猛發(fā)展的背景下,如何合理界定生成式人工智能的屬性與侵權(quán)責(zé) 任成為法律領(lǐng)域的重要議題。從本質(zhì)上看,生成式人工智能提供者不符合當(dāng)前網(wǎng)絡(luò)服務(wù)提供 者的特征。在現(xiàn)有民事制度下,我們不妨向產(chǎn)品責(zé)任尋求突破路徑。在產(chǎn)品責(zé)任框架下,基 于生成式人工智能的特征,傳統(tǒng)的產(chǎn)品檢驗(yàn)標(biāo)準(zhǔn)已顯得力不從心。因此,產(chǎn)品責(zé)任認(rèn)定標(biāo)準(zhǔn) 需要轉(zhuǎn)向基于功能性公共政策考量的方法,以評(píng)估生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的合理 性。這一轉(zhuǎn)變的核心在于判斷人工智能技術(shù)是否符合大規(guī)模生產(chǎn)和廣泛危害風(fēng)險(xiǎn)的范式,此 為現(xiàn)代產(chǎn)品責(zé)任法中的兩個(gè)關(guān)鍵要素。然而,在人工智能技術(shù)領(lǐng)域,情況變得更加復(fù)雜。生 成式人工智能具有自主性、不透明性、不可預(yù)測(cè)性等特征,這導(dǎo)致有學(xué)者認(rèn)為人工智能侵權(quán) 歸責(zé)需脫離產(chǎn)品責(zé)任,理由主要是產(chǎn)品責(zé)任為嚴(yán)格責(zé)任,生產(chǎn)者難以控制生成式人工智能中 存在的風(fēng)險(xiǎn),因此要求生產(chǎn)者承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任則對(duì)其不公平;生成式人工智能大多以服務(wù)的 形態(tài)存在,不符合產(chǎn)品的定義等。但是這些理由大多是對(duì)產(chǎn)品責(zé)任的誤解。生成式人工智能 侵權(quán)歸責(zé)適用產(chǎn)品責(zé)任具有合理性,產(chǎn)品責(zé)任契合“成本最低避免者”的責(zé)任分擔(dān)理念。在 生成式人工智能技術(shù)日益普及的背景下,我們應(yīng)更多地關(guān)注功能性公共政策因素,以決定是 否將產(chǎn)品責(zé)任適用于人工智能侵權(quán)行為,其中最重要的考量因素之一是代碼的大規(guī)模生產(chǎn)性 質(zhì)。在人工智能時(shí)代,產(chǎn)品責(zé)任的適用標(biāo)準(zhǔn)逐漸從“物理缺陷追責(zé)”向“系統(tǒng)風(fēng)險(xiǎn)治理”轉(zhuǎn) 變。因此,生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,有利于實(shí)現(xiàn)對(duì)風(fēng)險(xiǎn)的源頭控制與治理。
附注:
1、劉杰:《ChatGPT類生成式人工智能產(chǎn)品提供者之刑事責(zé)任》,載《法治研究》2024年第2期,第61— 71頁(yè);周翔:《算法規(guī)制如何場(chǎng)景化》,載《東方法學(xué)》2024年第2期,第136—150頁(yè)。
2、在我國(guó)現(xiàn)行立法下,生成式人工智能侵權(quán)責(zé)任主體“提供者”的內(nèi)涵并不明確?!渡墒饺斯ぶ悄芊?wù) 管理暫行辦法》將“提供者”定義為服務(wù)提供者。本文主張生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,在此背景 下,提供者的范圍主要包括設(shè)計(jì)者與運(yùn)營(yíng)者。
3、 王杰:《生成式人工智能服務(wù)輸出侵犯版權(quán)內(nèi)容的救濟(jì)研究》,載《科技與出版》2024年第7期,第59 —69頁(yè)。
4 、姚志偉:《生成式人工智能服務(wù)提供者在私法上的法律性質(zhì)》,載《上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué) 版)》2024年第12期,第127—142頁(yè)。
5、 徐小奔、薛少雄:《生成式人工智能服務(wù)提供者版權(quán)注意義務(wù)的法律構(gòu)造》,載《科技與出版》2024年 第7期,第48—58頁(yè)。
6、 鄭志峰、羅立鋮:《論生成式人工智能的“避風(fēng)港”規(guī)則》,載《人工智能》2024年第1期,第91—99頁(yè)。
7、 Beatriz Botero Arcila, Is It a Platform? Is It a Search Engine? It's ChatGPT! The European Liability Regime for Large Language Models, 3 Journal of Free Speech Law 455, 488 (2023).
8、 參見(jiàn)金庚星:《媒介即模型:“人—ChatGPT”共生自主系統(tǒng)的智能涌現(xiàn)》,載《學(xué)術(shù)界》2023年第4期, 第77頁(yè)。
9、徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,載《法律科學(xué)》2023 年第4期,第73頁(yè)。
10、 徐偉:《生成式人工智能侵權(quán)中因果關(guān)系認(rèn)定的迷思與出路》,載《數(shù)字法治》2023年第3期,第129 —143頁(yè)。
11、 徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,載《法律科學(xué)(西 北政法大學(xué)學(xué)報(bào))》2023年第4期,第69—80頁(yè)。
12、 Frank H. Easterbrook, Cyberspace and the Law of the Horse, 1996 University of Chicago Legal Forum 207, 215 (1996) .
13 、參見(jiàn)杭州刀豆網(wǎng)絡(luò)科技有限公司訴長(zhǎng)沙百贊網(wǎng)絡(luò)科技有限公司等侵害作品信息網(wǎng)絡(luò)傳播權(quán)糾紛案,杭州 互聯(lián)網(wǎng)法院(2018)浙0192民初7184號(hào)民事判決書(shū)。
14、 謝堯雯:《生成式人工智能價(jià)值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配》,載《政法論壇》2025年第2期,第 36—46頁(yè)。
15、 Deimante Rimkute, AI and Liability in Medicine: The Case of Assistive-Diagnostic AI, 16 Baltic J.L. & Pol. 64, 81 (2024).
16 、Saloomey v. Jeppesen & Co., 707 F.2d 671, 676 (2d Cir. 1983).
17、 Way v. Boy Scouts of America, 856 S.W.2d 230, 238-239 (Tex. Ct. App. 1993). 參見(jiàn)王樂(lè)兵:《自動(dòng)駕駛汽車(chē) 的缺陷及其產(chǎn)品責(zé)任》,載《清華法學(xué)》2020年第2期,第93—112頁(yè)。
18、 Lewin v. McCreight, 655 F. Supp. 282, 284 (E.D. Mich. 1987).
19、Tyler Lisea, Lemmon Leads The Way To Algorithm Liability: Navigating The Internet Immunity Labyrinth, 50 Pepp. L. Rev. 785, 822 (2023).
20、Lemmon v. Snap, Inc., 995 F.3d 1085, 1087 (9th Cir. 2021).
21、商建剛:《算法決策損害責(zé)任構(gòu)成的要件分析》,載《東方法學(xué)》2022年第6期,第44—57頁(yè)。
22、溫世揚(yáng)、吳昊:《論產(chǎn)品責(zé)任中的“產(chǎn)品”》,載《法學(xué)論壇》2018年第3期,第71—80頁(yè)。
23、Tyler Lisea, Lemmon Leads the Way to Algorithm Liability: Navigating the Internet Immunity Labyrinth, 50 Pepp. L. Rev. 785, 822 (2023). 7
24、彭誠(chéng)信主編:《人工智能責(zé)任》,上海人民出版社2024年版,第38頁(yè)。
25 Deimante Rimkute, AI and Liability in Medicine: The Case of Assistive-Diagnostic AI, 16 Baltic J.L. & Pol. 64, 81 (2024).
26、徐著雨、岳遠(yuǎn)雷:《醫(yī)療人工智能算法風(fēng)險(xiǎn)防范的法治化思考》,載《醫(yī)學(xué)與哲學(xué)》2023年第11期, 第67—71頁(yè)。
27、吳振吉:《人工智慧醫(yī)療傷害之損害賠償責(zé)任》,載《臺(tái)大法學(xué)論叢》2022年第2期,第477—536頁(yè)。
28、Simulados Software, Ltd. v. Photon Infotech Priv., Ltd., 40 F. Supp. 3d 1191 (N.D. Cal. 2014).
29、參見(jiàn)潘喆、陸麗鵬:《自動(dòng)駕駛汽車(chē)致人損害責(zé)任的認(rèn)定分歧與出路》,載《上海法學(xué)研究》2022年第 5卷,第301—306頁(yè)。
30、王利明:《生成式人工智能侵權(quán)的法律應(yīng)對(duì)》,載《中國(guó)應(yīng)用法學(xué)》2023年第5期,第27—38頁(yè)。
31 、Air & Liquid Systems Corp. v. DeVries, 139 S. Ct. 986 (2019).
32、楊潔:《論智能汽車(chē)產(chǎn)品缺陷認(rèn)定及其責(zé)任承擔(dān)》,載《東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2020年第 6期,第107—114頁(yè)。
33 、王樂(lè)兵:《自動(dòng)駕駛汽車(chē)的缺陷及其產(chǎn)品責(zé)任》,載《清華法學(xué)》2020年第2期,第93—112頁(yè)。
34、 韓凌月、張安毅:《人工智能產(chǎn)品質(zhì)量的法律規(guī)制研究》,載《河南財(cái)經(jīng)政法大學(xué)學(xué)報(bào)》2023年第6期, 第76—82頁(yè)。
35 、周學(xué)峰:《生成式人工智能侵權(quán)責(zé)任探析》,載《比較法研究》2023年第4期,第117—131。
36 、戴昕:《無(wú)過(guò)錯(cuò)責(zé)任與人工智能發(fā)展——基于法律經(jīng)濟(jì)分析的一個(gè)觀點(diǎn)》,載《華東政法大學(xué)學(xué)報(bào)》2024 年第4期,第38—55頁(yè)。
37、 謝堯雯:《生成式人工智能價(jià)值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配》,載《政法論壇》2025年第2期,第 36—46頁(yè)。
38、Catherine M. Sharkey, A Products Liability Framework for AI, 25 The Columbia Science &Technology Law Review 240, 260 (2024).
39、 姚志偉:《生成式人工智能服務(wù)提供者在私法上的法律性質(zhì)》,載《上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2024年第12期,第127—142頁(yè)。
40 、歐盟已于2025年2月撤回此立法提案,但是關(guān)于運(yùn)營(yíng)者的規(guī)定仍然具有參考意義。
41、王瑩:《算法侵害責(zé)任框架芻議》,載《中國(guó)法學(xué)》2022年底3期,第165—184頁(yè)。
42、Li Yanan, Reconstructing Defect Identification Rules for Artificial Intelligence Products, 12 China Legal Science 75, 105 (2024).
43、龍柯宇:《生成式人工智能應(yīng)用失范的法律規(guī)制研究——以ChatGPT和社交機(jī)器人為視角》,載《東方 法學(xué)》2023年第4期,第44—55頁(yè)。
44 、張惠彬、張秀璇:《公私法協(xié)同視野下AIGC服務(wù)提供者的內(nèi)容審核義務(wù)》,載《武漢科技大學(xué)學(xué)報(bào)(社 會(huì)科學(xué)版)》2024年第6期,第62—73頁(yè)。 45、秦瑞標(biāo):《大模型時(shí)代生成式人工智能治理的邏輯更新與回應(yīng)路徑——以〈生成式人工智能服務(wù)管理暫 行辦法〉為視角》,載《時(shí)代法學(xué)》2024年第3期,第28—41頁(yè)。
46、在規(guī)范服務(wù)專章中提出了在發(fā)現(xiàn)違法內(nèi)容時(shí)及時(shí)采取停止生成、停止傳輸、消除等處置措施,采取模型 優(yōu)化訓(xùn)練等措施的義務(wù)(第14條),以及建立健全投訴、舉報(bào)機(jī)制,設(shè)置便捷的投訴、舉報(bào)入口,公布處 理流程和反饋時(shí)限,及時(shí)受理、處理公眾投訴舉報(bào)并反饋處理結(jié)果等接受權(quán)利人通知的義務(wù)(第15條)。
47、沈偉偉:《技術(shù)避風(fēng)港的實(shí)踐及法理反思》,載《中外法學(xué)》2023年第4期,第906—922頁(yè)。
