特別提示:本文為生成式人工智能研究的最新成果之一,全文超過17000字,認真讀完大約需要至少45分鐘,請合理安排閱讀時間。

作者簡介:楊顯濱,河南信陽人,上海交通大學博士,中國人民大學博士后,華東政法大學中國法治戰(zhàn)略研究院教授,華東政法大學“經(jīng)天學者”;兼任上海交通大學國家海洋戰(zhàn)略與權(quán)益研究基地研究員、南京大學住宅政策與不動產(chǎn)法研究中心研究員。
以ChatGPT為代表的生成式人工智能(Generative AI,G-AI)不具備民事主體資格,生成式人工智能造成他人損害的,服務提供者應當承擔侵權(quán)責任。服務提供者兼具內(nèi)容生產(chǎn)者與平臺管理者的雙重身份,負有審核等安保義務。其違反安保義務,原則上應當承擔具有間接侵權(quán)責任屬性的相應的補充責任,可以行使追償權(quán)。但在“知道或者應當知道”的情況下,服務提供者應當承擔連帶責任,乃至懲罰性賠償。屬于來源非法非法生成的、輸入信息非法非法生成的且服務使用者傳播侵權(quán)內(nèi)容造成第三人損害的,服務提供者因違反雙重審核義務,應禁止追償。同時,應類型化設置“避風港規(guī)則”適用的責任豁免規(guī)則、形塑選擇性適用著作權(quán)合理使用規(guī)則的阻卻違法事由認定機制及構(gòu)筑有限適用個人信息合理使用規(guī)則的責任豁免制度,系統(tǒng)化構(gòu)建服務提供者間接侵權(quán)責任的限制規(guī)則。
2022年11月30日,美國人工智能(AI)研究公司Open AI推出了對話機器人應用ChatGPT(Chat Generative Pre-trained Transformer),在短短兩個月的時間內(nèi),該應用的月活用戶突破一個億,在文本、圖片、視頻、音頻、代碼等方面的生成能力可見一斑。在文本方面,生成式人工智能(Generative AI,G-AI)以ChatGPT、BERT、XLNet、CTRL、文心一言、訊飛星火等大語言模型(Large Language Models,LLM)為主要代表,主要通過語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)、服務使用者輸入信息對人工智能模型進行訓練,經(jīng)過模型的預訓練階段、優(yōu)化模型參數(shù)階段、人類反饋階段,生成式人工智能最終形成可供服務使用者使用的大語言模型。在圖像方面,生成式人工智能主要包括DALL·E、DALL·E2、“商湯秒畫SenseMirage”、Midjourney、Stable Diffusion等模型,可以根據(jù)文本提示生成高質(zhì)量的圖像和藝術(shù)作品。然而,基于部分訓練數(shù)據(jù)存在侵權(quán)內(nèi)容、人工智能模型的固有缺陷、人工智能濫用等因素,個人利益乃至公共利益保護面臨巨大挑戰(zhàn)。我國先后出臺《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(以下簡稱《算法推薦管理規(guī)定》)、《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》(以下簡稱《深度合成管理規(guī)定》)、《生成式人工智能服務管理暫行辦法》(以下簡稱《人工智能暫行辦法》)等規(guī)章,企及消弭上述問題,但面對生成式人工智能生成機理的復雜性,上述規(guī)范心有余而力不足。
由此引發(fā)的問題包括:一是生成式人工智能生成內(nèi)容構(gòu)成間接侵權(quán)(第三人介入型侵權(quán))的,誰是侵權(quán)主體,是生成式人工智能抑或服務提供者,有待進一步明確。需要說明的是,本文主要以間接侵權(quán)為中心展開,直接侵權(quán)(如非第三人介入型侵權(quán))非論證要點。二是服務提供者是否是網(wǎng)絡服務提供者,若答案是肯定的,與一般網(wǎng)絡服務提供者的區(qū)別是什么,負有何樣的安保義務,違反安保義務承擔相應的補充責任后能否追償。三是服務提供者違反安保義務是否僅承擔相應的補充責任,有無連帶責任、懲罰性賠償責任適用的空間;后兩種責任形態(tài)如果有適用可能,有沒有類型化處理的必要。四是為了保護以ChatGPT為代表的生成式人工智能產(chǎn)業(yè),可否對服務提供者的責任進行適當限制,具體包括哪些情勢,如何進行具體的制度建構(gòu)與設計,急需展開全面論述。在直擊上述問題的過程中,何以實現(xiàn)《深度合成管理規(guī)定》《人工智能暫行辦法》等規(guī)章與《中華人民共和國民法典》(以下簡稱《民法典》)、《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)、《中華人民共和國著作權(quán)法》(以下簡稱《著作權(quán)法》)等法律的協(xié)調(diào)適用,亦是迫在眉睫的現(xiàn)實問題。因此,研究生成式人工智能服務提供者間接侵權(quán)責任的承擔與限制,具有重要的理論與實踐意義。
一、生成式人工智能侵權(quán)責任主體的認定
現(xiàn)有生成式人工智能處于“弱人工智能”階段,恐難取代服務提供者成為民事主體,享有權(quán)利,履行義務。生成式人工智能服務提供者提供的是內(nèi)容服務,不同于一般意義上的具有平臺媒介性質(zhì)的網(wǎng)絡服務提供者,也不是技術(shù)支持者抑或內(nèi)容提供者,兼具內(nèi)容生產(chǎn)者與平臺管理者的雙重身份。
(一)生成式人工智能的民事主體資格反思
生成式人工智能侵權(quán)案件頻發(fā)的當下,人工智能是否可以成為侵權(quán)責任主體存在爭議,現(xiàn)有立法則保持沉默。生成式人工智能成為侵權(quán)責任主體的前提是具備法律主體資格,學界對此觀點不一。
有學者認為,生成式人工智能“具備享有權(quán)利和履行義務的意志能力,即意識和選擇或反思調(diào)整的能力”,可以賦予其法律主體資格,即肯定說。羅馬法上,“所有具有合理意志的人自然是法律主體”,意志能力對民事權(quán)利能力的認定具有決定性作用,進而主宰民事權(quán)利義務關(guān)系及民事責任承擔。但生成式人工智能仍處于弱人工智能階段,不具有自由表達訴求的能力,不應視為法律主體。在“李××與劉××侵害作品署名權(quán)、信息網(wǎng)絡傳播權(quán)糾紛案”(我國AI生成圖片著作權(quán)第一案)中,法院認為,“生成式人工智能模型不具備自由意志,不是法律上的主體。”彭誠信教授認為,除意志能力要件外,“人工智能是否應該存在作為法律主體予以承認,重要的一個要素是考慮其是否能夠獨立承擔法律責任,尤其是民事賠償責任。”也即,物質(zhì)性要件??隙ㄕf主要包括電子代理人說、“電子人”說、有限人格說和人格擬制說。電子代理人說支持者認為,“AI機器能夠被看作是一個雇員,因為它提供的服務主要是由程序員或所有者使用的。”代理人行使代理權(quán)的“法律效果直接歸屬于被代理人”,固然可以解決物質(zhì)性要件問題,但生成式人工智能等人工智能“不具備意志能力,對自己的行為沒有道德判斷能力”,不具備意志能力要件。“電子人”說擁護者宣稱,“‘電子人’是擁有人類智能特征,具有自主性,以電子及電子化技術(shù)構(gòu)建的機器設備或系統(tǒng)。”“電子人”說力爭通過“自主性”論證,解決意志能力要件問題。即便如此,“電子人”如何滿足物質(zhì)性要件不得而知。秉持有限人格說的學者堅稱,“人工智能雖然具有法律人格,但這種人格是有限的,并非完全的法律人格。”可生成式人工智能等人工智能在什么情況下享有法律人格,是否與自然、法人、非法人組織存在差異,有待進一步澄清。支持人格擬制說的學者主張,應當“將人工智能擬制為像法人那樣的主體。”“法人的意志能力則可以歸結(jié)到由自然人構(gòu)成的法人機關(guān)的意志,實際上根源還在于自然人。”“盡管其本身沒有意志與激情,卻可以將人的意志和激情歸屬于它。”漢斯·凱爾森認為,“當一個實體是法律規(guī)范的實體,這個實體就是法律意義上的人”,享有民事主體資格。鑒于此,生成式人工智能等人工智能的意志能力問題得以消解,但沒有責任財產(chǎn)又如何切合物質(zhì)性要件值得商榷。
綜上,以電子代理人說、“電子人”說、有限人格說和人格擬制說為代表的肯定說難以自圓其說,應予摒棄,奉行否定說。此外,王利明教授認為,“自然人即生物學意義上的人,是基于出生而取得民事主體資格的人。”據(jù)此,“出生”是自然人具有民事權(quán)利能力,獲取民事主體資格的起點,“死亡”是終點,和意志能力無關(guān)。“意志能力在我們看來并不是界定民事主體的本質(zhì)條件”,即使生成式人工智能具備意志能力也不能就此認定其具有民事主體資格。另外,“從主體要件的物質(zhì)性要求來說,至少在當下人工智能體尚沒有取得主體資格的物質(zhì)性要件”。職是之故,應依循否定說否認生成式人工智能的法律主體資格。2020年歐盟《關(guān)于人工智能系統(tǒng)運行的責任立法倡議》(Draft Report with Recommendations to the Commission on a Civil Liability Regime for Artificial Intelligence,DRRCCLRAI)B部分第5條指出,“人工智能系統(tǒng)既沒有法律人格,也沒有人類良知,它們的唯一任務就是為人類服務。”以ChatGPT為代表的生成式人工智能同樣如此,“至少目前還不能匆忙讓它成為一個法律上的‘人’。”
(二)生成式人工智能服務提供者作為侵權(quán)責任主體的確認
既然生成式人工智能不具有民事主體資格,此時須訴諸生成式人工智能服務提供者。生成式人工智能以語料庫收集數(shù)據(jù)、實時抓取數(shù)據(jù)或服務使用者輸入的文本、圖片、聲音、視頻等為“原料”,對服務提供者設計的模型進行訓練,生成服務使用者需要的深度合成內(nèi)容。在此過程中,生成式人工智能的工具性顯露無遺,“即使具有一定自主性,仍受人類控制。”美國《國家人工智能倡議》(National Artificial Intelligence Initiative,NAII)草案第2部分第1條亦指出,“人工智能是一個工具。”歐盟《人工智能白皮書——追求卓越和信任的歐洲方案》(White Paper on Artificial Intelligence—A European Approach to Excellence and Trust,WPAI-EAET)前言(Introduction)部分強調(diào),“人工智能是數(shù)據(jù)、算法、算力結(jié)合形成的技術(shù)集合體。”以ChatGPT為代表的生成式人工智能不過是服務提供者操縱的“提線木偶”,收集何種數(shù)據(jù)、設計哪類模型、優(yōu)化哪些模型參數(shù)、如何回應人類反饋等皆取決于服務提供者,恰是這一過程主宰著生成式人工智能根據(jù)服務使用者輸入的提示詞(prompts)生成何種內(nèi)容。故生成內(nèi)容引發(fā)侵權(quán)的,相對于無民事主體資格的生成式人工智能,由服務提供者承擔損害賠償責任更具合理性。
此外,基于生成式人工智能生成內(nèi)容造成他人損害與服務提供者違反審核等安保義務的不作為之間的因果關(guān)系,視服務提供者為侵權(quán)責任主體并無不妥。通說認為,我國侵權(quán)責任構(gòu)成要件中因果關(guān)系的認定采用的是相當因果關(guān)系說。相當因果關(guān)系的判斷主要分為兩個步驟,即事實上因果關(guān)系的判斷與法律上因果關(guān)系的判斷。關(guān)于相當因果關(guān)系的判斷基準,王澤鑒教授認為,“無此行為,雖必不生此損害,有此行為,通常即足生此種損害者,是為有因果關(guān)系。”“無此行為,雖必不生此損害”指向“加害行為與權(quán)利受到侵害的后果之間的因果關(guān)系”,即事實上因果關(guān)系的判斷。“有此行為,通常即足生此種損害者”指向“權(quán)利受到侵害的事實與被害人所受損害之間的因果關(guān)系”,即法律上因果關(guān)系的判斷。事實上因果關(guān)系的判斷主要有“刪除說”(the elimination theory)和“代替說”(the substitution theory)兩種學說。“刪除說”“亦即刪除加害人的不法行為后,檢驗被害人的損害是否仍然會發(fā)生”,“若結(jié)果不能發(fā)生,或是只能以一種完全不同的方式發(fā)生,則存在因果關(guān)系”。反之,則不存在因果關(guān)系。“代替說”“假定行為人在現(xiàn)場且實施了合法行動,其他條件完全不變”,事件的發(fā)生是否改變。“通說認為,應當采用‘刪除說’。”
以ChatGPT為例,生成內(nèi)容引發(fā)侵權(quán)造成他人損害的,應從事實上因果關(guān)系和法律上因果關(guān)系兩個角度,判斷ChatGPT服務提供者是否滿足侵權(quán)責任構(gòu)成要件中的因果關(guān)系。事實上因果關(guān)系判斷層面,依據(jù)《民法典》(第1195條至第1196條、第1198條)、《數(shù)據(jù)安全法》(第27條和第29條)、《深度合成管理規(guī)定》(第10條、第11條和第16條)、《人工智能暫行辦法》(第4條第5項、第12條和第14條)等規(guī)范性文件,ChatGPT服務提供者對數(shù)據(jù)、模型、模型訓練、生成內(nèi)容等負有審核等安保義務,因過失違反安保義務,造成他人人格權(quán)、著作權(quán)等損害的契合損害要件。受害人權(quán)利受到侵害是因加害行為(不履行安保義務的不作為行為)而發(fā)生,成立事實上的因果關(guān)系。法律上因果關(guān)系判斷層面,“如果這個事實在通常情況下都可能發(fā)生同樣的損害結(jié)果,那么,這個行為與損害結(jié)果之間就有因果關(guān)系。”ChatGPT服務提供者違反審核等安保義務(加害行為)侵害他人人格權(quán)、著作權(quán)(權(quán)利遭受侵害的事實)通常與損害具有“相當性”。由此,諦視ChatGPT服務提供者違反審核等安保義務引發(fā)侵權(quán)責任的因果關(guān)系判斷中,事實上的因果關(guān)系和法律上的因果關(guān)系判斷皆不存在齟齬。在具備違法行為、過錯、損害等侵權(quán)責任構(gòu)成要件的情況下,違法行為與損害之間具有相當因果關(guān)系,ChatGPT服務提供者可以成為侵權(quán)責任主體。
(三)生成式人工智能服務提供者兼具內(nèi)容生產(chǎn)者與平臺管理者的雙重身份
《深度合成管理規(guī)定》第23條第1款規(guī)定,“深度合成技術(shù),是指……制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡信息的技術(shù)”,故深度合成服務提供者是網(wǎng)絡服務提供者。生成式人工智能作為深度合成的一種,采用網(wǎng)絡API方式為公眾提供服務,其服務提供者亦應界定為網(wǎng)絡服務提供者。依循《民法典》第1197款,生成式人工智能服務提供者負有審核等安保義務;未盡到安保義務,造成他人損害的,應當承擔相應的補充責任。
證成生成式人工智能服務提供者是網(wǎng)絡服務提供者后,有必要結(jié)合生成式人工智能的運行機制及服務提供者對生成內(nèi)容的干涉程度與控制力,剖析服務提供者的雙重身份。
一是生成式人工智能服務提供者是內(nèi)容生產(chǎn)者。以ChatGPT為例,生成內(nèi)容產(chǎn)生的每一個環(huán)節(jié)均受制于服務提供者。具體而言,語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)、服務使用者輸入信息的選擇及不同語種數(shù)據(jù)信息的選取等取決于ChatGPT服務提供者的價值取向。微調(diào)階段,“人類標注人員扮演用戶和代理進行對話,產(chǎn)生對話樣本并對回復進行排名打分,將更好的結(jié)果反饋給模型”,以使生成內(nèi)容“符合人類意圖、知識觀和價值觀”。標注人員通常為ChatGPT服務提供者的工作人員,抑或是接受服務提供者的委托從事數(shù)據(jù)標注的自然人、法人或其他組織。前者,依據(jù)《民法典》第1191條第1款,“用人單位的工作人員因工作造成他人損害的,由用人單位對外承擔侵權(quán)責任。”后者,標注人員“仍然屬于受托人的角色時,委托人對受托人享有實際控制力”。所以,ChatGPT服務提供者對內(nèi)容生成過程具有“不可或缺”的控制力,應納入內(nèi)容生產(chǎn)者范疇。同時,ChatGPT服務提供者控制算法模型的諸多底線標準,主導內(nèi)容生成。《深度合成管理規(guī)定》第10條第2款、《算法推薦管理規(guī)定》第8條、《人工智能暫行辦法》第8條、歐盟《人工智能法案》(AI Act,AIA)第5條第1項關(guān)于“特征庫”“標準、規(guī)則和程序”“算法模型”“標注規(guī)則”“AI系統(tǒng)”的規(guī)定可以佐證。因此,以ChatGPT為代表的生成式人工智能服務提供者對算法模型具有控制力,把控以大語言模型為基礎(chǔ)的內(nèi)容生成,應界定為內(nèi)容生產(chǎn)者。
二是生成式人工智能服務提供者是平臺管理者。龐大的用戶基數(shù)致使ChatGPT可以在較大范圍內(nèi)輸出價值觀念,甚至包括仇恨、歧視性內(nèi)容。2016年微軟公司研發(fā)的聊天機器人“Tay”就曾因大量有害輸入而成為“種族歧視者”。這意味著虛假信息等引發(fā)的人格權(quán)侵權(quán)、著作權(quán)侵權(quán)問題加劇,生成式人工智能演變?yōu)樯汕謾?quán)內(nèi)容這一“危險”的開啟者。依循“危險控制理論”,服務提供者應當承擔平臺管理者責任——防控、減少危險。這與《深度合成管理規(guī)定》關(guān)于“建立健全……管理制度”(第7條)、“制定和公開管理規(guī)則”與“依法依約履行管理責任”(第8條)、“加強深度合成內(nèi)容管理”(第10條第1款)、“落實……安全管理責任”(第13條)、“加強訓練數(shù)據(jù)管理”(第14條第1款)、“加強技術(shù)管理”(第15條第1款)等規(guī)定的立法目的是一致的。也即,通過課以生成式人工智能服務提供者上述平臺管理等安保義務,督促其加強平臺管理,減少生成內(nèi)容對他人權(quán)益的侵害。德國學界稱此類網(wǎng)絡服務提供者為“內(nèi)容框架提供者”(Rahmen-Content-Provider),強調(diào)其參與內(nèi)容形成,并對內(nèi)容負有一定的主動注意義務。歐盟《人工智能法案》第14條第2款指出,服務提供者應“防止或最大程度地降低……健康、安全或基本權(quán)利風險”,該條第4款對審核義務的具體操作措施進行了詳細規(guī)定,《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》第7條、《人工智能暫行辦法》第19條及《深度合成管理規(guī)定》第10條亦有類似規(guī)定。職是之故,生成式人工智能服務提供者履行審核等安保義務即為履行平臺管理職責,其平臺管理者身份毋庸置疑。
《民法典》第1194條至第1197條指稱的網(wǎng)絡服務提供者主要是具有平臺媒介性、充當純粹信息傳播平臺或渠道的提供者,我國司法實踐亦持此觀點。生成式人工智能服務提供者除扮演媒介者角色外,還負責平臺管理,主導內(nèi)容生成,兼具內(nèi)容生產(chǎn)者與平臺管理者的雙重法律身份。為了規(guī)制生成式人工智能這類新型網(wǎng)絡服務提供者,可以對《民法典》第1194條至第1197條中的“網(wǎng)絡服務提供者”進行擴大解釋,同時根據(jù)生成式人工智能的特性適當調(diào)整現(xiàn)有責任認定與承擔制度。
二、生成式人工智能服務提供者間接侵權(quán)責任承擔的體系化構(gòu)筑
生成式人工智能服務提供者違反審核等安保義務,造成他人損害的,原則上應當承擔相應的補充責任。但是,考慮到生成式人工智能的特殊性,服務提供者在間接侵權(quán)責任承擔及追償權(quán)行使方面與一般網(wǎng)絡服務提供者存在差異,故應通過類型化處理作出不同于一般網(wǎng)絡提供者的責任承擔體系設計。
(一)生成式人工智能服務提供者相應的補充責任與追償權(quán)行使機制構(gòu)造
生成式人工智能服務提供者屬于網(wǎng)絡服務提供者范疇,依據(jù)《民法典》第1195條和第1196條,負有安保義務。《數(shù)據(jù)安全法》第27條和第29條即是對生成式人工智能服務提供者等數(shù)據(jù)處理者安保義務的回應。依循《民法典》第1195條第1款,服務提供者未主動“采取刪除、屏蔽、斷開鏈接等必要措施”的,應當承擔相應的補充責任。《深度合成管理規(guī)定》《人工智能暫行辦法》是國家網(wǎng)信辦發(fā)布的規(guī)章,其要求服務提供者履行審核等安保義務是《民法典》第1195條和第1196條“必要措施”的具體化?!渡疃群铣晒芾硪?guī)定》第10條中的“進行審核”“建立健全用于識別違法和不良信息的特征庫”“依法采取處置措施”,第11條中的“建立健全辟謠機制”及第16條中的“采取技術(shù)措施添加不影響用戶使用的標識”等可以佐證。生成式人工智能作為深度合成的一種表現(xiàn)形式,《人工智能暫行辦法》第12條和第14條亦有類似規(guī)定。對于違反安保義務的間接侵權(quán)責任,《深度合成管理規(guī)定》《人工智能暫行辦法》皆沒有明確指向《民法典》,但可以經(jīng)由前者第22條第1款及后者第21條第1款中的“法律”引致適用《民法典》。如因大語言模型本身存在缺陷而生成虛假信息,造成他人損害,且生成式人工智能服務提供者違反安保義務的,應當依據(jù)《民法典》第1198條承擔相應的補充責任。
模型預訓練階段,服務提供者所使用的海量數(shù)據(jù)主要包括語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)和服務使用者輸入信息三種。基于生成式人工智能服務提供者侵權(quán)責任的具體形態(tài),本節(jié)將訓練數(shù)據(jù)分為兩類:第一類是語料庫獲取數(shù)據(jù)與實時抓取數(shù)據(jù)。主要表現(xiàn)為來源合法非法生成和來源非法非法生成兩種侵權(quán)形態(tài)。一是來源合法非法生成,服務提供者未盡到對生成內(nèi)容的審核等安保義務的,應適用《民法典》第1198條第1款,承擔直接侵權(quán)損害賠償責任。尤其需要回應的是,因服務使用者傳播造成第三人損害的,適用該條第2款,服務使用者承擔直接侵權(quán)責任。其不明或無賠償能力的,生成式人工智能服務提供者承擔間接侵權(quán)責任,即相應的補充責任。二是來源非法非法生成的,且生成式人工智能服務提供者未盡到審核等安保義務的,因為此時依然沒有第三人介入,參照《民法典》第1198條第1款承擔侵權(quán)損害賠償責任即可。譬如,沒有依照《深度合成管理規(guī)定》第16條規(guī)定“采取技術(shù)措施添加不影響用戶使用的標識”。美國《國家人工智能倡議法案》(National Artificial Intelligence Initiative Act,NAIIA)第3章第1條第1款第3項亦有類似規(guī)定。屆時,服務使用者傳播非法生成內(nèi)容造成第三人損害的,可以對生成式人工智能服務提供者實施相應的補充責任加懲罰性賠償。本章第三節(jié)將就此展開論述,在此不贅。第二類是服務使用者輸入數(shù)據(jù)。表現(xiàn)為輸入信息合法非法生成和輸入信息非法非法生成兩種侵權(quán)形態(tài)。一是輸入信息合法非法生成,原則上按照《民法典》第1198條第1款無第三人介入型侵權(quán)的規(guī)定處理。服務使用者傳播造成第三人損害的,且服務提供者違反審核等安保義務的,承擔相應的補充責任足矣。二是輸入信息非法非法生成的,服務使用者是直接侵權(quán)人,生成式人工智能服務提供者原則上僅承擔違反雙重審核等安保義務的順位責任。但與違反單一審核義務相比,其過錯更大,可以適當加重責任承擔份額。服務使用者傳播侵權(quán)內(nèi)容造成第三人遭受損害的,參照前者第二種情況在補充責任的基礎(chǔ)上實施懲罰性賠償,此處不再展開。
綜上所述,在服務使用者傳播侵權(quán)內(nèi)容,造成第三人損害的情形下,生成式人工智能服務提供者承擔侵權(quán)責任的形態(tài)表現(xiàn)為來源合法非法生成、來源非法非法生成、輸入信息合法非法生成、輸入信息非法非法生成四種。遵循《民法典》第1198條第2款,生成式人工智能服務提供者承擔相應的補充責任后,可以向直接侵權(quán)人進行追償。第一、三種情況下,生成式人工智能服務提供者違反的是單一審核等安保義務,對損害結(jié)果發(fā)生的原因力相對較小,賦予其追償權(quán)毋庸置疑。“第三人因為距離損害更近,屬于終局責任人,安全保障義務人可以向其追償。”然而,第二、四種境遇下,生成式人工智能服務提供者違反的是雙重審核等安保義務,即非法數(shù)據(jù)信息的第一重審核義務和非法生成內(nèi)容的第二重審核義務,對損害結(jié)果發(fā)生的原因力較大,可以禁止其行使追償權(quán)。
(二)生成式人工智能服務提供者連帶責任的類型化建構(gòu)
OpenAI公司回答關(guān)于ChatGPT的常見問題時明確指出,ChatGPT“可能產(chǎn)生有害指令或有偏見的內(nèi)容。”ChatGPT模型是“基于整個互聯(lián)網(wǎng)的公開信息進行訓練,這既決定了它的能力,也決定了其局限性,互聯(lián)網(wǎng)內(nèi)容存在的問題都可能映射在模型中。”據(jù)此,不宜隨意課以服務提供者連帶責任,應以“知道或者應當知道”為限。此時服務使用者利用服務提供者提供的服務侵害他人合法權(quán)益,服務提供者未采取必要措施的,應當承擔連帶責任。
一是生成式人工智能服務提供者“知道”境遇下的連帶侵權(quán)責任承擔機制建構(gòu)。文義解釋下,《人工智能暫行辦法》第14條第1款中的“發(fā)現(xiàn)”應包括《民法典》第1195條第1款中權(quán)利人“通知”及“自行發(fā)現(xiàn)”等多種情形。該款“起源”于《民法典》第1195條第1款,是對后者的具體化呈現(xiàn)。“提供者發(fā)現(xiàn)違法內(nèi)容的”或“發(fā)現(xiàn)使用者利用生成式人工智能服務從事違法活動的”,未采取模型優(yōu)化、停止生成、消除等必要措施的,適用《人工智能暫行辦法》第14條引致《民法典》第1195條,生成式人工智能服務提供者應“對損害的擴大部分與該網(wǎng)絡用戶承擔連帶責任”。適用《民法典》第1197條,亦可得出同樣結(jié)論。“通知”“自行發(fā)現(xiàn)”等“發(fā)現(xiàn)”形態(tài)等同于生成式人工智能服務提供者“知道”,這是其承擔連帶責任的起點和法理基礎(chǔ)。“知道”是一種主觀狀態(tài),服務提供者未采取必要措施,意味著“放任侵害結(jié)果的發(fā)生。”“發(fā)現(xiàn)”“違法內(nèi)容”或“違法活動”未采取必要措施的,服務提供者的身份從“網(wǎng)絡侵權(quán)責任的中間者”轉(zhuǎn)變?yōu)?ldquo;網(wǎng)絡侵權(quán)責任的共同侵權(quán)者”,相應的補充責任轉(zhuǎn)化為連帶責任。有學者認為,此種違反安保義務的不作為侵權(quán)轉(zhuǎn)變?yōu)椴蛔鳛榈膸椭謾?quán)。在“劉靜雯、浙江天貓網(wǎng)絡有限公司等侵害作品信息網(wǎng)絡傳播權(quán)糾紛案”中,法院即認為,網(wǎng)絡服務提供者是否承擔連帶責任,主要取決于可否構(gòu)成幫助行為。職是之故,生成式人工智能服務提供者“發(fā)現(xiàn)”“違法內(nèi)容”或“違法活動”,未采取必要措施的,應就“發(fā)現(xiàn)”之時起的損害(損害擴大部分)與服務使用者承擔連帶責任。
二是生成式人工智能服務提供者“應當知道”境遇下的連帶侵權(quán)責任承擔機制建構(gòu)。生成式人工智能服務提供者未盡到安保義務對模型進行參數(shù)優(yōu)化與微調(diào),抑或沒有解決數(shù)據(jù)歧視或來源不合法等問題,造成他人損害的,應承擔相應的補充責任。然而,相應的補充責任不能成為生成式人工智能服務提供者的“免死金牌”,“紅旗規(guī)則”一定程度上可以說明這一點。生成式人工智能服務提供者在審核輸入與獲取數(shù)據(jù)、履行人工智能模型訓練與優(yōu)化等安保義務的過程中,已然觸及侵權(quán)內(nèi)容卻沒有采取必要措施的,即未“注意到一個合理的謹慎人(reasonbly prudent person)會注意到的情況”,可以視為“應當知道”。依循《人工智能暫行辦法》第21條第1款可以引致適用《民法典》第1197條,要求生成式人工智能服務提供者承擔連帶責任。責任分擔上,考慮到“‘應當知道’是指‘推定的知道’”,服務提供者可能并非真的“知道”,在內(nèi)部責任分擔上可以適當減輕服務提供者的責任承擔份額。具體可以作出如下制度設計:
連帶責任除非法律有特別規(guī)定,是以實際損害為限的。服務提供者因“應當知道”承擔連帶責任的,責任范圍輻射所有實際損害。按照《民法典》第178條第2款,服務提供者承擔連帶責任后,可以“根據(jù)各自責任大小確定”責任份額。但是,“知道”主要表現(xiàn)為故意,“是一種確切的狀態(tài)。”“應當知道一般被歸入過失的范疇”,屬于應當預見而沒有預見的主觀心理狀態(tài)。前者的可問責性顯然大于后者。且基于數(shù)據(jù)量大、機器學習、網(wǎng)絡攻擊等因素,生成式人工智能服務提供者對訓練數(shù)據(jù)、人工智能模型、生成內(nèi)容等的影響和控制可能“失靈”。故在內(nèi)部責任的分擔上,法院可以適當減少生成式人工智能服務提供者的責任份額。換句話說,適當加重直接侵權(quán)人的責任,對其實施懲罰性賠償。
(三)生成式人工智能服務提供者懲罰性賠償制度設置
生成式人工智能生成內(nèi)容構(gòu)成侵權(quán)的,依循本章第一節(jié)的劃分標準,主要呈現(xiàn)出來源合法非法生成、來源非法非法生成、輸入信息合法非法生成、輸入信息非法非法生成四種。本節(jié)主要聚焦于第二、四種情況下服務使用者再傳播行為引發(fā)的懲罰性賠償問題,其他情形非論證要點。第二、四種情況下,訓練數(shù)據(jù)可能存在侮辱、誹謗、歧視他人的言論及構(gòu)成對他人作品的不當使用、個人信息處理沒有獲得知情同意等。生成式人工智能生成的侵權(quán)內(nèi)容構(gòu)成對原侵權(quán)內(nèi)容的傳播,服務使用者公開、分享或傳播侵害他人著作權(quán)、人格權(quán)等生成內(nèi)容的,構(gòu)成再傳播行為。懲罰性賠償之功能“在于懲罰和制裁嚴重過錯行為”,基于侵權(quán)內(nèi)容再傳播行為的嚴重危害性,可以考慮對生成式人工智能服務提供者實施懲罰性賠償。另,如前所述,第二、四種境遇中,生成式人工智能服務提供者違反了《深度合成管理規(guī)定》第10條第1款規(guī)定的雙重審核義務——對具有侵權(quán)屬性的數(shù)據(jù)信息的第一重審核義務和對非法生成內(nèi)容的第二重審核義務,所謂“罪大惡極”。“網(wǎng)絡平臺提供者……最終責任份額,應當根據(jù)其過錯程度和行為的原因力確定。”若僅承擔相應的補充責任,顯然有失公允。生成式人工智能服務使用者難以確定或無賠償能力者,服務提供者除承擔與其過錯程度和原因力大小相當?shù)南鄳难a充責任,還需承擔額外的懲罰性賠償,禁止追償。具體理由如下:
一是懲罰性賠償制度的適用范圍可以擴大到重大過失。檢視《民法典》第1185條、第1207條、第1232條關(guān)于懲罰性賠償?shù)囊?guī)定,均使用“故意”“明知”限定主觀狀態(tài)。然而,以美國為代表的懲罰性賠償制度的適用范圍包括故意案件,也涉及重大過失案件。也就是說,除故意外,一般過失存在加重情節(jié)時也有適用可能,此種“‘被加重的過失’稱為重大過失(gross negligence)或魯莽(recklessness)。”美國《侵權(quán)法重述第二版》第908條第1款指出,“懲罰性賠償可以針對因被告的邪惡動機或他魯莽地無視他人的權(quán)利而具有惡劣性質(zhì)的行為做出。”此行為“與故意行為非常相似,因此應當承擔同樣的責任。”王利明教授指出,“如果行為人具有重大過失,則可能被視為故意侵權(quán)行為,并施加懲罰性賠償。”英國最高法院認為,懲罰性賠償制度可以適用“被告玩世不恭地無視原告權(quán)利、為牟取利益而算計的侵權(quán)行為”。目光回溯到懲罰性賠償制度適用的上述第二、四種情況,服務提供者違反雙重審核義務的行為屬于“魯莽地無視他人的權(quán)利”“無視原告權(quán)利”的行為,可以實施懲罰性賠償。
二是生成式人工智能基于既有侵權(quán)內(nèi)容生成新的侵權(quán)內(nèi)容屬于“魯莽”地實施了間接侵權(quán)行為。語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)、服務使用者輸入的信息合法,生成式人工智能服務提供者未盡到審核等安保義務導致生成內(nèi)容構(gòu)成侵權(quán)的,可以視為違反美國《國家人工智能倡議法案》第4條第1款(a)項規(guī)定的“旨在防止發(fā)生損害的注意義務”,可視為一般過失。我國《民法典》第1195條至第1198條也有明確規(guī)定。語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)、服務使用者輸入的信息業(yè)已構(gòu)成侵權(quán),生成式人工智能服務提供者未盡到審核等安保義務導致侵權(quán)發(fā)生的,在先過失行為(違反第一重審核義務,導致數(shù)據(jù)來源不合法等)與在后過失行為(違反第二重審核義務,引發(fā)生成侵權(quán)內(nèi)容)的疊加,屬于“魯莽”地實施了間接侵權(quán)行為,理應課以懲罰性賠償。依循美國《侵權(quán)法重述第三版:實體與精神損害責任》第2節(jié)(a)(b),“如果行為人知道其行為造成的傷害風險……且能夠消除或降低該風險的預防措施所涉及的負擔與該風險的嚴重程度相比如此輕微……則該行為人莽撞地實施了該行為。”服務提供者作為企業(yè)法人,設有專門的風險控制部門和法務部門,所以對其非法處理個人信息造成的可能傷害是“知道”的。且,既然法律施以服務提供者采取必要措施的安全保護義務,即意味著采取必要措施付出的成本一般是小于對人格權(quán)、著作權(quán)等造成的可能損害。由此,生成式人工智能服務提供者違反第一重審核義務與違反第二重審核義務相互疊加,屬于“莽撞地實施了該行為”,可以實施懲罰性賠償。歐盟《人工智能法案》第72條第1款(a)項規(guī)定,決定處罰時應適當考慮“侵權(quán)行為的性質(zhì),嚴重性,持續(xù)時間及其后果”。生成式人工智能服務提供者違反雙重審核義務情節(jié)嚴重,引入懲罰性賠償亦有其妥適性。
三、生成式人工智能服務提供者間接侵權(quán)責任限制制度的完善路徑
生成式人工智能服務提供者違反審核等安保義務,可能存在的責任形態(tài)包括相應的補充責任、連帶責任及懲罰性賠償責任,尤其是后兩種責任形態(tài)在一定程度上加重了服務提供者的間接侵權(quán)責任?;诤馄缴墒饺斯ぶ悄芊仗峁┱吲c服務使用者利益,保護生成式人工智能產(chǎn)業(yè)的角度考量,應按照“避風港規(guī)則”、著作權(quán)合理使用規(guī)則及個人信息合理使用規(guī)則,適當限制服務提供者的間接侵權(quán)責任。
(一)“避風港規(guī)則”適用的責任豁免規(guī)則
《民法典》第1195條第2款設置了“避風港規(guī)則”,但“只有滿足‘通知刪除’規(guī)則,網(wǎng)絡服務提供者才可能免除法律責任,順利駛?cè)?lsquo;避風港’。”《深度合成管理規(guī)定》《人工智能暫行辦法》作為國家網(wǎng)信辦規(guī)章,其未盡事宜可以參照適用《民法典》。也即,“避風港規(guī)則”對以ChatGPT為代表的生成式人工智能仍然適用。《民法典》第1195條第1款中的“等”字措辭表明,“必要措施”還包括《深度合成管理規(guī)定》第10條第3款的“警示、限制功能、暫停服務、關(guān)閉賬號等處置措施”、第11條的“辟謠措施”、第14條的“不予上架……下架等處置措施”及《人工智能暫行辦法》第14條的“停止生成、停止傳輸、消除等處置措施”等等。然而,生成式人工智能服務提供者不同于一般意義上的網(wǎng)絡服務提供者,《民法典》設立的“避風港規(guī)則”不能照搬,應根據(jù)生成式人工智能的特性進行適當調(diào)整??梢砸?ldquo;面向未來的審查義務”(künftige Kontrollpflicht),也有學者稱之為“通知取下掃描”規(guī)則。“面向未來的審查義務”是德國聯(lián)邦最高法院在eBay案中確立的,法院認為,被告不僅必須在發(fā)現(xiàn)對未成年人有害的提議后立即予以阻止。它還有義務防止今后再發(fā)生此類違法行為,例如使用過濾器或仔細檢查已經(jīng)提供索引作品的提供商。歐盟《數(shù)字單一市場版權(quán)指令》(Directive on Copyright in the Digital Single Market,DCDSM)第17條第4款(C)項規(guī)定,“在收到權(quán)利人提供的充分證實的通知后,迅速采取行動,禁止訪問或從其網(wǎng)站上刪除所通知的作品或其他主題,并根據(jù)(B)項盡最大努力防止其未來上傳”,課以網(wǎng)絡服務提供者“面向未來的審查義務”。顯然,這有異于《民法典》第1195條第2項以“通知取下”為中心的“避風港規(guī)則”,事實上是加強版的“避風港規(guī)則”——“通知取下掃描”規(guī)則,也稱“面向未來的審查義務”。“即在以后針對同一侵權(quán)主體或同樣侵權(quán)客體或同樣侵權(quán)內(nèi)容負有主動審查義務。”《人工智能暫行辦法》第14條規(guī)定的“采取模型優(yōu)化訓練等措施進行整改”即是一種“面向未來的審查義務”。但投射到生成式人工智能服務提供者,應當進行類型化處理。
一是語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)、服務使用者輸入信息業(yè)已構(gòu)成侵權(quán)且生成內(nèi)容也構(gòu)成侵權(quán)的,生成式人工智能服務提供者收到權(quán)利人侵權(quán)通知的,負有“面向未來的審查義務”。全面履行該審查義務的,免除侵權(quán)責任。歐盟《算法的可問責和透明的治理框架》(A Governance Framework for Algorithmic Accountability and Transparency,GFAAT)在結(jié)論部分指出,“為獲得對算法決策過程的整體了解,方法包括:設計/代碼審查、輸入數(shù)據(jù)分析、輸出結(jié)果的統(tǒng)計分析、輸入內(nèi)容的敏感性分析。”即要求服務提供者對語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)、服務使用者輸入信息進行審查,防止以不合格“原料”訓練模型而侵害他人著作權(quán)、人格權(quán)等合法權(quán)益。生成式人工智能服務提供者以問題“原料”為訓練數(shù)據(jù),生成服務使用者希望獲取的相關(guān)內(nèi)容,負有的審核義務應大于合格“原料”。假如遵守“避風港規(guī)則”“消除”生成內(nèi)容即可免除侵權(quán)責任,有助長侵權(quán)、濫用權(quán)利之嫌。“消除”措施對應《民法典》第1195條第1款的“刪除”,“屬于事后干預,規(guī)制目標是救濟于水火”。“通知取下掃描”規(guī)則要求對任一服務使用者再次輸入相同或類似的提示詞或已經(jīng)生成的任一相同或類似內(nèi)容,甚至“原料”本身,生成式人工智能服務提供者都必須進行“掃描”,全面審核,適當采取“停止生成、停止傳輸、消除等處置措施”,最大限度減少對權(quán)利人可能造成的侵害。
二是語料庫數(shù)據(jù)、實時抓取數(shù)據(jù)、服務使用者輸入的信息等訓練數(shù)據(jù)不存在侵權(quán)內(nèi)容,生成式人工智能生成內(nèi)容構(gòu)成侵權(quán)的,服務提供者收到權(quán)利人通知后,采取“消除”措施即可實施責任豁免。這種情況下,用于模型訓練的“原料”是合格的,侵權(quán)內(nèi)容生成的原因在于生成式人工智能服務提供者未盡到審核義務,承擔違反安保義務的侵權(quán)責任即可。以ChatGPT為代表的生成式人工智能處于早期發(fā)展階段,訓練數(shù)據(jù)來源、人工智能模型、反饋機制等存在固有缺陷,施以服務提供者過重的審核義務過于苛刻。“原料”合格者,采取“消除”措施即可免責,旨在“護航”以ChatGPT為代表的生成式人工智能技術(shù)的發(fā)展。
(二)生成式人工智能服務提供者著作權(quán)間接侵權(quán)的阻卻違法規(guī)則
生成式人工智能服務使用者使用他人作品(如輸入涉及他人作品的相關(guān)內(nèi)容)或使用源于他人作品的生成內(nèi)容(如自行使用、傳播等)構(gòu)成合理使用的,生成式人工智能服務提供者即使違反審核等安保義務也不構(gòu)成侵權(quán)。目光來回往返于《著作權(quán)法》第24條第1款所列13種情形,生成式人工智能服務使用者使用他人作品或使用源于他人作品的生成內(nèi)容可能構(gòu)成合理使用的情形,主要限于第1項和第2項,故本節(jié)僅就該兩項展開討論。
《著作權(quán)法》第24條第1款第1項規(guī)定,“為個人學習、研究或者欣賞,使用他人已經(jīng)發(fā)表的作品”,構(gòu)成合理使用,阻卻違法?!睹绹鏅?quán)法》第107條規(guī)定,是否構(gòu)成合理使用的主要因素之一是“使用的目的和性質(zhì),包括該使用是出于商業(yè)目的還是非營利的教育目的。”“個人學習、研究或者欣賞”的非商業(yè)目的性是構(gòu)成合理使用的法律基礎(chǔ)。放眼司法實踐,亦有人民法院把商業(yè)目的作為構(gòu)成合理使用的主要考量因素。文義解釋下,該條的“個人”應理解為自然人,不應包括法人和非法人組織。有學者則認為,“‘個人’通常僅限于‘個人或家庭’的范圍”,未“觸及”生成式人工智能服務提供者這類實體法人。服務使用者則可能基于“個人學習、研究或者欣賞”等目的使用生成式人工智能服務,直接使用他人作品或間接使用涉及他人已經(jīng)發(fā)表作品的生成內(nèi)容。此項主要適用使用人直接與著作權(quán)人發(fā)生法律關(guān)系的情形,如直接輸入他人作品的部分內(nèi)容。生成式人工智能服務使用者通過生成式人工智能這一媒介取得作品,并沒有與著作權(quán)人直接發(fā)生法律關(guān)系,可否援引上述第1項不無疑問。事實上,《著作權(quán)法》第24條第1款第1項沒有對上述兩種情形進行區(qū)分,依循“法無禁止即可為”原則,應全部適用。即使《著作權(quán)法》第24條第1款第1項限縮于直接使用,當然解釋下,奉行“舉重以明輕”原則,直接使用構(gòu)成合理使用,間接使用也應構(gòu)成合理使用,構(gòu)成阻卻違法事由。
《著作權(quán)法》第24條第1款第2項規(guī)定,“為介紹、評論某一作品或者說明某一問題,在作品中適當引用他人已經(jīng)發(fā)表的作品”的,構(gòu)成合理使用,阻卻違法?!睹绹鏅?quán)法》第107條、《英國版權(quán)法》第29條有類似規(guī)定。有別于“為個人學習、研究或者欣賞”合理使用他人作品的非商業(yè)性,引用他人已發(fā)表作品的“目的既可以是包含公益性質(zhì)的,也可以包含商業(yè)性質(zhì)的,能夠構(gòu)成合理使用的情形是其使用方式應為適當引用他人已經(jīng)發(fā)表的作品”。適當引用通常強調(diào)引用的少量性與非實質(zhì)性,大量引用實質(zhì)性內(nèi)容可能構(gòu)成抄襲剽竊他人作品。然而,新作品對原作品構(gòu)成“轉(zhuǎn)換性使用”時,即使大量引用或全部引用,仍可能構(gòu)成合理使用。在“完美十訴亞馬遜”案中,第九巡回上訴法院認為,Google公司未經(jīng)雜志出版商Perfect 10授權(quán)使用縮略圖的行為構(gòu)成合理使用,因為它們具有“高度轉(zhuǎn)換性”(highly transformative)。“在高度‘轉(zhuǎn)換性使用’形成的新作品中,原作品對于新作品在價值和功能上的貢獻并不大,要求新作品作者獲得許可和支付報酬并不合理。”鑒于此,《著作權(quán)法》第24條第1款第2項中的“適當引用”通常是少量的、非實質(zhì)性的,也可以是“轉(zhuǎn)換性使用”等特殊情形下的大量或全部引用。服務使用者利用生成式人工智能生成的作品“適當引用他人已經(jīng)發(fā)表的作品”,以“介紹、評論某一作品或者說明某一問題”,構(gòu)成合理使用,可以阻卻違法。
綜上而言,依據(jù)《著作權(quán)法》第24條第1項和第2項的規(guī)定,生成式人工智能服務使用者使用著作權(quán)人的作品構(gòu)成合理使用,生成式人工智能服務提供者作為安保義務人不構(gòu)成侵權(quán)。理由在于,《民法典》第1198條第2款規(guī)定,在第三人介入型間接侵權(quán)中,直接侵權(quán)人應當承擔全部賠償責任。直接侵權(quán)人難以確定或無賠償能力的,安保義務人才承擔與其過錯程度和原因力大小相當?shù)呢熑?。生成式人工智能服務使用者鑒于合理使用不構(gòu)成侵權(quán)的,服務提供者相應的補充責任的承擔也就失去了法律依據(jù),故前者的合理使用構(gòu)成后者間接侵權(quán)的阻卻違法事由。
(三)生成式人工智能服務提供者履行審核義務時的個人信息合理使用規(guī)則
生成式人工智能服務提供者在訓練模型、優(yōu)化模型參數(shù)、微調(diào)模型等階段,可能侵犯個人信息權(quán)益,其應定位為直接侵權(quán)人,不涉及安保義務,不屬于本節(jié)探討的范圍。本節(jié)著眼于生成式人工智能服務提供者違反審核等安保義務,致使服務使用者輸入內(nèi)容、生成內(nèi)容侵害個人信息權(quán)益造成信息主體損害,應當承擔侵權(quán)責任,但構(gòu)成合理使用適用豁免規(guī)則的情形?!秱€人信息保護法》第13條第1款第1項、第2項“脫胎”于《民法典》第1036條第1項,屬于信息主體同意而非合理使用范疇。該款第2項后半句規(guī)定,“按照依法制定的勞動規(guī)章制度……實施人力資源管理所必需”的,構(gòu)成合理使用。但該種合理使用情勢與生成式人工智能服務提供者關(guān)系不大,故本文不予展開論述?!秱€人信息保護法》第13條第1款第4項至第5項承繼于《民法典》第1036條第3項中的“為維護公共利益或者該自然人合法權(quán)益”,這與生成式人工智能服務提供者提供服務的營利性目的不一致,不宜納入合理使用范圍。《個人信息保護法》第13條第1款第6項遵循的是《民法典》第1036條第2項“公開即可用”的立法意旨,這對生成式人工智能服務提供者依然適用。但由于理論界與實務界已就此達成共識,本文不再探討此種合理使用規(guī)則。值得注意的是,《個人信息保護法》第13條第1款在《民法典》第1036條的基礎(chǔ)上設立了“法律、行政法規(guī)規(guī)定的其他情形”(第7項)及“為履行法定職責或者法定義務所必需”(第3項)之情勢,更具科學性。然而,檢視現(xiàn)有立法,沒有其他特別法對此進行專門規(guī)定,故第7項亦非本文論證的重點。因此,探討生成式人工智能服務提供者履行審核義務時的個人信息合理使用規(guī)則應以《個人信息保護法》第13條第1款第3項“為履行法定職責或者法定義務所必需”為中心展開。“履行‘法定職責’的主體,一般應限定為具有處理個人信息權(quán)限的國家公權(quán)力機關(guān)”,這顯然與生成式人工智能服務提供者無關(guān)。履行“法定義務”的主體主要為自然人、法人和非法人組織,涵攝生成式人工智能服務提供者,故本節(jié)主要在“法定義務”層面討論個人信息合理使用規(guī)則對服務提供者間接侵權(quán)責任的限制問題。
一是生成式人工智能服務提供者對服務使用者輸入的相關(guān)內(nèi)容履行審核等安保義務。服務使用者輸入內(nèi)容包含個人信息,此類個人信息大致可分為兩類:一是違法個人信息。例如侵權(quán)視頻、侵權(quán)圖片、謠言文本等,可能涉及個人信息。生成式人工智能服務提供者根據(jù)《深度合成管理規(guī)定》第10條規(guī)定履行審核等安保義務,處理大量違法個人信息是“為履行……法定義務所必需”,符合《個人信息保護法》第13條第1款第3項的規(guī)定,構(gòu)成合理使用個人信息而免責。這與韓國《個人信息保護法》(Personal Information Protection Act,PIPA)第15條第1款第2項中“為了遵守法律上的義務而不可避免的情形”及歐盟《一般數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)第6條第1款(c)項中“控制者履行法律義務之必要”情形如出一轍。二是合法個人信息。合法個人信息是指用戶輸入的個人信息本身不具有違法性,如信息主體自行公開個人信息的情況下,“個人對于信息的控制并不能排斥企業(yè)的合理使用”。從立法目的看,《深度合成管理規(guī)定》第10條是為了防止“違法信息和不良信息”的傳播。即使用戶輸入的是合法個人信息,服務提供者也只有在審核之后才能判定輸入內(nèi)容是否合法。這也屬于“為履行……法定義務所必需”而處理個人信息,構(gòu)成合理使用。
二是生成式人工智能服務提供者應對輸出結(jié)果履行審核等安保義務。生成式人工智能服務提供者審核輸出結(jié)果是基于《深度合成管理規(guī)定》第10條的規(guī)定,履行審核等安保義務,符合《個人信息保護法》第13條第1款第3項,同樣構(gòu)成合理使用個人信息?!秱€人信息保護法》第13條第1款第3項中“為履行……法定義務所必需”的規(guī)定主要是基于“為維護公共利益”的考量,這與《個人信息保護法》第13條第1款第4項和第5項的立法目的是一致的。因為義務主體履行法定義務雖存在保護某一或某些私主體利益的情形,但最終是為了維護社會公共秩序,如交易安全等。歐盟《數(shù)據(jù)法案》(Data Act)第75條規(guī)定,“當重大公共利益的保障受到威脅時,如應對公共突發(fā)事件……不應因所獲得的數(shù)據(jù)而對企業(yè)進行補償。”因此,“為維護公共利益”,生成式人工智能服務提供者對輸出結(jié)果進行審核不僅構(gòu)成對個人信息的合理使用,而且應視為已履行審核義務,不作侵權(quán)論處。
結(jié)語
以ChatGPT為代表的生成式人工智能服務提供者基于對生成內(nèi)容的控制力和影響力,兼具內(nèi)容生產(chǎn)者與平臺管理者的雙重身份。應在結(jié)合《深度合成管理規(guī)定》《人工智能暫行辦法》兩部規(guī)章的基礎(chǔ)上,適用《民法典》第1195條至第1198條,在安保義務制度體系內(nèi)解決間接侵權(quán)責任的認定與承擔問題。服務使用者使用生成式人工智能造成他人損害的,且服務提供者違反審核等安保義務的,應當承擔相應的補充責任。服務提供者“知道或應當知道”服務使用者利用生成式人工智能侵害他人合法權(quán)益的,應當就損害擴大部分與服務使用者承擔連帶責任。但在“應當知道”情勢下,內(nèi)部責任分擔應適當減少生成式人工智能服務提供者的責任份額,適當增加服務使用者的責任份額,即實施懲罰性賠償。除故意的主觀狀態(tài)外,生成式人工智能服務提供者屬于一般過失的加重情節(jié)的,可以實施懲罰性賠償。同時,鑒于平衡生成式人工智能服務提供者與服務使用者利益及生成式人工智能技術(shù)發(fā)展與著作權(quán)、人格權(quán)等保護,可以經(jīng)由“避風港規(guī)則”、著作權(quán)的合理使用規(guī)則和個人信息的合理使用規(guī)則對服務提供者的間接侵權(quán)責任進行適當限制。但是,《深度合成管理規(guī)定》《人工智能暫行辦法》等規(guī)章為生成式人工智能服務提供者等法律主體設置的審核等安保義務,是公法義務、私法義務抑或兩者兼具,有待進一步研究。隨著歐盟《數(shù)據(jù)法案》的出臺,我國是否應當針對生成式人工智能等人工智能規(guī)制出臺專門立法,并實現(xiàn)與現(xiàn)有法律法規(guī)、規(guī)章的有效銜接與良性互動,有待觀察。
(附注省略,有需要者請參閱《法學家》2024年第3期 原刊)
