原標題:生成式人工智能平臺著作權侵權使用者責任探究 構建兼顧技術創(chuàng)新與版權保護新規(guī)則體系

作者簡介:馮曉青,湖南長沙人,中國知識產(chǎn)權法學研究會副會長,中國政法大學教授、博士生導師,知識產(chǎn)權法研究所所長 ,中國政法大學無形資產(chǎn)管理研究中心主任,知識產(chǎn)權法國家重點學科學術帶頭人、知識產(chǎn)權法專業(yè)博士點負責人。為第三批國家"萬人計劃"哲學社會科學領軍人才。
隨著ChatGPT等生成式人工智能的迅猛發(fā)展,其已成為內(nèi)容創(chuàng)作的重要工具。然而,其在提升創(chuàng)作效率的同時,也帶來了顯著的著作權侵權風險。人工智能生成內(nèi)容(AIGC)獨特的生成模式正深刻影響著傳統(tǒng)的著作權侵權認定規(guī)則,使責任主體、歸責原則等問題面臨新的挑戰(zhàn)。
當前學界對平臺與開發(fā)者責任關注較多,而對使用者在侵權鏈條中的地位與責任研究不足。使用者作為內(nèi)容的直接輸出與傳播者,通過輸入提示詞、選擇模型等行為實質(zhì)參與了生成過程,甚至可能引導系統(tǒng)輸出受保護作品,但其行為是否構成直接或間接侵權,在現(xiàn)行法律框架下并不清晰。
人工智能生成內(nèi)容對傳統(tǒng)著作權侵權認定規(guī)則的挑戰(zhàn)
傳統(tǒng)知識產(chǎn)權侵權認定中,在著作權法領域,除合理使用等限制外,未經(jīng)許可復制、改編等使用行為即構成侵權,過錯通常不影響侵權認定,僅影響損害賠償。然而,AIGC的生成依賴于海量數(shù)據(jù)訓練,可能未經(jīng)授權吸收并再現(xiàn)受保護作品,導致使用者在不知情時涉嫌侵權。這使得傳統(tǒng)“無過錯亦侵權”的標準面臨適用困境。
使用者往往難以知曉訓練數(shù)據(jù)來源及合法性,若堅持嚴格無過錯侵權認定標準,可能導致其承擔過重風險,抑制技術應用。但若完全排除其責任,則顯失公平,特別是當使用者通過特定提示詞誘導生成高度相似內(nèi)容時,其已超越單純工具使用范疇,具備一定創(chuàng)作參與性。
此外,傳統(tǒng)的“接觸+實質(zhì)性相似”規(guī)則在AIGC語境下也難以直接適用。一方面,使用者通常未直接接觸原作品;另一方面,生成內(nèi)容往往是對原作風格、結構等元素的模仿或重組,而這些元素在傳統(tǒng)著作權法中可能被歸為思想范疇,難以認定“實質(zhì)性相似”。因此,亟須構建兼顧技術創(chuàng)新與版權保護的新規(guī)則體系,合理劃分開發(fā)者、平臺與使用者的責任邊界。
人工智能生成內(nèi)容場景下使用者著作權侵權的認定規(guī)則
其一,“接觸+實質(zhì)性相似”規(guī)則的重構。在AIGC場景下,使用者一般并未直接接觸原作,內(nèi)容系通過算法模型間接產(chǎn)出。傳統(tǒng)“接觸”要件的設立旨在保護獨立創(chuàng)作自由,但AIGC生成的內(nèi)容并非獨立創(chuàng)作的結果,而是模型對已內(nèi)化作品特征的調(diào)用與再現(xiàn)。因此,此處的“接觸”要件應作擴張解釋,理解為模型對作品的吸收和訓練。若使用者明知或應知模型可能吸收版權內(nèi)容進行訓練,仍通過提示詞引導生成高度相似內(nèi)容,可推定其具備間接接觸的可能。
對于“實質(zhì)性相似”的判定亦需調(diào)整。傳統(tǒng)上主要采用“抽象—過濾—比較”三步法或“整體感覺測試法”。三步法雖有助于區(qū)分思想與表達,但在AIGC場景下,生成內(nèi)容常表現(xiàn)為風格、結構等元素的隱性重組,該方法難以有效識別。尤其值得注意的是,人工智能能在短時間內(nèi)精準復現(xiàn)特定風格,實質(zhì)上壓縮了原作者通過市場先發(fā)優(yōu)勢獲得補償?shù)目臻g。因此,在判斷“實質(zhì)性相似”時,應更多轉向考慮生成內(nèi)容是否可能導致公眾對作品來源產(chǎn)生混淆,以及對原作市場的潛在替代性影響,可以“整體感覺測試法”為主,并輔以公共領域保留原則進行平衡。
其二,使用者過錯認定規(guī)則的形塑?!睹穹ǖ洹返?165條確立了過錯責任原則。在著作權侵權中,故意侵權(如故意誘導模型生成侵權內(nèi)容)的責任認定相對明確。難點在于使用者“過失”的認定。鑒于生成式人工智能輸出的隨機性與一定不可預見性,需結合具體場景考察使用者的注意義務標準。
根據(jù)權利與義務、利益與風險一致的原則,注意義務應與使用者的收益和風險控制能力相匹配。對于以營利為目的的商業(yè)性使用(如商用發(fā)布),使用者應承擔較高的注意義務,需進行事前合理審查(如檢索著作權登記信息),若未盡此義務,可構成一般過失。對于普通個人用戶,其注意義務標準可相對降低,但應對明顯受版權保護的知名作品保持合理規(guī)避義務。若生成內(nèi)容與知名作品高度相似,使用者仍進行侵權性利用,則可推定其存在重大過失。技術的不完全可控性不能成為使用者完全免責的理由,其應在輸入意圖與后續(xù)利用等可控環(huán)節(jié)承擔相應的審慎注意義務。
使用者著作權侵權責任的類型化
一是使用者的單獨責任。生成式人工智能的開發(fā)者和服務者,相較于傳統(tǒng)網(wǎng)絡服務提供者,對用戶具體輸入內(nèi)容及AIGC后續(xù)利用方式的控制力和預見性較弱。他們主要通過完善模型設計、提供使用指引和風險提示等方式,在技術可行范圍內(nèi)預防侵權。若其已盡到合理注意義務(如對明顯侵權提示進行警示、設置投訴機制等),對侵權結果的發(fā)生不具有預見和避免可能性,則不應苛責。此時,若使用者系故意利用AI生成侵權內(nèi)容,應基于其主觀過錯和行為控制力,由其承擔單獨侵權責任。近期司法實踐(如上海市金山區(qū)人民法院審理的“美杜莎”LoRA模型案)已體現(xiàn)出這一思路,在平臺盡到義務的前提下,認定由用戶獨立擔責。
二是使用者和提供者的連帶責任。這主要存在于兩種情形:其一,若使用者故意侵權,而人工智能提供者未建立合理的投訴機制、風險提示機制,或?qū)δP蛿?shù)據(jù)未盡到與技術發(fā)展水平相應的審核義務,存在主觀過錯,則應與使用者承擔連帶責任。其二,若使用者輸入了合法提示詞,但生成內(nèi)容仍出現(xiàn)侵權元素,使用者未盡到合理的審查義務即進行發(fā)布傳播,則其存在過錯;同時,該結果也可能反映出提供者在模型設計、數(shù)據(jù)篩選或過濾機制上存在缺陷,且該缺陷與侵權結果有直接關聯(lián)。此時,提供者亦有過錯。雙方應根據(jù)各自過錯程度和原因,對外承擔連帶責任,對內(nèi)承擔按份責任。廣州、杭州互聯(lián)網(wǎng)法院審理的相關AI圖片侵權案均體現(xiàn)了此類責任劃分的考量。
三是使用者和提供者的公平責任。生成式人工智能的某些風險是社會技術發(fā)展過程中難以完全避免的。當提供者與使用者均已盡到合理注意義務,均無過錯,但損害仍然發(fā)生時,基于分配正義和風險分散的理念,可考慮適用公平責任原則。即根據(jù)雙方的收益情況、風險控制能力及防范成本等因素,按比例對著作權人的損失予以適當補償。這有助于在激勵技術創(chuàng)新與保護權利人利益之間尋求平衡,避免由某一方單獨承受不可預見的技術風險,也體現(xiàn)了對著作權的基本尊重。
