生成式人工智能“顧名思義”就是用來生成創(chuàng)作內(nèi)容的,所以作為內(nèi)容領(lǐng)域定分止?fàn)幍陌鏅?quán)法一直為各界高度關(guān)注。目前,關(guān)于生成式人工智能版權(quán)議題的討論也愈發(fā)聚焦,主要涉及三個(gè)方面:第一,大模型訓(xùn)練對于作品的利用,是否適用版權(quán)法上“合理使用”等限制與例外制度;第二,利用大模型生成的內(nèi)容,能否受到版權(quán)保護(hù);第三,大模型輸出內(nèi)容發(fā)生侵權(quán)的情形下,服務(wù)提供者的責(zé)任承擔(dān)和注意義務(wù)的界定。本文希望基于國內(nèi)外相關(guān)立法規(guī)則和司法實(shí)踐的最新動態(tài),并結(jié)合當(dāng)下生成式人工智能產(chǎn)業(yè)與技術(shù)的發(fā)展現(xiàn)狀,就上述三個(gè)議題涉及的爭議關(guān)注焦點(diǎn)和應(yīng)對解決思路加以分析、探討。
模型訓(xùn)練階段:
版權(quán)責(zé)任豁免問題的思考
從生成式人工智能全產(chǎn)業(yè)周期來看,模型訓(xùn)練階段的版權(quán)問題處于起始環(huán)節(jié),因而受到各界的廣泛關(guān)注。目前來看,生成式人工智能領(lǐng)域的案件爭議也大都聚焦于這一階段:根據(jù)不完全統(tǒng)計(jì),截止2024年4月,美國大模型領(lǐng)域?qū)嶋H在訴案件共有19起,其中14起為版權(quán)侵權(quán)案件,核心爭議便是未經(jīng)授權(quán)利用他人作品進(jìn)行模型訓(xùn)練。在國內(nèi),相關(guān)案件爭議實(shí)際也已經(jīng)出現(xiàn)。根據(jù)公開報(bào)道,2023年11月國內(nèi)某內(nèi)容平臺便因未經(jīng)授權(quán)利用他人美術(shù)作品,訓(xùn)練旗下文生圖產(chǎn)品,被四位繪畫創(chuàng)作者起訴至北京互聯(lián)網(wǎng)法院,該案件仍在審理階段。目前來看,對于各界廣泛討論的“模型訓(xùn)練階段的責(zé)任豁免問題”有以下四點(diǎn)關(guān)注值得思考。
第一,探討前提。
根據(jù)法律的基本邏輯,責(zé)任豁免的探討應(yīng)當(dāng)建立在侵權(quán)認(rèn)定的基礎(chǔ)之上。但當(dāng)下各界關(guān)于大模型訓(xùn)練能否受到版權(quán)法上“合理使用”等制度豁免的論證討論,往往容易忽視了一個(gè)前提基礎(chǔ),即實(shí)踐中模型訓(xùn)練過程到底涉及哪些對于作品的利用行為。而這些作品利用行為能否落入到現(xiàn)行版權(quán)法賦予版權(quán)人的專有權(quán)利規(guī)制范疇。從技術(shù)層面來看,大模型訓(xùn)練主要涉及作品獲取、作品存儲和作品學(xué)習(xí)三個(gè)階段。對于這三個(gè)階段的作品利用行為是否受到版權(quán)法規(guī)制,目前各界遠(yuǎn)未形成共識。
作品獲取階段,法律層面判斷的核心在于模型訓(xùn)練廠商在搜集獲取語料內(nèi)容的過程中是否存在版權(quán)法上破壞“技術(shù)保護(hù)措施”和刪除“權(quán)利管理信息”等違法行為。作品存儲階段,主要涉及是否存在侵害他人作品“復(fù)制權(quán)”的行為,但也有觀點(diǎn)指出這一復(fù)制行為屬于“中間復(fù)制”(是后續(xù)作品學(xué)習(xí)行為的前置環(huán)節(jié))和“非公開復(fù)制”,并不受到版權(quán)法規(guī)制。而作品學(xué)習(xí)階段,是否受到版權(quán)法規(guī)制更是存在很大爭議。簡單來說,在大模型出現(xiàn)之前,人類學(xué)習(xí)他人作品進(jìn)行再創(chuàng)作并不當(dāng)然被視為一種侵權(quán)行為。只是當(dāng)下大模型對于人類在先作品學(xué)習(xí)利用的效率更高、商業(yè)化程度更明顯,故而受到基于上下游利益失衡擔(dān)憂帶來的質(zhì)疑。
第二,競爭環(huán)境。
模型訓(xùn)練階段相關(guān)版權(quán)規(guī)則的設(shè)計(jì),還涉及國際層面產(chǎn)業(yè)競爭制度環(huán)境的問題。因?yàn)槟P陀?xùn)練動輒涉及千億級、萬億級的參數(shù)語料訓(xùn)練,如果一個(gè)國家規(guī)定模型訓(xùn)練必須事前完全獲得每一個(gè)語料作品的授權(quán),而另一個(gè)國家則予以完全責(zé)任豁免,則分屬兩國的大模型廠商的發(fā)展環(huán)境便會存在截然不同的差異。
很多國家和地區(qū)其實(shí)都已經(jīng)認(rèn)識到了這個(gè)問題。例如,2024 年 3 月 13 日,歐洲議會批準(zhǔn)的《人工智能法案》(最新文本)便強(qiáng)調(diào)需要確保通用AI模型服務(wù)商之間的公平競爭環(huán)境。其第60j條規(guī)定,無論支撐通用AI模型訓(xùn)練的版權(quán)利用行為發(fā)生在哪個(gè)司法管轄區(qū),任何在歐盟市場上提供通用AI模型的服務(wù)商都應(yīng)遵守歐盟版權(quán)法關(guān)于“文本與數(shù)據(jù)挖掘”情形設(shè)置的相關(guān)義務(wù),任何服務(wù)商都不應(yīng)通過適用低于歐盟版權(quán)標(biāo)準(zhǔn)而在歐盟市場上獲得競爭優(yōu)勢。
第三,現(xiàn)行立法。
應(yīng)當(dāng)說我國現(xiàn)行《著作權(quán)法》第四節(jié)“權(quán)利的限制”項(xiàng)下第24條關(guān)于“合理使用”的規(guī)定以及第25條關(guān)于“法定許可”的規(guī)定都無法精確涵蓋大模型訓(xùn)練這一問題。雖然目前立法層面對這一問題無明確規(guī)定,但司法層面是存在相關(guān)規(guī)則適用接口的。2011年12月20日,最高人民法院發(fā)布的《關(guān)于充分發(fā)揮知識產(chǎn)權(quán)審判職能作用推動社會主義文化大發(fā)展大繁榮和促進(jìn)經(jīng)濟(jì)自主協(xié)調(diào)發(fā)展若干問題的意見》第8條規(guī)定“在促進(jìn)技術(shù)創(chuàng)新和商業(yè)發(fā)展確有必要的特殊情形下,考慮作品使用行為的性質(zhì)和目的、被使用作品的性質(zhì)、被使用部分的數(shù)量和質(zhì)量、使用對作品潛在市場或價(jià)值的影響等因素,如果該使用行為既不與作品的正常使用相沖突,也不至于不合理地?fù)p害作者的正當(dāng)利益,可以認(rèn)定為合理使用。”一定程度表明,類似于美國版權(quán)法中的合理使用“四要素分析法”,在我國存在適用可能性。
也觀察到,在美國司法實(shí)踐中已經(jīng)存在傾向認(rèn)定大模型訓(xùn)練符合“合理使用四要素分析法”的裁定。2023年9月25日,美國特拉華州地方法院就“湯森路透訴Ross”人工智能版權(quán)侵權(quán)案,做出了針對簡易判決動議的駁回裁定。法院傾向于支持復(fù)制、利用版權(quán)作品用于訓(xùn)練AIGC模型構(gòu)成合理使用(符合“轉(zhuǎn)換性使用”中的“中間復(fù)制”標(biāo)準(zhǔn)),前提是如果相關(guān)模型僅是學(xué)習(xí)在先作品中自然語言內(nèi)含的模式、相關(guān)性等,然后根據(jù)用戶提問,輸出不同于被訓(xùn)練語料作品的新內(nèi)容。但如果只是將原作品復(fù)制存儲進(jìn)人工智能模型,然后以類似檢索工具的方式,根據(jù)用戶提問輸出與原作品相同的內(nèi)容,則無法構(gòu)成合理使用。
第四,未來方向。
生成式人工智能大模型訓(xùn)練階段的版權(quán)責(zé)任豁免問題,涉及版權(quán)保護(hù)、激勵(lì)創(chuàng)作以及技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展等多重價(jià)值目標(biāo),無疑需要更加平衡和科學(xué)的制度設(shè)計(jì)。如果從大模型領(lǐng)域的國際競爭環(huán)境出發(fā),基于促進(jìn)國內(nèi)生成式人工智能產(chǎn)業(yè)和技術(shù)發(fā)展,豁免模型訓(xùn)練階段的版權(quán)責(zé)任,也需要審慎思考和科學(xué)論證是否以及如何設(shè)計(jì)搭建具有實(shí)操性的版權(quán)人“退出、保護(hù)機(jī)制”。值得關(guān)注,目前針對“模型訓(xùn)練”存在成文法規(guī)定的國家和地區(qū),在原則上豁免模型訓(xùn)練廠商事前需獲得作品利用授權(quán)的基礎(chǔ)上,也都通過“例外的例外”給予了作品權(quán)利人一定的權(quán)利保護(hù)和訓(xùn)練退出機(jī)制。
2024 年 3 月 13 日,歐洲議會批準(zhǔn)的《人工智能法案》(最新版本)關(guān)于模型訓(xùn)練版權(quán)責(zé)任的要求,實(shí)際上轉(zhuǎn)致到2018年9月12日通過的《單一數(shù)字市場版權(quán)指令》關(guān)于“文本和數(shù)據(jù)挖掘”的規(guī)定。其一,模型訓(xùn)練版權(quán)責(zé)任豁免的前提是大模型廠商需要合法獲取作品;其二,商業(yè)目的模型訓(xùn)練,版權(quán)人享有通過適當(dāng)方式(至少包括機(jī)器可讀的方式)事先保留這一權(quán)利;其三,模型廠商需要制定相應(yīng)的規(guī)則,識別和尊重商業(yè)目的下版權(quán)人保留自身作品被模型訓(xùn)練的權(quán)利選擇。2024年3月,谷歌便因?yàn)樵谟?xùn)練Gemini產(chǎn)品時(shí)違反上述相關(guān)要求,而被法國競爭管理局處以2.5億歐元的罰款。
日本2018年修訂《著作權(quán)法》提出“非欣賞性利用”條款。該條款雖然不區(qū)分商業(yè)和非商業(yè)情形,完全豁免了人工智能深度學(xué)習(xí)(也即模型訓(xùn)練)問題,卻也規(guī)定了“但書條款”——即不得對版權(quán)人利益造成不當(dāng)損害。日本文化審議會著作權(quán)分科會的相關(guān)解讀表示,如果版權(quán)人采取了技術(shù)保護(hù)措施防止自身作品被用于人工智能學(xué)習(xí),則規(guī)避技術(shù)措施進(jìn)行模型訓(xùn)練的行為就落入“但書”的范疇。
內(nèi)容輸出階段:
生成物可版權(quán)性問題的分析
第一,爭議聚焦。
關(guān)于人類利用人工智能大模型工具創(chuàng)作內(nèi)容能否構(gòu)成作品、受到版權(quán)法保護(hù)的問題,各界的討論由來已久。觀察下來,一個(gè)很大的誤區(qū)在于有時(shí)各方并沒有清晰地界定好討論的前提,將AI自動生成和AI輔助創(chuàng)作下的內(nèi)容版權(quán)屬性判定混在一起。但目前實(shí)踐中,該問題的核心爭議其實(shí)并不存在于法律層面,而是存在于事實(shí)認(rèn)定層面。
無論是中國還是美國以及國內(nèi)各界,應(yīng)當(dāng)說在法律層面對于版權(quán)作品的認(rèn)定標(biāo)準(zhǔn)并沒有太大爭議,都認(rèn)為作品需要體現(xiàn)自然人的獨(dú)創(chuàng)性貢獻(xiàn)。也即構(gòu)成版權(quán)法下保護(hù)的作品,只能是AI輔助人類創(chuàng)作的內(nèi)容,而非完全由AI自動生成的內(nèi)容。當(dāng)然,在英國、愛爾蘭、南非、烏克蘭(鄰接權(quán)模式)等國家現(xiàn)行版權(quán)法中存在“計(jì)算機(jī)作品”的規(guī)定,可以對純AI自動生成的內(nèi)容加以保護(hù)。只要該內(nèi)容經(jīng)由自然人做出必要的選擇安排便可以,無需獨(dú)創(chuàng)性層面的貢獻(xiàn)。但目前來看,畢竟僅是全球立法例中的少數(shù)情形。
當(dāng)下階段,大模型生成內(nèi)容可版權(quán)性問題的關(guān)鍵,實(shí)際存在于事實(shí)認(rèn)定層面。即在現(xiàn)有生成式人工智能技術(shù)原理背景下,人類利用大模型生成內(nèi)容的過程中能不能體現(xiàn)自身的獨(dú)創(chuàng)性貢獻(xiàn)。具體來講是,當(dāng)使用者利用大模型通過提示詞構(gòu)思、模型數(shù)值設(shè)定以及對生成物的多輪選擇和提示詞修改等行為生成了內(nèi)容,那么在這一系列行為中,使用者是否具有獨(dú)創(chuàng)性層面的控制力和可預(yù)見性,這是判定相關(guān)內(nèi)容能否受到版權(quán)作品保護(hù)的核心。目前來看,越來越多的域內(nèi)外案例實(shí)踐也都聚焦于事實(shí)層面的認(rèn)定論證。
第二,案例實(shí)踐。
2023年11月27日,北京互聯(lián)網(wǎng)法院對國內(nèi)首例“AI文生圖”案做出判決,明確表示涉案AIGC產(chǎn)品本質(zhì)是使用者的輔助創(chuàng)作工具,從“構(gòu)思涉案圖片”(設(shè)計(jì)人物呈現(xiàn)方式、選擇提示詞、安排提示詞順序、設(shè)置相關(guān)參數(shù))到“最終選定涉案圖片”(根據(jù)初步圖片,增加提示詞、調(diào)整參數(shù),多輪最終選擇),能夠體現(xiàn)使用者的獨(dú)創(chuàng)性貢獻(xiàn)。因而涉案圖片構(gòu)成受版權(quán)法保護(hù)的作品。
此前2023年1月16日,意大利最高法院在“The scent of the night案”中表示,在圖像生成過程中使用軟件,這一事實(shí)本身并不足以排除作品創(chuàng)作屬性,而是需要更嚴(yán)格地去判斷是否存在一定程度的獨(dú)創(chuàng)性。需要法院去評估對工具的使用是否以及在多大程度上反映了使用者的獨(dú)創(chuàng)性貢獻(xiàn)。
2023年10月11日,捷克布拉格法院在“S.Š.訴TAUBEL LEGAL案”中也表示,提示詞的設(shè)計(jì)者是否可以被作為圖像作者,需要視具體情況而定:如果輸入的提示詞是作者獨(dú)特的創(chuàng)作行為,對生成的圖像有很大程度的貢獻(xiàn),那么在這種情況下,設(shè)計(jì)出提示詞的人因此可以被視為該圖像的作者,滿足版權(quán)法規(guī)定的主體要件。
而美國版權(quán)局在2023年3月16日發(fā)布的《版權(quán)登記指南:包括人工智能生成材料的作品》,及目前決定的四起AIGC注冊案件:2022年2月14日“最近的天堂入口”案;2023年2月21日“黎明的扎里亞”案;2023年9月5日“太空歌劇院”案;2023年12月11日“SURYAST”案,均拒絕授予利用大模型生成的內(nèi)容以版權(quán)保護(hù)。美國版權(quán)局認(rèn)為,不論創(chuàng)建的提示詞多復(fù)雜,也不論經(jīng)過多少輪提示詞修改,使用者在利用大模型生成內(nèi)容的過程中都無法體現(xiàn)自身的創(chuàng)作貢獻(xiàn)。這明顯也是一個(gè)事實(shí)判定問題而非法律標(biāo)準(zhǔn)問題。從2024 年 4 月 10 日,美國眾議院司法委員會“人工智能與知識產(chǎn)權(quán)”最新聽證會內(nèi)容來看,各界已經(jīng)明顯體現(xiàn)出對美國版權(quán)局一概拒絕給予利用大模型生成內(nèi)容以版權(quán)保護(hù),對創(chuàng)新激勵(lì)機(jī)制可能帶來的負(fù)面影響的擔(dān)憂。
第三,制度思考。
關(guān)于人工智能生成內(nèi)容能否受到作品保護(hù),目前可以從以下幾個(gè)層面加以關(guān)注探討。
從技術(shù)層面來看,生成式人工智能在當(dāng)下發(fā)展階段仍然僅是人類的輔助性創(chuàng)作工具,遠(yuǎn)沒有達(dá)到突破“主客體、人物二分”的技術(shù)臨界點(diǎn)。因此,對于人類利用生成式人工智能大模型創(chuàng)作的內(nèi)容加以必要保護(hù),可以實(shí)現(xiàn)版權(quán)法上“激勵(lì)自然人創(chuàng)作”的內(nèi)在制度目標(biāo)。
從產(chǎn)業(yè)層面來看,有恒產(chǎn)者才會有恒心,不對人類利用大模型生成的內(nèi)容加以版權(quán)法層面的妥當(dāng)保護(hù),可能會產(chǎn)生一系列負(fù)面問題:不僅可能會影響生成內(nèi)容IP的后續(xù)授權(quán)和維權(quán)穩(wěn)定性;也存在經(jīng)由下游大模型使用動力的削減,進(jìn)而反向影響上游大模型產(chǎn)研發(fā)投入的動力。
從制度層面來看,目前AI生成和非AI生成的內(nèi)容,只是人類利用了不同的創(chuàng)作工具,而在生成內(nèi)容的外在表現(xiàn)形式層面并無本質(zhì)差異。因此,在法律層面無需過于激進(jìn)的制度回應(yīng),現(xiàn)行版權(quán)法能夠?qū)@一問題加以涵攝回應(yīng)。不論是創(chuàng)設(shè)新的作品類型還是新的鄰接權(quán)客體類型,都可能引發(fā)與既有作品類型外觀重合的問題。退一步來講,即使借鑒英國的“計(jì)算機(jī)生成作品”模式,對人工智能生成內(nèi)容設(shè)置權(quán)利范疇和保護(hù)期限的特殊限制,也存在誘導(dǎo)使用者隱瞞AI生成的反向制度激勵(lì)問題,進(jìn)而導(dǎo)致在實(shí)踐中制度難以落地的風(fēng)險(xiǎn)。值得關(guān)注的是,自英國1988年創(chuàng)立計(jì)算機(jī)作品以來,僅衡平法院在2006年1月20日做出一例游戲畫面被認(rèn)定為計(jì)算機(jī)作品的相關(guān)判決,但已經(jīng)不具備現(xiàn)實(shí)參考價(jià)值。
侵權(quán)責(zé)任階段:
服務(wù)商注意義務(wù)問題的探討
第一,尊重自治。
根據(jù)“權(quán)利之所在,責(zé)任之所在”的基本原則,哪一方主體享有利用人工智能生成內(nèi)容的相關(guān)權(quán)利,哪方主體便需要承擔(dān)對應(yīng)內(nèi)容可能引發(fā)的版權(quán)直接侵權(quán)責(zé)任。從目前各國產(chǎn)業(yè)實(shí)踐來看,大多數(shù)AIGC平臺都會通過“用戶協(xié)議”的方式約定生成內(nèi)容歸使用者所有,并由使用者對生成內(nèi)容的后續(xù)傳播利用承擔(dān)相應(yīng)的責(zé)任。
當(dāng)然,不同的平臺也會從自身商業(yè)模式和使用者的不同類型(個(gè)人用戶亦或不同規(guī)模的企業(yè)用戶)出發(fā),對于生成內(nèi)容的利用權(quán)限、范圍加以不同規(guī)定,但也都是在尊重用戶選擇和意思自治的范圍內(nèi)做出的安排。在我國,2023年8月15日起施行的《生成式人工智能服務(wù)管理暫行辦法》,也支持生成式人工智能行業(yè)通過協(xié)議方式約定平臺與使用者之間的權(quán)責(zé)關(guān)系。“暫行辦法”第9條規(guī)定,“提供者應(yīng)當(dāng)與注冊其服務(wù)的生成式人工智能服務(wù)使用者簽訂服務(wù)協(xié)議,明確雙方權(quán)利義務(wù)。”
第二,技術(shù)中立。
值得注意,生成式人工智能的內(nèi)容輸出模式,決定了其在版權(quán)侵權(quán)問題判定上存在天然的特殊性。
我們需要首先思考,用戶利用AIGC服務(wù)生成內(nèi)容的行為究竟是一種版權(quán)法規(guī)制的“公開傳播”行為,還是一種不受版權(quán)法規(guī)制的“個(gè)人使用”行為?目前來看,無論是“文生文”還是“文生圖”領(lǐng)域的AIGC產(chǎn)品,生成的內(nèi)容都是以對話形式存在于封閉的用戶交互界面之中,原則上都可以被認(rèn)定為是一種非公開的個(gè)人使用行為。
從平臺責(zé)任角度來看,AIGC服務(wù)提供者在平臺屬性和責(zé)任判斷上,具有較為明顯的技術(shù)中立性特征。
從內(nèi)容生成角度,AIGC平臺本身不會主動輸出任何內(nèi)容,也不會事前存儲未來將會輸出的內(nèi)容。從內(nèi)容傳播角度,前邊也已經(jīng)提及利用AIGC平臺生成的內(nèi)容不會向不特定第三方主體呈現(xiàn)展示;此外,對于生成內(nèi)容后續(xù)是否加以公開傳播以及如何進(jìn)行公開傳播,實(shí)際是由使用者而非AIGC平臺享有決定權(quán)。
2024年2月8日,廣州互聯(lián)網(wǎng)法院在審理的“生成式AI侵權(quán)(奧特曼)案”中,就AIGC服務(wù)提供者侵權(quán)賠償損失責(zé)任的認(rèn)定指出,“……相關(guān)類案判決認(rèn)為,生成式人工智能具有一定的工具屬性。生成式人工智能既可以用于合法目的,也可以用于非法目的……”2024年3月21日,美國《田納西州確保肖像、聲音和圖像安全法案》通過,強(qiáng)調(diào)了對于“內(nèi)容創(chuàng)造工具開發(fā)和提供者的責(zé)任認(rèn)定”需要關(guān)注“技術(shù)中立性”的要求,“對于軟件提供者,只有當(dāng)其軟件的‘主要目的’是未經(jīng)授權(quán)生成個(gè)人的姓名、照片、聲音或肖像時(shí),才會承擔(dān)責(zé)任。如果軟件生成侵權(quán)內(nèi)容的能力是次要的或者與其他目的相關(guān),那么軟件提供者可能不會承擔(dān)法律責(zé)任。”
第三,平臺責(zé)任。
雖然生成式人工智能的內(nèi)容輸出模式存在特殊性,并且生成式人工智能服務(wù)平臺具備天然的技術(shù)中立性,但鑒于其龐大的內(nèi)容輸出能力,客觀上還是存在提升社會整體版權(quán)侵權(quán)傳播風(fēng)險(xiǎn)的可能。有研究表明,按照ChatGPT在2023年初的內(nèi)容生成能力,僅14天便可以輸出相當(dāng)于1440年古登堡印刷機(jī)發(fā)明以來,人類社會全部印刷作品的內(nèi)容總量。
面對新技術(shù)、新業(yè)態(tài)帶來的新平臺責(zé)任,應(yīng)當(dāng)說版權(quán)領(lǐng)域的責(zé)任判斷一直都是風(fēng)向標(biāo)。作為全球平臺責(zé)任基石的“避風(fēng)港制度”,便是從版權(quán)領(lǐng)域發(fā)展而來,并進(jìn)一步向其他民事權(quán)益領(lǐng)域延伸。生成式人工智能技術(shù)發(fā)展帶來的一個(gè)總體趨勢是,使得我們對平臺版權(quán)責(zé)任的關(guān)注,從“內(nèi)容傳播”領(lǐng)域轉(zhuǎn)向“內(nèi)容生成”領(lǐng)域。內(nèi)容傳播平臺的版權(quán)責(zé)任判定較為傳統(tǒng),而以AIGC服務(wù)提供者為代表的內(nèi)容生成平臺的版權(quán)責(zé)任判定則是一個(gè)全新的議題。
目前,各界關(guān)于大模型服務(wù)提供者直接侵權(quán)、間接侵權(quán)亦或是共同侵權(quán)的討論仍在繼續(xù),遠(yuǎn)未達(dá)成一致意見。但從解決產(chǎn)業(yè)發(fā)展現(xiàn)實(shí)問題的角度,其實(shí)更需要關(guān)注的是,如何從防范化解社會整體侵權(quán)風(fēng)險(xiǎn)、強(qiáng)化版權(quán)人利益保護(hù)以及促進(jìn)保障新產(chǎn)業(yè)與新技術(shù)發(fā)展角度,科學(xué)的認(rèn)定AIGC平臺的版權(quán)保護(hù)注意義務(wù),也即AIGC平臺可以采取哪些實(shí)踐中有效、成本上合理、技術(shù)上可行的侵權(quán)應(yīng)對措施。整體來看,可以從技術(shù)、規(guī)則與預(yù)防三個(gè)層面看待AIGC平臺版權(quán)保護(hù)注意義務(wù)問題。
第四,注意義務(wù)。
技術(shù)層面,能否通過“調(diào)整模型參數(shù)”和“刪除被訓(xùn)練語料庫中的素材”來避免版權(quán)侵權(quán)?一方面,需要認(rèn)識到從技術(shù)角度著眼,大模型一旦訓(xùn)練完畢便無法將特定作品內(nèi)容對應(yīng)的特定模型參數(shù)加以單獨(dú)刪除,此外特定作品與特定參數(shù)之間也并非簡單的一一對應(yīng)關(guān)系,除非用剔除特定作品后的新語料集對該模型加以再次整體訓(xùn)練。但明顯這一做法成本過高,實(shí)操中很難落地執(zhí)行。另一方面,刪除語料庫中的特定被訓(xùn)練作品實(shí)操中是可行的,但卻并沒有現(xiàn)實(shí)意義。因?yàn)橹灰?xùn)練完畢,刪除語料的行為不會對已經(jīng)訓(xùn)練好了的模型參數(shù)和模型可能輸出的內(nèi)容產(chǎn)生任何影響。
規(guī)則層面,“避風(fēng)港制度”既有“通知?jiǎng)h除”機(jī)制是否仍然有效,科學(xué)的必要措施行為應(yīng)是如何?一方面,平臺實(shí)際上無法直接刪除特定用戶賬號中的侵權(quán)內(nèi)容,因?yàn)樵撉謾?quán)內(nèi)容存儲在用戶PC或移動端的設(shè)備中而非平臺的服務(wù)器中。這和此前的內(nèi)容傳播平臺存在明顯差異,因?yàn)椴淮嬖谟脩魧⑻囟▋?nèi)容上傳到平臺服務(wù)器這個(gè)環(huán)節(jié)。但平臺可以采取與其實(shí)際技術(shù)能力相匹配的措施,例如通知涉嫌侵權(quán)的用戶不得進(jìn)一步傳播侵權(quán)內(nèi)容,并根據(jù)侵權(quán)行為的嚴(yán)重程度采取類似“三振出局”的手段懲戒相關(guān)用戶。另一方面,平臺還需要對生成內(nèi)容進(jìn)行打標(biāo),否則版權(quán)人難以根據(jù)侵權(quán)內(nèi)容追溯到特定平臺;同時(shí)平臺也需要建立投訴舉報(bào)機(jī)制,否則權(quán)利人也沒法要求平臺采取上述侵權(quán)制止舉措。
預(yù)防層面,能否通過“內(nèi)容”和“關(guān)鍵詞”過濾機(jī)制來避免大模型輸出侵權(quán)內(nèi)容?這里涉及三個(gè)核心問題。第一,過濾機(jī)制的運(yùn)行有賴于侵權(quán)內(nèi)容比對庫的存在。這也就需要權(quán)利人與AIGC平臺建立事前的合作機(jī)制。第二,過濾比例的技術(shù)難題。AIGC平臺可以過濾掉100%或99%相同的內(nèi)容,但過濾掉10%或20%相似的內(nèi)容便存在現(xiàn)實(shí)困難。需要思考是否平臺積極履行了過濾義務(wù)便可以免責(zé),而不應(yīng)在技術(shù)層面過于苛求。最后,過濾機(jī)制天然存在“技術(shù)誤傷”的問題。特別是針對關(guān)鍵詞的過濾,存在很大可能會影響用戶的正常使用,這也是實(shí)操中需要關(guān)注的問題。
