隨著大語言模型的開發(fā)與應用,對于人工智能(AI)生成內(nèi)容法律屬性的界定在司法機關的裁判中逐漸明朗,當前裁判實踐普遍認為,若生成內(nèi)容體現(xiàn)使用者實質(zhì)智力投入并具有獨創(chuàng)性表達,可構成受著作權法保護的作品?;诖耍褂蒙墒饺斯ぶ悄苌蓛?nèi)容的行為可能涉及對他人作品的非法復制、改編或傳播。生成式人工智能在自然語言處理、圖像生成等領域的突破性進展,正重塑著內(nèi)容生產(chǎn)模式,這或?qū)⒁l(fā)著作權犯罪風險樣態(tài)的變化與歸責范式的轉(zhuǎn)型調(diào)整。
生成式人工智能本身不能作為刑事責任主體
如果按照技術邏輯去確定生成式人工智能產(chǎn)品的責任主體,那么生成式人工智能本身應作為履行義務和承擔責任的主體。當然,這一邏輯是以生成式人工智能適格法律主體為前提,但此類構想無疑是對現(xiàn)有法理及法律體系的顛覆,短期內(nèi)恐怕難以變?yōu)楝F(xiàn)實。盡管有研究表明,大語言模型具備行為自我意識,能夠自發(fā)識別并描述自身行為,但這與適格刑事責任主體所要求的獨立意志驅(qū)動的辨認控制能力尚有不小距離。從社會風險分配的角度,服務提供者作為技術受益者,更有能力通過技術改進分散侵權風險,而要求人工智能本身擔責既不現(xiàn)實也無助于問題解決。當前,算法主體責任機制奠定了我國算法問責制度的運行基點,以算法主體問責算法服務提供者的前提是預設算法的工具屬性,并在此基礎上要求算法服務提供者主動履行積極作為和不作為的義務。
生成式人工智能涉著作權犯罪的刑事法律風險可劃分為數(shù)據(jù)訓練階段與內(nèi)容生成階段兩大維度
大模型的訓練依賴于海量數(shù)據(jù)(包括受版權保護的文本、圖像等),生成內(nèi)容可能實質(zhì)性地復制或改編原始數(shù)據(jù)。因此,在數(shù)據(jù)訓練階段非法爬取受著作權保護的作品,可能觸發(fā)刑法第217條規(guī)定的侵犯著作權罪,而開發(fā)者通過參數(shù)調(diào)整引導模型生成與訓練數(shù)據(jù)高度相似的作品,可能構成對“改編權”的侵犯。
在內(nèi)容生成階段,服務提供者既可能構成侵犯著作權罪的正犯,也可能構成該罪的幫助犯。一方面,當生成內(nèi)容與訓練數(shù)據(jù)存在“實質(zhì)性相似”時,服務提供者的行為可能構成刑法第217條第(一)項“未經(jīng)許可復制發(fā)行他人作品”。生成內(nèi)容雖未完全復制原始作品,但服務提供者通過算法提取核心表達元素進行重組,則該行為可能構成對改編權的侵犯;另一方面,服務提供者的行為明知模型存在侵權傾向仍提供技術服務,可能構成相關犯罪的幫助犯。參照相關案件裁判要旨,技術中立抗辯需以主動構建侵權預警機制為前提;服務提供者收到侵權通知后未及時采取刪除、屏蔽等措施,可能承擔刑事責任。司法實踐中,超期未處理或被推定存在間接故意。如,某互聯(lián)網(wǎng)法院審結的一起涉生成式人工智能服務案件,被告人工智能運營公司的行為被認定為幫助侵權行為。雖然該運營公司主張其并未在算法中設置誘導性字段,也未在人工智能模型的訓練階段提供相似的侵權素材,但是依據(jù)“避風港原則”,當原告向其通知可能的侵權行為時,被告方應當及時予以審查,若核實確存在侵權行為,應當直接刪除侵權作品。此案中,被告方并未充分履行該項義務,導致被判定承擔相應的幫助侵權責任。
刑事歸責的思路轉(zhuǎn)型
生成式人工智能引發(fā)的刑事法律適用爭議,本質(zhì)上是傳統(tǒng)刑法理論遭遇技術革命的結構性沖突。這些爭議集中體現(xiàn)在主觀要件認定與客觀行為判定兩個維度。
主觀要件的認定思路。一是故意的認定。在侵犯著作權罪的構成中,“以營利為目的”是認定主觀故意的必備要件。但行為主體的技術行為具有多層間接性,涉及訓練數(shù)據(jù)獲取、模型構建、內(nèi)容生成、用戶傳播,這使得主觀故意的證明面臨斷裂。例如,技術黑箱導致的認知隔閡。服務提供者常主張無法預見用戶利用人工智能所具體生成的內(nèi)容,此時或根據(jù)預見可能性,通過訓練數(shù)據(jù)構成分析推定開發(fā)者的主觀認知。若算法的訓練集中包含超過特定閾值比重的特定作者作品,即可認定提供者對侵權結果具有概括故意。
二是明確技術中立原則的抗辯邊界。若服務提供者主張技術中立原則進行抗辯,或可參照美國《數(shù)字千年版權法》第512條“安全港規(guī)則”,提供者需證明已采取“合理過濾措施”。我國可構建“技術注意義務清單”。如是否建立版權作品特征數(shù)據(jù)庫、是否部署生成內(nèi)容相似度檢測模塊、是否實施用戶提示詞過濾機制等,未盡到上述義務者,不得主張技術中立抗辯。
三是探索過失入罪的認定標準。傳統(tǒng)著作權犯罪采故意責任原則,但生成式人工智能的技術特性要求對過失入罪的可能性予以重新審視。這里主要涉及三個問題:其一是重大過失的認定。當提供者未采取行業(yè)通行的版權保護措施,如未履行數(shù)據(jù)清洗義務、算法審計義務、風險告知義務等,導致侵權內(nèi)容大規(guī)模生成時,可根據(jù)其未履行技術安全保障義務而追究其過失責任。其二是監(jiān)督過失的認定。對開源模型社區(qū)的監(jiān)管責任,可借鑒產(chǎn)品責任法中的認定思路,即模型發(fā)布者若未設置基礎過濾機制,應對下游行為主體改造產(chǎn)生的侵權后果承擔過失責任。若模型發(fā)布者已然盡到其注意義務,且通過開源模型社區(qū)的審核,則不應再對下游行為主體蓄意制造漏洞并據(jù)此產(chǎn)生的不法行為承擔責任。其三是過失競合的認定。在“提供者過失+使用者故意”的混合場景中,可運用“風險升高理論”認定因果關系。
客觀行為的判定思路。一是傳播行為的解釋擴張。模型參數(shù)存儲宜被視為“潛在復制行為”,因其包含作品表達的數(shù)學映射??煽紤]在立法中將具備以下特征的參數(shù)納入刑法規(guī)制:其一是可還原性,通過逆向工程能提取訓練數(shù)據(jù)關鍵特征,進而驗證其與侵權作品的關聯(lián)性。其二是指向性,若參數(shù)集專門用于生成特定類型作品,可構成傳播行為。但“生成即傳播”的特殊認定需設置一些前提條件,如生成內(nèi)容是否會自動上傳至公共數(shù)據(jù)庫,以及是否內(nèi)置社交傳播功能等。當人工智能系統(tǒng)具備以上技術特征時,可突破傳統(tǒng)“復制—傳播”的二分法。其三是商業(yè)性,即參數(shù)是否被用于付費API服務或模型交易。
二是服務提供的幫助行為的認定。參考既有司法實踐,違反前置法所設定的技術過濾義務、突破“技術工具”屬性的實質(zhì)性誘導行為都被視為幫助侵權。據(jù)此,提供原始模型接口的行為可構成技術幫助;預設侵權導向的提示詞模板的行為可構成教唆幫助。
(作者單位:上海政法學院、華東政法大學。本文系上海市哲學社會科學規(guī)劃“研究闡釋黨的二十屆三中全會精神”專項課題“完善生成式人工智能治理的規(guī)制路徑研究”的階段性成果)
