原標(biāo)題:在AIGC內(nèi)容生態(tài)與版權(quán)保護(hù)論壇上,專家認(rèn)為——誰(shuí)受益誰(shuí)擔(dān)責(zé)原則適用人工智能生成物

AIGC內(nèi)容生態(tài)與版權(quán)保護(hù)論壇現(xiàn)場(chǎng)
人工智能技術(shù)在不斷發(fā)展,人工智能生成物的版權(quán)問(wèn)題一直是版權(quán)界的熱門研究課題。近期,隨著AI繪畫、ChatGPT的出現(xiàn),相關(guān)版權(quán)問(wèn)題再次“破圈”,引發(fā)大眾關(guān)注。大眾關(guān)注的問(wèn)題包括:人工智能生成物到底有沒(méi)有版權(quán)?人工智能在收集數(shù)據(jù)的過(guò)程中有哪些侵權(quán)風(fēng)險(xiǎn)?如果侵權(quán)了,又該誰(shuí)來(lái)負(fù)責(zé)任?4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》公開(kāi)征求意見(jiàn),政府機(jī)關(guān)對(duì)于人工智能的監(jiān)管話題,同樣引發(fā)了關(guān)注和討論。
在中國(guó)人民大學(xué)高瓴人工智能學(xué)院與中國(guó)人民大學(xué)國(guó)家版權(quán)貿(mào)易基地主辦的AIGC內(nèi)容生態(tài)與版權(quán)保護(hù)論壇上,來(lái)自司法界、學(xué)界與實(shí)務(wù)界的嘉賓分享了各自的思考。
人工智能生成的作品是否有可版權(quán)性
人工智能生成圖片、演講稿等功能,已經(jīng)有不少人進(jìn)行了嘗試。浙江墾丁律師事務(wù)所主任張延來(lái)在演講中就舉例說(shuō),他想要找一張主題為人工智能對(duì)教育產(chǎn)生影響的配圖,就對(duì)人工智能作圖軟件提出了人工智能注視著寫作業(yè)的小朋友的作圖要求,然后軟件生成了很多圖,他挑出最滿意的一張使用。
張延來(lái)認(rèn)為,人工智能的應(yīng)用,把人要做的工作從“0到1”變成“N選1”或者“N改造為1”,這時(shí)候,《著作權(quán)法》是否要保護(hù)人的篩選和優(yōu)化能力呢?如果保護(hù),對(duì)于不同情況,保護(hù)的力度和方式又是否相同呢?人在人工智能作圖過(guò)程中的參與度是不同的,比如讓AI設(shè)計(jì)集成電路圖,工程師會(huì)在圖片產(chǎn)生的過(guò)程中不斷發(fā)指令進(jìn)行微調(diào),這個(gè)過(guò)程中就會(huì)加入工程師自己的經(jīng)驗(yàn)和智慧,對(duì)于這樣的復(fù)雜情況,法律該如何規(guī)定?這是《著作權(quán)法》面臨的巨大挑戰(zhàn)。
北京互聯(lián)網(wǎng)法院綜合審判一庭負(fù)責(zé)人張連勇介紹,目前法院比較統(tǒng)一的裁判觀點(diǎn)是,創(chuàng)作作品的主體一定是人類,不應(yīng)是機(jī)器或者軟件作為創(chuàng)作的主體。
世界知識(shí)產(chǎn)權(quán)組織在《經(jīng)修訂的關(guān)于知識(shí)產(chǎn)權(quán)政策和人工智能問(wèn)題的議題文件》中明確指出,“人工智能”是計(jì)算機(jī)科學(xué)中的一門學(xué)科,旨在開(kāi)發(fā)各種機(jī)器和系統(tǒng),這些機(jī)器和系統(tǒng)能夠在有限或完全沒(méi)有人類干預(yù)的情況下執(zhí)行被認(rèn)為需要人類智能完成的任務(wù)。“人工智能生成的”與“人工智能自主創(chuàng)造的”是可以互替使用的術(shù)語(yǔ),系指在沒(méi)有人類干預(yù)的情況下由人工智能生成產(chǎn)出。在這種情況下,人工智能可以在運(yùn)行期間改變其行為,以應(yīng)對(duì)意料之外的信息或事件。要與“人工智能輔助完成的”加以區(qū)分,后者需要大量人類干預(yù)、引導(dǎo)。
華東政法大學(xué)教授王遷則提到了上述文件對(duì)于人工智能的定義,并指出,現(xiàn)實(shí)情況是,現(xiàn)在的人工智能生成的內(nèi)容不可能由指揮他的人預(yù)見(jiàn)到,就算給人工智能發(fā)指令的人能夠指出大方向,但是構(gòu)成作品表達(dá)性要素的內(nèi)容都直接出自人工智能,而不是來(lái)自指令發(fā)出者,這個(gè)時(shí)候不能認(rèn)為人以人工智能為工具生成了內(nèi)容,頂多可以說(shuō)人對(duì)相關(guān)內(nèi)容生成是有間接影響的。

人工智能服務(wù)提供者擔(dān)責(zé)的邊界在哪里
王遷認(rèn)為,不管是自己用還是許可他人使用,人工智能服務(wù)都會(huì)產(chǎn)生巨大的利益,既然有利益,當(dāng)然要承擔(dān)相應(yīng)的責(zé)任,如果內(nèi)容侵權(quán),人工智能服務(wù)提供者則要承擔(dān)侵權(quán)責(zé)任。就像餐廳播放背景音樂(lè)需要經(jīng)過(guò)許可、支付使用費(fèi)一樣,餐廳播放背景音樂(lè)使得就餐環(huán)境變好,餐廳由此獲得了利益,就要承擔(dān)責(zé)任,這體現(xiàn)了權(quán)利和義務(wù)相一致的原則。
《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》中,多次提到了人工智能服務(wù)提供者不得侵害知識(shí)產(chǎn)權(quán)的責(zé)任,如第四條關(guān)于提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守的要求中提到“尊重知識(shí)產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺(tái)等優(yōu)勢(shì)實(shí)施不公平競(jìng)爭(zhēng)”。第七條中要求人工智能服務(wù)提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù)來(lái)源的合法性負(fù)責(zé),用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù)的要求中就包括“不含有侵犯知識(shí)產(chǎn)權(quán)的內(nèi)容”。
中國(guó)政法大學(xué)數(shù)據(jù)法治研究院教授張凌寒認(rèn)為,監(jiān)管者把治理的視角和觸角深入到訓(xùn)練數(shù)據(jù)的層面,就是希望通過(guò)提醒人工智能服務(wù)提供者注意訓(xùn)練數(shù)據(jù)合理義務(wù),達(dá)到內(nèi)容信息安全的效果。
中國(guó)人民大學(xué)未來(lái)法治研究院執(zhí)行院長(zhǎng)張吉豫強(qiáng)調(diào),如果對(duì)于所有利用生成式人工智能產(chǎn)品去提供相應(yīng)服務(wù)的組織、個(gè)人的所有內(nèi)容,不加區(qū)分地都認(rèn)定應(yīng)該承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,是不合理的,生成內(nèi)容生產(chǎn)者責(zé)任指代什么責(zé)任?是不是一種產(chǎn)品責(zé)任或者嚴(yán)格責(zé)任?這是未來(lái)需要解決的問(wèn)題。
抖音集團(tuán)法務(wù)部商業(yè)化法務(wù)總監(jiān)朱小荔介紹,在產(chǎn)業(yè)實(shí)踐中,模型的訓(xùn)練數(shù)據(jù)來(lái)源廣泛復(fù)雜,可能包含他人的作品內(nèi)容以及他人的公開(kāi)信息,如果使用公開(kāi)發(fā)表的作品數(shù)據(jù)均需獲取每個(gè)作者的授權(quán),使用他人的公開(kāi)信息也需征得每個(gè)個(gè)人的同意,將為模型研發(fā)者獲得合法的訓(xùn)練數(shù)據(jù)增加巨大的成本,需要配套建立高效的數(shù)據(jù)集許可使用制度,否則可能限制模型的快速開(kāi)發(fā)。
騰訊研究院秘書長(zhǎng)張欽坤則認(rèn)為,希望能配予人工智能大模型的應(yīng)用者合理的避風(fēng)港責(zé)任,使其承擔(dān)間接侵權(quán)責(zé)任,由最終用戶承擔(dān)直接侵權(quán)責(zé)任,否則,如果一開(kāi)始就要求大模型平臺(tái)承擔(dān)直接侵權(quán)責(zé)任的話,不符合現(xiàn)在技術(shù)發(fā)展的需要。
對(duì)訓(xùn)練數(shù)據(jù)來(lái)源合法性進(jìn)行監(jiān)管有必要性
政府層面的監(jiān)管應(yīng)如何做到合理監(jiān)管和促進(jìn)發(fā)展的平衡?對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院副教授張欣介紹,目前,生成式人工智能仍存在一些技術(shù)局限,比如數(shù)據(jù)質(zhì)量風(fēng)險(xiǎn),對(duì)數(shù)據(jù)進(jìn)行標(biāo)注時(shí),可能會(huì)有歧視和偏見(jiàn);再比如訓(xùn)練數(shù)據(jù)的模型中,英語(yǔ)數(shù)據(jù)占絕大多數(shù),所以訓(xùn)練語(yǔ)料庫(kù)的多樣性不足。對(duì)于個(gè)人或是機(jī)構(gòu)敏感關(guān)鍵數(shù)據(jù)的泄露,則已經(jīng)有不少實(shí)例。
張欣認(rèn)為,當(dāng)技術(shù)濫用可能導(dǎo)致不可逆的風(fēng)險(xiǎn)時(shí),對(duì)技術(shù)進(jìn)行監(jiān)管具有一定的必要性,不過(guò)要注意對(duì)監(jiān)管對(duì)象的判定這個(gè)問(wèn)題,需要關(guān)注技術(shù)和服務(wù)背后的法益和風(fēng)險(xiǎn)。此外,張欣認(rèn)為,要將事后追責(zé)與事前、事中監(jiān)管有效聯(lián)動(dòng),以治理思維引導(dǎo)企業(yè)在合規(guī)架構(gòu)和治理架構(gòu)層面作出有益改善,實(shí)現(xiàn)“治理型監(jiān)管”。
張吉豫引用中國(guó)人民大學(xué)教授劉春田的觀點(diǎn)提到,技術(shù)的本質(zhì)說(shuō)到底就是靠人的能力把自然界的物質(zhì)、能量、信息進(jìn)行重新配合和重新組合,構(gòu)建一個(gè)適合人類生活的世界。在技術(shù)發(fā)展過(guò)程中如何引導(dǎo)其真正建構(gòu)出適合我們生活的世界,讓其潛能發(fā)揮出來(lái),是未來(lái)應(yīng)該關(guān)注的話題。
