當(dāng)前,隨著人工智能技術(shù)的迅猛發(fā)展,AI生成內(nèi)容已滲透到傳播、文學(xué)、藝術(shù)等多個領(lǐng)域,在為創(chuàng)作帶來革命性變革的同時,也引發(fā)了一系列關(guān)于版權(quán)及法律保障等問題的討論。在近日舉辦的“人工智能版權(quán)前沿問題”研討會上,來自法學(xué)、經(jīng)濟(jì)學(xué)、公共政策等領(lǐng)域的專家學(xué)者齊聚一堂,共同探討AI生成內(nèi)容的版權(quán)問題、數(shù)據(jù)訓(xùn)練的隱私保護(hù)、AI產(chǎn)品未來發(fā)展等話題,試圖為這一新興領(lǐng)域的版權(quán)困境尋找解決方案。
提示或提問是否受版權(quán)保護(hù)?
研討會上,圍繞AI生成內(nèi)容的相關(guān)版權(quán)問題成為熱議焦點。
從用戶輸入角度來看,中國政法大學(xué)比較法學(xué)研究院教授劉文杰認(rèn)為,用戶的提問或提示相對短小,沒有排篇布局的安排,可能不太容易受到版權(quán)保護(hù)。但如果輸入比較復(fù)雜的文本,是用戶自己構(gòu)思出來的,能滿足作品要件,是有可能受到版權(quán)保護(hù)的。當(dāng)用戶無法預(yù)知AI會輸出什么內(nèi)容時,用戶以提示詞觸發(fā)模型運行,最終表達(dá)由模型輸出,此時用戶貢獻(xiàn)更接近于操作工具者或“制作者”,而非“創(chuàng)作者”。
中國政法大學(xué)民商經(jīng)濟(jì)法學(xué)院知識產(chǎn)權(quán)法研究所講師郝明英補(bǔ)充表示,使用者或者用戶在生成的內(nèi)容基礎(chǔ)之上又進(jìn)行了修改,其直接作用于最終的成果,是有獨創(chuàng)性的選擇和安排的,可以受到版權(quán)保護(hù)。
國研新經(jīng)濟(jì)研究院創(chuàng)始院長朱克力從經(jīng)濟(jì)學(xué)強(qiáng)調(diào)的“成本—收益”邏輯作出分析。他表示,工業(yè)時代,創(chuàng)作者投入大量時間、智力等成本,所以其著作權(quán)受法律保護(hù)以便獲得收益;但在人工智能時代,用戶進(jìn)行文字、圖片等產(chǎn)出的投入成本明顯降低。當(dāng)輸入幾個詞就能獲得成果時,投入成本與工業(yè)時代相比微不足道。
針對AI生成內(nèi)容的版權(quán)歸屬問題,郝明英認(rèn)為,無約定時應(yīng)歸屬于人工智能的使用者,并強(qiáng)調(diào)權(quán)利義務(wù)和責(zé)任“應(yīng)當(dāng)相適應(yīng)”。即人工智能生成內(nèi)容如若構(gòu)成作品,且權(quán)利歸屬于用戶,發(fā)生侵權(quán)時,平臺是否需要承擔(dān)責(zé)任,需主要考慮其注意義務(wù)的邊界。劉文杰也認(rèn)為,如果人工智能生成內(nèi)容受著作權(quán)法保護(hù),就存在責(zé)任區(qū)分問題。只有承認(rèn)生成內(nèi)容相當(dāng)程度上來自平臺運營的人工智能模型,才能要求平臺承擔(dān)責(zé)任。
輸入信息能否用于模型訓(xùn)練?
針對當(dāng)前用戶與AI軟件間的交互,與會專家學(xué)者均強(qiáng)調(diào)了保護(hù)用戶個人隱私的重要性,同時也指出高質(zhì)量數(shù)據(jù)對模型訓(xùn)練的巨大價值。
劉文杰表示,用戶為讓AI更好地回答問題,相關(guān)提示詞可能涉及個人信息。根據(jù)個人信息保護(hù)法,這些信息輸入后,如果服務(wù)商想要儲存、再加工,需要明示用戶并征求其同意。關(guān)于敏感個人信息,我國法律還有“一事一議”的特殊規(guī)定,即處理敏感個人信息不能采用概括同意或推定同意的授權(quán)模式,而必須獲得個人明確的、單獨的同意。
“現(xiàn)在的技術(shù)加持情況下,用戶根本就不了解我點的這個‘同意’意味著什么。”中國人民大學(xué)法學(xué)院副教授姚歡慶提出,由于個人用戶對數(shù)據(jù)價值的認(rèn)知和技術(shù)公司的利用能力往往不對等,當(dāng)前“用戶同意”機(jī)制仍有待完善,涉及個人隱私的“知情同意”應(yīng)做到明白、清楚、仔細(xì)。
他還特別提到,近期受到關(guān)注的“開盒”行為,就是通過不同數(shù)據(jù)庫匯集和碰撞,利用看似不重要的信息反向拼圖推導(dǎo)出個人信息。相關(guān)操作明顯違法,應(yīng)從整體社會規(guī)范角度進(jìn)行處罰和管理。
北京理工大學(xué)智能科技法律研究中心研究員王磊認(rèn)為,大型平臺企業(yè)的數(shù)據(jù)利用大多合法合規(guī),但黑灰產(chǎn)對大數(shù)據(jù)的非法運用十分猖獗,須通過政府監(jiān)管、技術(shù)平臺和社會多方形成合力打擊。
他還提到了產(chǎn)業(yè)實踐中的一個困境——高質(zhì)量數(shù)據(jù)的匱乏。“輸入端有很多被污染的數(shù)據(jù),相當(dāng)于在投喂過程中的語料質(zhì)量不高,導(dǎo)致輸出端必然會產(chǎn)生奇奇怪怪的結(jié)果,嚴(yán)重一點可能會產(chǎn)生截然相反的‘幻覺’。”他舉例說,在醫(yī)療、金融等專業(yè)領(lǐng)域,數(shù)據(jù)持有者普遍采取“留一手”策略,導(dǎo)致訓(xùn)練語料質(zhì)量參差不齊。
法律保障如何助力產(chǎn)業(yè)發(fā)展?
今年以來,中國AI產(chǎn)業(yè)應(yīng)用正加速前進(jìn),為經(jīng)濟(jì)社會發(fā)展帶來了新的增長動能。與會專家共同表達(dá)了法律應(yīng)以探索包容和鼓勵發(fā)展為主基調(diào)的呼吁,以支持人工智能行業(yè)發(fā)展。
“人工智能技術(shù)發(fā)展不斷突破,對應(yīng)用場景、人類生活和國際競爭的影響尚難預(yù)測,因此不宜急于立法。”劉文杰稱,當(dāng)前,我國行政主管部門通過規(guī)章、規(guī)范性文件等多種方式對人工智能產(chǎn)業(yè)進(jìn)行監(jiān)管,更具有靈活性。人工智能產(chǎn)業(yè)本身還在自我革命之中,可根據(jù)實際情況及時調(diào)整監(jiān)管力度,這樣更有利于產(chǎn)業(yè)發(fā)展。
王磊提出對更適合現(xiàn)階段AI監(jiān)管政策的觀察——“小步快跑”——就個人信息保護(hù)、生成式人工智能、深度合成偽造等具體問題,相關(guān)主管部門以敏捷治理方式給出監(jiān)管要求,如十條到二十條左右的規(guī)定,具有很強(qiáng)針對性和靈活性。
針對AI在內(nèi)容生成,尤其文藝創(chuàng)作等領(lǐng)域帶來的巨大變革,姚歡慶呼吁建立“人機(jī)創(chuàng)作雙軌制”,以維護(hù)人類創(chuàng)作的主體性,避免人類在智能時代淪為技術(shù)附庸。他類比攝影技術(shù)對繪畫藝術(shù)的沖擊,指出當(dāng)AI能高效生成內(nèi)容時,人類需要尋找主體意義的創(chuàng)作動力。他主張對AI生成內(nèi)容進(jìn)行明確標(biāo)注,并通過市場機(jī)制賦予人類作品溢價,以保護(hù)人類的創(chuàng)作積極性。
朱克力表示,基于國際博弈的背景,法律應(yīng)該試圖與國家發(fā)展進(jìn)行共振、聯(lián)動,成為推動國家發(fā)展的重要力量。具體而言,通過合理的制度設(shè)計和法律規(guī)制,為科技創(chuàng)新和產(chǎn)業(yè)發(fā)展提供有力的法治保障。在人工智能領(lǐng)域,包括但不限于知識產(chǎn)權(quán)保護(hù)的法律,應(yīng)關(guān)注技術(shù)的快速發(fā)展對社會經(jīng)濟(jì)的影響,及時調(diào)整和完善相關(guān)法律制度。
