隨著DeepSeek的橫空出世,生成式人工智能尤其是大語(yǔ)言模型逐漸被大家所熟悉并得到了廣泛的運(yùn)用。所謂生成式人工智能,“是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)”(國(guó)家互聯(lián)網(wǎng)信息辦公室、中華人民共和國(guó)國(guó)家發(fā)展和改革委員會(huì)、中華人民共和國(guó)教育部、中華人民共和國(guó)科學(xué)技術(shù)部、中華人民共和國(guó)工業(yè)和信息化部、中華人民共和國(guó)公安部、國(guó)家廣播電視總局《生成式人工智能服務(wù)管理暫行辦法》第二十二條),其可以通過(guò)學(xué)習(xí)大規(guī)模數(shù)據(jù)集中的模式和特征,生成新的、具有相似特性的內(nèi)容,其目標(biāo)是“創(chuàng)造”,而非簡(jiǎn)單決策。而人工智能生成合成內(nèi)容,則“是指利用人工智能技術(shù)生成、合成的文本、圖片、音頻、視頻、虛擬場(chǎng)景等信息”(國(guó)家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國(guó)家廣播電視總局《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》第三條),英文為Artificial Intelligence Generated Content,因此被簡(jiǎn)稱(chēng)為AIGC。以大規(guī)模文本數(shù)據(jù)為基礎(chǔ),訓(xùn)練而來(lái)的生成式人工智能模型被稱(chēng)作大語(yǔ)言模型,大語(yǔ)言模型中的“大”是形容其巨大的參數(shù)量,例如,我國(guó)DeepSeek的參數(shù)量為6710億個(gè),GPT-4(OpenAI)據(jù)推測(cè)有超過(guò)5000億個(gè)參數(shù)。
一、問(wèn)題的提出
筆者在參加某次出版專(zhuān)業(yè)技術(shù)人員繼續(xù)教育時(shí),授課老師就編輯對(duì)作者使用生成式人工智能輔助寫(xiě)作的態(tài)度進(jìn)行了一次現(xiàn)場(chǎng)調(diào)查,結(jié)果是現(xiàn)場(chǎng)200余名編輯中的絕大多數(shù)人都對(duì)作者使用生成式人工智能應(yīng)用輔助寫(xiě)作持不歡迎的態(tài)度。在生成式人工智能特別是大語(yǔ)言模型迅速發(fā)展且被廣泛運(yùn)用的當(dāng)下,從上述調(diào)查中可以看出,編輯群體對(duì)作者使用生成式人工智能輔助寫(xiě)作充滿(mǎn)擔(dān)憂(yōu),這表明生成式人工智能的運(yùn)用對(duì)出版工作者的心理或出版工作產(chǎn)生了一定的沖擊,由此產(chǎn)生以下問(wèn)題:是否所有作者運(yùn)用生成式人工智能輔助寫(xiě)作的方式都不可被接受?如何有效規(guī)避作者不當(dāng)利用生成式人工智能寫(xiě)作的風(fēng)險(xiǎn)?
二、對(duì)生成式人工智能輔助寫(xiě)作的擔(dān)憂(yōu)
總結(jié)反對(duì)作者使用生成式人工智能輔助寫(xiě)作的理由,可大致將其歸納為如下三類(lèi):第一類(lèi)是對(duì)質(zhì)量的擔(dān)憂(yōu)。例如,認(rèn)為生成式人工智能、大語(yǔ)言模型存在“黑箱”“不可解釋”的問(wèn)題,甚至?xí)槐菊?jīng)地胡說(shuō)八道,編造不存在的內(nèi)容(出現(xiàn)“幻覺(jué)”),人工智能生成合成內(nèi)容的質(zhì)量得不到保障,這種擔(dān)憂(yōu)部分是因?yàn)椴涣私馍墒饺斯ぶ悄芩?。第二?lèi)是對(duì)獨(dú)創(chuàng)性和著作權(quán)的擔(dān)憂(yōu)。在著作權(quán)法中,對(duì)作品的要求是應(yīng)當(dāng)具備獨(dú)創(chuàng)性,所謂的獨(dú)創(chuàng)性大體上是指作品由作者獨(dú)立完成并能體現(xiàn)出作者獨(dú)特的智力判斷和選擇。人工智能生成合成作品是否具備獨(dú)創(chuàng)性,以及體現(xiàn)的是哪個(gè)主體的獨(dú)創(chuàng)性,都存在爭(zhēng)議。因此,作者使用人工智能生成合成內(nèi)容可能導(dǎo)致著作權(quán)爭(zhēng)議。第三類(lèi)是對(duì)創(chuàng)作倫理的擔(dān)憂(yōu)。例如,認(rèn)為作者提交完全由人工智能生成合成的內(nèi)容而不聲明,屬于不誠(chéng)信行為,在學(xué)術(shù)領(lǐng)域甚至?xí)欢x為學(xué)術(shù)不端。一種更深刻的擔(dān)憂(yōu)是,生成式人工智能將會(huì)使人類(lèi)失去創(chuàng)作的積極性,甚至喪失寫(xiě)作能力,例如一些本應(yīng)該具備寫(xiě)作能力的群體,如高等院校的研究生,將因?yàn)橛薪輳娇勺叨狈?xiě)作訓(xùn)練。
對(duì)生成式人工智能的擔(dān)憂(yōu)并不罕見(jiàn),例如國(guó)家對(duì)生成式人工智能的態(tài)度是“堅(jiān)持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵(lì)生成式人工智能創(chuàng)新發(fā)展,對(duì)生成式人工智能服務(wù)實(shí)行包容審慎和分類(lèi)分級(jí)監(jiān)管”(《生成式人工智能服務(wù)管理暫行辦法》第三條),言下之意,既充分認(rèn)識(shí)到潛在的風(fēng)險(xiǎn),也肯定其積極意義,所以有“安全”“治理”“審慎”“監(jiān)管”的表述,但也強(qiáng)調(diào)“發(fā)展”“促進(jìn)創(chuàng)新”“鼓勵(lì)”“包容”。
國(guó)家的態(tài)度表明,生成式人工智能本身是具有積極意義的技術(shù)手段,其最終是發(fā)揮積極作用還是產(chǎn)生消極影響,關(guān)鍵在于使用者的利用方式。所以,應(yīng)當(dāng)引導(dǎo)使用者合理利用生成式人工智能,而非不問(wèn)緣由不分青紅皂白地一律禁止使用。
三、可以被允許的運(yùn)用方式
從規(guī)范運(yùn)用的立場(chǎng)出發(fā),我們審視上述對(duì)生成式人工智能輔助寫(xiě)作的擔(dān)憂(yōu),就可以發(fā)現(xiàn)許多擔(dān)憂(yōu)可能被過(guò)分放大了,以下詳述。
?。ㄒ唬┵|(zhì)量問(wèn)題
生成式人工智能、大語(yǔ)言模型確實(shí)存在“黑箱”“不可解釋”的問(wèn)題,以及存在會(huì)產(chǎn)生“幻覺(jué)”的問(wèn)題——生成看似合理但實(shí)際錯(cuò)誤的內(nèi)容。但“黑箱”“不可解釋”并不會(huì)導(dǎo)致人工智能生成合成內(nèi)容質(zhì)量的降低,相反“黑箱”“不可解釋”恰恰是生成式人工智能、大語(yǔ)言模型能力強(qiáng)大的原因。生成式人工智能的本質(zhì)是一個(gè)函數(shù)(模型),但這個(gè)函數(shù)如大語(yǔ)言模型可能存在上億個(gè)參數(shù),如上文提及的,我國(guó)DeepSeek的參數(shù)量為6710億個(gè),如此巨大的參數(shù)量,使得模型的內(nèi)部狀態(tài)和決策過(guò)程極為復(fù)雜,想要逐一分析每個(gè)參數(shù)對(duì)輸出結(jié)果的影響幾乎是不可能的,這使得模型的決策過(guò)程很難被解釋。而且,大語(yǔ)言模型通常采用深度神經(jīng)網(wǎng)絡(luò)架構(gòu),包含眾多層次,如Transformer架構(gòu)的模型有數(shù)十至數(shù)百個(gè)解碼器層,每一層都對(duì)輸入信息進(jìn)行復(fù)雜的變換和提取,這些變換通過(guò)大量的矩陣運(yùn)算和非線(xiàn)性激活函數(shù)實(shí)現(xiàn),這使得各個(gè)神經(jīng)元(簡(jiǎn)單函數(shù))之間的相互作用錯(cuò)綜復(fù)雜,難以直接追蹤和理解信息是如何在不同層次之間傳遞和處理的。輸出依賴(lài)于輸入的上下文和模型內(nèi)部的動(dòng)態(tài)計(jì)算路徑,相同的輸入在不同情境下可能激活不同的參數(shù)組合,即模型的輸出通常是基于概率分布的,具有一定的不確定性,導(dǎo)致結(jié)果難以穩(wěn)定復(fù)現(xiàn)。這種決策過(guò)程難以被人類(lèi)直觀理解的情況,被稱(chēng)為算法的“黑箱”或“不可解釋性”。本質(zhì)上,“黑箱”或“不可解釋性”恰恰是大語(yǔ)言模型強(qiáng)大能力的代價(jià)。某種原理難以被人類(lèi)直觀理解,并不影響人類(lèi)對(duì)相應(yīng)原理下產(chǎn)出結(jié)果的運(yùn)用,例如大部分人并不理解無(wú)線(xiàn)網(wǎng)絡(luò)通信技術(shù)(Wi-Fi)的原理,但這絲毫不影響人們利用該技術(shù)接入無(wú)線(xiàn)網(wǎng)絡(luò)。
當(dāng)模型遇到超出訓(xùn)練數(shù)據(jù)范圍的輸入時(shí),由于缺乏足夠的相關(guān)數(shù)據(jù)來(lái)準(zhǔn)確生成合理的輸出,就會(huì)基于已有的不完整模式進(jìn)行推測(cè),從而產(chǎn)生“幻覺(jué)”。所以,“黑箱”或“不可解釋性”與文本質(zhì)量并不直接關(guān)聯(lián)。人類(lèi)作者也會(huì)編造不真實(shí)的內(nèi)容,但我們絕不可能因?yàn)椴糠秩舜嬖诰幵煨袨?,就概括性地排斥?xiě)作,我們反對(duì)的只可能是編造行為,同理,單純以“幻覺(jué)”為由反對(duì)作者使用生成式人工智能應(yīng)用輔助寫(xiě)作,反對(duì)理由成立的前提似乎只能是作者不加甄別地采納上述內(nèi)容,而不是使用生成式人工智能本身。
作者應(yīng)當(dāng)對(duì)自己作品的質(zhì)量負(fù)責(zé),編輯應(yīng)當(dāng)對(duì)作品的質(zhì)量進(jìn)行把關(guān),作品質(zhì)量不高的原因只能是作者不負(fù)責(zé)、編輯沒(méi)把好關(guān),而非使用了某種工具。因此,“黑箱”“不可解釋”“幻覺(jué)”問(wèn)題似乎都不足以成為斷然拒絕作者使用生成式人工智能輔助寫(xiě)作的理由。
?。ǘ┆?dú)創(chuàng)性和著作權(quán)問(wèn)題
人工智能生成合成內(nèi)容是否可以被授予著作權(quán),是存在爭(zhēng)議的問(wèn)題。目前比較主流的觀點(diǎn)是,作品的作者必須是人類(lèi),只有人類(lèi)創(chuàng)作者的貢獻(xiàn)才能獲得著作權(quán),人工智能生成合成內(nèi)容不能單獨(dú)獲得著作權(quán)保護(hù)。若某人使用人工智能輔助創(chuàng)作或作品中包含人工智能生成的內(nèi)容,并不影響著作權(quán)保護(hù)資格,但申請(qǐng)人在申請(qǐng)著作權(quán)時(shí)須注明哪些部分由人工智能生成,并承認(rèn)這些部分不受著作權(quán)保護(hù)。在大多數(shù)國(guó)家和地區(qū),人工智能生成合成內(nèi)容能否獲得著作權(quán)保護(hù),關(guān)鍵在于其是否含有自然人創(chuàng)作者的獨(dú)創(chuàng)性智力投入,如果人工智能只是作為創(chuàng)作工具幫助創(chuàng)作者完成作品,且作品能夠體現(xiàn)創(chuàng)作者的個(gè)性和審美選擇,那么該作品具有獲得著作權(quán)的資格,著作權(quán)歸屬于創(chuàng)作者。當(dāng)然,不同國(guó)家甚至同一國(guó)家的不同機(jī)構(gòu)對(duì)何謂“作者的獨(dú)創(chuàng)性智力投入”會(huì)有不同理解,例如,美國(guó)版權(quán)局發(fā)布的《版權(quán)與人工智能報(bào)告》(Copyright and Artificial Intelli-gence,以下簡(jiǎn)稱(chēng)《報(bào)告》)在可版權(quán)性這一部分(Part 2:Copyrightability)同樣認(rèn)為,完全由人工智能生成的內(nèi)容因缺乏足夠的人類(lèi)控制(sufficient human control)不受版權(quán)(英美法系國(guó)家將著作權(quán)稱(chēng)為版權(quán))保護(hù),但利用人工智能輔助創(chuàng)作可獲得版權(quán),比如,人類(lèi)通過(guò)修改、編排或輸入原創(chuàng)性表達(dá)(如上傳手繪草圖并指示AI修改)主導(dǎo)創(chuàng)作過(guò)程,則人類(lèi)貢獻(xiàn)部分可享有版權(quán)。《報(bào)告》列舉了3種典型的運(yùn)用人工智能進(jìn)行創(chuàng)作的場(chǎng)景,即僅輸入提示詞、輸入原創(chuàng)性表達(dá)、對(duì)人工智能生成的內(nèi)容進(jìn)行二次創(chuàng)作(如編排、修改),如上所述,對(duì)于后兩者《報(bào)告》都認(rèn)為可以獲得版權(quán)的保護(hù)——在輸入原創(chuàng)性表達(dá)這一場(chǎng)景下,輸出內(nèi)容中可感知的人類(lèi)表達(dá)部分受保護(hù);在對(duì)人工智能生成的內(nèi)容進(jìn)行二次創(chuàng)作這一場(chǎng)景下,衍生作品的人類(lèi)貢獻(xiàn)部分可受保護(hù),但保護(hù)范圍不延伸至AI生成的原始內(nèi)容。但對(duì)于僅輸入提示詞,《報(bào)告》則認(rèn)為人類(lèi)對(duì)創(chuàng)作過(guò)程的控制程度不足,向生成式人工智能提供提示詞等同于提供“創(chuàng)意”,“創(chuàng)意”本身是不受保護(hù)的(unprotectable idea),然而,對(duì)于這一點(diǎn),不同的法院存在不同的法律見(jiàn)解。
綜上,關(guān)于獨(dú)創(chuàng)性和著作權(quán)問(wèn)題,我們可以歸納出最大公約數(shù),即利用人工智能輔助寫(xiě)作,并非絕對(duì)不受著作權(quán)的保護(hù),也就是說(shuō)某些利用人工智能輔助寫(xiě)作的方式,是能夠體現(xiàn)出作者的獨(dú)創(chuàng)性的。盡管對(duì)于何謂“作者的獨(dú)創(chuàng)性智力投入”有不同理解,但我們可以發(fā)現(xiàn)最沒(méi)有爭(zhēng)議的部分——對(duì)人工智能生成合成的內(nèi)容進(jìn)行編排、修改,輸入原創(chuàng)性表達(dá)的部分具有獨(dú)創(chuàng)性。所以,從獨(dú)創(chuàng)性和著作權(quán)的角度審視,我們反對(duì)的應(yīng)該只是完全由人工智能生成合成的內(nèi)容以及獨(dú)創(chuàng)性不足的內(nèi)容。(如僅修改個(gè)別標(biāo)點(diǎn)符號(hào))
(三)創(chuàng)作倫理問(wèn)題
在創(chuàng)作倫理方面,對(duì)生成式人工智能運(yùn)用的擔(dān)憂(yōu),首先集中在誠(chéng)信方面,如前所述,如果作者運(yùn)用生成式人工智能的方式對(duì)創(chuàng)作過(guò)程的控制程度不足,那么會(huì)被認(rèn)為對(duì)內(nèi)容的獨(dú)創(chuàng)性智力投入不夠,無(wú)法獲得版權(quán),此時(shí)如果作者將這樣的內(nèi)容以自己為作者提交發(fā)表,在生成式人工智能所有方未明確將產(chǎn)出內(nèi)容的著作權(quán)授予使用者的情況下,作者和出版機(jī)構(gòu)都面臨著作權(quán)爭(zhēng)議的風(fēng)險(xiǎn),即便生成式人工智能所有方明確將著作權(quán)授予使用者(如ChatGPT),作者的行為仍存在抄襲與剽竊、未尊重他人勞動(dòng)成果(未清晰界定貢獻(xiàn))的倫理問(wèn)題,如果這種情況發(fā)生在學(xué)術(shù)出版的語(yǔ)境下,則涉嫌學(xué)術(shù)不端。因此,為避免誠(chéng)信問(wèn)題,作者應(yīng)當(dāng)注明哪些部分由人工智能生成,自己在創(chuàng)作過(guò)程中扮演了什么角色。
一種觀點(diǎn)是生成式人工智能將會(huì)使人類(lèi)失去創(chuàng)作的積極性,甚至喪失寫(xiě)作能力。如果人們過(guò)度依賴(lài)生成式人工智能,可以預(yù)見(jiàn),部分人掌握語(yǔ)法、組織結(jié)構(gòu)、整合信息的能力都可能被削弱,這就如同計(jì)算機(jī)削弱了人類(lèi)的書(shū)寫(xiě)能力。但從歷史上看,技術(shù)的進(jìn)步未曾成為過(guò)人類(lèi)創(chuàng)造力的桎梏,以人文社科領(lǐng)域?yàn)槔祟?lèi)的創(chuàng)造力突出地表現(xiàn)為理解與同情,這恰恰是人工智能所不擅長(zhǎng)的,因?yàn)槿斯ぶ悄苷莆盏氖俏谋疽?guī)律,而非真正理解文本后的意涵,無(wú)理解自然不存在基于理解的同情。換言之,人工智能無(wú)法取代人類(lèi)核心的創(chuàng)造能力。如果人工智能的表達(dá)出現(xiàn)同質(zhì)化,有創(chuàng)造性的人自然將追求與眾不同的表達(dá);如果表達(dá)不再成為問(wèn)題,人們的思想或許更加深刻。
四、結(jié)論
制度倫理學(xué)上,好的制度讓人做道德上對(duì)的事情,同時(shí)也是對(duì)人有利的事情。如果禁止作者使用生成式人工智能輔助寫(xiě)作,無(wú)疑將使作者陷入悖論,即如果選擇對(duì)自己有利的事將被譴責(zé),一旦違反規(guī)范的成本低微,人們就容易越界。從規(guī)范有使用價(jià)值但存在一定風(fēng)險(xiǎn)物品(如酒)的實(shí)踐來(lái)看,最有效率的管理方式既不是完全放開(kāi),也不是絕對(duì)禁止,而是有條件地允許使用。借用王敏遠(yuǎn)教授的話(huà)說(shuō),試圖阻止現(xiàn)代科技在出版中的運(yùn)用是徒勞的;不規(guī)范現(xiàn)代科技在出版中的應(yīng)用是危險(xiǎn)的。所以,與其玩貓捉老鼠的游戲,不如規(guī)范作者的使用方式,即請(qǐng)作者標(biāo)注使用生成式人工智能的部分,并表明自己在其中扮演了何種角色,僅拒絕那些獨(dú)創(chuàng)性智力投入不足的使用方式,這也與現(xiàn)行的規(guī)范保持了一致。如此,編輯人員恰可以將自己有限的精力投入到作者聲明其具有原創(chuàng)性的部分。
