ChatGPT問世,隨之產(chǎn)生的一些新聞出版領(lǐng)域倫理問題也會更加突出,例如新聞的真實性、虛假新聞傳播風險、版權(quán)歸屬等。2月15日,在中國新聞出版?zhèn)髅郊瘓F主辦的《高低音會客廳》訪談節(jié)目中,天津大學新媒體與傳播學院院長陸小華、中國新聞出版研究院原副院長張立和中國科學院自動化研究所人工智能倫理與治理中心主任曾毅針對以ChatGPT為代表的人工智能生成內(nèi)容產(chǎn)生的新聞出版、版權(quán)、倫理等相關(guān)問題分享了自己的觀點和看法。
《中國新聞出版廣電報》:如何界定人工智能生成內(nèi)容的版權(quán)?
陸小華:人工智能生成的內(nèi)容有版權(quán)嗎?這是新聞出版從業(yè)者需要首先思考和回答的問題。
在新聞出版領(lǐng)域已經(jīng)面臨一個問題,就是寫稿機器人寫出來的稿件如果出現(xiàn)了問題,誰來負責?具體來說,目前寫稿機器人寫出來的東西最后是有人審核的,審核者應(yīng)當負相應(yīng)責任。寫稿機器人寫的稿件經(jīng)人工審核后播出或出版,那么這篇稿件的版權(quán)是屬于審核者的還是寫稿機器人的?目前此類問題人們還在探討。因此智能內(nèi)容生成產(chǎn)品所生成的畫面、文字等內(nèi)容,版權(quán)歸屬到底如何認知、如何確定仍是一個問題。隨著智能內(nèi)容生成技術(shù)不斷發(fā)展和廣泛使用,一定會促使人們深刻認識、確定相應(yīng)規(guī)則,這也是人類必須回答的一個問題。
當前,針對使用人工智能所生成內(nèi)容涉及的倫理問題,急需研究、制定相應(yīng)規(guī)則。使用智能內(nèi)容生成應(yīng)用生產(chǎn)出來的內(nèi)容能否直接用于新聞出版?能否見報?如果用于新聞出版,是否必須制定見報、出版之前有人審核、有人負責等相關(guān)的規(guī)則體系?一系列問題都值得關(guān)注和探討。尤其新聞出版行業(yè)能夠深刻影響社會,智能內(nèi)容生成產(chǎn)品所生成內(nèi)容的使用倫理和規(guī)則問題是非常重要的,而版權(quán)歸屬問題也必將提上日程。
張立:我們?nèi)祟愒趦?nèi)容生產(chǎn)和內(nèi)容創(chuàng)作上走過了幾個顯著的階段?;ヂ?lián)網(wǎng)和移動互聯(lián)網(wǎng)時代,是自媒體和用戶創(chuàng)作內(nèi)容的時代,這個時代的特點是“人人皆媒”。今天,隨著人工智能技術(shù)的進步,我們正迎來一個機器或AI參與生成內(nèi)容的時代。人工智能生成內(nèi)容,至少在現(xiàn)階段在形式上還是模仿人類。它很可能模仿得越來越像,足以亂真,甚至比有些真人還會表達。但這并不意味著它能完全替代人類對內(nèi)容的生產(chǎn)。
這是因為我們?nèi)祟愂窃?ldquo;創(chuàng)作”內(nèi)容,而非簡單地“產(chǎn)生”內(nèi)容。“創(chuàng)作”是人類特有的智慧,“創(chuàng)作”的本義是表達思想,抒發(fā)情感,對事物進行價值判斷,對社會現(xiàn)象或風氣給予道德訴求。迄今為止,我們?nèi)祟惿鐣x煌燦爛的文明都是靠我們的智慧“創(chuàng)造”“創(chuàng)作”和“創(chuàng)新”出來的。這正是目前的人工智能技術(shù)尚未達到的水平。因此,是“生產(chǎn)”還是“創(chuàng)作”,這才是界定人還是非人提供內(nèi)容的標準。但這里必須強調(diào)一點,千萬不要輕視人工智能技術(shù)進步的速度。特別是中國的科技工作者,與其證明人工智能技術(shù)目前有待提高,不如奮起超越。
關(guān)于版權(quán)需要說明的是:第一,版權(quán)是私權(quán),不能把它說成社會責任。第二,版權(quán)不是隨內(nèi)容創(chuàng)作的起源就自古有之,制度性的版權(quán)僅300多年的歷史,由于創(chuàng)作主體的日益復雜化,從我個人研究的結(jié)果看,未來版權(quán)的發(fā)展是一個多元化的趨勢。第三,版權(quán)分為財產(chǎn)權(quán)和人身權(quán),財產(chǎn)權(quán)意味著版權(quán)是與利益相關(guān)的,只有當人們希望從內(nèi)容創(chuàng)作直接獲利時,版權(quán)的財產(chǎn)權(quán)才變得重要。第四,隨著互聯(lián)網(wǎng)的發(fā)展,人類社會進入到了一個大傳播的時代,傳播帶來的商業(yè)利益巨大。它使人們有可能從內(nèi)容作品直接獲利,變成通過內(nèi)容作品快速而廣泛地傳播獲得商機。在這種情況下,有一部分人會認為商機比版權(quán)更重要,他們追求的是“羊毛出在豬身上”的機會。第五,未來版權(quán)的強保護主要體現(xiàn)在大IP上,開源、開放版權(quán)會與之并存。第六,人工智能生產(chǎn)的內(nèi)容是否屬于作品,如何對其確權(quán)是個新問題。
曾毅:人工智能生成的內(nèi)容是在人類生成的內(nèi)容基礎(chǔ)上進行模式和特征的學習,在此基礎(chǔ)上對模式、特征及內(nèi)容進行半自動化或者全自動的重新組織與加工,并生成的與原始人類生成的內(nèi)容具有可辨析乃至顯著差異的內(nèi)容。
權(quán)利和義務(wù)是相伴相生的,人們?nèi)绻o人工智能權(quán)利,那它就必須承擔義務(wù),但目前的人工智能無法做到負責任,那何來所謂的權(quán)利?所以從技術(shù)的角度來說,人工智能無法承擔責任,就無法成為作者,也談不上所謂的權(quán)利問題。目前人工智能是一個看似智能的信息處理工具,并不具備真正的理解能力,因此也無法為所產(chǎn)生的內(nèi)容負責任,所以責任還是在人類身上。
我們看到ChatGPT已經(jīng)用于生成虛假的新聞,甚至是對可能涉及違法犯罪的行為給出操作性的建議,對ChatGPT這樣的內(nèi)容自動生成人工智能的監(jiān)管已經(jīng)迫在眉睫,需要人類更嚴格的審視乃至審查。
《中國新聞出版廣電報》:您如何看待人工智能生成內(nèi)容所帶來的傳播風險?應(yīng)當怎樣避免?
陸小華:智能內(nèi)容科技所生成內(nèi)容對公眾信息獲取、認知形成和觀點表達會有深刻影響,這種影響目前還難以準確估量。這主要是因為:一是ChatGPT之類的智能內(nèi)容科技產(chǎn)品是對應(yīng)用戶所提問題生成內(nèi)容,且可以根據(jù)聊天上下文智能生成新內(nèi)容,其與用戶當時的需求的匹配度可能更高,甚至可能比現(xiàn)在互聯(lián)網(wǎng)平臺信息服務(wù)算法個性推送內(nèi)容更精準貼近人們的實時信息需求,與用戶需求的實時匹配度可能更高,從而影響更為深刻;二是ChatGPT之類智能內(nèi)容生成產(chǎn)品是針對用戶問題,根據(jù)人類已有知識和信息生成內(nèi)容,類似于根據(jù)互聯(lián)網(wǎng)上所能抓取到的現(xiàn)有知識和信息選取、提煉后生成內(nèi)容,知識性特征更明顯,且更有說服力。
從科學與真實等維度看,ChatGPT之類智能內(nèi)容生成應(yīng)用所生成內(nèi)容,目前和今后一段時間內(nèi)可能魚龍混雜,可能幫助或干擾公眾的信息獲取、認知形成和觀點表達。從政治高度看,也可能帶來意識形態(tài)安全風險。因此,重要的不僅是優(yōu)化算法、推進向可信人工智能發(fā)展,更應(yīng)未雨綢繆、“小雨綢繆”,現(xiàn)在就系統(tǒng)、全面、針對性地研究、制定相應(yīng)規(guī)則體系,以有效規(guī)制減少、防范智能內(nèi)容科技應(yīng)用可能帶來的負面影響。
張立:人工智能生成的內(nèi)容所帶來的傳播風險包括:內(nèi)容的真實性,內(nèi)容的立場、觀點甚至政治上的錯誤,如何區(qū)分和判斷人機寫作?AI生產(chǎn)的內(nèi)容還是作品嗎?如果不是,那它是什么?如果是,如何確權(quán)?當前,主流媒體普遍在朝智庫方向轉(zhuǎn)型。主流媒體對輿情和真相的理解是優(yōu)于人工智能的。以傳統(tǒng)紙媒為例,作為新聞紙,其優(yōu)勢欠佳,但作為政府主流媒體,其眼光、判斷、輿情分析能力和對第一現(xiàn)場的把握,都是今天的人工智能所不能達到的高度。
避免上述問題的出現(xiàn),首先要加強對人工智能生成內(nèi)容的監(jiān)管,這是很重要的手段。要研究技術(shù)審核和人工監(jiān)管的方式。畢竟AI生產(chǎn)內(nèi)容的能力太強,有效監(jiān)管并非易事。同時,要深入研究人工智能生成內(nèi)容的機制與特點,引導其為人類做有益的服務(wù)。這里需要說明的是,至少今天的生成內(nèi)容的能力,還是我們?nèi)祟愘x予的。由于現(xiàn)實中我們?nèi)祟愖约阂泊嬖谥f謊、侵權(quán)盜版的情況,所以我認為對人的關(guān)心和教育非常重要。
曾毅:人工智能生成的內(nèi)容對社會不同年齡、不同類型的用戶和公眾產(chǎn)生的潛在影響難以估量。即使在使用人工智能生成內(nèi)容的服務(wù)中進行了顯著標識,但是在傳播過程中這種標識也很難確保被保留,這就不僅對內(nèi)容版權(quán)可能造成實際侵害,內(nèi)容的真實性也需要投入大量人力物力進行核查和辨別。人工智能生成內(nèi)容服務(wù)的提供商在發(fā)展內(nèi)容自動生成服務(wù)的同時,也應(yīng)提升自律自治能力,有義務(wù)提供自動生成信息鑒別和信息鑒偽的服務(wù)以減少潛在風險。社會各級監(jiān)管部門應(yīng)當構(gòu)建更完善的人工智能治理體系,推進相關(guān)政策、標準、法規(guī)的制定和落實,在管理、設(shè)計、研發(fā)、部署、使用等人工智能全生命周期的各個環(huán)節(jié)都應(yīng)當加強和確保對人工智能內(nèi)容生成的必要監(jiān)管。
《中國新聞出版廣電報》:您認為新聞出版行業(yè)應(yīng)該如何利用好人工智能生成內(nèi)容?
陸小華:在我看來,一是新聞出版行業(yè)從業(yè)者要以更具科技感的認識方式看待智能內(nèi)容生成科技發(fā)展。ChatGPT引發(fā)了多個互聯(lián)網(wǎng)平臺加快應(yīng)用步伐,或把ChatGPT與搜索引擎相結(jié)合,或是加快在這個領(lǐng)域推出相應(yīng)產(chǎn)品的速度。人們普遍預測,智能內(nèi)容生成科技會得到更大范圍應(yīng)用。更具科技感的認識方式,會幫助新聞出版業(yè)找到更切合行業(yè)實際的智能內(nèi)容科技運用方式。二是新聞出版行業(yè)從業(yè)者要秉持新聞出版規(guī)則、倫理的原則跟蹤研究智能內(nèi)容生成產(chǎn)品本身發(fā)展,謹慎分析、思考是否可能、如何在一定規(guī)則、條件約束下有限運用。既積極研究,又依規(guī)謹慎行事,才可能實現(xiàn)“利用好”。
張立:對于新聞出版行業(yè)來說,第一,傳統(tǒng)媒體轉(zhuǎn)型一定要找好轉(zhuǎn)型點;第二,千萬不要輕視技術(shù)革命的進步所帶來的風險。今天的人工智能技術(shù),確實可以幫助我們做一些初步的文案工作,就像今天的搜索引擎可以幫助我們查詢信息一樣。今天,我們在很多時候不必像過去那樣,只能到圖書館去翻看資料。所以我們要感謝搜索引擎的發(fā)明。我們也要感謝人工智能技術(shù)的進步,它所帶來的生成內(nèi)容能力的提升,可以部分地讓我們?nèi)祟悘姆爆嵉奈陌腹ぷ髦薪夥懦鰜怼?/span>
從目前人工智能生成內(nèi)容的水平來看,它的文獻處理的能力很強,但它代替不了人的現(xiàn)場采訪,它還不可能代替實地采訪的記者的工作,它只能代替從文獻到文獻的工作。所以,對媒體從業(yè)者來說,提高“四力”,既是按照習近平總書記對宣傳思想工作者的期待那樣,切實走出去,提高我們的腳力、眼力、腦力和筆力。這樣,我們才會采寫出鮮活的、不同于人工智能生成的內(nèi)容。
曾毅:人工智能內(nèi)容生成服務(wù)有潛力在資源收集和話題組織方面為新聞出版行業(yè)提供有力的支持,在針對特定話題開展觀點論證方面有潛力提供不同視角觀點的參考輔助,有利于論述和報道的中立性和全面性。但從目前人工智能作為數(shù)據(jù)驅(qū)動的信息處理工具的本質(zhì)來看,在人工智能沒有能力也難以成為責任主體的前提下,新聞出版行業(yè)的從業(yè)者都不應(yīng)嘗試將最終審核權(quán)和決策權(quán)交給人工智能。
