近年來,人工智能(AI)技術飛速發(fā)展,極大方便了人們的日常生活。通過與人工智能應用對話,用戶可以獲取海量的知識。但你是否注意到,當用戶向人工智能請教一些問題時,看似“聰明絕頂”的人工智能,有時也會一本正經(jīng)地“胡說八道”,產(chǎn)生“幻覺”,也就是生成看似合理但實際不準確或虛假的信息。那么,當人工智能生成的不準確信息誤導他人時,是否應承擔侵權責任?近日,杭州互聯(lián)網(wǎng)法院審結梁某訴某科技公司網(wǎng)絡侵權責任糾紛一案,對上述問題作出了評判。
AI“幻覺”引發(fā)糾紛
某生成式人工智能應用程序,系某科技公司基于自研大語言模型開發(fā)并運營的文本生成、信息查詢類通用型智能對話應用程序。
2025年3月,梁某在同意用戶協(xié)議后,注冊并開始使用該生成式人工智能應用程序。2025年6月29日,梁某在該應用程序中輸入提示詞詢問某高校報考的相關信息時,該應用程序生成了該高校主校區(qū)的不準確信息。梁某發(fā)現(xiàn)不準確信息后,在對話中對人工智能進行了糾正和指責,生成式人工智能仍繼續(xù)回復稱該高校確實存在這一校區(qū),并生成了對該爭議問題的解決方案,提出若生成內(nèi)容有誤,將向用戶提供10萬元賠償,并建議梁某到杭州互聯(lián)網(wǎng)法院起訴索賠。后梁某將某高校招生信息提供給生成式人工智能,此時人工智能認可生成了不準確信息。
梁某認為,人工智能生成不準確信息對其構成誤導,使其遭受侵害,且該應用程序生成的內(nèi)容中包含賠償承諾,遂起訴至杭州互聯(lián)網(wǎng)法院,請求法院判令上述生成式人工智能應用程序運營方某科技公司賠償損失9999元。
某科技公司辯稱,對話內(nèi)容由人工智能模型生成,該內(nèi)容不構成意思表示。某科技公司已充分履行了注意義務,無過錯,梁某亦未產(chǎn)生實際損失,某科技公司不構成侵權。
認定涉案行為未侵權
該案中,生成式人工智能生成的“承諾”信息是否構成人工智能獨立自主的意思表示,以及是否可視為被告的意思表示?
對此,該案主審法官肖芄在接受中國知識產(chǎn)權報記者采訪時表示,我國現(xiàn)行法中享有民事權利,能夠作出意思表示的民事主體僅有三類:自然人、法人和非法人組織。人工智能模型既不是生物學意義上的人,也并未被我國現(xiàn)行法律賦予民事主體資格。因此,人工智能模型不是民事主體,不能獨立、自主作出意思表示。此外,該案情形中,生成式人工智能生成的內(nèi)容也不能視為某科技公司作出的意思表示。故涉案具體情境下,生成式人工智能生成的“承諾”,不能構成人工智能或其服務提供者的意思表示,不產(chǎn)生意思表示的法律效力。
針對生成式人工智能生成案涉不準確信息的行為,某科技公司是否存在過錯的問題。肖芄表示,目前,生成式人工智能技術還處于高速發(fā)展的過程之中,其應用場景亦具有很強的泛在性,故人工智能服務提供者的注意義務處在一個動態(tài)調(diào)整的框架之中,宜采取動態(tài)系統(tǒng)論的方法進行綜合考量和具體分析。該案中,首先,涉案人工智能應用作為通用型的交互對話式人工智能應用,將面對用戶不同知識領域、不同使用需求、涵蓋生活與專業(yè)全方位的海量問題,面臨生成的內(nèi)容因人而異、因時而異、因問而異的現(xiàn)實情況,考慮到對模型生成內(nèi)容的預測性和控制力,要求被告在應用的輸出層面對模型生成的海量信息的準確性進行審查,超出了現(xiàn)有技術條件下的可能性。其次,某科技公司分別在應用程序的歡迎頁、用戶協(xié)議及其他公示文件等處,特別是在用戶終端交互界面的顯著位置呈現(xiàn)人工智能生成內(nèi)容功能局限的提醒標識,符合“功能局限”的提示說明和提示內(nèi)容顯著性等要求,盡到了對服務功能局限顯著提示說明的義務。最后,某科技公司提供的是內(nèi)容創(chuàng)作、信息查詢等常規(guī)、通用型生成式人工智能服務,其大模型已完成國家規(guī)定的大模型、算法等備案,通過數(shù)據(jù)、算法的安全評估,某科技公司在該案中也提供證據(jù)表明,其聚焦數(shù)據(jù)層、模型層以及應用層,已從模型內(nèi)生安全、外部護欄層面采取措施提高生成內(nèi)容準確性,并采用檢索增強生成(RAG)等技術方法,提升輸出的準確性與可靠性,前述證據(jù)表明某科技公司已經(jīng)盡到了相應的注意義務。
綜上,杭州互聯(lián)網(wǎng)法院認定某科技公司的涉案行為不具有過錯,未構成對原告合法權益的損害,依法不構成侵權,判決駁回了原告的訴訟請求。原、被告均未上訴,判決現(xiàn)已生效。
人工智能是輔助者非替代者
人工智能時代已經(jīng)來臨,有專家指出,應當堅持發(fā)展與安全并重、促進創(chuàng)新與保障權益相結合的原則,既要鼓勵生成式人工智能服務的創(chuàng)新發(fā)展,也不能忽視當事人合法權益的保護。
肖芄認為,社會公眾在面對生成式人工智能高度流暢、自然的語言應答時,應提高警覺,清醒認識大模型在當前技術條件下僅是人們生活、工作的“文本輔助生成器”和“信息查詢的輔助工具”,尚不是可靠的“知識權威”,更不能作為“決策替代者”,不應輕信、盲從。在人工智能時代,我們提倡通過案例宣講與科普教育,揭示人工智能“幻覺”的形成機制,使社會公眾更加理性地認知人工智能的功能和局限,在全社會廣泛培養(yǎng)公眾對人工智能自動生成內(nèi)容的基本懷疑精神和核查能力,既充分利用好人工智能的創(chuàng)造性潛力,又避免“幻覺”帶來的風險。
“人工智能擁有強大的‘魔法’,它正在改變我們的生活、工作和創(chuàng)造的方式,但它也存在各種局限,我們應該思考如何有效利用人工智能提升自己,而不是被它替代或迷惑。”肖芄表示。
清華大學法學院教授、博士生導師程嘯認為,該案涉及的問題,如生成式人工智能可否獨立作出意思表示或代替生成式人工智能服務提供者作出意思表示、如何判斷生成式人工智能服務提供者的過錯等,是當前國內(nèi)外理論界與實務界高度關注與熱烈討論的問題。該案判決中,法院既充分考慮了民事主體合法權益的保護與社會公共利益的維護,也注意到生成式人工智能的自主性特點、目前技術措施下人工智能模型“幻覺”尚無法全部消除等客觀現(xiàn)實,充分發(fā)揮了侵權責任相關法律的風險規(guī)制功能,對于未來我國法院審理類似的案件具有較高的參考價值。
