生成式人工智能具有自主性、不透明性、不可預(yù)測性等特征,這也導(dǎo)致了學(xué)界認為人工智能侵權(quán)歸責(zé)需脫離產(chǎn)品責(zé)任,理由主要為產(chǎn)品責(zé)任為嚴格責(zé)任,生產(chǎn)者難以控制 人工智能運行過程中存在的風(fēng)險,要求其承擔(dān)嚴格責(zé)任并不公平;生成式人工智能大多以服 務(wù)的形態(tài)存在,因此其不符合產(chǎn)品的定義。然而,從法律屬性來看,生成式人工智能提供者與網(wǎng)絡(luò)服務(wù)提供者二者存在實質(zhì)差異。生成式人工智能系統(tǒng)符合產(chǎn)品的定義,產(chǎn)品責(zé)任契合生成式人工智能系統(tǒng)多層次、多樣態(tài)的特征,能夠?qū)崿F(xiàn)與監(jiān)管的良性互動。在產(chǎn)品責(zé)任框架下,開發(fā)者與運營者可以類比為產(chǎn)品責(zé)任中生產(chǎn)者與銷售者的地位,可以根據(jù)生成式人工智 能的生命周期、層次屬性確定制造缺陷、設(shè)計缺陷、警示缺陷、跟蹤觀察缺陷,確定發(fā)展風(fēng) 險抗辯適用的條件與標準——

作者簡介:李雅男,女,河北唐山人。武漢大學(xué)本、碩、博畢業(yè)。2020年9月起任職于 華中科技大學(xué)法學(xué)院,現(xiàn)為法學(xué)院講師,主要研究方向為民法、人格權(quán)法。
一、問題的提出
人們對于生成式人工智能的性質(zhì)存在廣泛爭議,這也決定了人工智能侵權(quán)責(zé)任的歸責(zé)面臨諸多挑戰(zhàn)。就生成式人工智能侵權(quán)的歸責(zé)路徑而言,目前學(xué)界主要存在兩種解決思路:第一種是按照網(wǎng)絡(luò)服務(wù)提供者(internet service provider, ISP)和網(wǎng)絡(luò)內(nèi)容提供者(internet content provider, ICP)的區(qū)分思路,將生成式人工智能系統(tǒng)提供者解釋為網(wǎng)絡(luò)服務(wù)提供者或網(wǎng)絡(luò)內(nèi) 容提供者,適用過錯責(zé)任原則,適用“通知—刪除”規(guī)則。第二種是按照產(chǎn)品責(zé)任,即將生成 式人工智能解釋為產(chǎn)品,并認為在其存在產(chǎn)品缺陷時相關(guān)主體需要承擔(dān)產(chǎn)品責(zé)任,或者認為 算法產(chǎn)品的開發(fā)者承擔(dān)產(chǎn)品責(zé)任。1但是,學(xué)界對此歸責(zé)路徑的討論并不充分,且大多觀點 將產(chǎn)品責(zé)任與嚴格責(zé)任混同,認為若認定生成式人工智能侵權(quán)承擔(dān)產(chǎn)品責(zé)任,則對生成式人工智能提供者2來說責(zé)任過于嚴苛,將不利于我國新興產(chǎn)業(yè)的發(fā)展。因此,就生成式人工智 能侵權(quán)責(zé)任的認定應(yīng)當(dāng)首先厘清生成式人工智能的法律性質(zhì),在此基礎(chǔ)上構(gòu)建歸責(zé)路徑。
2023年4月國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合公布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》同時使用了“生成式人工智能服務(wù)”“生成式人工智能產(chǎn)品”“生成式人工 智能產(chǎn)品或服務(wù)”等表述,但在同年7月正式頒布的《生成式人工智能服務(wù)管理暫行辦法》 (以下簡稱“《暫行辦法》”)中只使用了“生成式人工智能服務(wù)”的概念,這也表現(xiàn)出我國 立法中存在的困惑,如何選擇合適的規(guī)制路徑并確定責(zé)任承擔(dān)是亟需解決的問題。此外,即 使在此框架之下,《暫行辦法》與《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》的條款也并不一致, 后者將服務(wù)提供者界定為技術(shù)服務(wù)提供者?!稌盒修k法》僅規(guī)定了生成式人工智能服務(wù)提供 者應(yīng)當(dāng)承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任以及個人信息處理者責(zé)任,對于“技術(shù)支持者”的身份以及生成式人工智能多個層次提供者的屬性與責(zé)任承擔(dān)均未明確,這實際上存在立法空白,也為我們思考生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任提供了契機。
二、生成式人工智能提供者為網(wǎng)絡(luò)服務(wù)提供者思路的排除
(一)認為生成式人工智能提供者為網(wǎng)絡(luò)服務(wù)提供者的主要觀點
第一,生成式人工智能本身呈現(xiàn)“千人千面”的特點,并不符合產(chǎn)品格式化、模式化的特 點。提供者或生產(chǎn)者不能通過批量銷售來分散其自身所承擔(dān)的風(fēng)險。同時,產(chǎn)品一旦脫離生 產(chǎn)者的控制,投入市場流通之后,生產(chǎn)者往往就不再對產(chǎn)品進行控制;而生成式人工智能在 投入市場運行之后,提供者仍然對生成式人工智能負有管理、控制責(zé)任,并不具有“一勞永 逸”的特點。大語言模型使用者眾多,且用途廣泛,因此所造成的損害也不同。生成式人工 智能輸出的內(nèi)容因受到人機交互與算法模型的影響而始終處于變化之中,其對用戶提供的服 務(wù)不具有同質(zhì)性,因此生成式人工智能的輸出應(yīng)當(dāng)被認定為個性化的服務(wù),生成式人工智能 提供者應(yīng)當(dāng)為網(wǎng)絡(luò)服務(wù)提供者。生成式人工智能運行過程中的運營一方往往需要不斷投入, 對系統(tǒng)完整性進行維護、對系統(tǒng)漏洞進行修補、對系統(tǒng)功能進行升級,完全不同于產(chǎn)品一經(jīng) 銷售,便脫離生產(chǎn)者和銷售者控制的特點。人工智能生成的內(nèi)容也不具有產(chǎn)品概念所要求的 大規(guī)模相同或者相似性特征。
第二,生成式人工智能提供者作為網(wǎng)絡(luò)服務(wù)提供者,其侵權(quán)責(zé)任的認定依照過錯責(zé)任原 則,而對過錯的判斷能夠更好地兼容政策考量,將保障技術(shù)發(fā)展的價值取向融入過錯的判定 之中。而產(chǎn)品責(zé)任為無過錯責(zé)任,生成式人工智能技術(shù)屬于快速迭代中的新興技術(shù),對其提 供者的侵權(quán)行為施加嚴格責(zé)任會導(dǎo)致技術(shù)開發(fā)成本過高,從而阻礙技術(shù)發(fā)展。生成式人工智 能與一般產(chǎn)品存在本質(zhì)區(qū)別,生成式人工智能主要提供信息內(nèi)容,并不會因為“產(chǎn)品缺陷” 而對他人的生命、健康、安全、財產(chǎn)等造成直接危害,危險性遠小于一般產(chǎn)品,且風(fēng)險不會 直接作用于人并產(chǎn)生損害,因此,若生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任將導(dǎo)致其提供者責(zé)任 過重。生成式人工智能大模型算法具有高度專業(yè)性、復(fù)雜性等特征,提供者無法控制大模型 的運算結(jié)果,因此,若要求生成式人工智能提供者承擔(dān)嚴格責(zé)任,但是其又缺乏控制內(nèi)容生 成的能力,則顯然是不公平的。3
(二)生成式人工智能提供者并非網(wǎng)絡(luò)服務(wù)提供者的主要理由
技術(shù)層面上,生成式人工智能提供者與傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者相比,其控制的技術(shù)已不可同日而語;規(guī)范層面上,我國尚無單行法對人工智能提供者的地位作出規(guī)定,目前可通過 《暫行辦法》第4條、第7條、第8條、第9條窺見人工智能提供者特殊的法律地位?!稌盒修k法》第9條的相關(guān)表述似將生成式人工智能提供者認定為網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者。我國《信 息網(wǎng)絡(luò)傳播權(quán)保護條例》將網(wǎng)絡(luò)服務(wù)提供者分為網(wǎng)絡(luò)內(nèi)容提供者與網(wǎng)絡(luò)服務(wù)提供者。網(wǎng)絡(luò)內(nèi) 容提供者主要負責(zé)提供具體的網(wǎng)絡(luò)信息內(nèi)容,網(wǎng)絡(luò)服務(wù)提供者則提供網(wǎng)絡(luò)基礎(chǔ)設(shè)施和相關(guān)服務(wù),主要包括:網(wǎng)絡(luò)自動接入和自動傳輸服務(wù)提供者、自動存儲服務(wù)提供者、網(wǎng)絡(luò)信息存儲 空間服務(wù)提供者和搜索鏈接服務(wù)提供者。生成式人工智能提供者無法適用上述任何一種服務(wù) 提供者的規(guī)定。具體而言:
第一,生成式人工智能提供者難以被定性為技術(shù)服務(wù)提供者。其一,內(nèi)容來源與責(zé)任主 體的差異。在大多數(shù)場景下,生成式人工智能所生成的內(nèi)容并非來源于第三方,而是直接由人工智能本身產(chǎn)生。因此,生成式人工智能提供者不能簡單地被視為“中介服務(wù)”提供者。其 二,獨立侵權(quán)責(zé)任的特殊性。在生成式人工智能的應(yīng)用中,存在用戶并未侵權(quán),但人工智能 提供者卻單獨侵權(quán)的特殊情況。此時人工智能提供者需要獨自承擔(dān)侵權(quán)責(zé)任?,F(xiàn)行法律中關(guān) 于技術(shù)服務(wù)提供者承擔(dān)共同侵權(quán)責(zé)任的規(guī)定無法涵蓋這種獨立承擔(dān)侵權(quán)責(zé)任的情形。其三, 避風(fēng)港規(guī)則的適用難題。在生成式人工智能場景下,內(nèi)容的生成過程并不公開,權(quán)利人難以 通過公開渠道獲取足以定位侵權(quán)內(nèi)容的信息,如網(wǎng)絡(luò)鏈接等,以作為通知的必要組成部分發(fā) 送給生成式人工智能提供者。而且提供者也難以準確定位侵權(quán)內(nèi)容,無法采取刪除等阻斷傳 播的措施。4另一方面,生成式人工智能算法結(jié)構(gòu)復(fù)雜,僅憑傳統(tǒng)的人工審核等技術(shù)手段難 以全面、準確的識別所有潛在的侵權(quán)內(nèi)容。5人工智能生成過程的非公開性,使得外在觀察 者難以判定生成式人工智能提供者對于侵權(quán)是否屬于“知道”或“應(yīng)該知道”。6
第二,生成式人工智能提供者并非網(wǎng)絡(luò)內(nèi)容提供者。其一,服務(wù)性質(zhì)不同。網(wǎng)絡(luò)內(nèi)容提 供者提供的內(nèi)容往往由提供者事先根據(jù)其服務(wù)的專業(yè)領(lǐng)域和創(chuàng)作方向決定,但是生成式人工 智能提供的內(nèi)容結(jié)果嚴格依照用戶的指令生成。生成式人工智能生成內(nèi)容的行為兼具服務(wù)與 內(nèi)容供給的雙重屬性。生成式人工智能生成的結(jié)果具有高度的不確定性,由于數(shù)據(jù)抓取存在 的時間、空間差異等,用戶相同的提示詞可能會產(chǎn)生不同的結(jié)果,這與傳統(tǒng)網(wǎng)絡(luò)內(nèi)容提供者 提供內(nèi)容的高度確定性存在較大差異。7其二,內(nèi)容的實際控制者不同。生成式人工智能的 輸出結(jié)果并非單純用戶提供的內(nèi)容,而是人工智能系統(tǒng)與用戶共同“創(chuàng)作”的結(jié)果。用戶通過 “提示詞”對生成式人工智能進行“微調(diào)”,模型與用戶交疊增強,衍生出共生能動性的關(guān)系。 8人工智能根據(jù)用戶提示將數(shù)據(jù)中的語句重新語境化,人工智能系統(tǒng)的復(fù)雜響應(yīng)性和自適應(yīng) 性超越了單純內(nèi)容選擇或總結(jié)的范疇。生成式人工智能實際上具有多重用途和功能,其不僅 可以直接服務(wù)于用戶端,更可以作為基礎(chǔ)模型供其他領(lǐng)域進行更加細化的應(yīng)用,例如通過開 放應(yīng)用程序接口的方式為其他企業(yè)提供技術(shù)底座。
第三,生成式人工智能提供者并非傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者。從技術(shù)類型上,生成式人工 智能既不能為用戶提供類似于電信運營商的互聯(lián)網(wǎng)接入服務(wù),也不能為用戶提供信息存儲服 務(wù)或者自動傳輸服務(wù)。人工智能自身并不存儲數(shù)據(jù)或信息,人工智能訓(xùn)練數(shù)據(jù)需要由數(shù)據(jù)提 供者提供或者由開發(fā)者進行網(wǎng)絡(luò)抓取,并通過“數(shù)據(jù)喂養(yǎng)”與預(yù)訓(xùn)練的生成邏輯,經(jīng)過算法 轉(zhuǎn)化而生成結(jié)果,最終直接向用戶提供自我學(xué)習(xí)后的內(nèi)容。在實踐中,OpenAI公司在使用 協(xié)議中自認的免責(zé)條件與美國《千禧年數(shù)字版權(quán)法》(Digital Millennium Copyright Act, DMCA)所規(guī)定的網(wǎng)絡(luò)通信服務(wù)提供者、緩存服務(wù)提供者的免責(zé)條件都不相同。9生成式人 工智能既包括面向公眾的程序,例如ChatGPT、文心一言等,還包括離線軟件,例如AntSK, 此種離線使用的性質(zhì)對生成式人工智能提供者為網(wǎng)絡(luò)服務(wù)提供者的身份認定更是提出了險小于一般產(chǎn)品。 其也可能造成個人隱私泄露、數(shù)據(jù)安全威脅、名譽損挑戰(zhàn)。此外,風(fēng)險的內(nèi)涵是不確定的,不能簡單地認為生成式人工智能的危害,甚至提供錯誤信息教唆他人自殺或 謀殺等危害。另一方面,即使認為生成式人工智能為網(wǎng)絡(luò)服務(wù)提供者的學(xué)者,也承認需對既 有的網(wǎng)絡(luò)服務(wù)提供者侵權(quán)責(zé)任進行檢視而不能直接適用。10生成式人工智能的自動化信息輸 出并非一個完全隨機的純粹技術(shù)過程,相反,它是基于早前給定的算法而發(fā)生的,即便存在 機器的自我學(xué)習(xí),但學(xué)習(xí)過程在一定程度上仍是由人決定的。
第四,將生成式人工智能提供者定位為新型網(wǎng)絡(luò)服務(wù)提供者的立法成本過大。有學(xué)者根 據(jù)生成式人工智能的特征提出,其應(yīng)當(dāng)為新型網(wǎng)絡(luò)服務(wù)。11但是,此種思路并未建立在深刻 審視現(xiàn)有路徑的基礎(chǔ)上,更多的是對現(xiàn)實需求的無奈折衷,或者是“學(xué)術(shù)的惰性”的體現(xiàn)。新 問題出現(xiàn)后另設(shè)一種類型來應(yīng)對并非生成式人工智能出現(xiàn)后首次面對的問題,這在新興權(quán)利 大爆發(fā)時期就已經(jīng)被廣泛討論了,目前學(xué)界也基本認定不能新出現(xiàn)一種問題就提出一種新的 說法或理論,例如網(wǎng)絡(luò)法規(guī)制的傳統(tǒng)命題“馬法爭議”。如果試圖為每一個新出現(xiàn)的技術(shù)或現(xiàn) 象制定專門的法律,最終只會使法律體系變得支離破碎,難以形成統(tǒng)一的原則。12司法實踐 也大多堅持偏保守的路徑,例如在“杭州刀豆網(wǎng)絡(luò)科技有限公司訴長沙百贊網(wǎng)絡(luò)科技有限公 司等侵害作品信息網(wǎng)絡(luò)傳播權(quán)糾紛案”中,關(guān)于微信小程序的法律定位存在爭議,杭州互聯(lián) 網(wǎng)法院拒絕了騰訊認為微信小程序是一種新型網(wǎng)絡(luò)服務(wù)的主張,認定應(yīng)當(dāng)在現(xiàn)有的服務(wù)類型 中尋找適用路徑。法院最終認定微信小程序類似于網(wǎng)絡(luò)接入、傳輸服務(wù)。13若主張生成式人 工智能為一種新型網(wǎng)絡(luò)服務(wù),那么僅憑目前其技術(shù)上的特征作為支撐顯然是遠遠不夠的,還 需要更為抽象、更為深入的論證。在當(dāng)前我國已有相關(guān)立法的情況下,若主張生成式人工智 能為新型網(wǎng)絡(luò)服務(wù),則修法成本過高,未必為最佳策略。因此,我們應(yīng)當(dāng)首先反思現(xiàn)有的路 徑,即是否存在成本更低、更能夠自圓其說的規(guī)則作為認定依據(jù),不可隨意將新生事物命名 為“新類型”。
生成式人工智能侵權(quán)適用網(wǎng)絡(luò)服務(wù)提供者責(zé)任的理論主要集中在規(guī)范與用戶直接交互 的內(nèi)容輸出行為方面,而忽視了“模型即服務(wù)”(model as a service, MaaS)模式下模型提供 者的行為評價。14具體而言,未能充分考慮以下方面:其一,模型提供者的行為規(guī)范。在“模 型即服務(wù)”模式下,模型提供者負責(zé)開發(fā)、訓(xùn)練和維護用于生成內(nèi)容的算法模型。這些模型 的質(zhì)量和安全性直接影響最終輸出內(nèi)容的合規(guī)性和可靠性。因此,需要建立專門的責(zé)任機制 來評估和規(guī)范模型提供者的行為。其二,技術(shù)應(yīng)用場景的多樣性。生成式人工智能既可以作 為獨立軟件使用,也可以嵌入到各種硬件設(shè)備中,廣泛應(yīng)用于不同領(lǐng)域。這使得技術(shù)缺陷可 能出現(xiàn)在多個環(huán)節(jié),影響范圍更廣?,F(xiàn)有規(guī)則缺乏對這些多樣化應(yīng)用場景全面覆蓋的內(nèi)容, 難以有效防范和處理相關(guān)侵權(quán)行為。生成式人工智能技術(shù)的發(fā)展速度極快,新的應(yīng)用場景和技術(shù)手段不斷涌現(xiàn)?,F(xiàn)有規(guī)則往往滯后于技術(shù)創(chuàng)新的步伐,無法及時回應(yīng)技術(shù)缺陷帶來的負 面影響。因此,亟需構(gòu)建更加靈活和更具前瞻性的法律框架,以適應(yīng)快速變化的技術(shù)環(huán)境。
三、生成式人工智能的侵權(quán)責(zé)任認定:產(chǎn)品責(zé)任的框架設(shè)想
(一)生成式人工智能產(chǎn)品屬性的證成
生成式人工智能具有無形性特征,這挑戰(zhàn)了傳統(tǒng)的產(chǎn)品認定方式。生成式人工智能的生 產(chǎn)過程和傳播方式也不同于傳統(tǒng)意義上的“制造”和“銷售”。因此,單純依賴傳統(tǒng)的有形性檢 驗標準顯然無法有效應(yīng)對這一新興技術(shù)所帶來的挑戰(zhàn)。對生成式人工智能系統(tǒng)定性的關(guān)鍵, 并不在于法律規(guī)范中產(chǎn)品的定義,而在于產(chǎn)品責(zé)任的規(guī)范目的,以及人工智能是否符合該目 的而落入產(chǎn)品責(zé)任的對象范圍之內(nèi)。我國產(chǎn)品質(zhì)量法第2條第2款所定義的產(chǎn)品指“經(jīng)加工、 制作用于銷售的產(chǎn)品”。就此而言,產(chǎn)品要件包括:加工、制作、銷售。
1.生成式人工智能的加工、制作屬性分析
從文義上考慮,“加工、制作”體現(xiàn)為人類通過勞動創(chuàng)造價值的基本形式。當(dāng)前,生成式 人工智能的人造物屬性并未發(fā)生改變,盡管其具有一定的智能性,但是其仍然由人類設(shè)計、 編碼、訓(xùn)練,并未脫離人為制造的范疇,其輸出的內(nèi)容信息也是人類設(shè)計模型產(chǎn)出的結(jié)果。 就信息是否能夠作為產(chǎn)品責(zé)任的客體,在Winter v. G.P. Ptunam’s Sons案中,法官認為產(chǎn)品 責(zé)任的適用對象為有形產(chǎn)品。此案的核心爭議在于《蘑菇百科全書》是否應(yīng)被視為“產(chǎn)品”, 從而適用嚴格責(zé)任。法院最終裁定,該書不應(yīng)被視為產(chǎn)品,而是思想和表達的載體。15然而, 在Saloomey v. Jeppesen & Co.案中,被告辯稱有缺陷的航空圖表是一種服務(wù),因此其不受產(chǎn) 品責(zé)任的約束。法院駁回了這一論點,認為被告的圖表是大量生產(chǎn)和大規(guī)模銷售的,這對于 產(chǎn)品的認定具有決定性作用。16航空圖作為一種具有專業(yè)性的工具,通過將測繪得來的工程 數(shù)據(jù)用地理術(shù)語描述出來,與指南針最有可比性,使用者需要依靠其指引完成工作,因而航 空圖可以被認為屬于產(chǎn)品范疇。在此案中,法院強調(diào)人們使用的是航行圖的物理特性而不是 其中包含的觀點。17對航空圖與蘑菇指南案件的區(qū)別進行分析,可以看出:航空圖因其技術(shù) 性和機械性特征,性質(zhì)更接近于可以直接指導(dǎo)行動的工具,因此其可以被視為“產(chǎn)品”;而 蘑菇指南則是關(guān)于如何使用工具的知識傳遞載體,屬于思想和表達范疇,因此其不能被認定 為“產(chǎn)品”。然而,隨著人工智能技術(shù)的發(fā)展和應(yīng)用,這一界限變得模糊。人工智能輸出結(jié) 果究竟是更類似于可以直接使用的圖表(如航空圖),還是更類似于指導(dǎo)如何使用工具的書 籍(如蘑菇指南)?
需要注意的是,人工智能系統(tǒng)的輸出并非完全獨立于人類設(shè)計和訓(xùn)練過程,這意味著責(zé) 任的分配可能需要綜合考慮開發(fā)者、使用者以及系統(tǒng)本身的特性。在數(shù)字時代,信息的形式 日益多樣化,傳統(tǒng)的物質(zhì)形態(tài)已不再是判斷其性質(zhì)的唯一標準。相反,信息的功能、用途以 及對用戶行為的實際影響可能更為關(guān)鍵。生成式人工智能不僅僅是信息的傳遞媒介,它還是 信息生成的來源。換言之,生成式人工智能通過復(fù)雜的算法和數(shù)據(jù)分析,生成建議和決策支 持。因此,生成式人工智能的輸出應(yīng)當(dāng)被視為其系統(tǒng)的固有部分,而不是獨立于系統(tǒng)之外的 內(nèi)容。這意味著,如果生成式人工智能的輸出存在缺陷,例如導(dǎo)致錯誤的醫(yī)療建議或診斷,那么這些缺陷應(yīng)當(dāng)被納入產(chǎn)品責(zé)任的考量范圍之內(nèi)。生成式人工智能輸出的內(nèi)容與系統(tǒng)的關(guān) 系十分緊密,輸出內(nèi)容往往由系統(tǒng)自動生成或修改。因此生成式人工智能不僅僅是輸出內(nèi)容 的載體,更是其來源。生成式人工智能系統(tǒng)與其輸出內(nèi)容之間的緊密程度遠遠超于書籍與其 中刊載內(nèi)容之間的緊密程度,生成式人工智能系統(tǒng)與書籍的信息生成機制和存在形式有著根 本差異。生成式人工智能的輸出應(yīng)當(dāng)被視為其“固有特性”的一部分,系統(tǒng)或者模型本身符合 產(chǎn)品要件的要求。
隨著數(shù)字技術(shù)的發(fā)展,數(shù)字產(chǎn)品、無形產(chǎn)品同樣存在質(zhì)量瑕疵的問題。信息本身是否符 合產(chǎn)品定義存在爭議,這是因為若承認信息致害適用產(chǎn)品責(zé)任,則可能導(dǎo)致寒蟬效應(yīng),言論 自由將受到極大的干預(yù),影響社會公眾之間思想的自由交流,代價巨大。另外,出版社往往 難以控制書籍中的信息內(nèi)容,要求其承擔(dān)產(chǎn)品責(zé)任對其而言過于嚴苛。但同時法院也承認, 若出版社對出版的內(nèi)容起到了重要作用,則結(jié)果會大不相同。18生成式人工智能侵權(quán)適用產(chǎn) 品責(zé)任并不意味著其生成的信息本身為產(chǎn)品?;谘哉撟杂傻目剂?,不能將信息本身當(dāng)作產(chǎn) 品來對待。但是這并非意味著生成信息的軟件或系統(tǒng)本身不能被當(dāng)作產(chǎn)品來進行規(guī)制,換言 之,若生成信息的系統(tǒng)本身并不存在缺陷,即便其生成的信息存在一定的瑕疵,也難以要求 生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任;但是,若因為生成式人工智能本身存在設(shè)計、警示等缺陷而導(dǎo)致虛假 信息的產(chǎn)生,則在侵權(quán)的情況下要求相關(guān)主體承擔(dān)產(chǎn)品責(zé)任是合理的,這也是“成本最低避 免者”責(zé)任分配思想的體現(xiàn)。域外司法實踐也并未完全否認平臺算法侵權(quán)適用產(chǎn)品責(zé)任的可 能性。19在Lemmon v. Snap, Inc.案中,法院認可了原告認為社交媒體平臺Snap存在設(shè)計缺 陷的控訴,承認了平臺算法為產(chǎn)品,認為算法存在缺陷,并對缺陷造成的損害適用產(chǎn)品責(zé)任。 20就人工智能系統(tǒng)而言,盡管其輸出的是無形的信息,但是因為設(shè)計者、開發(fā)者對于結(jié)果的 生成具有一定的控制能力,對于減少產(chǎn)品缺陷處于有利地位,也能通過產(chǎn)品責(zé)任保險、價格 機制等分散責(zé)任風(fēng)險。人工智能系統(tǒng)提供者應(yīng)當(dāng)對系統(tǒng)自身生產(chǎn)機制中的缺陷,包括模型設(shè) 計、數(shù)據(jù)選擇等引發(fā)的不合理危險所造成的損害,承擔(dān)產(chǎn)品責(zé)任,這符合大數(shù)據(jù)時代的技術(shù) 特征。21
2.生成式人工智能的銷售屬性分析
生成式人工智能具備可銷售屬性,其銷售對象是不特定的。22隨著人工智能和大語言模 型的興起,“產(chǎn)品”與“服務(wù)”之間的界限逐漸模糊。像ChatGPT、Claude和Gemini等模型的 基礎(chǔ)代碼庫通常是固定的,無論在哪臺計算機上運行,其核心功能和性能都不會發(fā)生變化。 盡管用戶的體驗可能因輸入的不同而有所差異,但這些模型本身的設(shè)計初衷是為了滿足廣泛 的市場需求,因此它們更接近于傳統(tǒng)意義上的“產(chǎn)品”。23與傳統(tǒng)制造業(yè)不同,軟件開發(fā)和人 工智能系統(tǒng)的構(gòu)建通常涉及高度自動化的流程,這使得單一錯誤或漏洞可能迅速傳播至全球 范圍內(nèi)的數(shù)千萬用戶。此種大規(guī)模生產(chǎn)的特征不僅提高了效率,也顯著增加了潛在風(fēng)險暴露 的可能性。例如,微小的算法調(diào)整可能導(dǎo)致用戶沉迷、心理健康受損甚至社會分裂現(xiàn)象加劇 等問題。隨著生成式人工智能逐漸嵌入到各種產(chǎn)品和服務(wù)中,這種技術(shù)驅(qū)動的危害可能達到前所未有的規(guī)模。2022年9月28日,歐盟委員會頒布了《產(chǎn)品責(zé)任指令》(the Product Liability Directive, revised PLD),以適應(yīng)數(shù)字時代的發(fā)展需要。該提案擴大了損害、產(chǎn)品、缺陷和 責(zé)任的概念,明確將無形軟件(intangible software)和數(shù)字制造文檔(digital manufacturing files)納入產(chǎn)品范疇。24
關(guān)于銷售方式的認定,通常貨物等動產(chǎn)可以進行銷售,移轉(zhuǎn)物的所有權(quán);而對于軟件, 通常采用“著作權(quán)許可”的方式對外提供,用戶雖可使用但并不能獲得軟件著作權(quán)。這也是否 定生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的主要理由之一。但是,此種區(qū)分產(chǎn)品與服務(wù)的邏輯仍 然是建立在產(chǎn)品的有形性測試的基礎(chǔ)之上。然而,在人工智能已經(jīng)模糊了產(chǎn)品與服務(wù)的背景 下,此種認定方式已經(jīng)不再適應(yīng)當(dāng)前的情況。許可使用的本質(zhì)在于保護知識產(chǎn)權(quán)人的權(quán)利, 并沒有改變產(chǎn)品被銷售的現(xiàn)實,例如軟件被儲存在光盤中售賣,也不能否認其中存在著作權(quán) 人的知識產(chǎn)權(quán),二者并不存在必然的矛盾。換言之,即便購買普通產(chǎn)品也不意味著其中蘊含 的專利權(quán)、商標權(quán)等被轉(zhuǎn)讓。而且“許可使用”大多以合同的形式存在,因此對于非合同受 害者保護不足,其救濟仍然限于違約責(zé)任之下,難以應(yīng)對大規(guī)模侵權(quán)行為。從產(chǎn)品責(zé)任發(fā)展 的歷史來看,其本身蘊含著合同責(zé)任與侵權(quán)責(zé)任的雙重屬性,對受害者保護更為周全。另外, “銷售”體現(xiàn)了保護生產(chǎn)者利益的價值考量,即生產(chǎn)者并不對產(chǎn)品后續(xù)使用中產(chǎn)生的問題一概 承擔(dān)責(zé)任,這是產(chǎn)品大規(guī)模銷售背景下對嚴格責(zé)任緩沖的體現(xiàn)。生成式人工智能是獨立運行 的實體,其被設(shè)計和制造出來是為了實現(xiàn)特定功能或目的,例如輔助醫(yī)生進行診斷。歐盟法 院在UsedSoft v. Oracle案中的裁決進一步支持了將軟件視為產(chǎn)品的觀點。在該案中,法院 裁定通過互聯(lián)網(wǎng)下載的軟件與購買實體材料獲得的副本具有相同的法律地位。這意味著,無 論是通過網(wǎng)絡(luò)下載還是購買實體光盤,用戶所獲得的軟件都應(yīng)被視為一種產(chǎn)品?;谶@一邏 輯,如果集成在硬件中的軟件被視為產(chǎn)品,那么獨立軟件也應(yīng)當(dāng)被視為產(chǎn)品。換言之,不應(yīng) 存在雙重標準,即一方面要求硬件中的軟件設(shè)計者承擔(dān)責(zé)任,另一方面卻對獨立軟件的設(shè)計 者免除責(zé)任。這顯然是不合理的,也不符合法律的一致性和公平性原則。25
從實踐來看,我國現(xiàn)有法律法規(guī)已經(jīng)承認了醫(yī)療人工智能軟件作為醫(yī)療器械的屬性。用 于診斷、評估的智能算法軟件在醫(yī)藥監(jiān)管領(lǐng)域如何定性,在實踐及監(jiān)管層面經(jīng)過一段時間的 探索之后,我國已經(jīng)有了較為清晰的監(jiān)管框架。根據(jù)國家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評 中心發(fā)布的《移動醫(yī)療器械注冊技術(shù)審查指導(dǎo)原則》《人工智能醫(yī)療器械注冊審查指導(dǎo)原則》 《人工智能醫(yī)用軟件產(chǎn)品分類界定指導(dǎo)原則》等法律法規(guī)的定義:(A)確認凡符合醫(yī)療器 械定義的移動計算設(shè)備或軟件屬于醫(yī)療器械;(B)確認若軟件產(chǎn)品的處理對象為醫(yī)療器械 數(shù)據(jù),且核心功能是對醫(yī)療器械數(shù)據(jù)的處理、測量、模型計算、分析等,并用于醫(yī)療用途的, 作為醫(yī)療器械管理。因此,此類醫(yī)療器械既包括人工智能獨立軟件,也包括含有生成式人工 智能軟件組件的醫(yī)療設(shè)備(包括體外診斷醫(yī)療器械)。26當(dāng)生成式人工智能被劃歸入物的集 合,且流通于市場時,即體現(xiàn)出生成式人工智能的產(chǎn)品屬性。根據(jù)我國臺灣地區(qū)“消費者保 護法”的規(guī)定,產(chǎn)品責(zé)任的客體包括商品、服務(wù)及混合產(chǎn)品等三種類型。德國針對醫(yī)療產(chǎn)品 另外制定了《醫(yī)療產(chǎn)品法》(Gesetz über Medizinprodukte, MPG),其是產(chǎn)品責(zé)任法的特別法;依據(jù)該法第3條第1款的規(guī)定,以診斷、治療或維持其他醫(yī)療產(chǎn)品正常功能為目的的軟 件,亦屬于醫(yī)療產(chǎn)品。因此,如果發(fā)生醫(yī)療人工智能軟件誤診的情形,患者也可以向開發(fā)者 主張產(chǎn)品責(zé)任。27在Simulados Software, Ltd. v. Photon Infotech Private, Ltd.案中,法院認為大 規(guī)模生產(chǎn)的(mass-produced)、標準化(standarized)的或普遍可用(generallly available) 的軟件,即使是為適應(yīng)特定需求開發(fā)的軟件,其屬性也應(yīng)當(dāng)被認定為“產(chǎn)品”。28盡管生成 式人工智能輸出結(jié)果可能“千人千面”,但是生成式人工智能系統(tǒng)本身均以標準格式進行批量 模型訓(xùn)練和模型設(shè)計,所謂輸出結(jié)果不同也僅僅是用戶誘導(dǎo)下生成結(jié)果的異化,本身也是算 法模型運行結(jié)果的題中之義。29另外,可以將生成式人工智能與電力、熱力等非傳統(tǒng)有形動 產(chǎn)類比,供應(yīng)者在制造、控制、輸送過程中的廣泛參與,使電力等非傳統(tǒng)有形動產(chǎn)具備了產(chǎn) 品特征。盡管生成式人工智能會根據(jù)用戶輸入的數(shù)據(jù)而輸出不同的內(nèi)容,似乎有“私人定制” 的外在表象,但是這并非針對特定用戶的服務(wù),其內(nèi)在的算法邏輯是相同的,程序及模型的 設(shè)計并沒有實質(zhì)上的差異。生成式人工智能若已經(jīng)完成了測試,被投入市場中使用,則符合 投入流通的要求。因此,生成式人工智能符合產(chǎn)品的定義,生成式人工智能侵權(quán)應(yīng)當(dāng)適用產(chǎn) 品責(zé)任。
(二)產(chǎn)品責(zé)任契合生成式人工智能“基于風(fēng)險”的動態(tài)規(guī)制方式
生成式人工智能侵權(quán)責(zé)任的確定應(yīng)當(dāng)以風(fēng)險分擔(dān)為依據(jù),以實現(xiàn)各主體之間的利益平 衡。風(fēng)險分配通常指對風(fēng)險本身的分配和對風(fēng)險導(dǎo)致?lián)p害后果的分配。
第一,產(chǎn)品責(zé)任為無過錯責(zé)任的誤區(qū)澄清。關(guān)于生成式人工智能侵權(quán)的歸責(zé)原則其實一 直存在過錯責(zé)任與無過錯責(zé)任的爭議,有觀點認為基于鼓勵創(chuàng)新的價值取向,生成式人工智 能存在現(xiàn)有技術(shù)無法完全解決的固有缺陷,如果對此苛以無過錯的嚴格責(zé)任,則會制約相關(guān) 技術(shù)的創(chuàng)新和發(fā)展,30此觀點也是否定生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的主要理由。但是, 這本身存在一定的誤區(qū),從法律經(jīng)濟分析的方法來看,無過錯責(zé)任原則造成的整體社會成本 未必會大于過錯責(zé)任原則。法律上的“合理注意”要求對應(yīng)的是事故成本與預(yù)防成本之和最小 的注意水平,若違背了此合理注意義務(wù)則被認定為存在過失。但是,拋開歸責(zé)原則的限制, 理性民事主體從事民事行為其實均追求私人成本的最小化。采納無過錯責(zé)任原則并不意味著 行為人會為了防范事故而無限投入:一方面,無過錯責(zé)任原則往往與責(zé)任保險相配套,可以 減輕行為人的責(zé)任承擔(dān),同時無過錯責(zé)任原則導(dǎo)致的損害往往具有額度的限制,責(zé)任人承擔(dān) 的責(zé)任并非是無限制的。另一方面,在無過錯責(zé)任原則下,無論行為人采取何種注意義務(wù)和 措施,都不影響最終結(jié)果的實現(xiàn),即行為人均需要承擔(dān)與事故有關(guān)的全部社會成本,那么理 性經(jīng)濟人必然會選擇最小限度的注意措施。因此,若適用無過錯責(zé)任原則將使行為人承擔(dān)責(zé) 任過重而制約人工智能產(chǎn)業(yè)發(fā)展的立論是站不住腳的。
另外,從國際立法趨勢來看,產(chǎn)品責(zé)任中嚴格責(zé)任逐漸衰弱,過錯責(zé)任逐漸回歸。在早 期階段,大多數(shù)產(chǎn)品責(zé)任案件主要集中在制造缺陷上。法院為制造缺陷適用嚴格責(zé)任提供了 強有力的理論依據(jù):首先,制造商在預(yù)防產(chǎn)品事故發(fā)生方面具有顯著的優(yōu)勢地位。其可以通 過實施嚴格的測試程序、監(jiān)控生產(chǎn)過程中的數(shù)據(jù)以及改進安全規(guī)程來減少事故發(fā)生的風(fēng)險。其次,制造商有能力通過購買保險分攤責(zé)任損害或?qū)⒊杀痉謹偟剿薪K端用戶的價格中。這 意味著即使發(fā)生個別事故,制造商也可以通過經(jīng)濟手段減輕自身的負擔(dān)。相比之下,在過錯 責(zé)任原則下,原告往往面臨舉證困難的問題。其需要證明制造商在裝配線管理或安全規(guī)程制 定方面未能履行合理的注意義務(wù),而這通常需要進行復(fù)雜的證據(jù)收集和技術(shù)分析,對普通消 費者來說幾乎是不可能完成的任務(wù),因此嚴格責(zé)任更具有優(yōu)勢。然而,從20世紀中葉到21 世紀之初,隨著技術(shù)的進步和大規(guī)模生產(chǎn)的普及,產(chǎn)品責(zé)任案件的數(shù)量和性質(zhì)都發(fā)生了顯著 變化。這一時期,強大的技術(shù)和復(fù)雜商品的出現(xiàn)促使產(chǎn)品責(zé)任歸責(zé)原則逐漸演變。設(shè)計缺陷 和警示缺陷的訴訟請求逐漸增多。設(shè)計缺陷和警示缺陷的判定要求制造商不僅要確保產(chǎn)品的 物理完整性,還要對其設(shè)計的安全性和信息透明度負責(zé)。這種轉(zhuǎn)變不僅體現(xiàn)了法律對消費者 保護力度的加強,也推動了企業(yè)在產(chǎn)品研發(fā)和市場推廣過程中更加注重安全性和合規(guī)性。相 比制造缺陷,設(shè)計缺陷涉及的因素更為復(fù)雜,單純依賴消費者預(yù)期可能無法全面評估產(chǎn)品的 安全性與合理性。因此,法院開始轉(zhuǎn)向一種更具靈活性的標準——帶有過失色彩的“風(fēng)險效 益”標準。根據(jù)這一標準,法院需要對產(chǎn)品的設(shè)計屬性進行全面評估,權(quán)衡其優(yōu)點與缺點, 以判斷產(chǎn)品是否達到了合理的安全水平。對于警示缺陷的認定,通常適用“合理性”標準,即 評估制造商是否提供了充分的信息以使消費者能夠合理預(yù)見和規(guī)避風(fēng)險。設(shè)計缺陷和警示缺 陷的判定基本上適用過錯責(zé)任原則,這體現(xiàn)了產(chǎn)品責(zé)任從嚴格責(zé)任向過失責(zé)任的價值轉(zhuǎn)變。 因此,以產(chǎn)品責(zé)任為無過錯責(zé)任來否定生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,也是無法站住腳的。
第二,產(chǎn)品責(zé)任適合生成式人工智能系統(tǒng)多樣態(tài)、多層次的特征。生成式人工智能系統(tǒng) 十分復(fù)雜,涉及多個利益相關(guān)者,這使得追蹤其故障來源或?qū)⒐收系呢?zé)任歸咎于單個提供者 是十分困難的。判斷多元主體之間的過錯程度和責(zé)任大小以及對受害人受損權(quán)益的保護在司 法實踐中是一個很大的難題。生成式人工智能通過機器學(xué)習(xí)、深度學(xué)習(xí)等技術(shù)實現(xiàn)了自主性 和自適應(yīng)性,削減了人類對生成式人工智能的控制,因此對人工智能侵權(quán)行為進行歸因和責(zé)任的確定存在困境。
從產(chǎn)品責(zé)任的發(fā)展歷程來看,產(chǎn)品責(zé)任能夠應(yīng)對產(chǎn)品所帶來的復(fù)雜、交互式和動態(tài)風(fēng)險。 美國Air & Liquid Systems Corp. v. DeVries.31案中,制造商生產(chǎn)了一臺“裸金屬”渦輪機,隨后, 另一家零部件制造商在渦輪機上加裝了含石棉的墊圈。工人因此接觸到了石棉而受到損害, 之后工人起訴了原渦輪機制造商,認為其未對此作充分警示。問題在于,原制造商是否應(yīng)對 在其產(chǎn)品投放市場后加裝的含石棉零部件所造成的損害承擔(dān)責(zé)任,法院給出了肯定的答案。 該判例為生成式人工智能侵權(quán)責(zé)任的承擔(dān)提供了重要參考:基礎(chǔ)模型開發(fā)者需預(yù)見下游應(yīng)用 場景的潛在風(fēng)險;即便系統(tǒng)集成商添加有害組件,原始開發(fā)者仍負有限警示義務(wù);持續(xù)監(jiān)測 義務(wù)涵蓋產(chǎn)品整個生命周期,包括算法迭代更新等。正如渦輪機制造商被認定需要對產(chǎn)品投 入市場之后的改裝風(fēng)險負責(zé),人工智能基礎(chǔ)模型開發(fā)者也不能以“技術(shù)中立”為由逃避對衍 生應(yīng)用風(fēng)險的警示責(zé)任。這種動態(tài)責(zé)任機制恰能應(yīng)對機器學(xué)習(xí)系統(tǒng)在部署后持續(xù)演化的特 性。產(chǎn)品責(zé)任制度具有強大且富有活力的本質(zhì)在于:產(chǎn)品責(zé)任對制造商施加了售后義務(wù);生 產(chǎn)者需對產(chǎn)品進行測試以及了解風(fēng)險的義務(wù)并不會在產(chǎn)品投放市場時結(jié)束。
在容許風(fēng)險范圍內(nèi),生成式人工智能開發(fā)者作為創(chuàng)設(shè)風(fēng)險的主體必須承擔(dān)回避風(fēng)險的義 務(wù),因而有義務(wù)保障人工智能系統(tǒng)的安全風(fēng)險處于合理范圍之內(nèi),這是產(chǎn)品責(zé)任對風(fēng)險源監(jiān)督義務(wù)這一一般保證義務(wù)的要求所在,一旦生成式人工智能系統(tǒng)造成了危害后果,提供者則 應(yīng)當(dāng)對其風(fēng)險源所引發(fā)的損害后果承擔(dān)責(zé)任。生成式人工智能開發(fā)者、提供者對系統(tǒng)缺陷給 使用者或第三人造成損害的情況承擔(dān)產(chǎn)品責(zé)任,有利于督促開發(fā)者、提供者更好地控制風(fēng)險。 對于生成式人工智能不可預(yù)知的安全風(fēng)險,模型設(shè)計者、模型訓(xùn)練者、數(shù)據(jù)提供者等均具備 控制風(fēng)險、承擔(dān)風(fēng)險和分散風(fēng)險的能力。32此種情況下,這不是過錯問題,而是風(fēng)險分配和 損害救濟的承擔(dān)問題。33生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,可以實現(xiàn)對其設(shè)計、訓(xùn)練等行 為的源頭規(guī)制。這對于減輕受害人的舉證責(zé)任、救濟非合同相對人來說具有重要意義,對于 新型損害,例如歧視、虛假信息、信息泄露等也能更好地進行規(guī)制和防范,具有無法比擬的 優(yōu)勢。34歐盟《關(guān)于缺陷產(chǎn)品的責(zé)任指令》(Liability for Defective Products Directive)認定 人工智能侵權(quán)適用產(chǎn)品責(zé)任的主要原因是緩解受害人承擔(dān)的舉證困難,方便受害人快捷地獲 得賠償。生產(chǎn)者在將產(chǎn)品投入市場之前必然會對其進行充分的檢測從而消除可能存在的缺 陷。生產(chǎn)者也最能通過價格、保險等機制將風(fēng)險內(nèi)化,防止風(fēng)險擴大造成他人的損害。35產(chǎn) 品在規(guī)模銷售中其實已經(jīng)將風(fēng)險分散了,生產(chǎn)者通過產(chǎn)品的大規(guī)模銷售獲得巨額利潤的同 時,也應(yīng)當(dāng)承擔(dān)控制風(fēng)險的義務(wù)。另一方面,針對人工智能的產(chǎn)品特性,在嚴苛無過錯責(zé)任 與過錯責(zé)任之間存在“缺陷認定”、發(fā)展風(fēng)險抗辯事由等制度以緩沖嚴格責(zé)任的絕對剛性,產(chǎn) 品責(zé)任實際上兼具過錯責(zé)任與無過錯責(zé)任的優(yōu)勢。針對生成式人工智能的開發(fā)過程,從識別 超參數(shù)到清理訓(xùn)練數(shù)據(jù)再到測試模型,其實都與相關(guān)主體的選擇密切相關(guān),產(chǎn)品責(zé)任的歸責(zé) 原則并非絕對無過錯責(zé)任,也并非單一過錯責(zé)任,相反,產(chǎn)品責(zé)任往往根據(jù)風(fēng)險來源與缺陷 類型匹配多樣化的歸責(zé)原則。這恰好契合了生成式人工智能系統(tǒng)多身份、多樣態(tài)、多層次的 特征,可以根據(jù)風(fēng)險產(chǎn)生的來源或?qū)哟未_定缺陷的類型與屬性,并進一步適用相關(guān)的歸責(zé)原 則。36作為不真正連帶責(zé)任的一種,產(chǎn)品責(zé)任有助于協(xié)調(diào)模型供給者與模型調(diào)用者之間的關(guān) 系。當(dāng)因產(chǎn)品缺陷導(dǎo)致?lián)p害時,被侵權(quán)人既可以向模型供給者請求賠償,也可以向模型調(diào)用 者提出索賠請求。在這種責(zé)任框架下,無論是開發(fā)者還是運營者,在向用戶承擔(dān)賠償責(zé)任后, 可以根據(jù)模型卡技術(shù)記錄、模型提供者的說明等信息,確定價值鏈中其他相關(guān)主體是否存在 不當(dāng)行為,并向其進行追償。這不僅有助于明確各方的責(zé)任,還能確保受害者能夠及時獲得 賠償,同時避免責(zé)任主體之間的推諉。
(三)產(chǎn)品責(zé)任有利于實現(xiàn)與監(jiān)管的良性互動
社會主要通過兩種機制來管控諸如人工智能之類的新技術(shù)所帶來的風(fēng)險:責(zé)任和監(jiān)管。 這兩種機制在功能和實施方式上各有側(cè)重,但共同構(gòu)成了對新技術(shù)的全面治理框架。首先, 責(zé)任法是一種事后干預(yù)機制,僅在新技術(shù)造成損害時才發(fā)揮作用。其核心目的在于提供矯正 正義,即確保受害者能夠獲得適當(dāng)?shù)馁r償,同時為技術(shù)開發(fā)者和使用者提供正確的激勵,以 減少未來類似損害的發(fā)生。在人工智能領(lǐng)域,監(jiān)管機構(gòu)可能會要求開發(fā)者在算法設(shè)計階段就 考慮公平性、透明性和安全性問題,或者強制實施數(shù)據(jù)保護措施以防止隱私泄露。此外,政府還可以通過定期審計、認證程序或強制報告制度來監(jiān)督技術(shù)的實際應(yīng)用情況。值得注意的 是,這兩種機制并非相互排斥,而是可以相輔相成的。責(zé)任法雖然主要關(guān)注事后救濟,但它 也可以間接推動事前預(yù)防,因為潛在的責(zé)任風(fēng)險會促使技術(shù)開發(fā)者主動采取更嚴格的防范措 施。而監(jiān)管則能夠通過明確的標準和要求,為責(zé)任法的實施提供基礎(chǔ)依據(jù),使得責(zé)任分配更 加清晰合理。通過精心設(shè)計的產(chǎn)品責(zé)任制度,可以有效促進侵權(quán)責(zé)任與行政監(jiān)管之間的協(xié)調(diào) 互動。這種制度設(shè)計不僅能夠明確各方的責(zé)任界限,還能確保在處理侵權(quán)問題時,行政監(jiān)管 措施與民事賠償機制相輔相成,共同維護市場秩序和消費者權(quán)益。37
產(chǎn)品責(zé)任可以提供穩(wěn)健的框架,以處理人工智能模型和機器學(xué)習(xí)迭代問題。以藥品為例, 在將藥品投放市場之前,監(jiān)管機構(gòu)往往要求制造商至少進行三個階段的臨床試驗,并向監(jiān)督 機構(gòu)提交試驗數(shù)據(jù),對藥品的安全性和有效性進行嚴格的事前監(jiān)管審查。這個上市前的審批 過程是產(chǎn)生信息的過程。盡管存在此種嚴格的上市前審查措施,但是社會公眾對此藥品的特 性可能仍然知之甚少。因此,當(dāng)監(jiān)管機構(gòu)批準的新藥品被投放市場之后,此藥品將與眾多患 者相互作用,可能產(chǎn)生關(guān)于此藥品的安全性和有效性的新信息。此種“學(xué)習(xí)”需設(shè)計反饋循環(huán), 一旦發(fā)現(xiàn)新的風(fēng)險證據(jù),就應(yīng)當(dāng)調(diào)整監(jiān)管框架。制造商需要將新信息提交到監(jiān)督管理機構(gòu)(例 如額外風(fēng)險或新的用途、副作用等),增加新的警告或批準新的預(yù)期用途等。藥品的產(chǎn)品責(zé) 任框架為生成式人工智能侵權(quán)責(zé)任認定提供了借鑒模版。
生成式人工智能由于其具有交互性特征而與其他技術(shù)不同。從美國來看,美國食品藥品 監(jiān)督管理局(FDA)最初只批準了算法鎖定的人工智能/機器學(xué)習(xí)(AI/ML)設(shè)備,即設(shè)備 的代碼和輸出不會隨使用而改變。如今FDA已經(jīng)開始批準越來越復(fù)雜、自主的人工智能學(xué) 習(xí)系統(tǒng),這些系統(tǒng)可以根據(jù)數(shù)據(jù)輸入和分析進行學(xué)習(xí)和適應(yīng)。FDA于2021年1月發(fā)布了“基 于人工智能/機器學(xué)習(xí)(AI/ML)的軟件作為醫(yī)療設(shè)備(SaMD)”的行動計劃,并且在2022 年9月,完成了其數(shù)字健康軟件預(yù)認證(Pre-Cert)試點計劃,該計劃旨在為自適應(yīng)監(jiān)管方 法的開發(fā)提供信息。其中許多方法適用于機器學(xué)習(xí)設(shè)備,監(jiān)管機構(gòu)對進一步的范式轉(zhuǎn)變持開 放態(tài)度。FDA認識到需要更新醫(yī)療器械上市前變更審查的傳統(tǒng)框架,于2023年4月發(fā)布了 “人工智能/機器學(xué)習(xí)設(shè)備的預(yù)定變更控制計劃”(Predetermined Change Control Plan for Artificial Intelligence/Machine Learning Devices, PCCP),旨在減少可通過迭代修改提高性能的 自適應(yīng)設(shè)備的監(jiān)管障礙。FDA要求制造商在將人工智能設(shè)備提交市場推廣申請時包涵PCCP (人工智能設(shè)備的預(yù)定變更控制計劃),以便“預(yù)先指定并尋求對AI/ML(人工智能/機器學(xué) 習(xí))設(shè)備的預(yù)期修改(及其實施方法)的上市前授權(quán),而不必為每個按照PCCP指定和實施 的修改單獨提交市場推廣申請”。PCCP的核心要求是對配備PCCP的AI/ML設(shè)備所帶來的 好處和風(fēng)險,及風(fēng)險緩解措施進行上市前影響評估。PCCP要求監(jiān)管機構(gòu)在人工智能或機器 學(xué)習(xí)設(shè)備在上市前進行一定程度的審查,同時放寬變更限制范圍以便允許設(shè)備在上市后能夠 進行有限調(diào)整,而不需要開發(fā)者頻繁提交新提案。AI/ML技術(shù)推動了FDA監(jiān)管范式的轉(zhuǎn)變, 即從將大部分精力及資源投入到上市前批準的模式,轉(zhuǎn)變?yōu)閷W⒂诔掷m(xù)進行市場后監(jiān)控的模 式。38因此,產(chǎn)品責(zé)任能夠與監(jiān)管實現(xiàn)良好的反饋循環(huán)。生成式人工智能契合產(chǎn)品的屬性, 對其侵權(quán)責(zé)任的路徑也不能舍近求遠,而應(yīng)當(dāng)從最契合其本質(zhì)的產(chǎn)品責(zé)任出發(fā),調(diào)整產(chǎn)品責(zé)任的相關(guān)內(nèi)容。我國國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出,要建立健全人工 智能監(jiān)管體系,實行設(shè)計問責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu),實現(xiàn)對人工智能算法設(shè)計、 產(chǎn)品開發(fā)和成果應(yīng)用的全流程監(jiān)管。《暫行辦法》延續(xù)了上述文件從技術(shù)研發(fā)到使用的全過 程、全要素的監(jiān)管邏輯,并額外確立了安全評估、算法備案、預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)合規(guī)、 人工標注合規(guī)等具體制度安排。因此,生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,能夠?qū)崿F(xiàn)責(zé)任與 監(jiān)管的良好互動。
四、生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的具體展開
(一)產(chǎn)品責(zé)任框架下的主體識別
由于傳統(tǒng)產(chǎn)品責(zé)任以工業(yè)制成品為藍本,所以生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任存在一 定的困境。傳統(tǒng)意義上的產(chǎn)品責(zé)任僅規(guī)制生產(chǎn)者和銷售者等主體的行為,設(shè)計者和運營者并 非產(chǎn)品責(zé)任的適格主體。然而,在生成式人工智能應(yīng)用的背景下,設(shè)計者與運營者對產(chǎn)品缺 陷的產(chǎn)生起著決定性作用,若將二者排除在責(zé)任主體范疇之外,則可能會帶來責(zé)任分配不公 的結(jié)果。生成式人工智能可能涉及多方,鑒于人工智能流通方式的特殊性及損害賠償?shù)膹?fù)雜 性,采納廣義的產(chǎn)品責(zé)任定義更為合理,產(chǎn)品責(zé)任主體應(yīng)當(dāng)從生產(chǎn)者、銷售者擴充至生成式 人工智能流通鏈上負有責(zé)任的相關(guān)主體,承認設(shè)計者、運營者的責(zé)任主體地位。根據(jù)我國民 法典和產(chǎn)品質(zhì)量法關(guān)于產(chǎn)品責(zé)任的規(guī)定,設(shè)計者與運營者應(yīng)類比為產(chǎn)品責(zé)任中生產(chǎn)者與銷售 者的地位,設(shè)計者與運營者承擔(dān)連帶責(zé)任,運營者承擔(dān)先行賠付義務(wù),再向具體過錯方追償。
設(shè)計者也可以稱之為研發(fā)者,指研發(fā)人工智能模型的主體,即開發(fā)人工智能模型、收集 訓(xùn)練數(shù)據(jù)、構(gòu)筑訓(xùn)練用的數(shù)據(jù)集以及使用數(shù)據(jù)集進行人工智能訓(xùn)練的主體。其核心作用在于 通過使用數(shù)據(jù)進行(預(yù))訓(xùn)練的方式,形成人工智能模型。設(shè)計者主要負責(zé)設(shè)計模型、算法 等,對系統(tǒng)運行負有安全保障義務(wù),保障系統(tǒng)性能平衡,降低系統(tǒng)風(fēng)險發(fā)生概率。設(shè)計者在 某種程度上即是系統(tǒng)、模型、軟件的“生產(chǎn)者”,因此人工智能的設(shè)計者應(yīng)當(dāng)承擔(dān)與生產(chǎn)者類 似的責(zé)任。設(shè)計者應(yīng)當(dāng)遵循“可信賴智能倫理原則”,注重產(chǎn)品的安全性、穩(wěn)定性、智能性, 在此基礎(chǔ)上追求功能性。設(shè)計者應(yīng)當(dāng)構(gòu)建可信模型,在產(chǎn)品設(shè)計研發(fā)過程直至進入市場前, 應(yīng)當(dāng)進行全方位的功能性測試和調(diào)整。開發(fā)者必須披露相關(guān)風(fēng)險、潛在缺陷、人工智能決策 的可解釋程度,以及該系統(tǒng)所運用的“內(nèi)置價值或標準”。生成式人工智能侵權(quán)責(zé)任適用產(chǎn)品 責(zé)任,由最能夠控制算法安全風(fēng)險的開發(fā)者承擔(dān)主要責(zé)任,是比較公平與合理的。在生成式 人工智能基礎(chǔ)模型本身并無明顯缺陷,但下游用戶可能對其進行調(diào)整或濫用時,盡管直接導(dǎo) 致危害的是第三方的行為,但設(shè)計者仍可能因未能履行合理的注意義務(wù)而被追究責(zé)任。如果 設(shè)計者事先知曉其技術(shù)可能被用于此類用途,卻未采取任何措施來限制濫用行為或提醒用戶 相關(guān)風(fēng)險,則可能被視為未盡到應(yīng)有的謹慎義務(wù)。但是,此種責(zé)任分配并非絕對,法院在判 定時會綜合考慮多種因素,包括但不限于設(shè)計者的實際預(yù)見能力、技術(shù)實現(xiàn)的可行性以及社 會利益的平衡,以防止開發(fā)者責(zé)任過重而抑制創(chuàng)新。
運營者又被稱之為部署者,具有以下特點:其一,在相當(dāng)多情況下,部署者會以“微調(diào)” 的方式對研發(fā)者的模型進行二次訓(xùn)練。其二,部署者需要將模型以一定的方式“編入”特定的 軟件或者服務(wù)內(nèi),才能為使用者提供服務(wù)?!稌盒修k法》提到的“通過提供可編程接口”(API 接口)就是一種典型的“編入”方法,部署者通過API接口調(diào)用研發(fā)者的人工智能模型,從而 為他人提供服務(wù)。39歐洲《人工智能責(zé)任指令》(Artificial Intelligence Liability Directive)40 承認了運營者為責(zé)任主體,并區(qū)分為前端運營者(fronted operator)和后端運營者(backend operator):前端運營者指控制系統(tǒng)風(fēng)險且從中獲利的主體,或者指控制一定的風(fēng)險并且持 續(xù)定義技術(shù)特征、提供數(shù)據(jù)或基礎(chǔ)支持服務(wù)的主體;41后端運營者指持續(xù)定義技術(shù)特征、提 供數(shù)據(jù)和必要的后端支持的主體,即對與人工智能的運行和功能相關(guān)的風(fēng)險進行一定程度控 制的自然人或法人。系統(tǒng)運營者是指在人工智能開發(fā)之后,購買或受讓系統(tǒng)使用權(quán)、享有人 工智能系統(tǒng)運行中所形成和收集到的數(shù)據(jù)所有權(quán)或利用收集的數(shù)據(jù)進行系統(tǒng)優(yōu)化,從中獲取 利益的主體。換言之,運營者處于設(shè)計者的鏈條后端,當(dāng)設(shè)計者并未轉(zhuǎn)讓其設(shè)計開發(fā)的系統(tǒng) 時,就自動轉(zhuǎn)變?yōu)檫\營者;若將系統(tǒng)轉(zhuǎn)讓時,受讓方即為運營者,并負有對后續(xù)系統(tǒng)更新、 升級、測試、調(diào)整的義務(wù)。運營者承擔(dān)技術(shù)持有者責(zé)任,根據(jù)“可控制”要求下新的技術(shù)標準 與評價標準持續(xù)履行數(shù)據(jù)保護、內(nèi)容管控、溯源標記、監(jiān)管、異常警告、緊急關(guān)閉系統(tǒng)、持 續(xù)支持和修補、召回等義務(wù)。運營者可以通過投保強制責(zé)任保險等措施規(guī)避系統(tǒng)性風(fēng)險,除 利用生成式人工智能顛覆國家政權(quán)、輸出暴力色情內(nèi)容等違法行為以外,其僅應(yīng)承擔(dān)適度的 責(zé)任,鼓勵其投資新型技術(shù)、擴展算力規(guī)模并保護其技術(shù)利益。
(二)產(chǎn)品責(zé)任框架下生成式人工智能缺陷的認定標準
生成式人工智能大致可以分為基礎(chǔ)層、中間層和應(yīng)用層三層架構(gòu),生成式人工智能系統(tǒng) 的缺陷也應(yīng)當(dāng)根據(jù)不同的階段和層次進行認定,具體而言,可以根據(jù)生成式人工智能的生命 周期,即模型訓(xùn)練階段、模型設(shè)計階段、模型輸出階段,結(jié)合三個層次的特征綜合判斷其中 可能存在的“不合理危險”,即產(chǎn)品缺陷。42
第一,制造缺陷。人工智能的算法構(gòu)建明顯不同于傳統(tǒng)的產(chǎn)品制造,在模型訓(xùn)練階段, 訓(xùn)練過程可以被認定為制造過程,應(yīng)當(dāng)防止數(shù)據(jù)訓(xùn)練偏離設(shè)計預(yù)期,否則即可以認定為系統(tǒng) 存在制造缺陷,開發(fā)者應(yīng)當(dāng)承擔(dān)無過錯責(zé)任。如果瑕疵數(shù)據(jù)是由第三方提供的,此瑕疵數(shù)據(jù) 集也可以被視為組件部件。這意味著,如果第三方提供的數(shù)據(jù)存在質(zhì)量問題或不符合預(yù)期標 準,開發(fā)者也需要對這些外部因素導(dǎo)致的問題負責(zé)。數(shù)據(jù)提供者應(yīng)當(dāng)類比為原材料供應(yīng)者, 數(shù)據(jù)提供者與生成式人工智能開發(fā)者之間可以通過合同關(guān)系進行規(guī)制。但是,在數(shù)據(jù)來源于 開發(fā)者網(wǎng)絡(luò)抓取的情況下,若因為數(shù)據(jù)存在瑕疵而帶來不合理危險,則應(yīng)當(dāng)認定系統(tǒng)存在制 造缺陷,開發(fā)者應(yīng)承擔(dān)嚴格責(zé)任。模型訓(xùn)練的數(shù)據(jù)來源應(yīng)當(dāng)保證其合法性、安全性,不得侵 犯國家秘密或個人隱私。在基礎(chǔ)模型層上的模型訓(xùn)練,其運行基礎(chǔ)為高度復(fù)雜的算法模型基 座,這就意味著使用者基本上難以舉證證明模型基座的過錯及侵權(quán)行為,適用無過錯責(zé)任原 則有利于夯實安全基礎(chǔ),此為保障安全的首要要義所在。另外,專業(yè)模型往往以相關(guān)行業(yè)的 數(shù)據(jù)進行“喂養(yǎng)”,具有鮮明的行業(yè)特征,以醫(yī)療人工智能為例,在專業(yè)模型訓(xùn)練過程中往 往以患者、疾病、醫(yī)療規(guī)范等作為主要的數(shù)據(jù)訓(xùn)練對象,模型基座方無法直接與專業(yè)模型方 進行模型融合設(shè)計,需根據(jù)不同行業(yè)、不同類別的數(shù)據(jù)進行訓(xùn)練。生成式人工智能開發(fā)者可 以挑選數(shù)據(jù)提供者,或者本身同時為數(shù)據(jù)抓取者,故其應(yīng)當(dāng)對訓(xùn)練所使用的數(shù)據(jù)負有高度安 全責(zé)任。此時,專業(yè)模型開發(fā)者應(yīng)當(dāng)為制造者,承擔(dān)無過錯責(zé)任。例如,如果人工智能的初 始設(shè)計是使用不同患者群體的數(shù)據(jù)進行訓(xùn)練,但實際操作中卻使用了同質(zhì)患者群體的數(shù)據(jù)進行訓(xùn)練,這可能會被認定為系統(tǒng)存在制造缺陷。這種情況下,由于數(shù)據(jù)集的偏差可能導(dǎo)致系 統(tǒng)無法準確識別和處理多樣化的病例,從而影響系統(tǒng)診斷結(jié)果的準確性,此為制造缺陷的表現(xiàn)。
第二,設(shè)計缺陷。在模型設(shè)計階段,設(shè)計缺陷一般由設(shè)計原理、設(shè)計方案、產(chǎn)品結(jié)構(gòu)錯 誤等原因造成。生成式人工智能中最為核心的部分就是算法決策,設(shè)計缺陷是生成式人工智 能產(chǎn)品責(zé)任最重要的認定要件,設(shè)計者應(yīng)當(dāng)承擔(dān)算法合規(guī)義務(wù)、算法公正控制義務(wù)。生成式 人工智能的缺陷通常是由于設(shè)計選擇不當(dāng)造成的,包括不完善的算法或?qū)吘壡闆r考慮不足 等原因。生成式人工智能在設(shè)計和編譯過程中可能出現(xiàn)的數(shù)據(jù)建模錯誤、閾值設(shè)置錯誤等, 均可以被認定為設(shè)計缺陷。生成式人工智能的輸出往往不會直接導(dǎo)致?lián)p害結(jié)果的發(fā)生,因此, 就生成式人工智能的設(shè)計缺陷認定而言,應(yīng)當(dāng)采納“消費者可預(yù)期+同類型生成式人工智能模 型設(shè)計”標準,即主觀標準加客觀標準的模式。換言之,生成式人工智能產(chǎn)品用戶的期待在 于其不會對個人的人格權(quán)、個人信息等造成損害,同時生成式人工智能的輸出不會產(chǎn)生損害 社會公共利益的行為。這就意味著,生成式人工智能的模型設(shè)計應(yīng)當(dāng)構(gòu)筑以倫理為先導(dǎo)的利益平衡機制,遵守法律法規(guī)的要求,尊重社會公德、公序良俗,體現(xiàn)社會主義核心價值觀, 防止出現(xiàn)歧視、生成虛假信息和實施不公平競爭等行為,禁止非法獲取、披露、利用個人信 息和隱私、商業(yè)秘密等。如果在模型設(shè)計階段并未考量倫理要素,則可以認定此系統(tǒng)存在設(shè) 計缺陷,設(shè)計者需承擔(dān)過錯責(zé)任。但是,生成式人工智能具有高科技性、復(fù)雜性、專業(yè)性等 特征,消費者預(yù)期可能并不能準確判斷設(shè)計缺陷的存在,或者設(shè)計者可能通過培養(yǎng)消費者預(yù) 期而逃避責(zé)任,因此,必須輔之以客觀標準,且相關(guān)算法設(shè)計、模型設(shè)計需要進行公示并接 受技術(shù)監(jiān)管部門的審查。43客觀標準以“模型可信賴”為準,換言之,設(shè)計缺陷的認定需參考 同類型、同場景的生成式人工智能大模型的設(shè)計標準,若實踐中存在效益更優(yōu)、更加安全的 模型設(shè)計方式或標準,而致害的生成式人工智能系統(tǒng)的設(shè)計未達到此標準,則應(yīng)當(dāng)認定此系統(tǒng)存在設(shè)計缺陷。
第三,警示缺陷。生成式人工智能的設(shè)計者、運營者需要對其產(chǎn)品因使用說明不足或未 能充分警示使用風(fēng)險而導(dǎo)致的損害承擔(dān)責(zé)任。這一責(zé)任源于制造商對消費者的安全保障義 務(wù),即制造商有義務(wù)確保其產(chǎn)品在合理使用范圍內(nèi)不會對用戶造成傷害。具體而言,設(shè)計者 與運營者有義務(wù)向消費者提供關(guān)于產(chǎn)品固有風(fēng)險的充分警示。這些風(fēng)險不僅包括產(chǎn)品正常使 用中的潛在危險,還包括在合理可預(yù)見的誤用情況下可能出現(xiàn)的風(fēng)險。所謂“可預(yù)見性”,指 的是客觀合理的預(yù)期,而非僅僅考慮理論上可能發(fā)生但實際概率極低的情況。例如,某一生 成式人工智能系統(tǒng)被設(shè)計用于醫(yī)療診斷活動,設(shè)計者應(yīng)當(dāng)考慮到醫(yī)生或護士可能會如何使用 該系統(tǒng),并預(yù)測到他們可能因為誤解系統(tǒng)的功能而產(chǎn)生的錯誤操作。因此,設(shè)計者必須確保 提供的使用說明足夠詳細,以避免用戶因誤解或誤用而受到傷害。設(shè)計者、運營者應(yīng)當(dāng)承擔(dān) 全鏈條監(jiān)管義務(wù),其警示義務(wù)應(yīng)當(dāng)與注意義務(wù)一致,包括算法解釋與說明義務(wù),對生成內(nèi)容 進行合規(guī)注釋或標記的義務(wù)等。44警示缺陷既表現(xiàn)在設(shè)計者、運營者應(yīng)告知系統(tǒng)風(fēng)險存在而 未告知方面,也表現(xiàn)在損害發(fā)生后設(shè)計者、運營者未及時進行事后救濟方面。運營者應(yīng)當(dāng)加 強對用戶行為的監(jiān)督和指引,保障生成式人工智能在投入市場應(yīng)用流通時處于安全水平,并提升使用者的自我保護意識。在專業(yè)應(yīng)用層,由于生成式人工智能將被應(yīng)用到醫(yī)療、法律、 金融、教育等不同領(lǐng)域中,其可能產(chǎn)生的侵害后果與危害程度也不盡相同,此時提供者的警 示義務(wù)應(yīng)當(dāng)與專業(yè)相結(jié)合,區(qū)分不同的專業(yè)、場景、風(fēng)險等級進行告知。對于關(guān)鍵行業(yè)或者 高風(fēng)險領(lǐng)域,提供者則應(yīng)當(dāng)著重進行風(fēng)險評估和警示。如果生成式人工智能的輸出內(nèi)容容易 讓用戶產(chǎn)生誤解,例如用戶認為系統(tǒng)提供的信息是可靠的醫(yī)療建議,那么即便系統(tǒng)提供了免 責(zé)聲明,生成式人工智能系統(tǒng)的輸出仍可能被視為具有誤導(dǎo)性。因此,在設(shè)計和部署人工智 能時,設(shè)計者和運營者必須考慮到這些潛在影響,并采取適當(dāng)?shù)念A(yù)防和警示措施,否則即可 以認定系統(tǒng)存在警示缺陷。
第四,跟蹤觀察缺陷。由于基礎(chǔ)模型在投入流通時可能存在當(dāng)時科技水平下尚不能發(fā)現(xiàn) 的潛在缺陷和風(fēng)險,設(shè)計者與運營者還應(yīng)當(dāng)對基礎(chǔ)模型承擔(dān)跟蹤觀察義務(wù),并將新發(fā)現(xiàn)的潛 在缺陷和風(fēng)險及時通知產(chǎn)業(yè)生態(tài)下游參與者并協(xié)助其采取特定補救措施。45對于數(shù)字化產(chǎn) 品,研發(fā)者無需通過物理召回修復(fù)錯誤,只需安裝更新軟件來調(diào)整控制程序即可。因此,研 發(fā)者實際上需要在系統(tǒng)的整個生命周期內(nèi)持續(xù)進行產(chǎn)品監(jiān)測和維護。歐盟《人工智能法》要 求高風(fēng)險人工智能系統(tǒng)的提供商必須對算法進行“合格性評估”(comformity assessments), 并且建立“上市后監(jiān)測計劃”(post-market monitoring),以記錄高風(fēng)險人工智能系統(tǒng)整個生命 周期中的性能。跟蹤觀察缺陷的認定應(yīng)當(dāng)與發(fā)展風(fēng)險抗辯制度相銜接,以充分平衡產(chǎn)業(yè)創(chuàng)新 與權(quán)利保護之間的關(guān)系。人工智能運營者負有上市后監(jiān)測的責(zé)任,這意味著運營者不能在產(chǎn) 品投入市場流通后就停止關(guān)注系統(tǒng)的安全性和有效性。相反,運營者需要持續(xù)審查與該人工 智能系統(tǒng)相關(guān)的各種數(shù)據(jù)來源,如不良反應(yīng)報告、科學(xué)文獻等,以評估現(xiàn)有的警示和使用說 明是否仍然充分。如果發(fā)現(xiàn)新的風(fēng)險或問題,運營者應(yīng)及時更新產(chǎn)品說明,以確保用戶能夠 獲得最新的安全信息。在生成式人工智能運行期間,運營者可以采用“紅隊測試”的方式,通 過大模型間的攻防對抗測試以持續(xù)監(jiān)測受攻擊大模型的可能漏洞,并對可能存在的漏洞進行 警示和修補,或?qū)ζx軌道的算法進行規(guī)制和修正,并為受害者提供救濟途徑。
(三)生成式人工智能發(fā)展風(fēng)險抗辯的適用
第一,生成式人工智能發(fā)展風(fēng)險抗辯適用的條件。生成式人工智能流入市場并不會截斷 設(shè)計者對系統(tǒng)中存在的潛在風(fēng)險的掌握權(quán)。在既有技術(shù)水平的范疇內(nèi),生成式人工智能所引 發(fā)的危害結(jié)果,應(yīng)被視為一種難以規(guī)避的殘余風(fēng)險的體現(xiàn)。風(fēng)險將責(zé)任歸咎于個體,本質(zhì)上 是創(chuàng)新局限性的體現(xiàn)。即使生成式人工智能系統(tǒng)已經(jīng)進入市場流通,提供者也應(yīng)當(dāng)承擔(dān)風(fēng)險 控制義務(wù),一旦發(fā)現(xiàn)損害風(fēng)險抬頭,開發(fā)者就應(yīng)當(dāng)采取修正算法、限制訪問等遏制風(fēng)險結(jié)果 繼續(xù)蔓延的有效措施。基礎(chǔ)模型設(shè)計者應(yīng)承擔(dān)后續(xù)信息支持服務(wù),這要求基礎(chǔ)模型設(shè)計者通 過必要的信息披露和風(fēng)險追蹤措施以協(xié)助產(chǎn)業(yè)生態(tài)下游各參與者更好地依據(jù)該信息設(shè)定合 規(guī)計劃和履行風(fēng)險管理義務(wù)。例如,歐盟《人工智能法》序言第60條要求基礎(chǔ)模型提供者 在不損害其自身知識產(chǎn)權(quán)或商業(yè)秘密的前提下向下游運營者等利益相關(guān)方提供關(guān)于基礎(chǔ)模 型的必要信息以促進其對于合規(guī)義務(wù)的遵循,并于附件列明基礎(chǔ)模型設(shè)計者需要向下游運營 商披露的關(guān)于必要技術(shù)參數(shù)、模型性能測試結(jié)果、存在的缺陷和漏洞、所采取的風(fēng)險緩和措 施等信息示例。發(fā)展風(fēng)險抗辯適用的時間點是“將產(chǎn)品投入市場流通時”,一般來說,產(chǎn)品 投入流通的時間點是指生產(chǎn)者正式將產(chǎn)品推向市場、開始銷售的時間。然而,在人工智能產(chǎn)品領(lǐng)域,這個時間點可能并不那么明確。人工智能系統(tǒng)的缺陷是在投入流通時已經(jīng)存在的, 還是在測試階段或銷售之后經(jīng)過人工智能的自主學(xué)習(xí)而產(chǎn)生的,這一事實認定對發(fā)展風(fēng)險抗 辯的適用至關(guān)重要。具有自主學(xué)習(xí)能力的人工智能產(chǎn)品,由于其能夠在使用過程中根據(jù)用戶 數(shù)據(jù)自行更新算法,從而改變功能和性能,有時甚至超出生產(chǎn)者原本的設(shè)計和控制范圍,這 就要求在評估產(chǎn)品缺陷和責(zé)任時應(yīng)當(dāng)采取更為靈活的標準。當(dāng)產(chǎn)品缺陷致害狀態(tài)無法準確確 定或難以判斷時,可將最后一次實質(zhì)性更新的時間作為衡量是否適用發(fā)展風(fēng)險抗辯的關(guān)鍵節(jié) 點。如果在當(dāng)時的技術(shù)能力下無法采取結(jié)果回避或止損措施的,實質(zhì)上屬于法所容許的風(fēng)險 范圍,可以構(gòu)成免責(zé)事由。為了有效管控風(fēng)險,必須明確區(qū)分一般更新和重大更新,發(fā)展風(fēng) 險抗辯的適用需對重大更新進行重點審查。
第二,生成式人工智能發(fā)展風(fēng)險抗辯適用的標準。生成式人工智能的模型訓(xùn)練是一個動 態(tài)且持續(xù)的過程,訓(xùn)練數(shù)據(jù)來源巨大且分散,同時輸出結(jié)果可能與人類輸入的內(nèi)容息息相關(guān), 如何認定生成式人工智能的發(fā)展風(fēng)險,是否適用相關(guān)的免責(zé)事由則成為侵權(quán)歸責(zé)的重點?,F(xiàn) 有技術(shù)手段和人力資源基本上無法實現(xiàn)對生成式人工智能訓(xùn)練數(shù)據(jù)進行實時和全面的監(jiān)控。 《暫行辦法》基本上延用了網(wǎng)絡(luò)治理的避風(fēng)港規(guī)則思路,46這實際上仍然是將生成式人工智 能提供者當(dāng)作網(wǎng)絡(luò)服務(wù)提供者的思路進行的立法,混同了二者的本質(zhì),無法實現(xiàn)多方利益平 衡。在基礎(chǔ)層,大模型預(yù)訓(xùn)練是生成式人工智能集納海量數(shù)據(jù)進行分析的主要環(huán)節(jié)。當(dāng)前, 生成式人工智能所采用的主流模型是深度學(xué)習(xí)模型Transformer,預(yù)訓(xùn)練模型所包含的參數(shù) 量都是上百億甚至是上千億的,巨額參數(shù)正是海量數(shù)據(jù)匯聚的結(jié)果。由于生成式人工智能的 涌現(xiàn)性,無法完全排除其誘發(fā)風(fēng)險的可能,故應(yīng)當(dāng)構(gòu)建以發(fā)展風(fēng)險抗辯為核心的“安全港” 制度。此制度可以為技術(shù)應(yīng)用提供一個相對安全的環(huán)境,只要企業(yè)在開發(fā)和部署人工智能系 統(tǒng)時遵循了某些預(yù)先確定的最佳實踐和標準,就可以在某種程度上免于擔(dān)責(zé)。這可以為企業(yè) 提供清晰的行為指引框架,鼓勵其采取積極措施。也有學(xué)者將此稱為“技術(shù)避風(fēng)港”,即監(jiān)管 機構(gòu)通過技術(shù)審核,認定一項或多項技術(shù)方案作為合規(guī)技術(shù)方案,開發(fā)者采取了技術(shù)合規(guī)方 案就能夠獲得責(zé)任豁免。47安全港制度本質(zhì)就是發(fā)展風(fēng)險抗辯理念的體現(xiàn),即設(shè)計者只要采 取了“當(dāng)時科學(xué)技術(shù)水平”要求下的技術(shù)措施,就可以據(jù)此免于承擔(dān)侵權(quán)責(zé)任。“當(dāng)時科學(xué)技 術(shù)水平”的認定需要綜合考慮技術(shù)水平的時間性、行業(yè)性、區(qū)域性。針對生成式人工智能的 特征,應(yīng)當(dāng)對“必要措施”采取限縮解釋,即主要包括停止生成、停止傳輸、消除等處置措施。 明確“消除”不等同于“刪除”,在生成式人工智能中若直接將語料庫刪除,使作品在物理意義 上消失,那么在系統(tǒng)判斷錯誤的情況下代價過高,畢竟生成式人工智能不等同于司法裁判。 設(shè)計者的事后注意義務(wù)則集中于生成式人工智能的風(fēng)險等級和被損害的利益價值判斷方面, 設(shè)計者需采取從限制功能、暫停到終止人工智能等多項處置措施,防止風(fēng)險進一步演化。此 外,生成式人工智能運營者不僅是將風(fēng)險源引入市場或社會的責(zé)任主體,而且其還可以利用 技術(shù)和資本權(quán)力,控制生成式人工智能本身的制造安全,直接管理應(yīng)用中的生成式人工智能 的實時安全水平。生成式人工智能的技術(shù)風(fēng)險在系統(tǒng)開發(fā)和應(yīng)用階段逐步形成并實現(xiàn),設(shè)計 者熟知生成式人工智能技術(shù)開發(fā)的全過程,對其應(yīng)用風(fēng)險具有超越其他一般人的預(yù)見可能 性。運營者還掌握著生成式人工智能應(yīng)用安全風(fēng)險的支配管理能力,不僅在應(yīng)然上承擔(dān)風(fēng)險管理責(zé)任,還必須在實然上采取各項風(fēng)險預(yù)防措施,如嚴厲的風(fēng)險評估、持續(xù)的監(jiān)控機制和 有效的應(yīng)急處理措施等,以最大程度地減少和控制生成式人工智能技術(shù)可能帶來的各類風(fēng) 險。
五、結(jié)語
在當(dāng)今人工智能技術(shù)迅猛發(fā)展的背景下,如何合理界定生成式人工智能的屬性與侵權(quán)責(zé) 任成為法律領(lǐng)域的重要議題。從本質(zhì)上看,生成式人工智能提供者不符合當(dāng)前網(wǎng)絡(luò)服務(wù)提供 者的特征。在現(xiàn)有民事制度下,我們不妨向產(chǎn)品責(zé)任尋求突破路徑。在產(chǎn)品責(zé)任框架下,基 于生成式人工智能的特征,傳統(tǒng)的產(chǎn)品檢驗標準已顯得力不從心。因此,產(chǎn)品責(zé)任認定標準 需要轉(zhuǎn)向基于功能性公共政策考量的方法,以評估生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任的合理 性。這一轉(zhuǎn)變的核心在于判斷人工智能技術(shù)是否符合大規(guī)模生產(chǎn)和廣泛危害風(fēng)險的范式,此 為現(xiàn)代產(chǎn)品責(zé)任法中的兩個關(guān)鍵要素。然而,在人工智能技術(shù)領(lǐng)域,情況變得更加復(fù)雜。生 成式人工智能具有自主性、不透明性、不可預(yù)測性等特征,這導(dǎo)致有學(xué)者認為人工智能侵權(quán) 歸責(zé)需脫離產(chǎn)品責(zé)任,理由主要是產(chǎn)品責(zé)任為嚴格責(zé)任,生產(chǎn)者難以控制生成式人工智能中 存在的風(fēng)險,因此要求生產(chǎn)者承擔(dān)無過錯責(zé)任則對其不公平;生成式人工智能大多以服務(wù)的 形態(tài)存在,不符合產(chǎn)品的定義等。但是這些理由大多是對產(chǎn)品責(zé)任的誤解。生成式人工智能 侵權(quán)歸責(zé)適用產(chǎn)品責(zé)任具有合理性,產(chǎn)品責(zé)任契合“成本最低避免者”的責(zé)任分擔(dān)理念。在 生成式人工智能技術(shù)日益普及的背景下,我們應(yīng)更多地關(guān)注功能性公共政策因素,以決定是 否將產(chǎn)品責(zé)任適用于人工智能侵權(quán)行為,其中最重要的考量因素之一是代碼的大規(guī)模生產(chǎn)性 質(zhì)。在人工智能時代,產(chǎn)品責(zé)任的適用標準逐漸從“物理缺陷追責(zé)”向“系統(tǒng)風(fēng)險治理”轉(zhuǎn) 變。因此,生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,有利于實現(xiàn)對風(fēng)險的源頭控制與治理。
附注:
1、劉杰:《ChatGPT類生成式人工智能產(chǎn)品提供者之刑事責(zé)任》,載《法治研究》2024年第2期,第61— 71頁;周翔:《算法規(guī)制如何場景化》,載《東方法學(xué)》2024年第2期,第136—150頁。
2、在我國現(xiàn)行立法下,生成式人工智能侵權(quán)責(zé)任主體“提供者”的內(nèi)涵并不明確?!渡墒饺斯ぶ悄芊?wù) 管理暫行辦法》將“提供者”定義為服務(wù)提供者。本文主張生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任,在此背景 下,提供者的范圍主要包括設(shè)計者與運營者。
3、 王杰:《生成式人工智能服務(wù)輸出侵犯版權(quán)內(nèi)容的救濟研究》,載《科技與出版》2024年第7期,第59 —69頁。
4 、姚志偉:《生成式人工智能服務(wù)提供者在私法上的法律性質(zhì)》,載《上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué) 版)》2024年第12期,第127—142頁。
5、 徐小奔、薛少雄:《生成式人工智能服務(wù)提供者版權(quán)注意義務(wù)的法律構(gòu)造》,載《科技與出版》2024年 第7期,第48—58頁。
6、 鄭志峰、羅立鋮:《論生成式人工智能的“避風(fēng)港”規(guī)則》,載《人工智能》2024年第1期,第91—99頁。
7、 Beatriz Botero Arcila, Is It a Platform? Is It a Search Engine? It's ChatGPT! The European Liability Regime for Large Language Models, 3 Journal of Free Speech Law 455, 488 (2023).
8、 參見金庚星:《媒介即模型:“人—ChatGPT”共生自主系統(tǒng)的智能涌現(xiàn)》,載《學(xué)術(shù)界》2023年第4期, 第77頁。
9、徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,載《法律科學(xué)》2023 年第4期,第73頁。
10、 徐偉:《生成式人工智能侵權(quán)中因果關(guān)系認定的迷思與出路》,載《數(shù)字法治》2023年第3期,第129 —143頁。
11、 徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,載《法律科學(xué)(西 北政法大學(xué)學(xué)報)》2023年第4期,第69—80頁。
12、 Frank H. Easterbrook, Cyberspace and the Law of the Horse, 1996 University of Chicago Legal Forum 207, 215 (1996) .
13 、參見杭州刀豆網(wǎng)絡(luò)科技有限公司訴長沙百贊網(wǎng)絡(luò)科技有限公司等侵害作品信息網(wǎng)絡(luò)傳播權(quán)糾紛案,杭州 互聯(lián)網(wǎng)法院(2018)浙0192民初7184號民事判決書。
14、 謝堯雯:《生成式人工智能價值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配》,載《政法論壇》2025年第2期,第 36—46頁。
15、 Deimante Rimkute, AI and Liability in Medicine: The Case of Assistive-Diagnostic AI, 16 Baltic J.L. & Pol. 64, 81 (2024).
16 、Saloomey v. Jeppesen & Co., 707 F.2d 671, 676 (2d Cir. 1983).
17、 Way v. Boy Scouts of America, 856 S.W.2d 230, 238-239 (Tex. Ct. App. 1993). 參見王樂兵:《自動駕駛汽車 的缺陷及其產(chǎn)品責(zé)任》,載《清華法學(xué)》2020年第2期,第93—112頁。
18、 Lewin v. McCreight, 655 F. Supp. 282, 284 (E.D. Mich. 1987).
19、Tyler Lisea, Lemmon Leads The Way To Algorithm Liability: Navigating The Internet Immunity Labyrinth, 50 Pepp. L. Rev. 785, 822 (2023).
20、Lemmon v. Snap, Inc., 995 F.3d 1085, 1087 (9th Cir. 2021).
21、商建剛:《算法決策損害責(zé)任構(gòu)成的要件分析》,載《東方法學(xué)》2022年第6期,第44—57頁。
22、溫世揚、吳昊:《論產(chǎn)品責(zé)任中的“產(chǎn)品”》,載《法學(xué)論壇》2018年第3期,第71—80頁。
23、Tyler Lisea, Lemmon Leads the Way to Algorithm Liability: Navigating the Internet Immunity Labyrinth, 50 Pepp. L. Rev. 785, 822 (2023). 7
24、彭誠信主編:《人工智能責(zé)任》,上海人民出版社2024年版,第38頁。
25 Deimante Rimkute, AI and Liability in Medicine: The Case of Assistive-Diagnostic AI, 16 Baltic J.L. & Pol. 64, 81 (2024).
26、徐著雨、岳遠雷:《醫(yī)療人工智能算法風(fēng)險防范的法治化思考》,載《醫(yī)學(xué)與哲學(xué)》2023年第11期, 第67—71頁。
27、吳振吉:《人工智慧醫(yī)療傷害之損害賠償責(zé)任》,載《臺大法學(xué)論叢》2022年第2期,第477—536頁。
28、Simulados Software, Ltd. v. Photon Infotech Priv., Ltd., 40 F. Supp. 3d 1191 (N.D. Cal. 2014).
29、參見潘喆、陸麗鵬:《自動駕駛汽車致人損害責(zé)任的認定分歧與出路》,載《上海法學(xué)研究》2022年第 5卷,第301—306頁。
30、王利明:《生成式人工智能侵權(quán)的法律應(yīng)對》,載《中國應(yīng)用法學(xué)》2023年第5期,第27—38頁。
31 、Air & Liquid Systems Corp. v. DeVries, 139 S. Ct. 986 (2019).
32、楊潔:《論智能汽車產(chǎn)品缺陷認定及其責(zé)任承擔(dān)》,載《東南大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2020年第 6期,第107—114頁。
33 、王樂兵:《自動駕駛汽車的缺陷及其產(chǎn)品責(zé)任》,載《清華法學(xué)》2020年第2期,第93—112頁。
34、 韓凌月、張安毅:《人工智能產(chǎn)品質(zhì)量的法律規(guī)制研究》,載《河南財經(jīng)政法大學(xué)學(xué)報》2023年第6期, 第76—82頁。
35 、周學(xué)峰:《生成式人工智能侵權(quán)責(zé)任探析》,載《比較法研究》2023年第4期,第117—131。
36 、戴昕:《無過錯責(zé)任與人工智能發(fā)展——基于法律經(jīng)濟分析的一個觀點》,載《華東政法大學(xué)學(xué)報》2024 年第4期,第38—55頁。
37、 謝堯雯:《生成式人工智能價值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配》,載《政法論壇》2025年第2期,第 36—46頁。
38、Catherine M. Sharkey, A Products Liability Framework for AI, 25 The Columbia Science &Technology Law Review 240, 260 (2024).
39、 姚志偉:《生成式人工智能服務(wù)提供者在私法上的法律性質(zhì)》,載《上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2024年第12期,第127—142頁。
40 、歐盟已于2025年2月撤回此立法提案,但是關(guān)于運營者的規(guī)定仍然具有參考意義。
41、王瑩:《算法侵害責(zé)任框架芻議》,載《中國法學(xué)》2022年底3期,第165—184頁。
42、Li Yanan, Reconstructing Defect Identification Rules for Artificial Intelligence Products, 12 China Legal Science 75, 105 (2024).
43、龍柯宇:《生成式人工智能應(yīng)用失范的法律規(guī)制研究——以ChatGPT和社交機器人為視角》,載《東方 法學(xué)》2023年第4期,第44—55頁。
44 、張惠彬、張秀璇:《公私法協(xié)同視野下AIGC服務(wù)提供者的內(nèi)容審核義務(wù)》,載《武漢科技大學(xué)學(xué)報(社 會科學(xué)版)》2024年第6期,第62—73頁。 45、秦瑞標:《大模型時代生成式人工智能治理的邏輯更新與回應(yīng)路徑——以〈生成式人工智能服務(wù)管理暫 行辦法〉為視角》,載《時代法學(xué)》2024年第3期,第28—41頁。
46、在規(guī)范服務(wù)專章中提出了在發(fā)現(xiàn)違法內(nèi)容時及時采取停止生成、停止傳輸、消除等處置措施,采取模型 優(yōu)化訓(xùn)練等措施的義務(wù)(第14條),以及建立健全投訴、舉報機制,設(shè)置便捷的投訴、舉報入口,公布處 理流程和反饋時限,及時受理、處理公眾投訴舉報并反饋處理結(jié)果等接受權(quán)利人通知的義務(wù)(第15條)。
47、沈偉偉:《技術(shù)避風(fēng)港的實踐及法理反思》,載《中外法學(xué)》2023年第4期,第906—922頁。
