人工智能技術的應用是大勢所趨,人工智能產業(yè)將成為大國科技競爭的重點領域。人工智能技術的核心在于機器學習,訓練人工智能掌握近似人類的學習能力。通過這樣的訓練,人工智能可以掌握圖片修改、視頻制作、文字寫作等能力。
當然,要訓練人工智能掌握這樣的學習能力,必須對其“投喂”大量作品,通過作品的“投喂”使人工智能掌握生成新內容的算法。這會導致人工智能技術開發(fā)者與被“投喂”作品的權利人之間的沖突。
如2023年上半年美國藝術家薩拉·安德森等起訴Stability AI等人工智能公司案,下半年美國喜劇演員薩拉·西爾弗曼等起訴Meta公司和OpenAI公司案,就是這種沖突在現(xiàn)實中的反映。最近,隨著《紐約時報》與OpenAI的談判陷入僵局,《紐約時報》也對OpenAI提起了類似訴訟,可見在立法和司法上解決類似沖突的必要性。
一、人工智能輸出內容與“投喂”的作品大概率不相似
在上訴案件中,無論是美國藝術家薩拉·安德森等起訴Stability AI等人工智能公司案,還是薩拉·西爾弗曼等起訴Meta公司和OpenAI公司案,作品權利人的大部分訴請均被法院駁回,唯一保留的是美國藝術家薩拉·安德森指控Stability AI侵害復制權的訴請。這是因為,在以上案件中,原告無法證明其作品與被告運營的人工智能生成物構成實質性相似,這就無法證明被告侵害了原告的版權。
這反映了人工智能生成內容的特點,訓練人工智能時輸入的作品與訓練完成后人工智能輸出的結果之間并無必然相似的關系。這也充分說明了,人工智能生成內容與訓練人工智能輸入的作品之間并無直接競爭。
當然,最近的紐約時報訴OpenAI案表明,紐約時報主張OpenAI生成內容與《紐約時報》的文字作品雷同。如果紐約時報的主張屬實,就說明人工智能技術遠不如公眾想象的成熟,人工智能算法有受到現(xiàn)實法律規(guī)則和社會倫理約束的必要性。
二、日本外的多數(shù)國家未就人工智能訓練使用他人作品的行為定性表態(tài)
盡管訓練人工智能時輸入的作品與訓練完成后人工智能輸出的結果之間并不必然相似,但訓練人工智能時會不可避免地利用權利人的作品。
在美國藝術家薩拉·安德森等訴Stability AI人工智能公司等案中,如果Stability AI公司最終被法院認定復制了原告的作品,除非Stability AI的行為符合著作權限制制度,否則無法免于承擔法律責任。
各國著作權法普遍存在著作權限制制度,該項制度的核心是對著作權人的權利作出限制,豁免特定情況下的侵權法律責任。該類制度的作用是為了平衡個人權利與公共利益之間的沖突。例如學生群體為了個人學習的目的少量復制公共圖書館的圖書,再如游客在公共場所拍照時不可避免地復制雕塑、建筑等作品。
人工智能技術開發(fā)者訓練人工智能的過程中會不可避免地復制權利人作品,除非該種復制行為構成“合理使用”,否則人工智能技術的開發(fā)者難以擺脫法律責任。
就是否對訓練人工智能過程中復制權利人作品的行為適用“合理使用”制度,大多數(shù)國家尚未在立法和司法層面作出回應。例如歐洲國家的著作權法明確規(guī)定了著作權限制制度的適用情形,但目前未有國家明確規(guī)定訓練人工智能過程中復制權利人作品的行為適用著作權限制制度。
美國版權法的權利限制制度被稱為“合理使用”,不同于適用情形特定的歐洲國家的著作權限制制度,這種合理使用制度僅規(guī)定了若干判定合理使用的要素。實踐中,美國法院需要結合該若干要素和在先判例判決特定行為是否構成合理使用。正如上文所言,盡管美國有多起作品權利人與AI公司之間的訴訟,但美國法院尚未就訓練人工智能過程中復制權利人作品的行為是否構成合理使用表態(tài)。
不同于歐美,日本政府明確表態(tài),日本著作權法既有的“文本與數(shù)據(jù)挖掘”限制制度可以適用于人工智能訓練時使用他人作品的行為。盡管政府的主張尚未得到法院判決的確認,但日本政府的態(tài)度表明其謀求人工智能產業(yè)發(fā)展的迫切性。在發(fā)達國家中,日本人工智能產業(yè)發(fā)展的優(yōu)勢并不明顯,因此急切需要法律為人工智能產業(yè)松綁,從而實現(xiàn)人工智能產業(yè)發(fā)展的彎道超車。
日本、美國和歐盟普遍認可“數(shù)據(jù)挖掘(使用計算機分析海量數(shù)據(jù)獲取有價值信息)”限制規(guī)則,“數(shù)據(jù)挖掘”限制制度與人工智能并無必然關聯(lián),但日本巧妙地將“數(shù)據(jù)挖掘”限制制度擴張到人工智能場合,解決了人工智能訓練使用他人作品行為的定性問題。
日本政府的政策表明國家利益對著作權限制制度的影響,更充分說明了人工智能相關制度具備很強的國家政策性。
三、我國應當為人工智能訓練使用他人作品行為構建合理使用制度
在我國,已有企業(yè)開展了人工智能技術的研發(fā)和應用,同樣存在利用權利人作品訓練人工智能的情形,其中的版權糾紛不可避免。目前已經有權利人對企業(yè)使用其作品訓練人工智能的行為提起民事訴訟。因此,在我國為訓練人工智能使用他人作品的行為是否構成合理使用,成為亟待解決的問題。
我國《著作權法》規(guī)定了“12+1”種“合理使用”情形,其中“12”是特定的“合理使用”情形,“1”是“法律、行政法規(guī)規(guī)定的其他情形”,即兜底條款。目前法定的“12+1”種“合理使用”情形并不包含為訓練人工智能使用他人作品的行為,《著作權法實施條例》和《信息網(wǎng)絡傳播權保護條例》尚未修訂,目前也未將為訓練人工智能使用他人作品的行為定性為合理使用。
盡管立法未有明確規(guī)定,但理論上將為訓練人工智能使用他人作品的行為定性為合理使用仍有一定的空間。
根據(jù)我國《著作權法》,“合理使用”行為必須符合“三步檢驗法”,即“特殊情況下使用作品”,“不得影響該作品的正常使用”,“也不得不合理地損害著作權人的合法權益”。其中的“特殊情況”即《著作權法》法定的12種合理使用情形,當然司法解釋也有擴張合理使用情形的先例。“不得影響該作品的正常使用”要求使用者不得與作品權利人開展直接的市場競爭,不允許使用者的創(chuàng)作直接替代權利人的作品。“不得不合理地損害著作權人的合法權益”是指,“合理使用”的行為是對著作權人利益的損害,盡管這種損害的發(fā)生不可避免,但使用者應將這種損害限定在最小限度。
正如上文所言,人工智能訓練時輸入的作品與其輸出結果之間并無必然相似的關系,人工智能的輸出結果取決于其算法,其輸出結果具有不特定性。大部分情況下,人工智能訓練時輸入的作品與其輸出的結果是不構成實質性相似的。這意味著人工智能的輸出結果不會與權利人的作品直接展開市場競爭,不會影響權利人作品的市場。
也就是說,盡管利用權利人作品訓練人工智能的行為不在法定的特殊情形之內,但該種行為實質上符合合理使用的“三步檢驗標準”。
當然,為訓練人工智能使用他人作品的行為,不可避免會導致權利人的損失。對此,有研究建議對訓練人工智能使用他人作品的合理使用情形進行限縮。如有美國學者認為應保障教學和科研實體的權利,建議只有為了非商業(yè)、教學和科研目的利用權利人作品訓練人工智能的行為才可以構成合理使用。
這種折中方案,避免了將任何利用權利人作品訓練人工智能的行為認定為合理使用,給作品權利人造成的損失,在一定程度上維護了權利人的利益。但人工智能產業(yè)的發(fā)展需要大算力和尖端硬件的支持,教學、科研機構并無法承擔其中的成本。因此,僅允許教學科研機構訓練人工智能目的使用他人作品,并無法實現(xiàn)人工智能的發(fā)展。
當然,從維護權利人利益的角度,可以對訓練人工智能利用他人作品的行為采法定許可制度,即人工智能的運營者可以未經許可利用權利人作品訓練人工智能,但應當向權利人支付費用。相比“合理使用”制度,法定許可制度照顧了權利人的利益,更為合理。
但人工智能技術存在“技術黑箱”,人工智能訓練過程中使用了何人的何種作品,使用的數(shù)量具體是多少,都是難以確定的。此外,我國的著作權集體管理經驗尚不豐富,現(xiàn)行法下很難有集體管理組織代表權利人參與談判,并維護權利人的利益。就此而言,法定許可制度看似美好,但缺乏實施層面的可行性。
因此,從促進人工智能產業(yè)發(fā)展的角度,應在利用權利人作品訓練人工智能的行為是否構成合理使用的問題上采取寬松政策,即任何為訓練人工智能利用他人作品的行為均應免責。
結語
人工智能對人類社會最深遠的影響在于,人工智能對人類勞動的取代,將影響特定群體的生存。隨著人工智能技術的不斷成熟,即使是沒有經過專業(yè)訓練的業(yè)余人士,也可以通過計算機指令生成大量的影視、音樂、文字或美術作品。這樣一來,傳統(tǒng)藝術創(chuàng)作者的市場競爭力無疑會受到影響,而人工智能的這種能力依賴于對傳統(tǒng)藝術創(chuàng)作者作品的學習,因此不可能不遭到傳統(tǒng)藝術創(chuàng)作者的反對。
這是時代接受技術革新和應用的必然結果,而非合理使用制度導致的惡果。
