日本在人工智能生成物可版權(quán)性方面的研究,最早可追溯至 20世紀 90 年代關(guān)于計算機生成創(chuàng)作物相關(guān)的學(xué)術(shù)討論。通過對日本政府的多份官方報告與學(xué)術(shù)界各類觀點進行梳理之后,不難發(fā)現(xiàn)在援引日本著作權(quán)法中“選擇的幅度”理論的背景下,即對著作物潛在的表達方式具有較大選擇空間時,人工智能生成物是有可能被認定為受到著作權(quán)法所保護的著作物的,從而得到著作權(quán)法保護,對相關(guān)利益主體的利用行為起到規(guī)范作用。此外,日本在技術(shù)監(jiān)管和著作權(quán)保護之間的平衡措施,例如侵權(quán)檢測機制和數(shù)據(jù)使用的透明度要求等提案,也存在可操作性較高的參考價值,以期規(guī)范人工智能技術(shù)健康發(fā)展,同時有效保護著作權(quán)人利益——
一、問題的提出
近年來,人工智能技術(shù)取得了令人矚目的發(fā)展,但隨之而來的是許多現(xiàn)有法學(xué)理論與制度無法妥善處理的問題。例如人工智能生成物在著作權(quán)法領(lǐng)域內(nèi)能否作為著作物受到保護的問題,這便是一個亟待解決的核心問題[1]。若人工智能生成物可以被視為著作物,那么作者身份確認及著作權(quán)歸屬等問題將隨之而來;反之,若不對其進行著作權(quán)保護,則需要探討是否應(yīng)通過其他法律手段予以規(guī)制[2]。
無獨有偶,日本政府在 2016 年發(fā)布的《知識產(chǎn)權(quán)推進計劃 2016 》中,也明確提出了涉及人工智能生成物的知識產(chǎn)權(quán)問題[3]。從研究的時間點來看,中日兩國起步時間基本相同,但是學(xué)術(shù)界的觀點走向各有特色。
根據(jù)現(xiàn)行日本《著作權(quán)法》,部分學(xué)者認為人工智能自主生成的作品并不符合“創(chuàng)造性地表達思想或感情的生成物”的定義(依據(jù)日本《著作權(quán)法》第 2 條),因此無法被認定為著作物。例如, 在《新一代知識產(chǎn)權(quán)系統(tǒng)討論委員會報告書———面向應(yīng)對數(shù)字網(wǎng)絡(luò)化的下一代知識產(chǎn)權(quán)系統(tǒng)建設(shè)(2016 年)》中明確指出,若用戶對生成物的貢獻程度僅限于簡單的指示,且不涉及創(chuàng)造性的參與(即人工智能系統(tǒng)或?qū)W習(xí)模型的預(yù)設(shè)者未被認定為創(chuàng)作者),則該生成物在現(xiàn)行著作權(quán)法下不能 被承認為著作物[4]。換言之,當前日本著作權(quán)法所承認的人工智能生成物僅限于人類把人工智能當做工具來進行創(chuàng)作活動時產(chǎn)生的生成物。
然而,人工智能生成物與人類著作的表現(xiàn)相似,閱讀之下很容易帶來不知作者姓甚名誰的混淆情況,并出現(xiàn)相關(guān)權(quán)利僭越的問題,這便是慶應(yīng)義塾大學(xué)奧邨弘司教授所提出的“僭稱問題”①。 即當人工智能生成物被以人類名義發(fā)表并享受相關(guān)權(quán)益時,這種行為構(gòu)成了“僭稱行為”。尤其在人工智能生成物外形上無法與人類創(chuàng)作物區(qū)分時,若無知情者告發(fā),僭稱行為的識別和規(guī)制將面臨巨大的挑戰(zhàn),僭稱者由此獲取的利益也將大大增加[5]。按照著作物歸屬于著作權(quán)人,想要利用著作物就必須得到著作權(quán)人的許諾的原則,這類冒充人工智能生成物之作者的冒充者,將會增加人工智能著作物在文化流通領(lǐng)域的負擔,帶來諸多權(quán)利混淆隱患。并且,在實踐中我們可知,對于人工智能生成物和人類作品的區(qū)分已經(jīng)較為困難,隨著人工智能技術(shù)的成熟,二者之間的區(qū)分度會進一步下降。在匿名情況下,人工智能生成物因其藝術(shù)性而足以在司法實踐中得到“孤兒作品”水平的保護[6]。因此,這些外人難以分辨出其究竟是著作物與否的人工智能生成物,將可能被作者的冒充者所利用。一旦未參與創(chuàng)作的個人對人工智能生成物主張版權(quán)侵權(quán)或者開展事前的使用許可或轉(zhuǎn)讓的,相關(guān)公眾則難以判斷該主張是否成立,要么選擇不使用該內(nèi)容,要么選擇支付版稅[7]。此情境下,不法分子通過隱瞞這些作品其實來自于人工智能之手的真相,將其冒充為自己的作品并且發(fā)表,這便會使得人工智能生成物輕易獲得與人類作品相同的市場地位與客觀評價。這種行為會導(dǎo)致大量被當做人類作品的人工智能生成物流入市場進行交易,將進一步加劇市場秩序的混亂,使得難以區(qū)分創(chuàng)作來源的現(xiàn)象變得普遍[8]。
對于僭稱問題,日本學(xué)者表示:“僭越內(nèi)容的增加不僅會使為第二類型內(nèi)容而準備的保護機制陷入冷清無用的狀態(tài),還會動搖著作權(quán)制度本身”[5]。僭稱問題具有無法預(yù)測的危險性,一旦發(fā)現(xiàn)了僭稱問題的存在,那么關(guān)于僭稱內(nèi)容的授權(quán)關(guān)系、商業(yè)關(guān)系都有可能崩潰,這會給生成物有關(guān)的整體經(jīng)濟關(guān)系都帶來明顯的萎縮效果。人工智能系統(tǒng)一旦被人為地隱匿起來,這不僅會阻礙人工智能技術(shù)的發(fā)展與競爭,也會阻礙人工智能生成物的發(fā)展,進而會阻礙文化的發(fā)展。
此外,日本政府在《新的信息財產(chǎn)檢討委員會報告書》中也提出相同觀點,即鑒于某些生成物是否由人工智能生成,外部舉證的難度較大,尤其是在大量人工智能生成物涌入商業(yè)領(lǐng)域時,這些生成物由于難以明確創(chuàng)作者身份,可能會對人類創(chuàng)作物構(gòu)成侵權(quán),進而引發(fā)權(quán)利濫用等拖累性問題,最終影響到人類的創(chuàng)作活動[9]。
本文將以法學(xué)理論視角下的著作權(quán)法理論為優(yōu)先,展開對人工智能生成物的理論評析,再結(jié)合日本官方文件視角下的多份與計算機創(chuàng)作物、人工智能生成物相關(guān)的文件觀點之總結(jié)進行評析,以做出法律討論為基礎(chǔ)定調(diào)、官方文件為補充指導(dǎo)的可操作性較強的學(xué)術(shù)探討。
二、以日本著作權(quán)法理論為視角的梳理與評述
立足于日本《著作權(quán)法》的條文規(guī)定,輔以逐漸走入研究視野的著作權(quán)法理論的創(chuàng)新內(nèi)容,本部分將對日本法學(xué)界對于人工智能生成物之可版權(quán)性問題的討論進行梳理與評述。即依據(jù)傳統(tǒng)的條文規(guī)定來看,著作權(quán)法無法承認人工智能生成物具有可版權(quán)性,不宜將之納入日本著作權(quán)法的保護范圍;若依據(jù)著作權(quán)法理論的創(chuàng)新內(nèi)容,即以“選擇的幅度”理論來進行推理,人工智能生成物之可版權(quán)性問題將得到與傳統(tǒng)法條推論不同的結(jié)果,其值得被著作權(quán)法納入保護范圍,并且具備創(chuàng)作性等著作物所需的要件,其創(chuàng)作性之肯定說將在“未占用該著作物的剩余的、潛在的表達范圍與表達形式”的主旨之下得到積極承認。
(一)以著作權(quán)法的傳統(tǒng)要件為視角
日本《著作權(quán)法》將其目的明確規(guī)定為“通過適當利用文化產(chǎn)品,保護作者的權(quán)利,為文化的發(fā)展作出貢獻”(日本《著作權(quán)法》第 1 條)??梢娙毡局鳈?quán)法的特點是更為強調(diào)文化的維度,把作品及其傳播視為“文化產(chǎn)品”,但仍通過賦予權(quán)利人著作權(quán)或鄰接權(quán)的方式激勵作品的創(chuàng)作和傳播,并同時維護作品及其傳播的合理使用,基本目標仍是促進文化發(fā)展[10]。根據(jù)該法律,著作物的定義為“創(chuàng)造性地表達了思想或感情,且屬于文藝、學(xué)術(shù)、美術(shù)或音樂范疇內(nèi)的生成物”。因此,某一生成物是否構(gòu)成著作物,需依據(jù)其是否符合《著作權(quán)法》第 2條第 1 項第 1號所規(guī)定的要件進行判斷。 從日本著作權(quán)法的角度來看,人工智能生成物是否具備創(chuàng)作性,即是否具有可版權(quán)性,需要首先簡述日本著作權(quán)法中對著作物可版權(quán)性進行判斷所需要的 4 個要件。
要件一,著作物必須包含“思想或感情”。作為人類精神活動的成果,著作物需要反映作者的觀點、想法和情感。因此,單純?yōu)橛嬎銠C使用的數(shù)據(jù)不包含“思想或感情”,無法被認定為著作物。 同樣地,若僅是事實的羅列,如餐廳的菜單,這并不涉及思想或感情的表達,因此也不具備著作物的性質(zhì)[11]。這些東西被認為是不能給讀者或聽眾帶來“美的享受”的東西。所謂“表達了思想和感情的著作物”,也可以理解是表達了作者的思考和情緒[12]。
要件二,著作物是需要“被表達”出來的。著作物被認為是需要表達出來的,它需要具有外部的認識可能性。思想或感情在作者的頭腦里、沒有對外界表現(xiàn)出來的場合,或者即使作者主觀上打算表明某種思想或感情,但是不能從外部認識到它時,這些思想或感情就不能說是“被表達”出來的。它們都不能作為著作物得到保護[13]。
要件三,著作物需要該表達為“創(chuàng)作性”表達。所謂“創(chuàng)作性”,從嚴格的意義上來說不需要發(fā)揮出專利法所需要的高度的創(chuàng)作性,著作權(quán)法只要求創(chuàng)作者的某種個性得以發(fā)揮出來即可[14]。 此外,無論花費多大的體力,在只是機械地翻譯或模仿其他著作物的情況下,這些行為也不能被說是具有創(chuàng)作性的行為。即使是從過去的司法案例來考察該問題,在認定某物是否具有可版權(quán)性時,法院考慮到的“創(chuàng)作性”要件在原則上來說,也是只要滿足“表達了創(chuàng)作者的某種個性”的條件就足夠[15]。這就是說,創(chuàng)作性是指作者在思想或感情的外部表達的過程中,將某種個性以某種形式表現(xiàn)出來。
要件四,著作物是屬于文藝、學(xué)術(shù)、美術(shù)或音樂范圍的。著作權(quán)法的目的是為文化的發(fā)展做貢獻,促進文化的發(fā)展,因此著作物必須是文化方面的產(chǎn)物。有日本學(xué)者指出在討論本要件時,沒有必要確定作為問題對象的表達物到底屬于這 4 種類型中的哪一種,從廣義上來說,只要研究它是否可以說是著作權(quán)法應(yīng)該保護的知識產(chǎn)權(quán)就已足夠[13]。隨著時代發(fā)展,上述 4類范圍的產(chǎn)物固然是著作權(quán)法范圍內(nèi)的產(chǎn)物,但是也不排除會有其他新類型的產(chǎn)物依然可以屬于著作權(quán)法保護范圍的可能性。
因此,人工智能生成物是否能夠被認定為著作物,需嚴格依照上述要件進行判斷。思想與感情是人類大腦的獨特功能,主流見解認為應(yīng)將其界定為人類專有的思想和感情。著作權(quán)法中的思想或感情,歸根結(jié)底指的是人類的思想或感情。其他動物或計算機無法具備著作權(quán)法所要求的思想或感情。這一觀點在著名的“猴子自拍”案件中也得到了法院支持,認為“拍下照片的主體不是人工智能生成物的可版權(quán)性問題人類,因此猴子的自拍照片不能構(gòu)成著作物”。這一案例進一步印證了著作權(quán)法中的思想與感情要件適用于人類,而非人工智能或動物[16]。同理,有日本學(xué)者認為人工智能自主地創(chuàng)作出某種創(chuàng)作物時,這些創(chuàng)作物原本就不屬于著作權(quán)法上的著作物,它們是得不到著作權(quán)法上的保護的[17]。 此外也有觀點認為,在現(xiàn)行法上不存在對于人工智能生成物的權(quán)利歸屬者的規(guī)則,對這些生成物的利用就是沒有著作權(quán)法上的限制的,人工智能生成物應(yīng)該視為誰都可以自由使用的公用領(lǐng)域的資源[18]。
如上所述,不存在人類的思想或感情的表達物是不能被承認為著作物的,能夠作為“著作物” 獲得著作權(quán)的保護的東西都應(yīng)該是人類的創(chuàng)作物[1]。根據(jù)日本著作權(quán)法關(guān)于著作物的 4個要件, 人工智能生成物無法滿足“思想或情感的表達”這一關(guān)鍵要求。因此,人工智能生成物不具備創(chuàng)作性,難以被日本現(xiàn)行著作權(quán)法視為保護對象,結(jié)合日本著作權(quán)法可知,“否定說”仍然是學(xué)術(shù)界的主流觀點。無獨有偶,德國著作權(quán)法也認為,作品必須以作者智力創(chuàng)作為前提,機器(如計算機或人工智能)與動物也都不能成為作者[19]。雖然普遍觀點認為人工智能生成物不具備可版權(quán)性,但學(xué)術(shù)界對其是否應(yīng)獲得版權(quán)保護的問題依然存在爭議。保護人工智能生成物在促進創(chuàng)新與技術(shù)發(fā)展背景下具有現(xiàn)實價值,這一問題亟需進一步的法律探討與制度調(diào)整。 正如日本政府在《新一代知識產(chǎn)權(quán)系統(tǒng)討論委員會報告書———面向應(yīng)對數(shù)字網(wǎng)絡(luò)化的下一代知識產(chǎn)權(quán)系統(tǒng)建設(shè)(2016 年)》中所指出的:“在討論人工智能生成物的問題時,我們應(yīng)從促進其利用和商業(yè)模式發(fā)展的角度出發(fā),鼓勵更多創(chuàng)作者使用人工智能產(chǎn)生新的創(chuàng)作成果。同時,還需確保對人工智能發(fā)展進行投資與勞力投入的主體能夠獲得激勵,從而探討如何確保這些投入能夠得到積極回報。”這種雙重視角為人工智能生成物的版權(quán)保護提供了重要的理論依據(jù),強調(diào)了法律與技術(shù)發(fā)展之間的緊密聯(lián)系[8]。這表明,盡管當前法律框架下人工智能生成物的版權(quán)保護面臨諸多挑戰(zhàn),政府和學(xué)術(shù)界仍意識到,在未來的政策與法律改革中,平衡創(chuàng)新激勵與法律保護的重要性不容忽視。
(二)以日本著作權(quán)法的新學(xué)說理論為視角
關(guān)于人工智能生成物的可版權(quán)性問題,日本理論中也有一種新的探討可能性,即“選擇的幅度”理論。該理論為重新審視人工智能生成物在著作權(quán)法中的地位提供了創(chuàng)新視角,強調(diào)了表達形式的選擇自由和創(chuàng)作過程中的多樣性。
1.“旁聽筆記案件”與著作權(quán)法新理論的司法適用
日本作為大陸法系國家,審判的依據(jù)來源于成文法典,然而在知識產(chǎn)權(quán)法的司法審判實踐中, 上級法院的判決,尤其是最高裁判所和知識產(chǎn)權(quán)高等法院的判決,事實上存在著對下級法院的約束力,因為知識產(chǎn)權(quán)類案件上訴多半要經(jīng)過這兩個法院層級,下級法院如果不遵照這兩個法院的判例指引,那么就要承受自己判決的案件被上訴到這兩個法院層級時發(fā)回重審的風(fēng)險,因而日本雖非判例法的國家,但是判例依然非常重要[20]。在此情景之下,日本法院做出的判決中的原文內(nèi)容,經(jīng)過抽象總結(jié)之后,便可能成為對學(xué)術(shù)理論的創(chuàng)新或者對域外學(xué)說的司法實踐中的本土化表現(xiàn)。
2008 年的日本知識產(chǎn)權(quán)高級法院的判決中,“選擇的幅度”理論初次登場②。在此,首先對案件內(nèi)容及法院判決進行簡述。本案涉及一起關(guān)于網(wǎng)絡(luò)服務(wù)提供者責任的案件,其中重點討論了 “原告的千字旁聽筆記是否構(gòu)成著作物”的問題。該筆記由原告在旁聽某案件的證人詢問時記錄的證詞內(nèi)容組成,字數(shù)超過千字,后來被他人未經(jīng)許可轉(zhuǎn)載到網(wǎng)絡(luò)上。法院最終裁定該筆記不屬于著作物,對筆記作者沒有帶來侵權(quán)影響。該判決結(jié)果在日本國內(nèi)引發(fā)了廣泛討論。判決書中,法院采用了“選擇的幅度”理論來進行說理,并指出:”……此外,在該筆記的部分內(nèi)容中,因其內(nèi)容過于簡短,缺乏在表達方式上可供選擇的余地,因此不能認為這些內(nèi)容是通過作者的個性表達創(chuàng)作出來的,也就是說這些內(nèi)容缺乏創(chuàng)作性(可版權(quán)性)”[21]。
由此始,日本關(guān)于著作權(quán)法中的新理論,即是選擇的幅度理論開始進入日本司法實踐的領(lǐng)域, 并且為日本學(xué)者們廣泛地討論,在近些年來已經(jīng)成為足以出現(xiàn)在日本著作權(quán)法教科書中的重要理論[13]。
傳統(tǒng)學(xué)說認為,創(chuàng)作性是指作者的個性表達,它是著眼于自然人的人格角度來定義創(chuàng)作性的。 另一方面,作為新的創(chuàng)作性概念,存在一種以“可供選擇的表現(xiàn)的幅度”為基準的學(xué)說[22]。日本稱之為“選擇的幅度論”。該理論認為,“即使賦予了某著作物有關(guān)著作權(quán)的保護后,在其他人仍有進行類似創(chuàng)作的余地的情況下,我們應(yīng)該認為其他人的創(chuàng)作也是具有創(chuàng)作性的”[23]。關(guān)于該理論,有學(xué)者評價道當需要判斷可版權(quán)性的生成物從客觀上看來,其表現(xiàn)的形式與內(nèi)容是有著廣泛的可供選擇的幅度的時候,只要認為它不是非常常見的生成物,那么就可以承認其具有可版權(quán)性。 在現(xiàn)代的著作權(quán)法中,這是一種屬于可以將創(chuàng)作性要件的效果進行正面發(fā)揮的、具有實用性效果的對創(chuàng)作性概念的解讀。此外,本理論下的新創(chuàng)作性的概念,正可謂是為了統(tǒng)一以往的小說和繪畫等著作物和計算機程序等功能性、事實性著作的創(chuàng)作性判斷難題而提出的理論[13]。
2. “選擇的幅度”理論在該問題上的適用
在討論人工智能生成物是否受到著作權(quán)法保護時,最重要的要件就是創(chuàng)作性要件。關(guān)于創(chuàng)作性的討論,大阪大學(xué)的學(xué)者提出了這樣一種觀點:“……只要是涉及到著作物的領(lǐng)域,許多的學(xué)說、判例中對創(chuàng)作性的基本判斷是,只要能夠平和順利地判斷出該生成物具有創(chuàng)作性,并且表達者的個性通過該生成物得到了體現(xiàn)便已足夠”[14]。這種觀點實際上遵循了著作權(quán)法的基本目的,即促進文化的發(fā)展。從傳統(tǒng)上來說,著作物被定義為能夠表達出人類思想或感情的作品,必須由人類創(chuàng)作。例如,在著名的“猴子自拍案”中,法院判定猴子拍攝的照片不構(gòu)成著作物,因為照片并非由人類創(chuàng)作[24]。此外從著作權(quán)法宗旨來說,即使保護了猴子的著作權(quán),也不能讓猴子創(chuàng)作更多的著作物,這不僅與著作權(quán)法的基本目標相悖,還無法有效推動文化產(chǎn)業(yè)的發(fā)展。
盡管生成物的創(chuàng)作主體可能是非人類,如果其創(chuàng)造的作品對人類文化發(fā)展具有一定的價值, 確實有必要重新審視其創(chuàng)作性。在這種情況下,“可供選擇的表達的幅度”理論(選擇幅度論)可以提供有效的框架。根據(jù)這一理論,作者的個性表達并不一定要與人格價值直接相關(guān),而是強調(diào)其表達的內(nèi)容應(yīng)當超出一般常規(guī)的、任何人都能輕易復(fù)制的表達。如果一個生成物能夠與其他作品區(qū)分開,且體現(xiàn)了獨特的創(chuàng)造性,那么我們就可以認為該生成物展現(xiàn)了個性,進而承認其創(chuàng)作性。這種觀點為討論人工智能生成物的版權(quán)性提供了新的視角,認為即使生成主體并非人類,只要其作品具有獨特性和創(chuàng)造性,仍然可以被視為符合著作物的標準,從而為其提供適當?shù)姆杀?/span>護[13]。這種分析方式強調(diào)了創(chuàng)作過程中的表達自由和選擇空間,提出了對新興著作物進行更加靈活和多元化評估的可能性,從而為法律體系適應(yīng)快速發(fā)展的創(chuàng)作環(huán)境提供了理論支持。具體來說,就是在可供選擇的表達內(nèi)容幅度廣泛的情況下,創(chuàng)作者能夠發(fā)揮出各種個性,從而容易確認這些生成物的創(chuàng)作性。相反,當可供選擇的表達幅度狹窄時,創(chuàng)作者的個性得不到充分展現(xiàn),生成物的創(chuàng)作性就難以被認可。中山信弘認為,將創(chuàng)作性視為個性的流露,以所有著作物都表達出個性為要件,同時只對計算機程序等一部分著作物的創(chuàng)作性要求進行拔高,這樣的雙重標準不僅難以人工智能生成物的可版權(quán)性問題用法理來說明,而且還存在著導(dǎo)致判斷生成物的個性水平變得非常難以判斷的問題。
隨著著作物的種類日益多樣化,這一理論將越發(fā)適用于評估計算機程序等新型著作物的創(chuàng)作性之有無。引入對創(chuàng)作性概念的新解讀,或可為人工智能生成物的創(chuàng)作性有無之判斷提供新的靈感。從人工智能生成物的創(chuàng)作過程來看,盡管其中難以體現(xiàn)人類的個性化表達,但若聚焦于人工智能生成物的具體表達形式的這一視角,不難發(fā)現(xiàn)其與其他表達內(nèi)容存在差異。這表明人工智能生成物能夠提供不同于其他作品的獨特表達方式。因此,認為人工智能生成物在表達內(nèi)容的選擇范圍上是廣泛的這一觀點不無一定道理。人工智能基于有限的關(guān)鍵詞進行小說創(chuàng)作,與人類在相同條件下的創(chuàng)作過程具有相似性。人類依靠大腦的思維,根據(jù)自身的知識和經(jīng)驗進行創(chuàng)作。同樣,人工智能則通過程序運行,依賴先前通過機器學(xué)習(xí)所積累的數(shù)據(jù)進行創(chuàng)作。兩者在本質(zhì)上都遵循著提取和運用知識或數(shù)據(jù)的步驟來完成作品的創(chuàng)作。
因此,正如個人基于其獨特的知識和經(jīng)驗創(chuàng)作出與眾不同的作品一樣,人工智能也能夠根據(jù)所收集數(shù)據(jù)的不同,創(chuàng)作出各具特色的生成物。如果表達內(nèi)容的選擇范圍足夠廣泛,那么依據(jù)選擇幅度理論,人工智能生成物同樣可以被解釋為具有創(chuàng)作性。在這種表達選擇幅度較大的情形下,即便承認該生成物具有創(chuàng)作性并賦予其著作權(quán)專有權(quán)利,仍有大量可供選擇的表達內(nèi)容留給其他創(chuàng)作者進行創(chuàng)作。這不僅不會削弱創(chuàng)作行為的激勵作用,反而有助于文化表達的多樣化和豐富性,進而促進文化的繁榮發(fā)展。
三、以日本官方文件為視角的梳理與評述
以日本官方文件的發(fā)布時間為引,不難看出日本對人工智能生成物問題的文件規(guī)制經(jīng)歷了從 “以計算機創(chuàng)作物為對象”到“以人工智能生成物為對象”的遞進討論。具體來說,從20 世紀 80年代初探計算機創(chuàng)作物之法律定位,到 90年代對計算機創(chuàng)作物的各種形式與相應(yīng)的法律規(guī)制的頒布,再到 2016 年的《知識產(chǎn)權(quán)推進計劃2016》中首提“人工智能生成物”之概念,及至近年的可操作性愈發(fā)提高的對人工智能生成物及相關(guān)責任主體的諸多文件規(guī)定與解讀,這些官方文件的迭代與升級,反映著日本官方對這些前沿領(lǐng)域問題的逐步重視。
(一)初探計算機創(chuàng)作物之法律定位———《著作權(quán)審議會第 2 小委員會(計算機相關(guān))報告書(1973 年)》
日本政府最早在 1973年發(fā)布的《著作權(quán)審議會第 2 小委員會(計算機相關(guān))報告書》中對類比當今人工智能生成物的計算機創(chuàng)作物進行討論。這份已有半個世紀歷史的報告首次對計算機創(chuàng)作物在知識產(chǎn)權(quán)法中的地位進行了初步探討,提出了計算機創(chuàng)作物作為創(chuàng)作物在著作權(quán)法中的適用問題。這一報告的發(fā)布標志著日本在計算機與知識產(chǎn)權(quán)交叉領(lǐng)域的早期探索,并為后來人工智能生成物相關(guān)問題的研究奠定了基礎(chǔ)。 報告書中將計算機創(chuàng)作物定義為“通過使用計算機系統(tǒng)進行各種創(chuàng)作活動所產(chǎn)生的成果”,即由計算機系統(tǒng)輸出的表達形式[25]。計算機創(chuàng)作物是程序的創(chuàng)作者將計算機作為工具使用,將其思想與感情具像化后的產(chǎn)物,所以它們可以認為是著作物,這一與計算機創(chuàng)作物相關(guān)的著作權(quán)法上的討論結(jié)論是可以做參考的。此外,報告還詳細探討了計算機創(chuàng)作物的版權(quán)歸屬問題,并提出了共同作者認定的建議。報告認為,若程序設(shè)計者與藝術(shù)家共同參與創(chuàng)作活動,藝術(shù)家可以被視為與程序設(shè)計者共同享有著作權(quán)。這一觀點為計算機生成物的版權(quán)歸屬提供了初步的法律框架, 強調(diào)了在計算機作為創(chuàng)作工具時,人類創(chuàng)作者在生成物中的創(chuàng)作性貢獻是認定共同作者的關(guān)鍵因素。
(二)深入的計算機創(chuàng)作物的規(guī)制設(shè)定———《著作權(quán)審議會第 9 小委員會(計算機創(chuàng)作物相關(guān))報告書(1993 年)》
1993 年,日本政府發(fā)布了《著作權(quán)審議會第 9 小委員會(計算機創(chuàng)作物相關(guān))報告書》,該報告在計算機技術(shù)迅猛發(fā)展的背景下對 1973年報告進行了進一步的總結(jié)和擴展。報告的第 2 章《計算機創(chuàng)作物的實際情況和現(xiàn)狀》深入探討了 5個主要技術(shù)領(lǐng)域所面臨的問題,包括計算機圖形、機械翻譯、計算機作曲、程序自動創(chuàng)作以及數(shù)據(jù)庫自動生成。這一系列討論不僅反映了當時計算機技術(shù)的迅速演變,也為計算機創(chuàng)作物在著作權(quán)法中的地位與適用提供了更加全面的理論基礎(chǔ)[24]。
在第三章《關(guān)于計算機創(chuàng)作物的著作權(quán)問題》中,報告將計算機創(chuàng)作物的版權(quán)問題分為“共同著作權(quán)問題”和“特有著作權(quán)問題”,對可版權(quán)性進行了詳細探討。報告認為,凡是使用計算機系統(tǒng)作為工具進行創(chuàng)作的生成物,若滿足以下兩個條件,可被認定為著作物:首先,使用者必須有意圖通過計算機系統(tǒng)表達思想或情感;其次,使用者在創(chuàng)作過程中需做出足以讓生成物客觀表達思想或情感的創(chuàng)作貢獻。
與此同時,報告指出:“關(guān)于計算機創(chuàng)作,有必要根據(jù)創(chuàng)作過程中計算機系統(tǒng)的介入特點,仔細考量使用者是否具備創(chuàng)作意圖以及是否存在創(chuàng)作行為。”換言之,創(chuàng)作性應(yīng)根據(jù)具體情況進行細致分析,以確定參與者的創(chuàng)作行為在多大程度上能被認定為具有創(chuàng)作性。這一觀點為理解計算機創(chuàng)作物的著作權(quán)歸屬提供了重要的理論依據(jù)。
在計算機創(chuàng)作物的作者認定問題上,報告書認為若計算機創(chuàng)作物被認可為具有版權(quán)性,則作者應(yīng)是對生成物作出創(chuàng)作性貢獻的人。然而,通常情況下,我們認為計算機系統(tǒng)的使用者即為作者[25]。同時,如果程序編寫者的行為與使用者的創(chuàng)作行為具有共同性,則程序編寫者也可能與計算機系統(tǒng)的使用者共同成為創(chuàng)作物的作者。這一觀點強調(diào)了程序編寫者在計算機創(chuàng)作過程中的重要性,提出了共同創(chuàng)作的可能性。最后,報告認為現(xiàn)有法律規(guī)定已足夠靈活,能夠有效應(yīng)對當前面臨的挑戰(zhàn),因此暫時不需要進行法律修訂。這一立場反映了對現(xiàn)行法律框架的信心,同時也為后續(xù)在計算機創(chuàng)作物領(lǐng)域的法律實踐提供了指導(dǎo)。
(三)初探人工智能生成物的法律定位———《新一代知識產(chǎn)權(quán)系統(tǒng)討論委員會報告書———面向應(yīng)對數(shù)字網(wǎng)絡(luò)化的下一代知識產(chǎn)權(quán)系統(tǒng)建設(shè)(2016年)》
2016年日本知識產(chǎn)權(quán)戰(zhàn)略總部發(fā)布的《新一代知識產(chǎn)權(quán)系統(tǒng)討論委員會報告書——面向應(yīng)對數(shù)字網(wǎng)絡(luò)化的下一代知識產(chǎn)權(quán)系統(tǒng)建設(shè)》中,研究對象已從“計算機創(chuàng)作物”具體至“人工智能自主創(chuàng)作的”生成物[8]。
對于人工智能生成物,報告指出在現(xiàn)行知識產(chǎn)權(quán)制度下,若人工智能生成物被認定為人類將其作為工具進行創(chuàng)作的成果,則可以獲得著作權(quán)保護。相反,若人類的參與不足以構(gòu)成創(chuàng)作性貢獻,而生成物被認定為由人工智能自主生成,則無論其內(nèi)容還是代碼,都不應(yīng)獲得著作權(quán)保護。這 一表述清晰劃分了人工智能生成物的版權(quán)保護范圍,強調(diào)了人類創(chuàng)作意圖和貢獻的重要性。只有在人的參與顯著影響了創(chuàng)作結(jié)果的情況下,人工智能生成物才能獲得相應(yīng)的著作權(quán)保護,否則其生成物將不具備受版權(quán)法保護的資格。換言之,在探討人工智能生成物的著作權(quán)問題時,“創(chuàng)作性要件”(即我國法律中的獨創(chuàng)性要件)的判斷依然是不可或缺的。如果缺乏人類個性的表達,這些生成物將無法被認定為著作物。此外,報告中還提出了關(guān)于“修改法律的可能性”的新視角,即 “作為侵權(quán)責任主體,可以考慮賦予人工智能法律人格,借鑒法人制度的思路來應(yīng)對人工智能所帶來的法律挑戰(zhàn)。”這一建議為人工智能的法律地位及其在著作權(quán)法中的適用提供了創(chuàng)新性思考,旨在通過賦予人工智能一定的法律人格來更有效地處理其產(chǎn)生的法律問題,從而促進技術(shù)與法律的人工智能生成物的可版權(quán)性問題協(xié)調(diào)發(fā)展。同時,人工智能生成物帶來的經(jīng)濟價值和自身所具備的價值也被納入討論范圍,因為這些問題會影響到人類對能夠進行創(chuàng)作的人工智能系統(tǒng)的投資和積極利用等行為。另一方面,面對著作權(quán)制度采取非形式主義的權(quán)利生效原則之下著作權(quán)的保護期限遠遠持久于對專利、商標的保護的背景,報告書認為若將所有人工智能生成物認定為著作物,也會存在對人工智能生成物過度保護的風(fēng)險。
(四)愈發(fā)完善的人工智能生成物的知識產(chǎn)權(quán)法規(guī)制——近年的人工智能與著作權(quán)相關(guān)文件
近年來,日本文化廳成立了一個由知識產(chǎn)權(quán)法學(xué)者、律師和行政官員組成的“文化審議會著作權(quán)分科委員會法律制度小委員會”,專門負責研究人工智能與著作權(quán)法相關(guān)問題。在這些研究成果中,因?qū)斫夂鸵?guī)范人工智能生成物的著作權(quán)問題提供了重要參考,故而有 3 份文件尤其值得關(guān)注。這些文件不僅反映了日本在該領(lǐng)域的研究進展,也為各國在處理人工智能與知識產(chǎn)權(quán)的關(guān)系上提供了有益借鑒。
第一份是 2023年 10月 6 日的人工智能與著作權(quán)法主題第 3 次會議的相關(guān)文件[26]。據(jù)文件所述,本次會議有一個受生成式人工智能發(fā)展影響的各行業(yè)從業(yè)者的發(fā)言環(huán)節(jié),3位來自不同領(lǐng)域的發(fā)言人陳述了生成式人工智能發(fā)展對各自行業(yè)的影響,并就如何規(guī)范涉及侵權(quán)問題的生成式人工智能提出了建議。這些建議從不同業(yè)界的視角出發(fā),具有豐富的參考價值。比如新聞業(yè)從業(yè)者呼吁修改日本著作權(quán)法第 30 條之 4 項(關(guān)于非享受目的的利用),從而創(chuàng)造出一種制度設(shè)計,允許著作權(quán)人可以主動拒絕來自人工智能的“數(shù)據(jù)學(xué)習(xí)”,或者在人工智能學(xué)習(xí)時就其可以使用的數(shù)據(jù)范圍設(shè)定適當?shù)脑S可權(quán)。再如某科研機構(gòu)研究人員為解決在生成式人工智能學(xué)習(xí)中出現(xiàn)的著作權(quán)侵權(quán)問題,提出了一種解決方案———著作權(quán)侵害檢查支援工具,名為紅線提示機制[27]。該機制可以對人工智能生成的內(nèi)容進行自我核查,標注與語料庫高度重合的文字,用紅色下劃線提示潛在的侵權(quán)內(nèi)容,同時附帶數(shù)據(jù)學(xué)習(xí)過程中的高度重合的原文鏈接,展示給使用者涉嫌著作權(quán)侵害的詳細信息,提示使用者應(yīng)當對這些內(nèi)容進行處理。這些不同業(yè)界的聲音對于制定一套能夠平衡技術(shù)發(fā)展和著作權(quán)保護的法規(guī)至關(guān)重要。
第二份文件則發(fā)布在 2024 年 3月 15日,該委員會在第 7次會議后發(fā)布了一份題為《關(guān)于人工智能與著作權(quán)相關(guān)問題的意見》的文件,概括并討論了與生成式人工智能相關(guān)的日本著作權(quán)法解釋與適用問題[28]。
對于人工智能生成物的可版權(quán)性問題,該文件指出,如果某一作品的部分內(nèi)容是使用人工智能生成的,那么可版權(quán)性判斷應(yīng)僅針對該部分內(nèi)容,而不應(yīng)波及整個作品的所有表達。這意味著, 即便某一部分的可版權(quán)性受到質(zhì)疑,也不應(yīng)影響作品其他部分的版權(quán)判斷,二者應(yīng)當相互獨立。 在評估人工智能生成物的可版權(quán)性時,報告建議考慮以下因素:首先,如果在使用生成式人工智能創(chuàng)作時,使用者發(fā)出了具體且詳細的輸入指令,這將被視為使用者在創(chuàng)作過程中做出了實質(zhì)性貢獻,從而提升生成物被認定為具有創(chuàng)作性的可能性。盡管輸入指令可能相當繁瑣,但如果這些指令僅限于表達未能達到創(chuàng)意表現(xiàn)的靈感,則其仍被視為不具創(chuàng)作性的貢獻。上述情況之外,評估人工智能生成物的可版權(quán)性時還應(yīng)當考慮使用者下達指令的次數(shù)。使用者可能進行了多次嘗試, 以調(diào)整創(chuàng)作要求,因此對指令次數(shù)的討論顯得尤為重要。雖然多次下達指令的行為本身并不直接影響創(chuàng)作性貢獻的判斷,但結(jié)合前述要點,如果使用者在確認生成物的表達內(nèi)容后繼續(xù)輸入新指令并進行修改,那么這種不斷修正和反復(fù)嘗試的過程,可能使最終呈現(xiàn)的生成物具備可版權(quán)性。 此種細致的分析為理解人工智能生成物的版權(quán)問題提供了更加全面的視角。
2024年 7 月 31 日,日本文化廳著作權(quán)分部發(fā)布《人工智能與著作權(quán)相關(guān)的檢查清單與指2025 年第 1期南》[29]。該文件旨在為與生成式人工智能相關(guān)的各方提供總綱領(lǐng)性的指導(dǎo)與權(quán)利說明,以期各方在使用生成式人工智能進行活動時候可以降低與著作權(quán)相關(guān)的風(fēng)險,幫助各方保護合法權(quán)利。比如,人工智能開發(fā)者需要確保數(shù)據(jù)收集合法,避免使用未經(jīng)許可的受著作權(quán)保護的數(shù)據(jù),采取措施防止人工智能生成與學(xué)習(xí)數(shù)據(jù)相似的內(nèi)容,并建立數(shù)據(jù)溯源機制。人工智能提供者需要確保提供的人工智能系統(tǒng)符合著作權(quán)法要求,向用戶透明說明人工智能的學(xué)習(xí)模型、數(shù)據(jù)來源等,并在服務(wù)條款中加入防止侵權(quán)的條款。人工智能的企業(yè)用戶應(yīng)當在使用人工智能生成物時應(yīng)當仔細審查與現(xiàn)有著作物的相似性,確保不構(gòu)成侵權(quán),并且在企業(yè)內(nèi)部建立使用人工智能的規(guī)則和指南。最后,對于人工智能的非企業(yè)用戶來說,用戶可以在使用人工智能生成物時仔細核實其合法性,并在必要時獲得著作權(quán)人的許可,同時接受著作權(quán)法的培訓(xùn)。該文件雖然對各類不同的人工智能系統(tǒng)的相關(guān)主體提供了各自的風(fēng)險防范措施建議,但并不意味著他們遵循了這類措施之后就可以完全免除法律責任,各方仍應(yīng)謹慎對待清單內(nèi)容,在推動人工智能技術(shù)發(fā)展的同時,做好風(fēng)險防范以保護著作權(quán)人利益,確保合法合規(guī)地利用生成式人工智能。
前沿科技與法律規(guī)范的互動始終是一個熱點議題。自 20世紀 80 年代起,日本就開始探討計算機生成物的著作權(quán)法規(guī)范,這一討論持續(xù)至今,且隨著“人工智能生成物”這一概念的提出和普及,相關(guān)討論愈發(fā)頻繁,它們都為理解和規(guī)范人工智能生成物的著作權(quán)問題提供了重要參考,促進了技術(shù)與法律的協(xié)調(diào)發(fā)展??傮w而言,日本政府根據(jù)現(xiàn)行法律認為,人工智能自主創(chuàng)造的東西,就算看上去的外觀與平常作品無不同,也不滿足“以創(chuàng)造性方式表達思想或情感”,因此不應(yīng)當授予著作權(quán)。盡管如此,日本政府也深刻認識到人工智能技術(shù)及其生成物所蘊含的巨大經(jīng)濟和社會價值,因此發(fā)布了一系列文件,旨在明確人工智能與著作權(quán)法的關(guān)系,減少著作權(quán)侵權(quán)風(fēng)險,并促進生成式人工智能的合法合規(guī)利用,展示出了諸多頗具前瞻性的理論與實踐結(jié)合的構(gòu)想。
四、日本人工智能生成物的可版權(quán)性研究對我國的啟示
無論是從傳統(tǒng)固有的著作權(quán)法條文出發(fā),還是以研究程度逐年深化的官方文件為起點,抑或是從源源不斷創(chuàng)新中的學(xué)術(shù)理論為切入,日本在人工智能生成物的可版權(quán)性研究的問題上,日本的討論始終存在兩個基點,即就是理論端與實務(wù)端,二者呈現(xiàn)出各有側(cè)重又相互促進的交互模式。 故而,其在實務(wù)端提倡的對人工智能生成物之使用風(fēng)險防范的相關(guān)建議、在理論端探究的對人工智能生成物之可版權(quán)性判斷的新視角與新推論,都存在著許多值得為人借鑒的可圈可點之處。
(一)對人工智能生成物的風(fēng)險防范的啟示
日本在探討人工智能生成物的可版權(quán)性問題時提出了若干風(fēng)險防范措施和建議,也同樣值得為我國借鑒。
第一,廣泛聽取各行各業(yè)研究人員的專業(yè)意見。在探討人工智能生成物的著作權(quán)問題時,應(yīng)當采取一種全面且多元的咨詢策略,以確保立法的科學(xué)性和實用性。在新興產(chǎn)業(yè)中,人工智能智力成果已經(jīng)發(fā)揮重大作用,人工智能的發(fā)展引發(fā)法律和社會倫理的再思考[30]。面對已經(jīng)將影響范圍逐漸涵蓋到大眾生活的方方面面的這一項新技術(shù),我們應(yīng)當號召各行各業(yè)的研究者共同進行思考,全員共商大事。首先,可以通過組織學(xué)術(shù)研討會和論壇,積極邀請知識產(chǎn)權(quán)法、計算機科學(xué)、 人工智能倫理等領(lǐng)域的學(xué)者,共同探討人工智能生成物的版權(quán)問題,并且對國際上的其他國家與地區(qū)的立法動態(tài)進行跟進,并邀請外國學(xué)者一同進行學(xué)術(shù)討論。例如,可邀請對人工智能生成物的“僭稱問題”有深入研究的日本專家,分享他們的見解和研究成果。同時,與人工智能行業(yè)的企業(yè)合作,收集一線開發(fā)者、產(chǎn)品經(jīng)理和法律顧問的意見和建議,特別是諸如已經(jīng)在人工智能生成物的著作權(quán)領(lǐng)域里做出訴訟實踐的百度、騰訊等科技公司,這些已然在前沿領(lǐng)域擁有一定實戰(zhàn)經(jīng)驗的科技公司們的觀點與態(tài)度,對于學(xué)術(shù)界進行切實的具有實踐性的理論研究具有重要參考價值。 此外,可邀請參與相關(guān)案件的法官、律師和法律顧問一同進行討論,他們將直接通過對司法實踐中遇到的問題和案例進行分析,為人工智能生成物的法律問題帶來諸多實踐層面的深刻洞察。通過這種跨領(lǐng)域、跨行業(yè)的廣泛聽取專業(yè)意見,中國可以確保在人工智能生成物的版權(quán)保護方面,既能反映學(xué)術(shù)前沿,也能貼近實際需求,同時具備國際視野和本土實踐的結(jié)合。
第二,酌情引入類似“紅線提示機制”的自檢系統(tǒng),加強侵權(quán)檢測。日本提出的“紅線提示機制”通過對人工智能生成的內(nèi)容進行自動比對,提示可能的侵權(quán)內(nèi)容。這一機制可供我國借鑒。 中國可以鼓勵國內(nèi)科技公司和研究機構(gòu)自主研發(fā)或與國際合作伙伴共同開發(fā)先進的版權(quán)檢測技術(shù)。這些技術(shù)可以基于人工智能和機器學(xué)習(xí),通過不斷學(xué)習(xí)和適應(yīng)新的數(shù)據(jù)樣本,提高檢測的準確性和效率。通過類似的技術(shù)手段,開發(fā)侵權(quán)檢測工具,對人工智能生成物進行實時審查,確保生成物與現(xiàn)有作品的相似性得到有效監(jiān)控。利用“紅線提示機制”實現(xiàn)對人工智能生成物的實時監(jiān)控,一旦發(fā)現(xiàn)潛在的侵權(quán)行為,系統(tǒng)可以立即發(fā)出預(yù)警,提醒內(nèi)容創(chuàng)作者或平臺管理者采取相應(yīng)措施。此機制不僅能夠幫助使用者規(guī)避潛在的法律風(fēng)險,還能防止未經(jīng)授權(quán)的作品被市場廣泛傳播,維護版權(quán)持有人的合法權(quán)益。此外,還可以鼓勵企業(yè)和科研機構(gòu)合作,開發(fā)更先進的版權(quán)檢測技術(shù),在生成式AI 使用前進行內(nèi)容篩查。最后,在堅持技術(shù)檢測的基礎(chǔ)上,一定情況下也應(yīng)當結(jié)合法律專家的知識和經(jīng)驗,制定明確的操作指南和法律框架,以便在檢測到侵權(quán)行為時能夠迅速制定對策。
第三,強化數(shù)據(jù)合法性,建立透明的數(shù)據(jù)使用標準。日本強調(diào)人工智能開發(fā)者和提供者必須確保數(shù)據(jù)的合法性,防止未經(jīng)許可使用受版權(quán)保護的數(shù)據(jù),并要求公開透明的數(shù)據(jù)來源,這一點對我國也尤其重要。對于生成式人工智能關(guān)鍵數(shù)據(jù)而言,如若不展開必要的制度創(chuàng)新,現(xiàn)行知識產(chǎn)權(quán)制度則往往并不能對其進行全面的法律保護,相應(yīng)的數(shù)據(jù)知識產(chǎn)權(quán)保護法律難題也由此觸發(fā)[31]。為了避免侵權(quán)糾紛和不必要的法律風(fēng)險,我國需制定明確的法規(guī),要求 AI開發(fā)者和使用者在訓(xùn)練人工智能時,嚴格遵守數(shù)據(jù)收集的合規(guī)性,并且需建議數(shù)據(jù)使用方與數(shù)據(jù)提供方簽署數(shù)據(jù)使用許可協(xié)議,明確數(shù)據(jù)使用許可協(xié)議的要求,確保所有 AI開發(fā)者和使用者在獲取數(shù)據(jù)時都簽署了明確的許可協(xié)議,諸如數(shù)據(jù)的使用范圍、使用期限和使用條件等具體的行為規(guī)范,以及違反許可協(xié)議的法律后果等等內(nèi)容都應(yīng)當白紙黑字地為雙方所知曉且遵守。換言之,AI模型訓(xùn)練中的數(shù)據(jù)來源必須經(jīng)過授權(quán)或許可,特別是涉及到受版權(quán)保護的內(nèi)容時。此外,也可以考慮建立一個公開的“數(shù)據(jù)使用透明度”平臺,供社會公眾、版權(quán)持有人和企業(yè)監(jiān)督 AI系統(tǒng)的數(shù)據(jù)使用行為,確保生成物的合法性。最后,在確保數(shù)據(jù)合法性的同時也要重視數(shù)據(jù)隱私保護,如何保護公民的個人數(shù)據(jù)不被濫用,特別是在人工智能和大數(shù)據(jù)應(yīng)用中,這是一個亟待具體討論的事項,對隱私保護標準的討論仍應(yīng)繼續(xù)深入。
第四,完善法律責任劃分與制定使用合規(guī)指南。日本建議企業(yè)和普通用戶在使用人工智能生成物時,應(yīng)建立合規(guī)政策,確保生成物不會侵犯現(xiàn)有的著作權(quán)。對于我國來說,應(yīng)進一步明確各方在人工智能生成物創(chuàng)作過程中的法律責任,尤其是在生成物引發(fā)版權(quán)糾紛時,確定開發(fā)者、使用者和 AI 提供者之間的權(quán)利和責任劃分。企業(yè)應(yīng)制定內(nèi)部使用 AI的規(guī)則和指南,確保 AI 生成物在使用前經(jīng)過充分審查,特別是對商業(yè)化應(yīng)用的生成物要進行多層次的版權(quán)合規(guī)審查。與此同時, 普通用戶在使用 AI生成物時,亦需提高版權(quán)意識,主動學(xué)習(xí)相關(guān)法律法規(guī),避免因侵權(quán)行為承擔法律責任。國家可以通過舉辦培訓(xùn)課程或推出在線學(xué)習(xí)平臺,幫助企業(yè)和公眾了解如何合法使用人工智能生成物。
綜上,我國可以借鑒日本豐富討論之下的經(jīng)驗總結(jié),通過技術(shù)、法律和政策的多層次管理,確保人工智能生成物從開發(fā)到使用的全過程中的合法性。即在技術(shù)層面,開發(fā)侵權(quán)檢測工具;在法律層面,確保數(shù)據(jù)合法來源并明確責任劃分;在政策層面,可以出臺使用合規(guī)指南,健全公共培訓(xùn)機制,從而更好地推動人工智能技術(shù)和文化創(chuàng)作的協(xié)調(diào)發(fā)展。
(二)對人工智能生成物的可版權(quán)性判斷的啟示
知識產(chǎn)權(quán)制度本身即由創(chuàng)新而生,并隨創(chuàng)新而變[32]。通過對日本知識產(chǎn)權(quán)界關(guān)于人工智能生成物可版權(quán)性問題的研究梳理與評析,可以發(fā)現(xiàn)日本著作權(quán)法理論中用于判斷生成物是否構(gòu)成著作物的新理論,即“選擇的幅度”理論,為人工智能生成物的可版權(quán)性問題提供了新的研究視角。
這一理論的核心觀點是,當某一表達內(nèi)容具備廣泛的可供選擇的表達空間時,即便沒有體現(xiàn)出強烈的人類個性,也可以認為其具備創(chuàng)作性。對于我國來說,可以考慮在傳統(tǒng)的“個性表達”標準之外,參考該理論,進一步擴展對創(chuàng)作性的理解。如果人工智能生成物能夠在表達方式上體現(xiàn)出不同的選擇空間,而非簡單的模仿和復(fù)制,即便沒有直接的人類思想或情感參與,也應(yīng)賦予其一 定的創(chuàng)作性認定,從而為著作權(quán)保護提供法律依據(jù)。
在著作權(quán)法中,創(chuàng)作性的判斷依賴于著作者個性化表達的有無,通常要求作品中存在人格層面的獨特表達。如果將這一判斷標準適用于人工智能生成物的可版權(quán)性研究,由于人工智能生成過程中缺乏人類的直接參與,無法體現(xiàn)人類思想或情感的表達,因此,有學(xué)者認為人工智能生成的內(nèi)容只是算法、規(guī)則和模板的應(yīng)用結(jié)果,從而否認其具備版權(quán)法意義上的創(chuàng)作性[33]。換言之,創(chuàng)作性在于創(chuàng)作過程中的隨機性和個性化表達。例如,文字類著作物的作者若因電腦故障丟失原稿,即便其試圖重寫相同內(nèi)容的稿件,新的稿件內(nèi)容仍會不可避免地與原稿不同。這種自然產(chǎn)生的內(nèi)容變化被視為創(chuàng)作性的體現(xiàn)。然而,人工智能依賴預(yù)設(shè)的程序和指令進行創(chuàng)作,即使多次生成,結(jié)果往往相同,因此難以認定其具備創(chuàng)作性。
然而,日本近年來興起的“選擇的幅度”理論則提出了不同的觀點。該理論主張的創(chuàng)作性應(yīng)以表達的選擇范圍為核心標準的觀點,即作品的表達形式在賦予著作權(quán)保護后,仍為其他創(chuàng)作者保留大量的創(chuàng)作空間時,該作品可視為符合創(chuàng)作性的要求的思路,對研究人工智能生成物的著作權(quán)認定問題是具有啟發(fā)意義的。對于計算機程序或數(shù)據(jù)等作品,即便它們并未強烈反映作者的獨特個性,在某些情形下仍可作為著作物受到保護。這一理論在學(xué)界逐漸被接受,用以調(diào)整著作權(quán)法的保護范圍,尤其是那些難以表現(xiàn)出著作者人格獨特性的作品。
例如,在日本著名的“旁聽筆記案件”中,法院依據(jù)“選擇的幅度”理論裁定,盡管筆記的文字和段落為作者即時記錄,但由于當時的表達選擇范圍有限,該筆記未體現(xiàn)創(chuàng)作性。因此,法院認定其不構(gòu)成著作物。這表明,選擇幅度的限制可以影響創(chuàng)作性的認定,而不僅僅依賴于個性化表達。 現(xiàn)有的生成式人工智能,可以根據(jù)獲取的信息進行獨立判斷,并生成特定內(nèi)容,比如人工智能可以處理文藝作品的大數(shù)據(jù),通過聯(lián)系不相關(guān)的數(shù)據(jù)信息做出“選擇”并最終生成文藝內(nèi)容[34]。如果將“選擇的幅度”理論應(yīng)用于這類文藝內(nèi)容的可版權(quán)性問題,我們可以推導(dǎo)出以下結(jié)論:當前,人工智能生成物多見于小說、音樂、美術(shù)等領(lǐng)域。在這些領(lǐng)域內(nèi),創(chuàng)作的表達手法和內(nèi)容選擇的幅度極為廣泛。因此,人工智能生成物即便占據(jù)了某一部分表達空間,仍然為其他創(chuàng)作者保留了足夠的創(chuàng)作余地。依據(jù)“選擇的幅度”理論,人工智能生成物的創(chuàng)作性在某些情形下可以得到認可,從而具備可版權(quán)性。
結(jié)合我國著作權(quán)法中的創(chuàng)作性要件,參考該理論可以為人工智能生成物的版權(quán)保護提供新的思路。同時,我國部分學(xué)者提出“人工智能生成物的表達只要滿足最低限度的創(chuàng)作性即可”的觀點,與“選擇的幅度”理論有相似之處[35]。展望未來,學(xué)界可以進一步深入研究著作物創(chuàng)作性要件的相關(guān)理論,并結(jié)合國際經(jīng)驗,例如日本的“選擇的幅度”理論,為我國著作權(quán)法的完善提供更多啟發(fā)。人工智能作品對于著作權(quán)制度的挑戰(zhàn),可反過來有助于人們認識著作權(quán)制度的理性構(gòu)建與運行。與此同時,對于人工智能生成物等前沿問題的討論,亦可借助該理論豐富相關(guān)法學(xué)研究,并為立法實踐提供依據(jù)。
結(jié)語
人工智能技術(shù)正處于蓬勃發(fā)展的階段,“科學(xué)技術(shù)是第一生產(chǎn)力”的觀點依然歷久彌新。自2022 年以ChatGPT 為代表的新興技術(shù)橫空出世以來,全球?qū)τ谌斯ぶ悄芟嚓P(guān)法律問題的研究熱情顯著提升。日本學(xué)術(shù)界圍繞如何通過知識產(chǎn)權(quán)法律規(guī)制人工智能技術(shù)發(fā)展這一問題,已提出了具有條文性質(zhì)的具體對策。例如,在 2019 年修訂的《著作權(quán)法》中,新增了與發(fā)展人工智能技術(shù)密切相關(guān)的機械學(xué)習(xí)制度的規(guī)定。近年來,日本又通過不斷更新的政府文件對人工智能技術(shù)相關(guān)的法律問題進行了更加具體的解讀與指引,試圖對相關(guān)利益主體的權(quán)責進行更為詳細的界定。這種隨著科技發(fā)展而靈活調(diào)整的知識產(chǎn)權(quán)理論與政策,值得學(xué)術(shù)界重點關(guān)注與深入研究。
通過對日本的人工智能生成物可版權(quán)性問題的研究與梳理,結(jié)合其官方文件與學(xué)者觀點,綜合其學(xué)術(shù)界與實務(wù)界的諸多會談紀要,可知日本已誕生出些許可為中國進行借鑒與批評的研究成果,例如,“選擇幅度理論”為著作權(quán)法中的可版權(quán)性判斷提供了全新的解讀思路,對人工智能生成物的可版權(quán)性認定亦產(chǎn)生了積極影響。該理論傾向于認可人工智能生成物的可版權(quán)性,值得深入挖掘。與此同時,日本學(xué)術(shù)界和實務(wù)界對于人工智能技術(shù)發(fā)展中的風(fēng)險防范問題也展開了廣泛討論,這些討論不僅涵蓋了如新聞出版業(yè)的傳統(tǒng)行業(yè)以及如互聯(lián)網(wǎng)信息傳播等新興行業(yè)的從業(yè)者反饋,還包括了從事底層代碼編輯與模型優(yōu)化的技術(shù)專家的實務(wù)建議。例如,新聞從業(yè)者指出人工智能技術(shù)對部分收費內(nèi)容的無償使用及其生成相似內(nèi)容的行為,直接削弱了新聞出版業(yè)的營收能力,進而打擊了新聞出版業(yè)者的創(chuàng)作積極性,為該行業(yè)持續(xù)良好地穩(wěn)定發(fā)展帶來不小隱患。此外,人工智能領(lǐng)域的技術(shù)專家們對于紅線監(jiān)測機制的創(chuàng)設(shè)倡議與更為明確的各個參與主體的責任分配清單的論述,亦能夠為今后的人工智能技術(shù)的立法帶來新鮮考量。
綜上所述,中國可以借鑒日本的經(jīng)驗并結(jié)合自身國情,構(gòu)建一個既能激發(fā)創(chuàng)新活力,又能保障各方權(quán)益的法律環(huán)境,最終探索出一條既符合國際趨勢又具有中國特色的人工智能生成物著作權(quán)保護之路,實現(xiàn)經(jīng)濟發(fā)展與科技創(chuàng)新的雙贏。
【基金項目】國家社會科學(xué)基金重大項目“支持全面創(chuàng)新的知識產(chǎn)權(quán)制度體系構(gòu)建研究”(23&ZD161)
注釋:
① 奧邨弘司將人工智能生成物分為第 0、1、2 類。第 0類是生成物是屬于人類的生成物,它們當然被認為是著作物。第 1類是人類將人工智能作為工具來對待(例如使用高精度的數(shù)碼相機等的情況)而產(chǎn)生的人工智能生成物,這也被認為是著作物。 至于第 2 類則是人工智能自主創(chuàng)作的、不被承認是著作物的生成物。在這種情況下,不難想象會發(fā)生僭稱問題。
②參見平成 20年(ネ)第10009 號案。
參考文獻:
[1 ]辻本良知. 人工知能による創(chuàng)作物と知的財產(chǎn)権[EB / OL]. [2024 - 10 - 25 ]. https:/ / www. jiii. or. jp / chizai -members/ contents16 / 201609 / 201609_1. pdf.
[2 ]上野達弘. 人工知能と機械學(xué)習(xí)をめぐる著作権法上の課題:日本と??????における近時の動向[J]. 法律時報,2019(7):33 - 40.
[3 ]日本知的財產(chǎn)戦略本部. 知的財產(chǎn)推進計畫 2016[EB / OL]. (2016 - 05 - 09)[2024 - 10 - 26]. https:/ / www.kantei. go. jp / jp / singi / titeki2 / kettei / chizaikeikaku20160509. pdf.
[4 ]清野正哉. AI(人工知能)を巡る問題·課題と今後の方向性について1 [J]. 會津大學(xué)文化研究????研究年報,2019(26):3 - 19.
[5 ]奧邨弘司. 人工知能が生み出した?????と著作権:著作物性を中心に (特集次世代知財????)[J]. ?????,2017(2):10 - 19.
[6 ]黃玉燁,司馬航. 孳息視角下人工智能生成作品的權(quán)利歸屬[J]. 河南師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版), 2018,45(4):23 - 29.
[7 ]張金平. 論人工智能生成物可版權(quán)性及侵權(quán)責任承擔[J]. 南京社會科學(xué),2023(10):77 - 89.
[8 ]知的財產(chǎn)戦略本部検証·評価·企畫委員會,次世代知財????検討委員會. 次世代知財????検討委
員會報告書 - ??????·??????化に対応する次世代知財????構(gòu)筑に向けて[EB / OL]. (2016 -04 - 09 )[2024 - 10 - 26 ]. https:/ / www. kantei. go. jp / jp / singi / titeki2 / tyousakai / kensho _ hyoka _ kikaku / 2016 /
jisedai_tizai / hokokusho. pdf.
[9 ]知的財產(chǎn)戦略本部検証·評価·企畫委員會,新たな情報財検討委員會. 新たな情報財検討委員會報告書 -
????·人工知能(人工智能)の利活用促進による產(chǎn)業(yè)競爭力強化の基盤となる知財????の構(gòu)筑に向けて[EB / OL]. (2017 - 03 - 13 )[2024 - 10 - 26 ]. https:/ / www. kantei. go. jp / jp / singi / titeki2 / tyousakai /
kensho_hyoka_kikaku / 2017 / johozai / houkokusho. pdf.
[10]劉銀良. 論人工智能作品的著作權(quán)法地位[J]. 政治與法律,2020(3):2 - 13.
[11]半田正夫. 著作権法概說[M]. 東京:法學(xué)書院,2015:15 - 16.
[12]斉藤博. 著作権法概論[M]. 東京:勁草書房,2014:38 - 39.
[13]島並良. 上野達弘,橫山久芳. 著作権法入門(第 3 版)[M]. 東京:有斐閣,2021:23 - 24.
[14]茶園成樹. 著作権法(第 2 版)[M]. 東京:有斐閣,2016:8 - 9.
[15]小西恵. 著作物性について[J]. ?????,2004(2):57 - 61.
[16]上野達弘. 人工知能による発明と創(chuàng)作—人工智能生成物に闋する知的財產(chǎn)権[J]. Japio year book(2017 ), 2017:20 - 23.
[17]壹貫田剛史. 人工智能は著作者になれるのか:???????の可能性と限界[EB / OL]. (2017 - 02 - 01 )
[2024 - 10 - 28]. http:/ / repo. kyoto - wu. ac. jp / dspace / bitstream / 11173 / 2442 / 1 / 0150_011_004. pdf.
[18]出井甫. 人工智能創(chuàng)作物に闋する著作権法上の問題點とその対策案[J]. ?????,2016(15):35 - 45.
[19]圖比亞斯·萊特. 德國著作權(quán)法(第 2 版)[M]. 張懷嶺,吳逸越,譯. 北京:中國人民大學(xué)出版社,2019:49- 50.
[20]三村量一. 判例の規(guī)范定立機能について[J]. 日本知的財產(chǎn)協(xié)會會誌広報委員會知財管理,2011 (9 ):1301- 1314.
[21]小泉直樹,田村善之,駒田泰土,上野達弘. 著作権判例百選(第 6 版)[M]. 東京:有斐閣,2019:8 - 9.
[22]中山信弘,著作権法(第 3 版)[M]. 東京:有斐閣,2020:53 - 54.
[23]鈴木康平. 著作権法における寫真の創(chuàng)作性 - 寫真の創(chuàng)作性判斷への表現(xiàn)の選択の幅論の適用可能性[J].図書館情報?????研究,2014,12(2):13 - 23.
[24]CNN. 自撮りの??に著作権なし?米控訴裁が判斷[EB / OL]. (2018 - 04 - 25 )[2024 - 10 - 29 ]. https:/ /
www. cnn. co. jp / fringe / 35118320. html.
[25]著作権審議會第 9 小委員會. ???????創(chuàng)作物闋係報告書[EB / OL]. [2024 - 10 - 30 ]. https:/ / www.
cric. or. jp / db / report / h5_11_2 / h5_11_2_main. html.
[26]文化審議會著作権分科會法制度小委員會. 配布資料 1 - 3 [EB / OL]. (2023 - 10 - 16 )[2024 - 10 - 30 ]. https:/
/ www. bunka. go. jp / seisaku / bunkashingikai / chosakuken / hoseido / r05_03 / .
[27]文化審議會著作権分科會法制度小委員會. 配布資料 2 大規(guī)模言語????と著作権に闋する考察[EB /
OL]. (2023 - 10 - 16 )[2024 - 10 - 30 ]. https:/ / www. bunka. go. jp / seisaku / bunkashingikai / chosakuken / hoseido
/ r05_03 / pdf / 93954701_02. pdf.
[28]文化審議會著作権分科會法制度小委員會. 人工智能と著作権に闋する考え方について[EB / OL]. (2024 -03 - 15 )[2024 - 10 - 30 ]. https:/ / www. bunka. go. jp / seisaku / bunkashingikai / chosakuken / pdf / 94037901 _01. pdf.
[29]文化庁著作権課. 人工智能と著作権に闋する???????&???????[EB / OL]. (2024 - 07 - 31 )[2024 - 10 - 30]. https:/ / www. bunka. go. jp / seisaku / bunkashingikai / chosakuken / seisaku / r06 _02 / pdf / 94089701_05. pdf.
[30]李偉民. 人工智能智力成果在著作權(quán)法的正確定性———與王遷教授商榷[J]. 東方法學(xué),2018(3):149 - 160.
[31]吳漢東,劉 鑫. 生成式人工智能的知識產(chǎn)權(quán)法律因應(yīng)與制度創(chuàng)新[J]. 科技與法律(中英文),2024 (1 ):1- 10.
[32]吳漢東. 知識產(chǎn)權(quán)法的制度創(chuàng)新本質(zhì)與知識創(chuàng)新目標[J]. 法學(xué)研究,2014(3):95 - 108.
[33]王遷. 論人工智能生成的內(nèi)容在著作權(quán)法中的定性[J]. 法律科學(xué)(西北政法大學(xué)學(xué)報),2017,35 (5 ):148- 155.
[34]聞天吉. 駁人工智能“創(chuàng)作工具說”[J]. 知識產(chǎn)權(quán),2024(1):85 - 105.
[35]熊 琦. 人工智能生成物的著作權(quán)認定[J]. 知識產(chǎn)權(quán),2017(3):3 - 8.
