當前,隨著人工智能技術的迅猛發(fā)展,AI生成內(nèi)容已滲透到傳播、文學、藝術等多個領域,在為創(chuàng)作帶來革命性變革的同時,也引發(fā)了一系列關于版權及法律保障等問題的討論。在近日舉辦的“人工智能版權前沿問題”研討會上,來自法學、經(jīng)濟學、公共政策等領域的專家學者齊聚一堂,共同探討AI生成內(nèi)容的版權問題、數(shù)據(jù)訓練的隱私保護、AI產(chǎn)品未來發(fā)展等話題,試圖為這一新興領域的版權困境尋找解決方案。
提示或提問是否受版權保護?
研討會上,圍繞AI生成內(nèi)容的相關版權問題成為熱議焦點。
從用戶輸入角度來看,中國政法大學比較法學研究院教授劉文杰認為,用戶的提問或提示相對短小,沒有排篇布局的安排,可能不太容易受到版權保護。但如果輸入比較復雜的文本,是用戶自己構思出來的,能滿足作品要件,是有可能受到版權保護的。當用戶無法預知AI會輸出什么內(nèi)容時,用戶以提示詞觸發(fā)模型運行,最終表達由模型輸出,此時用戶貢獻更接近于操作工具者或“制作者”,而非“創(chuàng)作者”。
中國政法大學民商經(jīng)濟法學院知識產(chǎn)權法研究所講師郝明英補充表示,使用者或者用戶在生成的內(nèi)容基礎之上又進行了修改,其直接作用于最終的成果,是有獨創(chuàng)性的選擇和安排的,可以受到版權保護。
國研新經(jīng)濟研究院創(chuàng)始院長朱克力從經(jīng)濟學強調(diào)的“成本—收益”邏輯作出分析。他表示,工業(yè)時代,創(chuàng)作者投入大量時間、智力等成本,所以其著作權受法律保護以便獲得收益;但在人工智能時代,用戶進行文字、圖片等產(chǎn)出的投入成本明顯降低。當輸入幾個詞就能獲得成果時,投入成本與工業(yè)時代相比微不足道。
針對AI生成內(nèi)容的版權歸屬問題,郝明英認為,無約定時應歸屬于人工智能的使用者,并強調(diào)權利義務和責任“應當相適應”。即人工智能生成內(nèi)容如若構成作品,且權利歸屬于用戶,發(fā)生侵權時,平臺是否需要承擔責任,需主要考慮其注意義務的邊界。劉文杰也認為,如果人工智能生成內(nèi)容受著作權法保護,就存在責任區(qū)分問題。只有承認生成內(nèi)容相當程度上來自平臺運營的人工智能模型,才能要求平臺承擔責任。
輸入信息能否用于模型訓練?
針對當前用戶與AI軟件間的交互,與會專家學者均強調(diào)了保護用戶個人隱私的重要性,同時也指出高質量數(shù)據(jù)對模型訓練的巨大價值。
劉文杰表示,用戶為讓AI更好地回答問題,相關提示詞可能涉及個人信息。根據(jù)個人信息保護法,這些信息輸入后,如果服務商想要儲存、再加工,需要明示用戶并征求其同意。關于敏感個人信息,我國法律還有“一事一議”的特殊規(guī)定,即處理敏感個人信息不能采用概括同意或推定同意的授權模式,而必須獲得個人明確的、單獨的同意。
“現(xiàn)在的技術加持情況下,用戶根本就不了解我點的這個‘同意’意味著什么。”中國人民大學法學院副教授姚歡慶提出,由于個人用戶對數(shù)據(jù)價值的認知和技術公司的利用能力往往不對等,當前“用戶同意”機制仍有待完善,涉及個人隱私的“知情同意”應做到明白、清楚、仔細。
他還特別提到,近期受到關注的“開盒”行為,就是通過不同數(shù)據(jù)庫匯集和碰撞,利用看似不重要的信息反向拼圖推導出個人信息。相關操作明顯違法,應從整體社會規(guī)范角度進行處罰和管理。
北京理工大學智能科技法律研究中心研究員王磊認為,大型平臺企業(yè)的數(shù)據(jù)利用大多合法合規(guī),但黑灰產(chǎn)對大數(shù)據(jù)的非法運用十分猖獗,須通過政府監(jiān)管、技術平臺和社會多方形成合力打擊。
他還提到了產(chǎn)業(yè)實踐中的一個困境——高質量數(shù)據(jù)的匱乏。“輸入端有很多被污染的數(shù)據(jù),相當于在投喂過程中的語料質量不高,導致輸出端必然會產(chǎn)生奇奇怪怪的結果,嚴重一點可能會產(chǎn)生截然相反的‘幻覺’。”他舉例說,在醫(yī)療、金融等專業(yè)領域,數(shù)據(jù)持有者普遍采取“留一手”策略,導致訓練語料質量參差不齊。
法律保障如何助力產(chǎn)業(yè)發(fā)展?
今年以來,中國AI產(chǎn)業(yè)應用正加速前進,為經(jīng)濟社會發(fā)展帶來了新的增長動能。與會專家共同表達了法律應以探索包容和鼓勵發(fā)展為主基調(diào)的呼吁,以支持人工智能行業(yè)發(fā)展。
“人工智能技術發(fā)展不斷突破,對應用場景、人類生活和國際競爭的影響尚難預測,因此不宜急于立法。”劉文杰稱,當前,我國行政主管部門通過規(guī)章、規(guī)范性文件等多種方式對人工智能產(chǎn)業(yè)進行監(jiān)管,更具有靈活性。人工智能產(chǎn)業(yè)本身還在自我革命之中,可根據(jù)實際情況及時調(diào)整監(jiān)管力度,這樣更有利于產(chǎn)業(yè)發(fā)展。
王磊提出對更適合現(xiàn)階段AI監(jiān)管政策的觀察——“小步快跑”——就個人信息保護、生成式人工智能、深度合成偽造等具體問題,相關主管部門以敏捷治理方式給出監(jiān)管要求,如十條到二十條左右的規(guī)定,具有很強針對性和靈活性。
針對AI在內(nèi)容生成,尤其文藝創(chuàng)作等領域帶來的巨大變革,姚歡慶呼吁建立“人機創(chuàng)作雙軌制”,以維護人類創(chuàng)作的主體性,避免人類在智能時代淪為技術附庸。他類比攝影技術對繪畫藝術的沖擊,指出當AI能高效生成內(nèi)容時,人類需要尋找主體意義的創(chuàng)作動力。他主張對AI生成內(nèi)容進行明確標注,并通過市場機制賦予人類作品溢價,以保護人類的創(chuàng)作積極性。
朱克力表示,基于國際博弈的背景,法律應該試圖與國家發(fā)展進行共振、聯(lián)動,成為推動國家發(fā)展的重要力量。具體而言,通過合理的制度設計和法律規(guī)制,為科技創(chuàng)新和產(chǎn)業(yè)發(fā)展提供有力的法治保障。在人工智能領域,包括但不限于知識產(chǎn)權保護的法律,應關注技術的快速發(fā)展對社會經(jīng)濟的影響,及時調(diào)整和完善相關法律制度。
