作者|馮 姣
責(zé)編|薛應(yīng)軍
正文共2782個字,預(yù)計閱讀需8分鐘▼
“3月1日杭州市取消限行”的假新聞使美國OpenAI公司旗下的ChatGPT再度引發(fā)社會廣泛關(guān)注。作為一種人工智能技術(shù)驅(qū)動的自然語言處理工具,ChatGPT利用注意力機制提高模型訓(xùn)練速度,引入基于人類反饋的強化學(xué)習(xí)機制,可以使之完成文章寫作、聊天、翻譯等任務(wù),自2022年底發(fā)布以來,迅速在全世界走紅。
ChatGPT爆火背后隱藏不少侵權(quán)風(fēng)險。一是對著作權(quán)的侵犯。從設(shè)計原理看,ChatGPT要實現(xiàn)其預(yù)設(shè)功能,需要用海量數(shù)據(jù)對其“喂養(yǎng)”。這些數(shù)據(jù)來源渠道多元,但并非全部經(jīng)著作權(quán)人許可,且該類型的使用并不屬于《中華人民共和國著作權(quán)法》第二十四條規(guī)定的“合理使用”情形。二是對個人信息和對商業(yè)秘密等的侵犯。OpenAI的使用條款規(guī)定,ChatGPT對用戶的輸入內(nèi)容享有廣泛的使用權(quán)。若用戶輸入的內(nèi)容涉及個人隱私、商業(yè)秘密等內(nèi)容,則存在相關(guān)數(shù)據(jù)被泄露的可能性。此外,ChatGPT還存在其他一系列法律和倫理風(fēng)險,如人工智能幻覺(指人工智能的“自信反應(yīng)”,當(dāng)模型輸出欺騙性數(shù)據(jù)時,它使用的訓(xùn)練數(shù)據(jù)并不能證明輸出的合理性)、算法歧視和“算法黑箱”等,因此,有必要探討ChatGPT生成內(nèi)容侵權(quán)法律責(zé)任承擔(dān)機制等問題。
ChatGPT生成內(nèi)容侵權(quán)的法律責(zé)任承擔(dān)
從規(guī)范層面看,ChatGPT服務(wù)的提供者需依法承擔(dān)相應(yīng)侵權(quán)責(zé)任。2023年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《規(guī)定》)規(guī)定,深度合成技術(shù),是指利用深度學(xué)習(xí)、虛擬現(xiàn)實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù)。該規(guī)定對深度合成服務(wù)提供者、深度合成服務(wù)技術(shù)支持者和深度合成服務(wù)使用者的義務(wù)進行了規(guī)范。其中,深度合成服務(wù)提供者的義務(wù)包括落實信息安全主體責(zé)任、依法依約履行管理責(zé)任、建立健全辟謠機制等;深度合成服務(wù)使用者的義務(wù)則指不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息。ChatGPT屬于深度合成服務(wù)技術(shù)的范疇,若在我國使用,且生成內(nèi)容涉及侵犯著作權(quán)、個人信息等,則ChatGPT服務(wù)的提供者需要承擔(dān)相應(yīng)的法律責(zé)任。
從案例層面看,人工智能生成內(nèi)容的權(quán)利主體一旦得到確認,則相應(yīng)的義務(wù)主體亦能得到確認。在司法實踐層面,2019年“北京菲林律師事務(wù)所訴北京百度網(wǎng)訊科技有限公司侵害署名權(quán)、保護作品完整權(quán)、信息網(wǎng)絡(luò)傳播權(quán)糾紛案”中,法院認為自然人創(chuàng)作完成仍應(yīng)是著作權(quán)法上作品的必要條件,軟件研發(fā)者(所有者)和使用者均不應(yīng)成為分析報告的作者,但應(yīng)當(dāng)激勵軟件使用者的使用和傳播行為,將分析報告的相關(guān)權(quán)益賦予其享有。2020年深圳市南山區(qū)人民法院判決的人工智能生成文章作品糾紛案“騰訊訴盈訊科技侵害著作權(quán)糾紛案”中,法院認為涉案文章屬于我國著作權(quán)法所保護的文字作品,是原告主持創(chuàng)作的法人作品?傮w上看,對人工智能生成內(nèi)容的保護越來越受到實踐層面的關(guān)注。從權(quán)責(zé)利相統(tǒng)一的原則考量,若人工智能生成內(nèi)容的權(quán)利主體能得到確認,則相應(yīng)的義務(wù)主體亦能得到確認。但在實踐層面,關(guān)于人工智能生成內(nèi)容侵權(quán)的法律責(zé)任認定,相應(yīng)的案例較為缺乏。從使用協(xié)議看,用戶可能需要承擔(dān)相應(yīng)侵權(quán)責(zé)任。從OpenAI公司與用戶協(xié)議文本來看,《使用協(xié)議》第3條a項規(guī)定,在現(xiàn)行法律允許的范圍內(nèi),用戶擁有輸入內(nèi)容的所有權(quán),且在遵守協(xié)議前提下,OpenAI公司向用戶轉(zhuǎn)讓輸出內(nèi)容的所有權(quán)利權(quán)益。從雙方職責(zé)劃分來看,OpenAI公司遵守法律法規(guī)及協(xié)議,可在必要的情況下可以使用用戶提供的內(nèi)容。用戶對內(nèi)容負責(zé),包括確保不違反任何現(xiàn)行法律或用戶條款。在這一責(zé)任分配機制中,OpenAI公司作為服務(wù)提供者,利用用戶輸入的內(nèi)容訓(xùn)練ChatGPT。若ChatGPT生成內(nèi)容侵權(quán),則OpenAI公司堅持“技術(shù)中立”原則,不承擔(dān)法律層面的責(zé)任;用戶作為利益的享有者,則需承擔(dān)相應(yīng)責(zé)任。
從現(xiàn)有規(guī)范、案例和協(xié)議三個方面審視,可以發(fā)現(xiàn)ChatGPT生成內(nèi)容侵權(quán)的法律責(zé)任承擔(dān),可能面臨不同的結(jié)果。規(guī)范層面,更傾向于加重ChatGPT服務(wù)提供者的責(zé)任;用戶協(xié)議則大幅減輕ChatGPT服務(wù)提供者的責(zé)任,將大量的責(zé)任轉(zhuǎn)嫁給用戶;實踐中的一些案例則更多停留在權(quán)利主體的認定方面,對法律責(zé)任認定問題探索相對不足。
ChatGPT生成內(nèi)容侵權(quán)的法律責(zé)任優(yōu)化路徑
從域外實踐看,人工智能侵權(quán)糾紛不斷涌現(xiàn)。2022年11月,OpenAI、微軟等被起訴,程序員指控名為GitHub Copilot的AI編程工具抄襲代碼。2023年1月,AI繪畫公司Stability AI Ltd.等被起訴,原告聲稱上述公司下載并使用了數(shù)十億張受版權(quán)保護的圖像,且未征得版權(quán)所有者的同意或?qū)ζ溥M行補償。在ChatGPT不斷走紅的背景下,在可預(yù)見的時間內(nèi),針對ChatGPT生成內(nèi)容侵權(quán)的糾紛會日益增多。ChatGPT生成內(nèi)容侵權(quán)的法律責(zé)任,亟待進一步優(yōu)化。
明確ChatGPT生成內(nèi)容侵權(quán)的歸責(zé)主體。在理論層面,關(guān)于人工智能侵權(quán)歸責(zé),存在人工智能工具論、人工智能產(chǎn)品論、人工智能動物論、人工智能主體論等不同觀點。在弱人工智能時代,ChatGPT欠缺獨立的意識,生成內(nèi)容受算法模型、訓(xùn)練和輸入內(nèi)容等的影響,故其難以成為侵權(quán)行為歸責(zé)的主體。在ChatGPT生成內(nèi)容侵權(quán)這一行為中,主要涉及服務(wù)提供者以及用戶兩類主體。從侵權(quán)行為的發(fā)生環(huán)節(jié)來看,算法模型由OpenAI公司設(shè)置,并由OpenAI公司進行打碼訓(xùn)練,內(nèi)容則由用戶輸入,三者缺一不可。根據(jù)OpenAI公司與用戶的使用協(xié)議,OpenAI公司將ChatGPT生成內(nèi)容的權(quán)益和責(zé)任轉(zhuǎn)移給用戶,符合權(quán)責(zé)利相統(tǒng)一的原則。但基于ChatGPT算法模型的復(fù)雜性和“算法黑箱”的存在,普通用戶難以充分理解ChatGPT的運作邏輯,對ChatGPT生成內(nèi)容缺乏相應(yīng)的預(yù)期。在此背景下,要求用戶對ChatGPT生成內(nèi)容承擔(dān)全部責(zé)任,有失公平。因此,在侵權(quán)行為發(fā)生后,應(yīng)當(dāng)根據(jù)ChatGPT算法模型、訓(xùn)練素材和輸入內(nèi)容在侵權(quán)行為中發(fā)揮作用的比重,劃定雙方的責(zé)任。
建立人工智能類產(chǎn)品標(biāo)準(zhǔn)作為免責(zé)事由。根據(jù)我國《產(chǎn)品質(zhì)量法》第四十一條的規(guī)定,因產(chǎn)品存在缺陷造成人身、缺陷產(chǎn)品以外的其他財產(chǎn)損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)賠償責(zé)任。但生產(chǎn)者能夠證明有下列情形之一的,不承擔(dān)賠償責(zé)任:(1)未將產(chǎn)品投入流通的;(2)產(chǎn)品投入流通時,引起損害的缺陷尚不存在的;(3)將產(chǎn)品投入流通時的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的。就ChatGPT而言,OpenAI公司顯然已經(jīng)認識到了產(chǎn)品存在的缺陷,并在官網(wǎng)發(fā)布聲明,聲稱如果權(quán)利人認為知識產(chǎn)權(quán)被侵權(quán),可以向OpenAI公司發(fā)送聲明,OpenAI公司會刪除侵權(quán)內(nèi)容以防止重復(fù)侵權(quán)的發(fā)生。因此,若ChatGPT進入中國,OpenAI公司難以使用《產(chǎn)品質(zhì)量法》第四十一條的規(guī)定作為免責(zé)事由。從監(jiān)管層面看,應(yīng)當(dāng)針對人工智能類產(chǎn)品的特殊性,出臺人工智能類產(chǎn)品標(biāo)準(zhǔn)作為服務(wù)提供者的免責(zé)事由,并在鼓勵科技創(chuàng)新和權(quán)利保護之間尋找平衡點。
建立社會化的風(fēng)險轉(zhuǎn)移機制。從域外國家實踐來看,一些國家建立了人工智能賠償責(zé)任基金和保險制度,以轉(zhuǎn)移風(fēng)險,促進人工智能產(chǎn)業(yè)發(fā)展。如歐盟對人工智能的強制責(zé)任保險作出了不同于傳統(tǒng)保險制度的規(guī)定。就OpenAI公司和ChatGPT用戶而言,若擔(dān)心ChatGPT生成內(nèi)容具有侵權(quán)的可能性,則可以通過購買相應(yīng)商業(yè)保險,實現(xiàn)風(fēng)險的社會化轉(zhuǎn)移。保險制度和基金儲備機制的建立,可以在責(zé)任歸屬難以充分界定時,使得權(quán)益被侵害者及時獲得相應(yīng)的賠償,實現(xiàn)社會整體利益的最大化。
(作者單位:浙江財經(jīng)大學(xué)法學(xué)院)
·END·
|