在資本市場熱捧ChatGPT概念的同時,法律工作者也在評估ChatGPT自身可能會帶來哪些法律安全風(fēng)險以及其法律合規(guī)路徑。目前人工智能領(lǐng)域,尤其是自然語言處理技術(shù)領(lǐng)域正在快速發(fā)展階段,該技術(shù)很可能會陷入所謂的“科林格里奇窘境”,與此相對應(yīng)的法律監(jiān)管似乎并未“跟得上步伐”,而ChatGPT等AI聊天基礎(chǔ)存在的現(xiàn)實合規(guī)問題也急需重視。
ChatGPT等基于自然語言處理技術(shù)的聊天AI,就短期來看亟需要解決的法律合規(guī)問題主要有三個:
其一,聊天AI提供的答復(fù)的知識產(chǎn)權(quán)問題,其中最主要的合規(guī)難題是聊天AI產(chǎn)出的答復(fù)是否產(chǎn)生相應(yīng)的知識產(chǎn)權(quán)?是否需要知識產(chǎn)權(quán)授權(quán)?
其二,聊天AI對巨量的自然語言處理文本(一般稱之為語料庫)進(jìn)行數(shù)據(jù)挖掘和訓(xùn)練的過程是否需要獲得相應(yīng)的知識產(chǎn)權(quán)授權(quán)?
其三,ChatGPT等聊天AI的回答機制之一是通過對大量已經(jīng)存在的自然語言文本進(jìn)行數(shù)學(xué)上的統(tǒng)計,得到一個基于統(tǒng)計的語言模型,這一機制導(dǎo)致聊天AI很可能會“一本正經(jīng)的胡說八道”,進(jìn)而導(dǎo)致虛假信息傳播的法律風(fēng)險,在這一技術(shù)背景下,如何盡可能降低聊天AI的虛假信息傳播風(fēng)險?
總體而言,目前我國對于人工智能立法依然處在預(yù)研究階段,還沒有正式的立法計劃或者相關(guān)的動議草案,相關(guān)部門對于人工智能領(lǐng)域的監(jiān)管尤為謹(jǐn)慎,隨著人工智能的逐步發(fā)展,相應(yīng)的法律合規(guī)難題只會越來越多。
一、ChatGPT并非是“跨時代的人工智能技術(shù)”
ChatGPT本質(zhì)上是自然語言處理技術(shù)發(fā)展的產(chǎn)物,本質(zhì)上依然僅是一個語言模型。
2023開年之初全球科技巨頭微軟的巨額投資讓ChatGPT成為科技領(lǐng)域的“頂流”并成功出圈。隨著資本市場ChatGPT概念板塊的大漲,國內(nèi)眾多科技企業(yè)也著手布局這一領(lǐng)域,在資本市場熱捧ChatGPT概念的同時,作為法律工作者,我們不禁要評估ChatGPT自身可能會帶來哪些法律安全風(fēng)險,其法律合規(guī)路徑何在?
在討論ChatGPT的法律風(fēng)險及合規(guī)路徑之前,我們首先應(yīng)當(dāng)審視ChatGPT的技術(shù)原理——ChatGPT是否如新聞所言一樣,可以給提問者回答任何其想要的問題?
在颯姐團隊看來,ChatGPT似乎遠(yuǎn)沒有部分新聞所宣傳的那樣“神”——一句話總結(jié),其僅僅是Transformer和GPT等自然語言處理技術(shù)的集成,本質(zhì)上依然是一個基于神經(jīng)網(wǎng)絡(luò)的語言模型,而非一項“跨時代的AI進(jìn)步”。
前面已經(jīng)提到ChatGPT是自然語言處理技術(shù)發(fā)展的產(chǎn)物,就該技術(shù)的發(fā)展史來看,其大致經(jīng)歷了基于語法的語言模型——基于統(tǒng)計的語言模型——基于神經(jīng)網(wǎng)絡(luò)的語言模型三大階段,ChatGPT所在的階段正是基于神經(jīng)網(wǎng)絡(luò)的語言模型階段,想要更為直白地理解ChatGPT的工作原理及該原理可能引發(fā)的法律風(fēng)險,必須首先闡明的就是基于神經(jīng)網(wǎng)絡(luò)的語言模型的前身——基于統(tǒng)計的語言模型的工作原理。
在基于統(tǒng)計的語言模型階段,AI工程師通過對巨量的自然語言文本進(jìn)行統(tǒng)計,確定詞語之間先后連結(jié)的概率,當(dāng)人們提出一個問題時,AI開始分析該問題的構(gòu)成詞語共同組成的語言環(huán)境之下,哪些詞語搭配是高概率的,之后再將這些高概率的詞語拼接在一起,返回一個基于統(tǒng)計學(xué)的答案??梢哉f這一原理自出現(xiàn)以來就貫穿了自然語言處理技術(shù)的發(fā)展,甚至從某種意義上說,之后出現(xiàn)的基于神經(jīng)網(wǎng)絡(luò)的語言模型亦是對基于統(tǒng)計的語言模型的修正。
舉一個容易理解的例子,颯姐團隊在ChatGPT聊天框中輸入問題“大連有哪些旅游勝地?”
AI第一步會分析問題中的基本語素“大連、哪些、旅游、勝地”,再在已有的語料庫中找到這些語素所在的自然語言文本集合,在這個集合中找尋出現(xiàn)概率最多的搭配,再將這些搭配組合以形成最終的答案。如AI會發(fā)現(xiàn)在“大連、旅游、勝地”這三個詞高概率出現(xiàn)的語料庫中,有“中山公園”一詞,于是就會返回“中山公園”,又如“公園”這個詞與花園、湖泊、噴泉、雕像等詞語搭配的概率最大,因此就會進(jìn)一步返回“這是一個歷史悠久的公園,有美麗的花園、湖泊、噴泉和雕像。”
換言之,整個過程都是基于AI背后已有的自然語言文本信息(語料庫)進(jìn)行的概率統(tǒng)計,因此返回的答案也都是“統(tǒng)計的結(jié)果”,這就導(dǎo)致了ChatGPT在許多問題上會“一本正經(jīng)的胡說八道”。如剛才的這個問題“大連有哪些旅游勝地”的回答,大連雖然有中山公園,但是中山公園中并沒有湖泊、噴泉和雕像。大連在歷史上的確有“斯大林廣場”,但是斯大林廣場自始至終都不是一個商業(yè)廣場,也沒有任何購物中心、餐廳和娛樂場所。顯然,ChatGPT返回的信息是虛假的。
二、ChatGPT作為語言模型目前其最適合的應(yīng)用場景
雖然上個部分我們直白的講明了基于統(tǒng)計的語言模型的弊端,但ChatGPT畢竟已經(jīng)是對基于統(tǒng)計的語言模型大幅度改良的基于神經(jīng)網(wǎng)絡(luò)的語言模型,其技術(shù)基礎(chǔ)Transformer和GPT都是最新一代的語言模型,ChatGPT本質(zhì)上就是將海量的數(shù)據(jù)結(jié)合表達(dá)能力很強的Transformer模型結(jié)合,從而對自然語言進(jìn)行了一個非常深度的建模,返回的語句雖然有時候是“胡說八道”,但乍一看還是很像“人類回復(fù)的”,因此這一技術(shù)在需要海量的人機交互的場景下具有廣泛的應(yīng)用場景。
就目前來看,這樣的場景有三個:
其一,搜索引擎;
其二,銀行、律所、各類中介機構(gòu)、商場、醫(yī)院、政府政務(wù)服務(wù)平臺中的人機交互機制,如上述場所中的客訴系統(tǒng)、導(dǎo)診導(dǎo)航、政務(wù)咨詢系統(tǒng);
第三,智能汽車、智能家居(如智能音箱、智能燈光)等的交互機制。
結(jié)合ChatGPT等AI聊天技術(shù)的搜索引擎很可能會呈現(xiàn)出傳統(tǒng)搜索引擎為主+基于神經(jīng)網(wǎng)絡(luò)的語言模型為輔的途徑。目前傳統(tǒng)的搜索巨頭如谷歌和百度均在基于神經(jīng)網(wǎng)絡(luò)的語言模型技術(shù)上有著深厚的積累,譬如谷歌就有與ChatGPT相媲美的Sparrow和Lamda,有著這些語言模型的加持,搜索引擎將會更加“人性化”。
ChatGPT等AI聊天技術(shù)運用在客訴系統(tǒng)和醫(yī)院、商場的導(dǎo)診導(dǎo)航以及政府機關(guān)的政務(wù)咨詢系統(tǒng)中將大幅度降低相關(guān)單位的人力資源成本,節(jié)約溝通時間,但問題在于基于統(tǒng)計的回答有可能產(chǎn)生完全錯誤的內(nèi)容回復(fù),由此帶來的風(fēng)控風(fēng)險恐怕還需要進(jìn)一步評估。
相比于上述兩個應(yīng)用場景,ChatGPT應(yīng)用在智能汽車、智能家居等領(lǐng)域成為上述設(shè)備的人機交互機制的法律風(fēng)險則要小很多,因為這類領(lǐng)域應(yīng)用環(huán)境較為私密,AI反饋的錯誤內(nèi)容不至于引起大的法律風(fēng)險,同時這類場景對內(nèi)容準(zhǔn)確性要求不高,商業(yè)模式也更為成熟。
三、ChatGPT的法律風(fēng)險及合規(guī)路徑初探
第一,人工智能在我國的整體監(jiān)管圖景
和許多新興技術(shù)一樣,ChatGPT所代表的自然語言處理技術(shù)也面臨著“科林格里奇窘境(Collingridge dilemma)”。這一窘境包含了信息困境與控制困境,所謂信息困境,即一項新興技術(shù)所帶來的社會后果不能在該技術(shù)的早期被預(yù)料到;所謂控制困境,即當(dāng)一項新興技術(shù)所帶來的不利的社會后果被發(fā)現(xiàn)時,技術(shù)卻往往已經(jīng)成為整個社會和經(jīng)濟結(jié)構(gòu)的一部分,致使不利的社會后果無法被有效控制。
目前人工智能領(lǐng)域,尤其是自然語言處理技術(shù)領(lǐng)域正在快速發(fā)展階段,該技術(shù)很可能會陷入所謂的“科林格里奇窘境”,與此相對應(yīng)的法律監(jiān)管似乎并未“跟得上步伐”。我國目前尚無國家層面上的人工智能產(chǎn)業(yè)立法,但地方已經(jīng)有相關(guān)的立法嘗試。就在去年9月,深圳市公布了全國首部人工智能產(chǎn)業(yè)專項立法《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》,緊接著上海也通過了《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》,相信不久之后各地均會出臺類似的人工智能產(chǎn)業(yè)立法。
在人工智能的倫理規(guī)制方面,國家新一代人工智能治理專業(yè)委員會亦在2021年發(fā)布了《新一代人工智能倫理規(guī)范》,提出將倫理道德融入人工智能研發(fā)和應(yīng)用的全生命周期,或許在不久的將來,類似阿西莫夫小說中的“機器人三定律”將成為人工智能領(lǐng)域監(jiān)管的鐵律。
第二,ChatGPT帶來的虛假信息法律風(fēng)險問題
將目光由宏觀轉(zhuǎn)向微觀,拋開人工智能產(chǎn)業(yè)的整體監(jiān)管圖景和人工智能倫理規(guī)制問題,ChatGPT等AI聊天基礎(chǔ)存在的現(xiàn)實合規(guī)問題也急需重視。
這其中較為棘手的是ChatGPT回復(fù)的虛假信息問題,正如本文在第二部分提及的,ChatGPT的工作原理導(dǎo)致其回復(fù)可能完全是“一本正經(jīng)的胡說八道”,這種看似真實實則離譜的虛假信息具有極大的誤導(dǎo)性。當(dāng)然,像對“大連有哪些旅游勝地”這類問題的虛假回復(fù)可能不會造成嚴(yán)重后果,但倘若ChatGPT應(yīng)用到搜索引擎、客訴系統(tǒng)等領(lǐng)域,其回復(fù)的虛假信息可能造成極為嚴(yán)重的法律風(fēng)險。
實際上這樣的法律風(fēng)險已經(jīng)出現(xiàn),2022年11月幾乎與ChatGPT同一時間上線的Meta服務(wù)科研領(lǐng)域的語言模型Galactica就因為真假答案混雜的問題,測試僅僅3天就被用戶投訴下線。在技術(shù)原理無法短時間突破的前提下,倘若將ChatGPT及類似的語言模型應(yīng)用到搜索引擎、客訴系統(tǒng)等領(lǐng)域,就必須對其進(jìn)行合規(guī)性改造。當(dāng)檢測到用戶可能詢問專業(yè)性問題時,應(yīng)當(dāng)引導(dǎo)用戶咨詢相應(yīng)的專業(yè)人員,而非在人工智能處尋找答案,同時應(yīng)當(dāng)顯著提醒用戶聊天AI返回的問題真實性可能需要進(jìn)一步驗證,以最大程度降低相應(yīng)的合規(guī)風(fēng)險。
第三,ChatGPT帶來的知識產(chǎn)權(quán)合規(guī)問題
當(dāng)將目光由宏觀轉(zhuǎn)向微觀時,除了AI回復(fù)信息的真實性問題,聊天AI尤其是像ChatGPT這樣的大型語言模型的知識產(chǎn)權(quán)問題亦應(yīng)該引起合規(guī)人員的注意。
首先的合規(guī)難題是“文本數(shù)據(jù)挖掘”是否需要相應(yīng)的知識產(chǎn)權(quán)授權(quán)問題。正如前文所指明的ChatGPT的工作原理,其依靠巨量的自然語言本文(或言語料庫),ChatGPT需要對語料庫中的數(shù)據(jù)進(jìn)行挖掘和訓(xùn)練,ChatGPT需要將語料庫中的內(nèi)容復(fù)制到自己的數(shù)據(jù)庫中,相應(yīng)的行為通常在自然語言處理領(lǐng)域被稱之為“文本數(shù)據(jù)挖掘”。當(dāng)相應(yīng)的文本數(shù)據(jù)可能構(gòu)成作品的前提下,文本數(shù)據(jù)挖掘行為是否侵犯復(fù)制權(quán)當(dāng)前仍存在爭議。
在比較法領(lǐng)域,日本和歐盟在其著作權(quán)立法中均對合理使用的范圍進(jìn)行了擴大,將AI中的“文本數(shù)據(jù)挖掘”增列為一項新的合理使用的情形。雖然2020年我國著作權(quán)法修法過程中有學(xué)者主張將我國的合理使用制度由“封閉式”轉(zhuǎn)向“開放式”,但這一主張最后并未被采納,目前我國著作權(quán)法依舊保持了合理使用制度的封閉式規(guī)定,僅著作權(quán)法第二十四條規(guī)定的十三中情形可以被認(rèn)定為合理使用,換言之,目前我國著作權(quán)法并未將AI中的“文本數(shù)據(jù)挖掘”納入到合理適用的范圍內(nèi),文本數(shù)據(jù)挖掘在我國依然需要相應(yīng)的知識產(chǎn)權(quán)授權(quán)。
其次的合規(guī)難題是ChatGPT產(chǎn)生的答復(fù)是否具有獨創(chuàng)性?對于AI生成的作品是否具有獨創(chuàng)性的問題,颯姐團隊認(rèn)為其判定標(biāo)準(zhǔn)不應(yīng)當(dāng)與現(xiàn)有的判定標(biāo)準(zhǔn)有所區(qū)別,換言之,無論某一答復(fù)是AI完成的還是人類完成的,其都應(yīng)當(dāng)根據(jù)現(xiàn)有的獨創(chuàng)性標(biāo)準(zhǔn)進(jìn)行判定。其實這個問題背后是另一個更具有爭議性的問題,如果AI生成的答復(fù)具有獨創(chuàng)性,那么著作權(quán)人可以是AI嗎?顯然,在包括我國在內(nèi)的大部分國家的知識產(chǎn)權(quán)法律下,作品的作者僅有可能是自然人,AI無法成為作品的作者。
最后,ChatGPT倘若在自己的回復(fù)中拼接了第三方作品,其知識產(chǎn)權(quán)問題應(yīng)當(dāng)如何處理?颯姐團隊認(rèn)為,如果ChatGPT的答復(fù)中拼接了語料庫中擁有著作權(quán)的作品(雖然依據(jù)ChatGPT的工作原理,這種情況出現(xiàn)的概率較?。?,那么按照中國現(xiàn)行的著作權(quán)法,除非構(gòu)成合理使用,否則非必須獲得著作權(quán)人的授權(quán)后才可以復(fù)制。(財富中文網(wǎng))
作者肖颯為財富中文網(wǎng)專欄作家,“科技+金融”深度法律服務(wù)者
本內(nèi)容為作者獨立觀點,不代表財富中文網(wǎng)立場。未經(jīng)允許不得轉(zhuǎn)載。
編輯:劉蘭香