熱門文章
人工智能立法規范發展
發布時間:2019-07-03 分類:趨勢研究
孫佑海:天津大學法學院院長
高紹林:北京大學法律與人工智能研究中心專家顧問、天津市人大法制委員會原主任委員
張宜云:天津市人大立法研究所助理研究員
萬 勇:中國人民大學法學院教授、國家版權局國際版權研究基地研究員
曹建峰:騰訊研究院高級研究員
鄧煜坤:上海厚勢汽車CEO
導讀
機器翻譯、語音識別、智能家居、無人駕駛……隨著人工智能技術的不斷發展成熟,其正在越來越深度地介入人們的生活,相關的風險也開始不斷暴露。人工智能是否亟須立法規制?如進行規制又該秉承什么原則?不同細分應用領域的規制重點又該如何把握?本期“聲音版”邀請相關法律專家、行業從業者一道進行探討,敬請讀者關注。
有效應對新型風險必須加快立法進程
□ 孫佑海
2018年9月,第十三屆全國人大常委會向社會公布本屆全國人大立法計劃,人工智能立法列入其中,這是人工智能領域具有重大歷史意義的標志性事件。在當代人工智能飛速發展的新形勢下,我們既要認清新一代人工智能技術是時代之需、發展之要、民生之盼,也要看到因技術短板、監管不力、應用失范等因素而引發的潛在風險及對社會帶來的實際危害。唯有未雨綢繆地找準、判明人工智能發展帶來的風險點,并及時采取法律應對措施,才能在搶抓戰略機遇的同時,適時化危為機,確保社會規范有序。
人工智能可能帶來的法律風險,主要有四個方面:一是利用人工智能危害社會,造成刑事犯罪的風險。以無人機為例,隨著科技進步,智能無人機技術越來越先進,應用越來越普及,也給國家安全、公共安全和個人安全帶來嚴重威脅。近年來,無人機頻繁闖入各地機場凈空區,多次造成航班晚點,甚至對航空飛行安全構成了威脅。2014年,我國北方某地就發生了一次無人機威脅飛行安全事件;2017年2月2日和3日兩天內,我國南方某機場竟發生4起無人機非法飛行事件。僅隔一天,鄰近城市的機場又發生兩起無人機闖入機場凈空保護區事件,無人機甚至直接飛入機場的跑道區域。以上,對于觸犯刑律的,應當承擔刑事責任,而相應的法律應當抓緊完善。還有一些“擒拿格斗機器人”產品,因其具有高度自主性,可以自行對目標進行攻擊,一旦程序出錯失控,則很可能向人群進攻,成為人類公共安全的重大隱患。這都需要通過立法進行規制。
二是因開發利用人工智能,引發民事糾紛,客觀上需要人工智能立法確定承擔民事責任的邊界。例如,隨著人工智能的普及,人工智能創作物的知識產權歸屬問題如何確定,目前已有相關案例。傳統著作權法理論認為,作品是作者人格的體現,只有自然人才能創作作品。但動物和機器,無論何時都不能成為作者,即使其創作物具備了作品的特征。而現在,人工智能創作物向這一理論發起了挑戰。此外,自動駕駛汽車的安全性問題已經引起了廣泛關注,從自動駕駛汽車的生產資質、上路許可,到發生事故后的責任分擔,當前法律均處于空白狀態。因此,因人工智能汽車自動駕駛引發的交通事故,迫切需要通過立法,為明確責任、解決糾紛提供有效的法律依據。
三是因開發利用人工智能,違反行政管理規范,需要有關行政管理機關對違法的管理相對人進行行政處罰。例如,開發利用人工智能,在一定情形下需要行政許可,否則就要擔責。這些具體的情形就需要以法律法規的形式作出規范,這是立法任務。與此相對應,對于有關行政管理機關不作為和濫作為的情形,公民、法人和有關組織可以依法提起行政訴訟,這些也需要依法作出規范。
四是因開發利用人工智能,造成嚴重損害消費者合法權益和社會公共利益的情形,應當依法提起公益訴訟。但由于人工智能的開發利用對于社會公共利益的損害,有其新穎性和特殊性,人類應對的措施必然有所不同,因而必然也會對人工智能的立法提出新要求,這同時也增加了人工智能立法的難度。
為了解決人工智能發展帶來的新矛盾、新問題,必須未雨綢繆,加快研究人工智能的有關法律法規。一是,適時安排宏觀立法。人工智能的發展離不開一部反映時代需求的人工智能法以及配套法規組成的法律法規體系。人工智能法總體上屬于行政法的范疇?,F階段正處在人工智能技術的高速發展期,因此立法不能過細,但應當制定必要的原則框架,以保障法律的實施能落地。
二是明確近期立法工作重點。當前,針對人工智能的具體應用進行專門立法,是較為務實的立法思路。建議國務院或有關部門優先對自動駕駛、圖像識別、無人機管控等相對成熟的技術應用行為制定法規或規章,規范社會管理秩序。
三是做好司法解釋。對于立法工作一時跟不上,而實際案件又不斷涌現的人工智能應用領域,建議通過司法解釋的辦法化解糾紛,并為立法工作贏得時間和經驗。如在民事案件處理中,建議著力解決好人工智能生成內容的權利歸屬、人工智能損害后果的責任分擔問題;在刑事案件中,建議著力解決人工智能相關犯罪行為的定性和量刑幅度;在知產案件中,建議著力解決對算法、芯片等核心技術仿冒、侵權行為的責任歸屬和賠償標準等問題。
弱人工智能時代立法尚無基礎和條件
□ 高紹林 張宜云
隨著互聯網、大數據、云計算的發展,特別是隨著5G技術落地應用,人工智能必將以前所未有的速度向前發展。人工智能的發展,一方面可以造福人類,單就法律領域來講,人工智能給法律工作賦予了新的動能,立法、執法、司法、普法、法律服務都可以借助人工智能技術極大提高工作效率與質量。另一方面,人工智能也帶來許多新的挑戰,如果長期缺乏規制,可能會產生一定的災難性后果。比如,無人駕駛、無人機技術可能會給殺人、走私、販毒等犯罪行為提供便利;人工智能程序中的漏洞,可能被惡意利用,產生嚴重社會安全風險;人工智能的設計者、應用者可能突破倫理底線設計、使用人工智能以及數據泄露、算法歧視等。因此,有必要對人工智能發展進行立法規制,引導、規范人工智能健康發展。
在人工智能的立法規制上,有觀點認為,亟須出臺專門的人工智能法,筆者認為,當前人工智能總體上還處于弱人工智能時代,主要集中于語音識別、自動翻譯、語音合成、圖像識別、自動駕駛、工業機器人、聊天機器人等具體領域,短期內不可能出現“通用人工智能”。因此,尚不具備制定完整人工智能法律制度的實踐基礎和客觀條件。
馬克思在《論離婚法草案》中有一句名言:“立法者應該把自己看作一個自然科學家,他不是在制造法律,不是在發明法律,而僅僅是在表述法律,他把精神關系的內在規律表現在有意識的現行法律之中。如果,一個立法者用自己的臆想來代替事情的本質,那么我們就應該責備他極端任性?!睂τ谝粋€新興領域進行專門立法規制,一般需要三個條件:一是社會產生了對這一新興領域進行立法規制的現實需求;二是在現行法律法規框架內無法實現對其進行必要調整;三是立法者能夠認清和把握其內在的客觀規律。
從人工智能現階段發展水平來看,無論是數據、算法、算力,還是應用場景,基本上還處于探索性、試驗性階段,我們還缺乏對其基本規律的研究與認識。在這種情況下,制定一部完整的人工智能法是不現實的。最現實的選擇是堅持趨利避害的底線思維,根據人工智能發展的現實需要,對現行法律制度進行必要的修改、補充。
而為了保障和促進人工智能健康發展,對人工智能進行立法規制應堅持以下原則:一是以人為本原則。確保人工智能發展能夠增加人類福祉,保障人的尊嚴、自由和人身財產安全。二是發展與安全平衡原則。處理好促進人工智能發展與保證社會安全之間的關系,二者不可偏廢。三是政府干預適度原則。人工智能開發與應用只要不與法律法規相抵觸,不危害公序良俗,政府就不要過度干預。四是倫理底線控制原則。明確人工智能在安全、隱私、公平、公正等方面的倫理底線。五是風險容忍度原則。人工智能發展具有很強的探索性,即使是相對成熟的應用,也還有相當的不確定性,要適當容忍其試錯。六是多層級立法共進互補原則。在中國特色社會主義法律體系框架內,發揮統一、多層次的立法體制優勢,從法律、行政法規、地方性法規等多個層次對人工智能進行立法規制。
從人工智能發展態勢看,當前需要著手進行的立法項目,首先是全國人大及其常委會立法,包括在編纂民法典中,明確人工智能相關的民事基礎制度;制定數據安全法,對人工智能時代的數據安全和信息保護作出規定;制定電信法,為人工智能發展提供良好的公共網絡基礎設施環境;修改道路交通安全法,對無人駕駛汽車作出規定;修改著作權法、專利法,對人工智能知識產權相關問題作出規定;適時出臺刑法修正案,對人工智能涉及的犯罪作出規定。
其次是國務院制定行政法規,包括制定網絡安全法實施條例、機器人使用安全管理條例、人工智能基礎設施管理條例、智能網聯汽車管理條例、人工智能輔助醫療診斷與治療管理條例、修改計算機軟件保護條例等。
同時,人工智能產業發展的優勢地區也可以加強地方立法,重點是制定促進人工智能產業發展的地方性法規,包括鼓勵人工智能產業發展,促進人工智能在政務、財稅、制造等領域應用,人工智能涉及的消費者權益保護、人力資源與社會保障等。
總之,隨著人工智能快速發展,需要更多的法學家關注其法律問題,盡快構建人工智能倫理體系以及相關法學理論體系,為人工智能法律規制提供理論基礎。同時,立法機關要更多關注人工智能的立法規制問題,發揮立法的引領與推動作用,盡早將人工智能立法規制的相關立法項目提上議事日程,為人工智能的健康發展創造良好的法治環境。
人工智能生成物可否構成作品
□ 萬 勇
2017年5月,微軟“小冰”創作的詩集《陽光失了玻璃窗》正式出版、谷歌開發的人工智能DeepDream可以生成繪畫,且所生成的畫作已經成功拍賣……從外觀形式來看,由人工智能創作的成果與人類創作的成果沒有任何區別,且很難被察覺并非由人類所作??梢哉f,與以往技術創新相比,人工智能技術對著作權法提出的挑戰是最根本,也是最全面的。
今年4月,北京互聯網法院對國內首例人工智能作品爭議案作出了一審判決,為理論探討提供了新鮮的實踐素材。對于主體資格問題,法院認為,盡管隨著科學技術的發展,人工智能生成物在內容、形態,甚至表達方式上日趨接近自然人,但根據現實的科技及產業發展水平,尚不宜在法律主體方面予以突破。不過,法院也認為,應給予人工智能生成物以一定的法律保護,因為其具備傳播價值。
筆者認為,對于人工智能生成物的著作權定性這一極具爭議的問題,作為社會穩定器的法院采取相對保守、平衡的立場,是合適的。需要指出的是,如果人工智能生成物不被承認是作品,相關主體出于利益最大化的考量,很有可能會隱瞞相關成果是人工智能創作的事實。這樣導致的后果其實就是迫使人們“為惡”,即通過弄虛作假來規避法律,因為從外觀上無法識別,人工智能生成物最終仍然會獲得著作權法的保護。與其堵還不如疏,這種理念也應適用于人工智能生成物的法律規制領域。
目前,有的國家已積累了一些經驗。如英國《1988年版權、外觀設計和專利法案》規定,對于計算機生成的文字、戲劇、音樂或藝術作品而言,作者應是對該作品的創作進行必要安排的人。由于這一條款具有一定的開放性,也賦予了法院較大的自由裁量權,對有效保護人工智能生成物的著作權發揮了積極作用,我國立法也可予以借鑒。
算法治理應包容審慎敏捷靈活
□ 曹建峰
隨著人工智能技術的不斷發展,數據和算法的結合開始對我們的生產生活產生廣泛影響,從信息的個性化傳播到金融、雇傭、司法等領域的自動化決策再到自動駕駛汽車等等。
但算法的應用在給人們生活帶來便利的同時,也帶來一系列法律、倫理與社會問題,諸如算法歧視、責任、安全、濫用、深度偽造等。國際社會開始呼吁建立算法治理,實現算法透明與問責。對此需要考慮以下幾個方面的問題:
第一,算法實際上是一個非常廣義的概念,所謂的算法治理是針對機器學習等人工智能算法在特定領域的應用,所以明確概念是算法治理的起點。
第二,算法治理需要包容審慎、敏捷靈活的思路,技術和商業模式快速迭代,草率立法不可能期待會產生正面效果,而且成文或專門立法恐難跟上技術發展步伐,所以應避免嚴格、細致的法律要求,而是采取事后監管或者通過出臺標準、行業公約、倫理框架、最佳實踐、技術指南等方式調整算法應用,支持行業自律。
第三,算法透明不是對算法的每一個步驟、技術原理和實現細節進行解釋,簡單公開算法系統的源代碼也不能提供有效的透明度,反倒可能威脅數據隱私或影響算法安全應用。相反,在算法系統的行為和決策上實現有效透明將更可取,也能提供顯著的效益。如歐盟《一般數據保護條例》(GDPR)并沒有要求對特定自動化決策進行解釋,而僅要求提供關于內在邏輯的有意義的信息,并解釋自動化決策的重要性和預想的后果。
第四,算法治理需要分級分類的監管機制,例如歐盟、加拿大等呼吁針對政府和社會公共部門使用的算法系統進行嚴監管,包括建立“算法影響評估”機制;對于商業領域的算法系統則更多采取事后追究法律責任的機制,以免過度監管影響技術創新。
因此,我們看到社會各界在以倫理的方式推動算法治理。國際層面,歐盟、OECD、G20等都提出了人工智能原則,力爭在國際上達成共識;行業層面,谷歌、微軟、騰訊等都提出了各自的人工智能倫理原則,積極承擔倫理責任,踐行科技向善,避免算法被不當利用或濫用。展望未來,我們還需要通過廣泛社會參與和跨學科研究評估的方式來實現對算法應用的良好治理。
規制自動駕駛的天花板應予以抬升
□ 鄧煜坤
對于自動駕駛這一新生事物,立法要密切關注跟蹤其發展動態,然后再適當立法,且早期立法應以鼓勵為主。就目前中國自動駕駛發展狀況而言,一些城市已出臺相關法規政策,允許自動駕駛汽車可在城市低速道路上進行路測,但仍有很多規定嚴重妨礙中國自動駕駛發展,如自動駕駛汽車不能進入高速公路測試,為此很多中國企業只能舍近求遠前往美國進行高速路測,因為美國有相關法律支持。而如果不能在多種場景、更為復雜的路面上進行測試,那么自動駕駛技術和相關算法模型就難以快速成熟起來。作為從業者,希望現在的法律規制天花板往上抬一抬。當然在此過程中肯定會出現一些問題,但關鍵在于如何界定各方責任,促使企業將出現問題的幾率降低,而不是一味限制。如果過度強調絕對不能出問題,那也就意味著自動駕駛絕對發展不起來。
在通過法律政策推進自動駕駛技術發展的同時,也要密切關注行業的發展,如果發現可能會給人類帶來極端破壞的情形,也要盡快制定法律法規進行規制。以其他行業為例,如2018年被爆出的基因編輯嬰兒事件,就是一起非??膳碌陌咐?對于技術革新帶來的這種極其負面的事件,就應當盡快進行立法明確法律紅線。不過就目前自動駕駛領域的人工智能技術而言,尚沒有發現會給人類帶來潛在巨大危害的風險。