熱門文章
騰訊發布人工智能倫理報告 “幸福、信任、可持續”成核心詞
發布時間:2019-07-11 分類:趨勢研究
近日,騰訊研究院和騰訊AI Lab聯合發布了人工智能倫理報告《智能時代的技術倫理觀——重塑數字社會的信任》。人工智能倫理是國際社會近幾年關注的焦點話題。最近,國內外都有重大進展,OECD成員國采納了首個由各國政府簽署的AI原則,即“負責任地管理可信AI的原則(Principles for responsible stewardship of trustworthy AI)”,這些原則之后被G20采納,成為人工智能治理方面的首個政府間國際共識,確立了以人為本的發展理念和敏捷靈活的治理方式。無獨有偶,我國新一代人工智能治理原則也于近日發布,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八項原則,以發展負責任的人工智能。
在此背景下,在騰訊研究院過去幾年對人工智能倫理進行的持續研究的基礎上,騰訊研究院和騰訊AI Lab聯合研究形成了這份人工智能倫理報告《智能時代的技術倫理觀——重塑數字社會的信任》,認為在“科技向善”理念之下,需要倡導面向人工智能的新的技術倫理觀,包含三個層面:技術信任,人工智能等新技術需要價值引導,做到可用、可靠、可知、可控(“四可”);個體幸福,確保人人都有追求數字福祉、幸福工作的權利,在人機共生的智能社會實現個體更自由、智慧、幸福的發展;社會可持續,踐行“科技向善”,發揮好人工智能等新技術的巨大“向善”潛力,善用技術塑造健康包容可持續的智慧社會,持續推動經濟發展和社會進步。
以下為《智能時代的技術倫理觀——重塑數字社會的信任》主要內容:
互聯網的前三十年,是一個連接一切的故事,這個故事以前所未有的速度和規模改變著人類和人類社會。如今,以人工智能、大數據為代表的新技術集群加速發展,有望引領第四次工業革命,智能時代的大幕正在拉開,無處不在的數據和算法正在催生一種新型的人工智能驅動的經濟和社會形式,生物層、物理層、技術層可能融合為三位一體。簡言之,人工智能正在改變這個世界。
因此在當前,以人工智能為代表的這一輪新技術具有巨大的潛力和價值,無疑能夠成為一股“向善”的力量,繼續造福于人類和人類社會。但任何具有變革性的新技術都必然帶來法律的、倫理的以及社會的影響。例如,互聯網、大數據、人工智能等數字技術及其應用帶來的隱私保護、虛假信息、算法歧視、網絡安全、網絡犯罪、網絡過度使用等問題已經成為全球關注焦點,引發全球范圍內對數字技術及其應用的影響的反思和討論,探索如何讓新技術帶來個人和社會福祉的最大化。
因此,人工智能倫理開始從幕后走到前臺,成為糾偏和矯正科技行業的狹隘的技術向度和利益局限的重要保障。正如華裔AI科學家李飛飛所言,要讓倫理成為人工智能研究與發展的根本組成部分。在此背景下,從政府到行業再到學術界,全球掀起了一股探索制定人工智能倫理原則的熱潮,歐盟、德國、英國、OECD、G20、IEEE、谷歌、微軟等諸多主體從各自的角度提出了相應的人工智能倫理原則,共同促進AI知識的共享和可信AI的構建。要言之,各界已經基本達成共識,人工智能的發展離不開對倫理的思考和倫理保障。
從最早的計算機到后來的信息再到如今的數據和算法,伴隨著技術倫理的關注焦點的轉變,技術倫理正在邁向一個新的階段。在新的發展階段,我們提出新的技術倫理(technology ethics),探索AI、個人、社會三者之間的平衡。就AI技術自身而言,AI需要價值引導,應做到可用、可靠、可知、可控(“四可”),從而讓人們可以信任AI,讓AI可以給個人和社會創造價值;就AI與個人之關系而言,幸福是人生的終極目的,需要構建和諧共生的人機關系,保障個人的數字福祉和幸福工作權利,實現智能社會人機共生,讓個體更自由、智慧、幸福地生活和發展;就AI與社會之關系而言,AI所具有的巨大的“向善”潛力是歷史上任何時候都無法比擬的,可以成為一股“向善”的力量,助力經濟社會健康包容可持續發展。
信任(trust):人工智能需要價值引導,做到可用、可靠、可知、可控(“四可”)
就AI而言,雖然技術自身沒有道德、倫理的品質,但是開發、使用技術的人會賦予其倫理價值,因為基于數據做決策的軟件是人設計的,他們設計模型、選擇數據并賦予數據意義,從而影響我們的行為。所以,這些代碼并非價值中立,其中包括了太多關于我們的現在和未來的決定。更進一步,現在人們無法完全信任人工智能,一方面是因為人們缺乏足夠信息,對這些與我們的生活和生產息息相關的技術發展缺少足夠的了解;另一方面是因為人們缺乏預見能力,既無法預料企業會拿自己的數據做什么,也無法預測人工智能系統的行為。因此,我們需要構建能夠讓社會公眾信任人工智能等新技術的規制體系,讓技術接受價值引導。
作為建立技術信任的起點,我們認為,人工智能等新技術的發展和應用需要遵循倫理原則。為此,秉持“負責任研究與創新”(responsible research and innovation)、“科技向善”等理念,我們進一步闡述“四可”原則,用以引導負責任地發展和應用工智能技術,使其可以造福于人類和人類社會。并將“四可”翻譯為“ARCC”(available,reliable,comprehensible,controllable,即ARCC,讀作ark)。正如傳說中保存人類文明火種的諾亞方舟,人工智能的健康發展需要以“倫理方舟”為保障,確保將來友好、和諧、共生的人機關系。
第一,可用(available)。發展人工智能的首要目的,是促進人類發展,給人類和人類社會帶來福祉,實現包容、普惠和可持續發展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現技術鴻溝??捎眯赃€意味著以人為本的發展理念、人機共生、包容性以及公平無歧視,要求踐行“經由設計的倫理”(ethics by design)理念,將倫理價值融入到AI產品、服務的設計當中。
第二,可靠(reliable)。人工智能應當是安全可靠的,能夠防范網絡攻擊等惡意干擾和其它意外后果,實現安全、穩定與可靠。一方面人工智能系統應當經過嚴格的測試和驗證,確保其性能達到合理預期;另一方面人工智能應確保數字網絡安全、人身財產安全以及社會安全。
第三,可知(comprehensible)。人工智能應當是透明的、可解釋的,是人可以理解的,避免技術“黑盒”影響人們對人工智能的信任。研發人員需要致力于解決人工智能“黑盒”問題,實現可理解、可解釋的人工智能算法模型。此外,對于由人工智能系統做出的決策和行為,在適當的時候應能提供說明或者解釋,包括背后的邏輯和數據,這要求記錄設計選擇和相關數據,而不是一味追求技術透明。換句話說,技術透明或者說算法透明不是對算法的每一個步驟、算法的技術原理和實現細節進行解釋,簡單公開算法系統的源代碼也不能提供有效的透明度,反倒可能威脅數據隱私或影響技術安全應用。相反,在AI系統的行為和決策上實現有效透明將更可取,也能提供顯著的效益。此外,在發展和應用人工智能的過程中,應為社會公眾參與創造機會,并支持個人權利的行使。
第四,可控(controllable)。人工智能的發展應置于人類的有效控制之下,避免危害人類個人或整體的利益。短期來看,發展和應用人工智能應確保其帶來的社會福祉顯著超過其可能給個人和社會帶來的可預期的風險和負面影響,確保這些風險和負面影響是可控的,并在風險發生之后積極采取措施緩解、消除風險及其影響。長期來看,雖然人們現在還無法預料通用人工智能和超級人工智能能否實現以及如何實現,也無法完全預料其影響,但應遵循預警原則(precautionary principle),防范未來的風險,使未來可能出現的通用人工智能和超級人工智能能夠服務于全人類的利益。
當然,信任的建立,需要一套規則體系。在這些原則之下,人們可以探索制定標準、法律、國際公約等。對于人工智能需要采取包容審慎、敏捷靈活的治理方式,應避免嚴格、細致的法律要求,而是可以采取事后監管或者通過出臺標準、行業公約、倫理框架、最佳實踐、技術指南等調整人工智能等新技術的發展應用,支持行業自律。
幸福(happiness):在人機共生的智能社會,確保人人都有追求數字福祉、幸福工作的權利
各種智能機器正在成為人類社會不可或缺的一部分,和我們的生活和生產息息相關。這給人類與技術之間的關系提出了新的命題,需要深入思考智能社會如何實現人機共生(human-computer symbiosis)。
第一,保障個人的數字福祉,人人都有追求數字福祉的權利。一方面需要消除技術鴻溝和數字鴻溝,全球還有接近一半人口沒有接入互聯網,老年人、殘疾人等弱勢群體未能充分享受到數字技術帶來的便利。另一方面減小、防止互聯網技術對個人的負面影響,網絡過度使用、信息繭房、算法偏見、假新聞等現象暴露出了數字產品對個人健康、思維、認知、生活和工作等方面的負面影響,呼吁互聯網經濟從吸引乃至攫取用戶注意力向維護、促進用戶數字福祉轉變,要求科技公司將對用戶數字福祉的促進融入到互聯網服務的設計中,例如Android和iOS的屏幕使用時間功能、Facebook等社交平臺的“數字福祉”工具、騰訊視頻的護眼模式對用戶視力的保護等。
第二,保障個人的工作和自由發展,人人都有追求幸福工作的權利。目前而言,人工智能的經濟影響依然相對有限,不可能很快造成大規模失業,也不可能終結人類工作,因為技術采納和滲透往往需要數年甚至數十年,需要對生產流程、組織設計、商業模式、供應鏈、法律制度、文化期待等各方面做出調整和改變。雖然短期內人工智能可能影響部分常規性的、重復性的工作。長遠來看,以機器學習為代表的人工智能技術對人類社會、經濟和工作的影響將是深刻的,但人類的角色和作用不會被削弱,相反會被加強和增強。未來二十年內,90%以上的工作或多或少都需要數字技能。人們現在需要做的,就是為當下和未來的勞動者提供適當的技能教育,為過渡期勞動者提供再培訓、再教育的公平機會,支持早期教育和終身學習。
可持續(sustainability):踐行“科技向善”,善用技術塑造健康包容可持續的智慧社會
技術創新是推動人類和人類社會發展的最主要因素。而這一輪技術革命具有巨大的“向善”潛力,將對人類生活與社會進步帶來突破性的提升。在二十一世紀的今天,人類擁有的技術能力,以及這些技術所具有的“向善”潛力,是歷史上任何時候都無法比擬的。換言之,這些技術本身是“向善”的工具,可以成為一股“向善”的力量,用于解決人類發展面臨著的各種挑戰,助力可持續發展目標。與此同時,人類所面臨的挑戰也是歷史上任何時候都無法比擬的。聯合國制定的《2030可持續發展議程》確立了17項可持續發展目標,實現這些目標需要解決相應的問題和挑戰,包括來自生態環境的,來自人類健康的,來自社會治理的,來自經濟發展的,等等。
將新技術應用于這些方面,是正確的、“向善”的方向。例如,人工智能與醫療、教育、金融、政務民生、交通、城市治理、農業、能源、環保等領域的結合,可以更好地改善人類生活,塑造健康包容可持續的智慧社會。因此,企業不能只顧財務表現,只追求經濟利益,還必須肩負社會責任,追求社會效益,服務于好的社會目的和社會福祉,給社會帶來積極貢獻,實現利益與價值的統一。包括有意識有目的地設計、研發、應用技術來解決社會挑戰。如今,“人工智能造福人類”(AI for Good)已經成為全球發展趨勢,呼吁與行動并存。以騰訊為例,自2018年1月在國內首次提出“科技向善”以來,騰訊已將“科技向善”作為新的愿景與使命,并身體力行地在醫療、社會治理(如尋找失蹤人口)、FEW(糧食、能源、水源)等方面踐行“科技向善”理念。
以智能時代的技術倫理重塑數字社會的信任
互聯網、人工智能等數字技術發展到今天,給個人和社會帶來了諸多好處、便利和效率,未來還將持續推動經濟發展和社會進步。如今,步入智能時代,為了重塑數字社會的信任,我們需要呼吁以數據和算法為面向的新的技術倫理觀,實現技術、人、社會之間的良性互動和發展。最終,我們希望以新的技術倫理觀增進人類對于技術發展應用的信任,讓人工智能等技術進步持續造福人類和人類社會發展進步,塑造更健康包容可持續的智慧社會。
上一篇:
《中國互聯網發展報告2019》在京發布
下一篇:
開放政府停車場也是一種管理智慧