熱門文章
歐盟發布人工智能道德準則,欲另辟蹊徑,成為道德AI領導者
發布時間:2019-04-10 分類:趨勢研究
當地時間4月8日,歐盟委員會發布一份人工智能道德準則,該準則由2018年12月公布的人工智能道德準則草案演變而來,提出了實現可信賴人工智能的七個要素,要求不得使用公民個人資料做出傷害或歧視他們的行為。
同時,歐盟委員會宣布啟動人工智能道德準則的試行階段,邀請工業界、研究機構和政府機構對人工智能道德準則進行測試和補充。
這份人工智能道德準則提出了實現可信賴人工智能的七個要素,分別是:
1.人的能動性和監督:人工智能系統應通過支持人的能動性和基本權利以實現公平社會,而不是減少、限制或錯誤地指導人類自治。
2.穩健性和安全性:值得信賴的人工智能要求算法足夠安全、可靠和穩健,以處理人工智能系統所有生命周期階段的錯誤或不一致。
3.隱私和數據管理:公民應該完全控制自己的數據,同時與之相關的數據不會被用來傷害或歧視他們。
4.透明度:應確保人工智能系統的可追溯性。
5.多樣性、非歧視性和公平性:人工智能系統應考慮人類能力、技能和要求的總體范圍,并確??山咏?。
6.社會和環境福祉:應采用人工智能系統來促進積極的社會變革,增強可持續性和生態責任。
7.問責:應建立機制,確保對人工智能系統及其成果負責和問責。
對于這份人工智能道德準則,歐盟委員會負責數字化單一市場的副主席安德魯斯·安西(Andrus Ansip)表示歡迎,他認為:“人工智能的倫理并不是一個奢侈特征或附加功能。只有有了信任,我們的社會才能充分受益于技術。有道德的人工智能是一個雙贏的主張,可以成為歐洲的競爭優勢:成為以人為中心的人工智能的領導者,讓人們可以信任?!?
歐盟委員會表示,其目前正在采取三步行動以促進可信賴的人工智能健康發展:制定值得信賴的人工智能的關鍵要求,啟動利益相關者的大規模試點階段,為以人為中心的人工智能建立國際共識。
歐盟委員會希望將上述人工智能倫理方法帶到全球舞臺。為此,歐盟委員會表示,將與日本、加拿大和新加坡等開展合作,試行階段也將涉及來自其他國家和國際組織的公司。
在試行階段之后,到2020年初,歐盟人工智能高級別專家組將根據收到的反饋審查評估清單,并根據評估結果并提出下一步行動。
此外,為了確保人工智能的道德發展,歐盟委員會表示,將在2019年秋季之前啟動一套人工智能研究卓越中心網絡;開始建立數字創新中心網絡;與歐盟成員國和利益相關者一起,開始討論制定數據共享模型。
上述人工智能道德準則由歐盟人工智能高級別專家組(AI HLEG)起草。
2018年,52位代表學術界、工業界和民間社會的獨立專家受歐盟委員會任命,成立了歐盟人工智能高級別專家組,負責撰寫人工智能道德準則并為歐盟提供政策和投資建議。
2018年12月18日,歐盟人工智能高級別專家組向社會發布了人工智能道德準則草案(Draft Ethics Guidelines For Trustworthy AI,以下簡稱草案),該草案當時被視為是歐洲“可信賴人工智能”的討論起點。
草案為“可信賴人工智能”提出了一個官方解釋。草案認為,“可信賴人工智能”有兩個必要的組成部分:首先,它應該尊重基本權利、規章制度、核心原則及價值觀,以確?!暗赖履康摹?,其次,它應該在技術上強健且可靠,因為即使有良好的意圖,缺乏對技術的掌握也會造成無意的傷害。
12月發布的草案還提出了一份可信賴的人工智能評估表,從責任、數據治理、為所有人設計、管理AI自治、非歧視、尊重隱私、尊重(和加強)人類自主權、穩健性、安全性、透明度共10個維度列舉了可信賴人工智能的相關要求。
近年來,歐盟一再表示希望成為道德AI的領導者。對此,美國科技媒體《邊緣》(The Verge)評論稱,這在一定程度上是由目前的環境造成的,在涉及投資和尖端研究時,歐盟無法與美國和中國競爭,因此選擇道德是塑造技術未來的最佳選擇。