男男19禁啪啪无遮挡免费,国产免费AV片一级大片免费观看,16初次破初视频在线播放,人妻AV中文系列

首頁 / 資訊中心 / 趨勢研究/谷歌AI道德委員會解散,如何讓人工智能明辨是非?

谷歌AI道德委員會解散,如何讓人工智能明辨是非?

發布時間:2019-04-18 分類:趨勢研究

據外媒報道,3月26日,Google全球事務高級副總裁Kent Walker在Google博客中發文宣布,為了貫徹落實Google AI七原則,完善相關的內部治理結構和流程,成立ATEAC委員會,用來處理人工智能中的棘手問題。

委員會設置8名成員,有經濟學家、有心理學家、有美國前副國務卿,但成立不到一周,一位專家自愿退出。在本周,谷歌員工發起了一項請愿,要求該公司撤換另一名委員會成員,因為他反對保障同性戀和變性人同等權利的法律。

為了回應抗議,谷歌決定完全解散這個名為先進技術外部咨詢委員會(ATEAC)的團隊,并在聲明中稱:“很明顯,在當前的環境中,ATEAC不能按我們所希望的方式運行,所以我們要解散它,并回到原計劃上來,我們將繼續在AI帶來的重要問題上進行我們的工作,并將找到不同的方式來獲取外部對這些問題的意見?!?

雖然谷歌的AI道德委員會成立一周就土崩瓦解,但這并不意味著人工智能道德委員會的失敗和無意義。實際上,人工智能道德委員會的存在尤為必要。AI倫理問題究竟何去何從依然值得深思。

AI與倫理的平衡,如何規避道德風險?

早到艾薩克·阿西莫夫(Isaac Asimov)提出“機器人三定律”,再到《西部世界》、《機械姬》、《黑客帝國》、《終結者》等影視劇都對人工智能倫理問題做出了思考,人工智能可以解放人類勞動力,但也有可能損害人類的利益,將大眾引向深淵。

人工智能的算法來自于數據,當數據里帶有潛在的價值觀傾向,隱含著偏見等問題,被系統學習吸收,誰來維持民眾的共識,保證社會的公平?當機器自我進化擁有了自主意識,脫離人的控制,人類作為其生產創作者,是否依舊能夠穩穩地掌握全局?當不成熟的人工智能技術陷入異常,造成失誤,甚至非法入侵而傷害人類,誰該為此承擔責任?

像谷歌自動駕駛汽車造成人員傷亡、機器人傷人事件、保險公司利用臉書數據預測事故發生率涉嫌存在偏見等都現實中的失敗案例,也是人工智能存在倫理和道德風險的例證。

面對人工智能引發的倫理問題,科技巨頭們紛紛成立倫理委員會應對挑戰。2016年,亞馬遜、微軟、谷歌、IBM和Facebook聯合成立了一家非營利性的人工智能合作組織(Partnership on AI),而蘋果于2017年1月加入該組織。

在科技巨頭們的共識里,與其靠外界強加約束AI發展,不如先成立倫理委員會自主監督。AI道德委員會是一種監督保障,更是風險評估標準。它能夠幫助人工智能公司做出道德決策,使社會受益。

就像麻省理工學院情感計算研究組主任羅薩琳德·皮卡德教授所言,“機器越自由,就越需要道德準則?!倍鴮W者們也給出了讓人工智能規避風險的新思考。

《道德機器:如何讓機器人明辨是非》中美國認知科學哲學家科林·艾倫和技術倫理專家溫德爾·瓦拉赫強調了兩個維度——針對道德相關事實的自主性維度和敏感性維度,給出了一個關于日趨復雜的AMAs(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。他們認為“自上而下”和“自下而上”相混合的模式是機器道德發展模式的最佳選擇。即將從數據當中學習經驗的自下向上和用確定的規則進行預編程自上向下結合起來。

美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。

2017年12月12日,電氣電子工程師學會(IEEE)發布了《人工智能設計的倫理準則》(第2版),提出合乎倫理地設計、開發和應用人工智能技術應該遵循以下一般原則:人權——確保它們不侵犯國際公認的人權;福祉——在它們的設計和使用中優先考慮人類福祉的指標;問責——確保它們的設計者和操作者負責任且可問責;透明——確保它們以透明的方式運行。

各國的學者、專家不斷提出關于人工智能的新倫理原則,但以人為本的理念始不曾改變。歐盟在近日也提交了他們對于人工智能倫理的答卷。

人工智能時代的道德重建:可信賴的AI

4月9日,歐盟發布了AI倫理指導方針,作為公司和政府機構未來開發AI時應遵循7大原則,呼吁“值得信賴的人工智能”?!翱尚刨?AI”是對人工智能時代的道德重建,為AI的發展指明了一條合乎倫理的方向。

歐盟 AI 道德準則草案指出,可信賴的 AI 有兩個組成要素:一、應尊重基本權利,適用法規、核心原則和價值觀,以確?!暗赖履康摹保╡thical purpose),二、兼具技術魯棒性(robust)和可靠性,因為即使有良好的意圖,缺乏技術掌握也會造成無意的傷害。

歐盟提出可信賴 AI 的道德準則草案以及框架

七大關鍵原則如下:

人類作用和監督:人工智能不應該踐踏人類的自主性。人們不應該被AI系統操縱或脅迫,而且,人類應該能夠干預或監督軟件做出的每一個決定。

技術的穩健性和安全性:人工智能應該是安全的、準確的。它不應該易于受到外部攻擊(例如對抗性實例)的影響,而且,應該是相當可靠的。

隱私和數據管理:人工智能系統收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。

透明性:用于創建人工智能系統的數據和算法應該是可訪問的,軟件所做的決定應“由人類理解和跟蹤”。換句話說,操作員應該能夠解釋AI系統所做的決定。

多樣性、非歧視和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特征。同樣地,系統不應該在這些方面存在偏見。

環境和社會福祉:人工智能系統應該是可持續的(即它們應該對生態負責)并“促進積極的社會變革”。

問責制:人工智能系統應該是可審計的,并被納入企業可舉報范疇,以便受到現有規則的保護。應事先告知和報告系統可能產生的負面影響。

有數據顯示,美國人工智能企業數量2039家位列全球第一,中國(不含港澳臺地區)有1040家,占全球人工智能企業數的一半以上,《2019年全球AI人才報告》則展示了全球36524位頂尖AI人才,一半以上在中美。中國與美國在AI領域的人才和企業上占盡了優勢,可謂你追我趕,難分高低,歐盟從倫理角度切入,率先對人工智能的發展倫理做出規范,或許不失為一大良策。

<蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>