熱門文章
人工智能應該被監管嗎?
發布時間:2018-09-17 分類:交通百科
人工智能應該受到監管嗎?可否加以規管?如果是這樣,那么這些規定應該是什么樣子的呢?
對于任何仍處于開發階段的技術來說,這些都是難以回答的問題-像食品、制藥、汽車和航空工業等行業的監管,通常是在糟糕的事情發生后才實施的,而不是在預期技術變得危險的情況下實施的。但人工智能發展得如此之快,人工智能技術的影響可能如此之大,以至于許多人不愿等待從錯誤中吸取教訓,而是提前做好計劃,積極主動地進行監管。
在短期內,與自動駕駛汽車、人工智能和算法決策以及驅動社交媒體的“機器人”有關的問題需要決策者的關注,就像許多新技術一樣。然而,從長遠來看,人工智能可能對人類產生的影響涵蓋了對人類的所有利益和風險,從可能發展出一個更加荒誕的社會,到人類文明可能的滅絕。因此,對于未來的監管者來說,這是一個特別具有挑戰性的局面。
在人工智能領域,許多人已經在努力確保人工智能的發展是有益的,而不會對人工智能研究人員和開發人員造成不必要的限制。如果不將期望原則付諸實施,光是這些原則是不夠的,還有一個問題仍然存在:政府監管和監督是否必要,以確保人工智能科學家和公司遵循這些原則和其他類似原則?
對于AI的風險是什么,何時可能出現,以及AI是否會造成存在的風險,在人工智能研究人員之間存在分歧,但很少有研究人員認為AI不構成風險。即使在今天,我們也看到了狹隘的人工智能加劇歧視和失業問題的跡象,如果我們不采取適當的預防措施,我們可以預測問題會惡化,隨著人工智能變得更加聰明和復雜,影響到更多的人。
許多人工智能研究人員簽署了Asilomar原則-以及關于發展有益的人工智能和反對致命自主武器的公開信-表明研究人員之間有著強烈的共識,即我們需要做更多的工作來理解和應對人工智能的已知和潛在風險。
人工智能研究人員簽署的一些原則與聲明直接相關,包括:
1、科學-政策聯系:人工智能研究人員與決策者之間應進行建設性的、健康的交流。
2、研究文化:應該在人工智能的研究人員和開發人員之間培養一種合作、信任和透明的文化。
3、矛盾回避:開發ai人工智能系統的團隊應積極合作,避免在安全標準上出現拐角。
4、重要性:先進的人工智能可代表地球生命歷史上的深刻變化,應以相應的關懷和資源加以規劃和管理。
5、風險:人工智能系統構成的風險,特別是災難性或存在性風險,必須通過與其預期影響相稱的規劃和緩解努力。
正確的政策和治理解決辦法有助于使人工智能的發展符合這些原則,并鼓勵就如何實現這一目標進行跨學科對話。最近成立的人工智能合作伙伴組織,包括領先的人工智能行業參與者,同樣支持有原則的人工智能發展理念-他們的創始文件指出,當人工智能工具被用來補充或取代人類的決策時,我們必須確保它們是安全的、值得信賴的,并與受其行為影響的人的道德和偏好保持一致。其所建議的,第一步應該是提高政府官員對人工智能影響的認識。例如,自動化車輛預計將導致數百萬人失業,這將影響到幾乎每一位參加會談的州長(假設他們還在任),但這一話題很少出現在政治討論中。
人工智能研究人員對人工智能在改善我們的健康和福祉方面的巨大潛力感到興奮-這是正確的:這就是為什么他們中的大多數人首先加入了這一領域。但是對于AI可能的誤用和/或糟糕的設計也有合理的擔憂,特別是在我們走向高級和更通用的AI的時候。
因為這些問題威脅著整個社會,它們不能留給一小群研究人員去解決。至少,政府官員需要了解和理解人工智能如何影響他們的選民,以及更多的人工智能安全研究如何在這些問題出現之前幫助我們解決這些問題。
我們不應該把重點放在監管是好是壞,而應該通過幫助我們的決策者了解人工智能進展的現實和影響,為未來的建設性監管奠定基礎。讓我們捫心自問:我們如何才能確保人工智能對所有人都有好處?誰需要參與這一努力?