熱門文章
人工智能背后的倫理問題
發布時間:2018-09-28 分類:交通百科
當哲學家和倫理學家考慮人工智能的長期未來時,他們擔心的是什么?首先,雖然大多數從事人工智能領域的人都對人工智能系統的發展感到興奮,但很多人擔心,如果沒有適當的規劃,先進的人工智能可能會毀滅整個人類。
在紐約大學人工智能倫理學會議上,來自機器智能研究所的Eliezer Yudkowsky解釋說,人工智能看起來不太可能像終結者,而更可能像米老鼠在幻想曲“魔法師學徒”中給生活帶來的過于急切的掃帚。掃帚只有一個目標,它不僅要保持專注,不管米奇做什么,它還會成倍增長,變得更有效率。對于一個設計拙劣的人工智能的擔憂也是相似的,除了人工智能,最終將沒有魔法師來阻止這場混亂。
為了幫助想象一個能力過硬的高級人工智能是如何出錯的,牛津哲學家尼克博斯特羅姆(Nick Bostrom)提出了一項關于一種致命的回形針制造機器的思維實驗。如果你是賣回形針的,那么制造一個回形針可能就是人工智能最大化的作用了,這樣的人工智能看起來沒有一點害處。然而,以這作為唯一的目標,一個智能的人工智能可能會以犧牲你關心的其他一切為代價,繼續制造回形針。當它用完材料時,它就會想出如何把周圍的東西分解成分子成分,然后把分子重新組裝成回形針。不久,它將毀滅地球上的生命、地球本身、太陽系,甚至可能毀滅宇宙,這一切都是為了制造越來越多的回形針。
這似乎是一個愚蠢的擔心,但誰也沒有應對他們的電腦或技術發生奇怪的故障的經驗?想想看,由于自動更正或更嚴重的2010年閃電崩盤,你發送了多少次奇怪的消息?,F在想象一下,如果該系統要管理電網或監督武器系統,那么如此天真設計,但非常復雜的程序可能會以指數級的方式變得更糟。
即便是現在,在只有非常狹窄的人工智能系統的情況下,研究人員仍發現,簡單的偏見會導致科技世界中種族主義和性別歧視的增加;網絡攻擊的強度和數量都在增長。
人工智能開發可能會遇到兩種類型的問題:可以在以后修復的錯誤,以及只會犯一次的錯誤。ai人工智能就像太空探測器一樣困難:一旦你發射了它,它就在那里了。人工智能研究員正在構建我們無法有效測試的技術。
隨著人工智能越來越接近人類水平的智能,人工智能設計師如何才能確保他們的創作是合乎道德的,并從一開始就做出適當的行為呢?事實證明,這個問題只會引發更多的問題。
有益的人工智能是什么樣子的?人工智能會讓所有人受益,還是只讓一部分人受益?它會加劇收入不平等嗎?創造一個能感受痛苦的人工智能背后的道德規范是什么?在沒有意識的具體定義的情況下,一個有意識的人工智能被開發出來嗎?人工智能的最終目標是什么?這對企業有幫助嗎?它能幫助人們嗎?人工智能會讓我們快樂嗎?
如果我們不知道自己想要什么,我們就不太可能得到它。我們不僅要思考人工智能的“最終目標”是什么,還想知道如何達到這個目標。要實現這種先進的人工智能還有很長的路要走,將人工智能的發展現狀比作巧克力蛋糕,我們已經知道怎么做糖衣和櫻桃,但我們不知道怎么做蛋糕。
如果人工智能的發展就像烤蛋糕一樣,那么人工智能倫理似乎就需要在完善蛋奶酥的過程中保持微妙的平衡和注意力。無論高級人工智能是什么時候發展起來的,要確保永遠不會出現人工智能錯誤,唯一的辦法就是現在就開始解決道德和安全問題。
隨著人類和人工智能的共同努力,可以拯救和改善的生命數量是巨大的。關鍵是要了解可能會出現什么問題,需要回答哪些問題,才能使人工智能得到有益的發展。