熱門文章
人工智能的興起將如何影響人類?
發布時間:2018-09-06 分類:交通百科
汽車自動行駛在我們的街道上,飛機在我們的天空中飛行,醫療技術診斷疾病,推薦治療計劃,拯救生命。
人工智能系統已經存在于我們生活之中,而且已經存在了一段時間。然而,世界還沒有看到一個超級人工智能(ASI),它的認知能力超越了我們自己的所有相關指標。但技術正在迅速發展,許多人工智能研究人員認為,超級人工智能的時代可能正在迅速來臨,一旦它到來,研究人員和政治家都無法預測會發生什么。幸運的是,許多人已經在努力確保這種人工智能的興起不會導致人類的墮落。
全球災難風險研究所是一個致力于防止全球文明毀滅的智囊團。全球災難風險研究所關注的是一系列威脅,這些威脅使我們人類的生存處于危險之中。從氣候變化到核戰爭,從外星智慧到人工智能-全球災難風險研究所涵蓋了這一切。全球災難風險研究所正在致力于“開發結構化風險模型,以幫助人們了解哪些風險可能存在,以及減少這種風險的一些最佳機會在哪里,這項任務并不容易。
根本問題源于這樣一個事實:與更常見的威脅(如死于車禍的風險或患癌癥的風險)不同,從事超級人工智能風險分析的研究人員在進行模型和預測時,沒有可靠的案例研究可供使用。因為計算機從來沒有占領過世界,也沒有殺死過所有人。這意味著我們不能只看數據,而這正是我們應對許多其他風險的方式。這不僅是以前從未發生過的,而且這種技術甚至還不存在。如果它建成了,我們也不知道它將如何建成。
那么,研究人員不知道人工智能會是什么樣子,又沒有真正的數據可供研究,他們如何才能確定人工智能所帶來的風險呢?。
幸運的是,談到人工智能超智能,人工智能專家并不完全在未知領域。還是存有有一些想法和一些相關的證據,但這些東西是分散的。為了解決這個問題,全球災難風險研究所創建了模型。他們獲取現有的信息,對其進行組織,然后以有組織的方式發布結果,以便研究人員能夠更好地理解主題,以及可能影響當前問題結果的各種因素,并最終更好地了解與超級人工智能相關的各種風險。
例如,當試圖找出設計一個人工智能以使其安全運行是多么容易時,需要建模的子細節之一是,人類是否能夠在人工智能失控之前觀察并測試它。這一次,我們需要對人工智能進行建模。換句話說,人工智能研究人員是否能夠識別出人工智能有危險的設計并將其關閉。為了模擬這個場景并確定什么是風險和最可能的場景,全球災難風險研究所利用現有的信息-人工智能研究人員的觀點和觀點、關于AI技術的已有知識和它的功能等等-并通過構造上述信息以及參數或數據集中的任何不確定性來建模主題。
這種建模和風險分析最終使團隊能夠更好地理解問題的范圍,并通過清晰地組織信息,推進超級情報研究社區中正在進行的對話。這個模型并不能讓我們對未來發生的事情有一個完整的了解,但它確實讓我們能夠更好地理解我們在超級人工智能興起時所面臨的風險、可能發生的事件和結果,以及決策者和人工智能研究人員為確保ASI造福于人類而應該采取的具體步驟。
當然,當涉及到人工超智能的風險時,我們是否能夠觀察和測試我們的人工智能只是一個更大模型的一小部分。
模擬災難,為了了解怎樣才能帶來ASI的天啟,以及我們如何才能阻止它,全球災難風險研究所已經創建了一個模型,從一些有利的角度來研究以下的問題:
第一步:是否有可能建立一個人工智能?
第二步:人類會建立超智能嗎?
第三步:人類會失去對超智能的控制嗎?
這個模型的前半部分集中在如何構建ASI的具體細節上。模型的后半部分深入分析了與創建有害的ASI有關的風險分析,并研究了以下內容:
第一步:人類會設計出有害的人工智能嗎?
第二步:超級智能會自行發展出有害的行為嗎?
第三步:是否有什么東西阻止超智能的行為是有害的(如另一個人工智能或一些人類的行動)?
每一步都建模了許多不同的可能性,以揭示我們面臨的各種風險,以及這些威脅的重要性和可能性。雖然模型仍在改進中,但已經取得了很大的進展。這種風險開始有意義了,我們開始清楚地看到,要看到這樣的災難,需要付出什么樣的代價。然而,這項研究還太年輕,這些研究超智能及其所有風險和政策方面的人,我們不能確切地確定我們現在想要什么政策?,F在發生的事情更多的是關于人工智能的通用對話。它承認這樣一個事實,即人工智能不僅僅是一個技術和經濟機會,它還涉及風險和困難的倫理問題。