熱門文章
在當前和長期人工智能安全工作之間是否存在權衡?
發布時間:2018-09-12 分類:交通百科
在機器學習社區和媒體文章中,我經常聽到這樣的話:“對超級智能的擔憂分散了人們對當今人工智能面臨的”現實“問題X的注意力”(X=算法偏見、技術失業、可解釋性、數據隱私等)。這種爭強好勝的態度給人的印象是,當前和長期的安全關切存在沖突。但他們之間真的有權衡嗎?
我們可以更具體地提出這樣一個問題:這兩種努力可能爭奪哪些資源?
媒體關注
鑒于媒體對人工智能的濃厚興趣,已經有很多關于這些問題的文章。有關高級人工智能安全的文章大多是危言聳聽的終結者,忽視了問題的復雜性??梢岳斫獾氖?,這激怒了許多人工智能研究人員,并導致他們中的一些人基于媒體上的漫畫而不是真實的爭論,對這些風險不屑一顧。媒體關注高級人工智能風險的總體效果是非常消極的,如果媒體完全停止有關超級智能的報道,把注意力集中在當今人工智能系統的安全和倫理問題上,這會讓所有的人工智能研究人員開心。
資金
目前,高級人工智能安全工作的大部分資金來自捐助者和對這些問題特別感興趣的組織,如開放慈善項目和埃隆·馬斯克。他們不太可能資助那些不適用于高級人工智能系統的安全工作,因此他們對高級人工智能安全研究的捐款并沒有從眼前的問題中拿出資金。相反,沒有一個固定的資金,短期和長期的安全競爭,它更像是兩個不斷增長的餡餅,不能重疊的太多。這兩個領域的資金都在不斷增加,希望這一趨勢能夠持續下去。
人才
近年來,先進的人工智能安全領域有所發展,但規模仍然很小,研究人員從事這方面工作所造成的“人才外流”迄今微乎其微。在當前和長期問題上工作的動機也往往是不同的,這些問題往往吸引不同類型的人。例如,一個主要關心社會公正的人更有可能致力于算法偏見,而一個主要關心長期未來的人更有可能致力于超級智能風險的研究。
總的來說,在資金或人才方面似乎沒有太多的權衡,而媒體的注意力權衡(理論上)可以通過將所有的播出時間都投入到當前的關注中來解決。這些問題不僅沒有沖突,而且解決這些問題之間也有協同作用。雙方都受益于在人工智能研究社區中培養一種關心社會影響和積極主動應對風險的文化。一些安全問題在近期和長期都具有高度相關性,例如可解釋性和對抗性示例。我認為我們需要更多的人致力于解決當前系統的這些問題,同時保持對未來更先進系統的可伸縮性。
人工智能的安全問題太重要了,討論不能因為諸如“我的問題比你的問題更好”這樣的問題而脫軌。這種錯誤的二分法本身就是對確保人工智能對當今和未來世界產生積極影響這一共同目標的一種干擾。關心當前和未來人工智能系統安全的人是天生的盟友,讓我們在實現這一共同目標的道路上相互支持。