熱門文章
人工智能能在公司競相開發的過程中保持安全嗎?
發布時間:2018-09-15 分類:交通百科
人工智能可以給社會帶來難以置信的好處,例如更快、更準確的醫療診斷到更可持續的能源管理,等等。但在今天的經濟中,首先取得技術突破的是贏家,首先開發ai人工智能技術的團隊將獲得金錢、聲望和市場等好處。由于賭注如此之高,人工智能系統的建設者們有足夠的動力爭先恐后地成為第一名。
當一個組織競相成為第一個開發產品的組織時,對安全標準的遵守就會變得松懈。因此,對于研究人員和開發人員來說,最重要的是要記住,無論人工智能多么偉大,它也伴隨著風險,從無意的偏見和歧視,到潛在的意外災難。如果首先開發某種產品或功能的團隊不花時間適當地審查和評估他們的程序和設計的各個方面,這些風險就會加劇。
然而,盡管人工智能競賽的風險是巨大的,但如果企業不競爭,它們就無法生存。
正如埃隆·馬斯克(Elon Musk)最近所說的那樣,“有些公司在比賽-它們不得不比賽-來構建人工智能,否則它們將失去競爭力。如果你的競爭對手是向人工智能沖擊,而你沒有,他們會擊敗你?!?
合作可行嗎?
有跡象表明,一場人工智能競賽可能已經開始,一些人擔心合作將很難實現?!昂茈y合作,”人工智能教授蘇珊·克勞德說,“尤其是當你試圖爭奪產品時,我認為很難控制這種情況,除非人們接受這一原則?!睂ξ覀儊碚f,安全標準是至高無上的,因此在這個領域積極合作以避免切角就更重要了。但這真的取決于誰和你在這個空間里?!?
蘇珊·施奈德(SusanSchneider)是一位專注于高級人工智能的哲學家,她補充說:“合作非常重要,問題是那些在保密問題上有利害關系的國家或公司很難合作,如果超智能人工智能是這場競賽的結果,它可能對人類的生存構成威脅?!?
誰最重要?
也許建立鼓勵“合作競爭”的環境的一個重要步驟是理解為什么一個組織或一個團隊可能會冒險在安全問題上偷工減料。這正是哈佛心理學家約書亞·格林所做的,因為他認為這個原理。
格林說:“在安全問題上偷工減料實質上是在說,‘我的私利優先于公共利益?!薄霸诎踩珕栴}上偷工減料,其實只是一種自私的行為。以安全為代價向前跑的唯一理由是,如果你認為賽車的好處不成比例地屬于你。它增加了人們普遍受到傷害的可能性,如果你愿意的話,這是一種普通的壞事,目的是為了提高私利的可能性?!?。
有利可圖的安全效益
我們必須幫助人們重新思考安全標準意味著什么,通過安全檢查,你現在會問:我的人工智能系統是什么?它將如何與最終用戶或供應鏈中的利益相關者互動,接觸它并與之接觸,哪里有人類參與,哪里是系統對人,哪里是系統對系統?
安全其實就是詢問人們的價值觀,不僅僅是身體上的安全,還有:他們的個人數據呢,他們將如何與這些信息交互呢?所以你不想偷工減料的原因是你也在削減創新。你失去了提供更好的產品或服務的機會。
但對于認真對待這些標準的公司花時間仔細研究這些標準時,會發現所有這些很棒的方法,可以讓你在做的事情上建立更多的信任。
你怎么認為?
有了像人工智能合作伙伴這樣的組織,我們已經開始看到一些跡象,表明企業認識到并希望解決人工智能競賽的危險。但就目前而言,該伙伴關系主要由西方組織組成,而許多國家(特別是中國)的公司正在爭先恐后地追趕-或許是“擊敗”-美國和歐洲的公司。我們如何才能鼓勵世界各地的組織和研究團隊合作,共同制定安全標準?我們怎樣才能協助各小組監察他們的工作,并確保他們經常有適當的安全程序?人工智能研究團隊將需要其他團隊的反饋和洞察力,以確保他們不會忽視潛在風險,但這種合作將如何在不迫使公司披露商業秘密的情況下進行?你如何看待種族回避原則?