熱門文章
如何看待我們和人工智能的關系
發布時間:2018-07-09 分類:交通百科
談到人工智能的未來,有兩種觀點:
烏托邦觀點:人工智能將迎來一個新的啟蒙時代,在這個新時代里,人類不再工作,而是追求更崇高的目標。未未系統將被規劃來治療疾病,公平地解決爭端,并且只以有益于我們的方式來增加我們人類的存在。
世界末日的觀點是:人工智能將竊取我們的工作,在進化上超越人類,成為戰爭機器,并將遙遠的未來置于當前的需求之上。我們難以控制的努力只會暴露出我們自身的缺點和將道德應用于我們無法控制的技術的能力的低下。
和大多數事情一樣,真相可能介于兩者之間
不管你落在這個光譜的什么位置,重要的是要考慮隨著技術的發展,人類應該怎樣影響人工智能。一種觀點認為,人類將在很大程度上形成人工智能的良心或道德結構。但我們要怎么做呢?我們怎樣才能把倫理運用到人工智能中來幫助防止最壞的事情發生呢?
人與人工智能的關系
深度學習系統的力量在于它們決定自己的參數或特征。只要給他們一個任務或目標,指向他們的數據,他們處理其余的。例如,SAS可視化數據挖掘和機器學習中的自動匯總功能可以為自己找出最佳結果。但人仍然是整個過程中最關鍵的部分。
雖然未來的人工智能系統也可能能夠收集他們自己的數據,但大多數當前的系統依靠人來提供輸入參數,包括數據和最佳結果,這是通過學習定義類強化學習確定的。當您要求算法找出實現該結果的最佳方法時,您不知道機器將如何解決該問題。你只是知道它會比你更有效率。
鑒于目前人類和人工智能之間的這種關系,我們可以采取一些步驟,從道德上更好地控制人工智能項目的結果,讓我們從這三個開始。
人工智能倫理的第一步:提供最好的數據
人工智能算法是通過一組用于通知或構建算法的數據來訓練的。如果您的算法是將鯨魚識別為馬,顯然您需要提供更多關于鯨魚(和馬)的數據。同樣,如果您的算法是將動物識別為人類,則需要提供更多關于更多不同人類集合的數據。如果你的算法做出了不準確或不道德的決定,這可能意味著沒有足夠的數據來訓練模型,或者學習強化不適合預期的結果。
當然,也有可能是人類在不知不覺中通過有偏見的數據選擇或錯誤分配的強化值向系統注入了不道德的價值??傊?,我們必須確保我們提供的數據和輸入為算法繪制了完整和正確的圖片。
人工智能倫理的第二步:提供適當的監督
為所有人工智能項目建立一個有明確所有者和利益相關者的治理系統。定義哪些決定你將自動與人工智能,哪些將需要人的投入。對過程中的所有部分分配責任,對人工智能錯誤負責,并為人工智能系統的開發設置明確的邊界。這包括定期監測和審計算法,以確保偏見不會悄悄進入,而且模型仍按預期運作。
無論是數據科學家還是一位敬業的倫理學家,都應該有人負責人工智能的政策和協議,包括遵守規則。也許有一天,所有的組織都會建立一個首席人工智能倫理學家的角色。但是,無論標題如何,都必須有人負責確定輸出和性能是否在給定的道德框架內。
就像我們一直需要治理、可跟蹤性、監視和標準分析的改進一樣,我們也對人工智能也是如此。然而,人工智能的影響要大得多,因為機器可以開始問題,自己定義答案。
人工智能倫理的第3步:考慮新技術的影響
為了讓個人執行政策,這項技術必須允許人類做出調整。人類必須能夠選擇和調整訓練數據,控制數據源,并選擇數據轉換的方式。同樣,人工智能技術應該支持健壯的治理,包括數據訪問和在算法不正確或在道德定義的邊界之外操作時對算法進行指導的能力。
沒有辦法用人工智能來預測所有可能的場景,但重要的是要考慮到可能性,并為正面和負面的強化設置控制。例如,引入新的、甚至相互競爭的目標可以獎勵符合道德的決定,并將不道德的決定認定為錯誤或被誤導。一個人工智能系統被設計成對質量和效率給予同等的重視,將產生不同的結果,而不是一個完全集中在效率上的系統。此外,設計一個具有若干獨立和相互沖突的目標的人工智能系統可能會增加該系統的問責制。
不要回避人工智能倫理
人工智能可以提高汽車安全和診斷癌癥-但它也可以選擇巡航導彈的目標。所有人工智能能力都有相當大的倫理影響,需要從多個角度加以討論。我們如何確保人工智能的道德體系不被濫用?
上面的三個步驟只是一個開始。他們將幫助你開始關于為你的組織制定道德人工智能指導方針的艱難對話。你可能不愿劃清這些道德界限,但我們不能回避這場對話。所以別等了?,F在就開始討論,這樣您就可以確定邊界,如何執行它們,甚至在必要時如何更改它們。