熱門文章
人工智能的進化:道德可以被編程嗎?
發布時間:2018-10-08 分類:交通百科
最近在人工智能方面的進展清楚地表明,我們的計算機需要有一套道德準則。想想看:一輛汽車在路上行駛時,一個騎自行車的孩子突然在前面突然轉向,汽車是否轉向迎面而來的車道,撞上另一輛已經在那里的汽車或者那輛車突然轉向,撞上了一棵樹又或者它會繼續前撞上孩子嗎?
每個解決方案都有一個問題:它可能導致死亡。這是一種不幸的情況,但人類每天都面臨這樣的情況,如果汽車是自動控制的,它需要能夠作出這一選擇,這意味著我們需要弄清楚如何在我們的計算機中編寫道德程序。
造德
乍一看,這個目標似乎很簡單,讓AI人工智能的行為符合道德規范;然而,它比最初看起來的要復雜得多,因為有大量令人吃驚的因素在起作用。道德判斷受權利(如隱私)、角色(如家庭中的角色)、過去的行為(如承諾)、動機和意圖以及其他道德相關特征的影響,這些不同的因素還沒有被納入人工智能系統,這就是我們現在要做的。
雖然公眾可能會擔心人工智能會不會消滅人類,但這樣的事情在目前確實不是一個確切的威脅,因此,我們應該在更基本的層面上,確保我們的人工智能系統能夠做出人類日常所做的艱難的、道德的選擇。
那么,怎樣才能讓一個人工智能做出一個艱難的道德決定呢?
為了達成這樣的目標,應遵循兩條道路:讓人們做出合乎道德的選擇,以便找到模式,然后找出如何將其轉化為人工智能。我們現在的工作實際上是讓人們做出合乎道德的決定,或者說他們在特定的情況下會做出什么決定,然后我們使用機器學習來嘗試確定一般模式是什么,并確定我們可以在多大程度上復制這些決定。
簡而言之,現在正在試圖找出我們道德選擇中的模式,并將這種模式轉化為人工智能系統。在基本層面上,這一切都是為了預測一個人在特定情況下會做什么,如果我們能夠很好地預測人們在這種道德環境中做出的決定,那么,我們就可以計算機程序的形式自己做出這些決定。
然而,其中的一個主要問題是,道德當然不是客觀的,它既不是永恒的,也不是普遍的。
如果我們在一百年前做同樣的道德測試,那么我們從人們那里得到的決定將會更加種族主義,性別歧視,以及所有其他我們現在不會認為是‘好’的事情。同樣,現在,也許我們的道德發展還沒有達到頂峰,一百年后,人們可能會覺得我們現在所做的一些事情,比如我們對待動物的方式,是完全不道德的。因此,無論我們目前的道德發展水平如何,都存在著一種偏見和陷入困境的風險。
那些有感知力的人工智能呢?我們何時才需要開始擔心這些問題,并討論應如何對其進行監管?
類人工智能
類似人類的人工智能在一段時間內還不會出現,但最近已經有了很多步驟來建立這樣的系統,已經有了很多令人驚訝的進步。但是我認為有一個像‘真正的人工智能’這樣的東西,它真的一樣靈活,能夠抽象,并且做所有這些人類很容易做到的事情,我認為我們仍然離它很遠。的確,我們可以為系統編寫程序來做很多人類擅長的事情,但有些事情非常復雜,很難轉化為計算機能夠識別和學習的模式(這最終是所有人工智能的基礎)。
早期人工智能研究的結果,也就是人工智能研究的頭幾十年,是這樣一個事實:某些我們認為是智力真正基準的東西,比如能夠很好地下國際象棋,實際上很容易被計算機接受。編寫和創建一個國際象棋程序并不容易,但它是可行的。事實上,今天,我們的電腦能夠在一系列游戲中擊敗世界上最優秀的玩家,比如國際象棋和阿爾法圍棋(Alpha Go)。
但事實證明,玩游戲并不完全是衡量人類智力的好標準?;蛘咧辽?,人類的思想還有更多的東西。與此同時,我們了解到,對人們來說非常簡單的其他問題,實際上對計算機來說也是相當困難的,或者對計算機進行編程是相當困難的。例如,在人群中認出你的祖母,你可以很容易地做到這一點,但實際上很難用計算機編程來很好地識別事物。
從人工智能研究的早期開始,我們就制造了能夠識別和識別特定圖像的計算機。然而,要編寫一個能夠做所有人類能做的事情的系統是非常困難的,這就是為什么我們需要一段時間才能有一個“真正的人工智能”。
然而現在是時候開始考慮我們將使用什么規則來管理這樣的智能了,這可能要走得更遠一些,這意味著可能只有幾十年的時間,在未來考慮一下這些事情肯定是有道理的。盡管我們還沒有任何類似人類的機器人,但我們的智能系統已經在做出道德選擇,并有可能拯救或終結生命。
很多時候,他們做出的許多決定都會影響到人們,我們可能需要做出那些我們通常會被認為是有道德負擔的決定。一個標準的例子是自動駕駛汽車,它必須決定要么直行撞到前面的車,要么轉向,也許會傷到一些行人。你是怎么權衡的?我認為我們可以在這方面取得一些進展。這并不需要超級智能的人工智能,這可能只是程序,使這種類型的權衡在不同的方式。但是,知道要做什么決定,首先需要知道我們的道德是如何運作的(或者至少有一個相當好的想法),從那里,我們可以開始編程它。