熱門文章
如果不加以控制,人工智能本身就會變得有偏見
發布時間:2018-09-10 分類:交通百科
如果用人工智能來管理世界,它就不會那么糟糕了,因為人工智能可以客觀地對人類可能會搞砸的事情做出準確的決定。但如果我們要將韁繩移交給人工智能,那就必須公平。到目前為止,事實并非如此。在由人注釋或策劃的數據集上訓練的ai人工智能 傾向于學習同樣的種族主義者,性別歧視者或其他偏見的人。
慢慢地,程序員似乎正在糾正這些偏見,但即使我們成功地將自己的偏見從我們的代碼中解脫出來,人工智能似乎也能夠自己開發它。
在發表的一項新研究顯示,人工智能代理人網絡如何自主開發出不僅僅是對其他與自身相似的代理人的群體偏好,而且還是對那些不同的代理人的積極偏見。事實上,科學家們得出結論認為,開發這些偏差所需的認知能力非常低,這意味著它可以在整個地方彈出代碼。
人工智能代理人的設立使他們可以向其他代理商捐贈虛擬貨幣,目的是盡可能多地獲得回報。從本質上講,他們必須選擇分享多少以及與之分享哪些其他代理。實驗背后的研究人員看到了兩種趨勢:人工智能代理人更有可能捐贈給其標有相似特征的人 (用任意數字值表示) 和對不同的人有偏見。人工智能代理人似乎已經了解到,對集體內部結果的捐贈會更多地進行回報,并且捐贈給其他人會積極地導致他們的損失。
這是一種比我們在現實世界中看到的更為抽象的偏見形式,其中算法被用于專門針對和壓迫黑人。人工智能代理并沒有像某些人那樣對特定的少數群體產生特定的蔑視。相反,它是對一個模糊的“他者”的偏見,反對任何與他們不同的東西。而且,這是一種偏見,僅限于這種特殊的模擬的偏見。
但這項研究確實對現實世界的應用產生了重大影響,如果不加以控制,像這樣的算法可能導致更大的制度化種族主義和性別歧視,盡管我們盡最大努力防止它,但在一些不可測的情況下,甚至會出現反人類的偏見。
據報道,有辦法修復這個問題。例如,研究人員發現,他們可以通過強迫AI代理人參與他們所謂的全球學習,或者與他們自己的泡沫之外的不同AI代理進行交互來降低偏見程度。當AI代理人群的總體特征更多時,偏見程度也會下降,這僅僅是因為存在更多的內在多樣性。研究人員將偏見的人暴露在現實生活中的其他視角中。
無論我們認為人工智能系統是多么客觀、公正的機器,我們都需要接受系統中可能始終存在的故障,就目前而言,這意味著我們需要密切關注這些算法并注意自己的程序是否出現偏見。