熱門文章
人工智能、處方藥,以及我們不了解的事情的風險管理
發布時間:2018-09-20 分類:交通百科
隨著突破“深度學習”導致ai人工智能的復雜程度迅速增加,在近幾年來這顧慮正在擴大和加深。這些深層次的學習系統使用由人類大腦運作方式啟發的深層神經網絡 -或者,更準確地說,這些深層次的學習系統運用的是我們目前了解的去模擬人腦的運作方式。
這樣的系統可以有效地“自行編程”大部分或絕大部分的程序,由這種系統所產生的代碼可以是非常復雜的。它們的復雜性甚至連最初編程系統的人也未必能完全解釋為什么它們如此操作:
你不能只憑看一個深層神經網絡的內部來了解它怎么運作,網絡的推理嵌入在成千上萬模擬神經元的行為,排列成幾十甚至上百個錯綜復雜的互聯層。在第一層的每個神經元會接收輸入,如在圖像中像素的強度,然后在輸出一個新信號之前執行計算。這些輸出被饋送,在一個復雜的網絡,到下一層的神經元,依此類推,直到總的輸出產生。
此外,由于這樣的系統目前無法創造一個易于理解系統推理的“記錄”,有可能沒人能充分解釋深層次學習系統的行為。
這一點,可以肯定的說,是一個真實的顧慮?,F代人工智能系統的不透明度,使有效管理與人工智能相關的公共風險變得困難的主要障礙之一。我們已經看到自動交易系統界討論相關的問題。這些系統的算法足夠的神秘,所以得了“黑箱交易”系統的綽號。算法交易系統之間的相互作用被廣泛指責為推動2010年閃電崩盤的禍首。不過,據我所知,沒有人認為崩盤的原因是因為設計師不理解涉及閃電崩盤的算法。相反的,那些算法系統之間的相互作用才是令設計師難以建模和預測的。這使得這些風險比那些不被理解的技術所產生的風險更加容易管理。
話雖如此,我不把無知看作為一個真正難以逾越的障礙,也不認為因為不了解就將不透明人工智能系統的開發完全禁止是一個明智的做法。人類實際上在這幾百年,甚至幾千年,創建和使用沒有人能理解的東西。對我而言,最明顯的例子可能來自醫藥領域,即使沒有人能真正理解為什么治療是安全和有效的,但這領域仍研發安全有效的治療方法。
在18世紀90年代,愛德華·詹納為了賦予人們對天花病的免疫性而研制出疫苗,當時,沒有人知道天花病是由病毒引起的。事實上,人們在當時甚至還沒發現病毒。在18世紀,傳染性疾病傳播的主要理論是由不良氣味的煙霧,半個多世紀后 疾病細菌學說 逐漸獲得認可;近一個世紀后才發現了病毒。
如今,甚至有許多醫生開的藥物所作用的機制只被部分或勉強理解。許多精神病藥物符合這一描述,藥理學家對三環類抗抑郁藥似乎能幫助抑郁癥和患有神經性疼痛的患者的原因作出假設。但假設仍然只是一個假設。想必深層次學習系統的設計師也能夠對系統如何達到當前狀態做出假設,即使這些假設可能還不如那些關于三環類抗抑郁藥來得靈通。
我們的社會早已得了共識,即使沒有人完全了解藥物并不意味著任何人都不應該使用這類藥物。但我們已設法管理有潛質的新藥物所帶來的風險,在它們上藥店的貨架前要求藥物通過徹底的測試,并證明是安全的。實際上,除了核技術,醫藥可能是世界上被監管最嚴格的技術。
許多人(尤其是那些在制藥行業的人)批評藥物在批準使用之前必須經過長期,艱巨和曲折的過程。但是,當藥物最終投放市場時,這個過程使我們能夠對藥物的安全性非常有信心(或者至少覺得是“足夠安全”)。而這,反過來,意味著我們可以服用那些我們不太了解作用機制的藥物,因為我們知道,任何隱患將極有可能已經在測試過程中暴露出來。
人工智能能從中吸取什么教訓?最明顯的是,有必要確保人工智能系統都經過嚴格測試后才可以銷售給公眾,起碼如果人工智能系統不能讓設計它的人通過“顯示其作品”理解其決策過程。我不相信人工智能系統會有一個食品藥品監督管理局(FDA)式的超級監管制度。 FDA的模式對這樣一個復雜的數字技術即不實際也不有效,但我們很可能看到的是法院和法律制度要求企業將深層次的學習系統通過比典型數字技術前代產品更廣泛的測試。
由于這樣的測試很可能是漫長的,并需要很多人力才能完成,這種測試的必要性將使較小的公司在人工智能行業更難獲得發展動力,進一步提高像谷歌,亞馬遜,Facebook,微軟和蘋果等巨頭的市場力量。也就是說,正如在品牌藥品行業中發生的現象一樣,人工智能市場力量將日益集中在少數企業手中的現象并不會是個巧合。