熱門文章
人工智能時代已經到來數據立法還有多遠?
發布時間:2019-09-30 分類:趨勢研究 來源:法制日報
9月開學季,許多高校在新生報到期間都引進了人臉識別系統,新生到校不再需要復雜的報到流程,只要通過人臉識別系統便可以輕松完成報到。同時,為方便考勤,在上課的教室內,學校也安裝了人臉識別系統。但人工智能的功能遠不止于此。據了解,通過人臉識別系統,上課期間學生發呆、玩手機等行為都可以被感知。此事引發了輿論的廣泛爭議,一些網友稱此舉有侵犯學生隱私和尊嚴之嫌。
對此,9月5日,教育部科學技術司司長雷朝滋在接受采訪時說,人臉識別進校園,既有數據安全也有個人隱私問題,“教育部已經開始關注這個事情,正組織專家論證研究。對學生的個人信息要非常謹慎,能不采集就不采,能少采集就少采集”。
教育部對于人臉識別技術進校園持謹慎態度值得肯定。一段時間以來,教育改革加速了人臉識別等人工智能技術在教育領域的應用。人工智能技術,既可以幫助學生隨時隨地學習,也可以幫助老師更好地優化教學,讓老師在輔助學生成長過程中更有針對性。但是,從另一個角度來講,由于我國缺少必要的數據法律法規,對學生,特別是未成年人謹慎使用人臉識別等人工智能技術是應該的。
教育部有關部門負責人對人臉識別進校園提出了兩方面的安全問題。一是隱私安全。對于隱私,我國有相對完善的立法保護。2012年和2016年, 下轉第八版
上接第一版 全國人大常委會分別審議通過了《全國人民代表大會常務委員會關于加強網絡信息保護的決定》和《中華人民共和國網絡安全法》,這兩部法律對于信息時代依法保護公民個人信息安全起到了至關重要的作用。不久前,一款名叫ZAO的AI換臉App涉嫌違反法律規定,濫用人臉識別技術,運營團隊受到了工信部約談,主要依據的就是上述兩部法律。
二是數據安全。在這一方面我國的法律法規相對空白。以人臉識別等人工智能技術進校園為例,即使通過人工智能收集到的數據,既不涉及學生隱私,也不被用于公民個人身份識別,但是如何確保數據安全,特別是如何確保數據不被濫用,不用于危害國家、集體和個人的利益,同樣是一個值得重視的法律問題。
隨著國家大數據戰略的提出,在今年的兩會上,一些人大代表、政協委員開始關注大數據立法問題。這既有打通數據壁壘,推動國家治理現代化的需要,也有減少和杜絕數據濫用的要求。畢竟數據無罪,但使用者有善惡之分。依法確保數據使用向善也是法律的責任。
不久前,在深圳召開的全球人工智能創業者大會上,多家高校及人工智能企業聯合發起了《新一代人工智能行業自律公約》,自律公約旨在增強行業整體自律意識,積極推動人工智能行業的職業道德建設,維護人工智能行業健康正向發展,共同創造良好的行業發展環境。自律公約體現了行業的自我規范,以及科技向善的價值追求,也體現了行業內部推動人工智能技術規范應用的迫切需要。
包括人臉識別在內的人工智能的廣泛應用已是大勢所趨,不可阻擋。在這種情況下,人們不僅要使用人工智能,更要安全地使用人工智能。要實現這種安全既要靠自律,更要靠法律。
如今,人工智能時代已經到來,那么由此產生的立法還有多遠?