我們正生活在第四次工業革命之中,而這次工業革命的特點是資訊及通訊科技的突破和創新,包括機器人技術、人工智能、機器學習、物聯網和自動駕駛汽車等。科技發展徹底改變我們的生活 — 現實世界過往進行的活動現在已經轉移到數碼世界。瀏覽網站及在社交媒體平台留言,會留下我們的數據或數碼足跡。現時數據以巨大的規模及以前所未有的速度收集和產生。大量的數碼數據有利於人工智能發展。
在現代話語中,人工智能主要是指在機器學習技術的基礎上設定的新一種演算法。執行的指令不再只由開發人員編寫,而亦是由機器自行從輸入的資料中「學習」而產生。這些機器學習演算法能夠執行過往傳統電腦程式無法執行的任務(例如從龐大的圖像數據集中檢測特定目標)。更具挑戰性的是對「通用人工智能」的關注。根據2016年10月美國總統行政辦公室及國家科技委員會轄下的技術委員會題為《為人工智能的未來作準備》(此為“Preparing for the Future of Artificial Intelligence”的譯名)的報告,「概念上的未來人工智能系統,可以明顯地展示出智能行為,至少在所有的認知任務中表現出與人類一樣的先進」。
人工智能及機器學習促進創新應用,例如語言處理、翻譯、圖像識別、虛擬助理、個人資料彙編、信用評分和自動決策。人工智能技術可以提高生產力、改變企業及提高社會生活水平。然而,人工智能的商業發展和應用引起各種倫理道德和私隱問題。廣泛與無處不在地收集個人資料,加上在資料當事人意料之外使用和轉移資料,均對世界各地的資料私隱保障框架帶來挑戰。
大部分保障資料法律反映了早被確立的原則。1980年經濟合作與發展組織的《私隱保障及個人資料跨境流通指引》訂明八項保障資料的基本原則:限制收集原則、確保資料品質原則、目的明確原則、有限制的使用原則、安全保障原則、公開原則、個人參與原則和問責原則。有些人認為人工智能與大部分保障資料原則有衝突。
譬如我們目前的資料私隱體制的重要部分是建基於通知和同意。然而,在人工智能時代,個人可能不知道其個人資料正在被收集或共享,遑論給予同意。
精密的數據分析和個人資料彙編技術能夠揭露某人最私人及親密的生活。數據分析的結果,視乎數據來源和品質,可能涉及偏見或歧視。如果根據這些結果作出決定,可能會對有關人士造成重大損害或歧視。因此,人工智能可能造成偏見、歧視甚至排斥。
人工智能需要大量數據,以協助訓練和改進其演算法。然而,累積資料對我們個人和集體自由均構成重大風險。相比之下,保障資料法例普遍主張減少收集和保留個人資料。因此,人工智能的出現迫使我們需要檢討保障個人資料的傳統方法。
《個人資料(私隱)條例》(第486章)(《條例》)是以1980年經濟合作與發展組織的《私隱保障及個人資料跨境流通指引》為範本,《條例》擬屬原則為本及科技中立。《條例》在一定程度能適應和應對不斷變化的私隱形勢。然而,科技發展和劇增的高階數據處理活動,超越了「通知和同意」、「有限制的使用」和「透明度」等基本保障資料原則。
根據《條例》,除非獲得個別人士同意,否則資料使用者不得將有關人士的個人資料用於新目的(「有限制的使用」原則)。訂明同意必須是明示、自願和知情。資料當事人必須充分知悉新目的、該資料可能轉移予甚麼人和相關風險。
鑑於人工智能應用程式本身難以預測,在收集、處理或使用資料當事人的個人資料之前,似乎很難向資料當事人提供具體詳情。此外,我們必須謹記,人工智能系統和使用人工智能作出的決定,應該以人為本 ,消費者( 即:資料當事人)的身分應放在任何人工智能計劃之前,而該計劃應以消費者為中心。
隨著上述對私隱保障的挑戰,為平衡在數碼經濟時代的資料使用者和資料當事人兩方的利益,香港個人資料私隱專員最近已提倡以數據倫理和道德與問責原則的方法,完善《條例》的實施和執行。詳情請參閱香港個人資料私隱專員公署出版題為 “Ethical Accountability Framework for Hong Kong, China”的報告。
數據倫理和道德超越了規管的遵從,並以數據管理價值為中心,即「尊重、互惠和公平」。《香港律師》2019年2月號題為《數碼革命中的資料保護》的同一專欄文章載有詳情。數據倫理和道德要求資料保障文化的改變,並致力協助機構盡量獲取數碼經濟帶來的利益的同時,能保障和尊重個人的基本權利,當中包括個人的私隱權。