Skip to content

報章專欄

媒體報道

個人資料私隱專員在《香港01》、《信報》、《經濟日報》、《明報》、《星島日報》及《大公報》的文章 (2023年4月)

科企有責任確保人工智能系統數據安全 

人工智能(AI),特別是生成式AI驅動的聊天機械人的崛起,例如Open AI的ChatGPT、谷歌的Bard、微軟的Bing Chat、百度的文心一言和阿里巴巴的通義千問,已在不同司法管轄區和各行各業引起了震盪。雖然很多人視這科技突破為人類的福音,但人工智能的使用所帶來的私隱及道德問題同時引起各界關注。最近,全球超過二萬人,當中包括科技專家,聯署了一封公開信,呼籲所有人工智能實驗室六個月内暫停訓練相比GPT4更強大的生成式AI系統,並在這期間共同制定和實施一套安全守則。
 
「生成式AI」帶來的變革浪潮

何謂「生成式AI」?「生成式AI」(Generative AI)通常指可以用於創造新內容(包括語音、代碼、圖像、文字或影片)的演算法。與早期聚焦於自動化或主要透過分析大數據作出決策的人工智能不同,生成式AI的「神奇」之處在於可以秒速回應用戶的請求和問題,並根據所給予的提示,像人類般提供看來理性、完整及令人信服的回應,這使它成為人工智能發展史上的一個里程碑。
 
有「機」亦有「危」

然而,有「機」亦有「危」。很多人可能不知道,聊天機械人的運作建基於「深度」學習技術,當中涉及使用大量的原始資料或數據作為訓練數據,而這些資料或數據可以包括敏感的個人資料,可以是由用戶所提供的,或是由互聯網收集及複製的。
 
試想想,若你的朋友在你完全不知情、遑論同意的情況下,將你的姓名、職位、住址、身份證號碼,甚至信用卡號碼提供予聊天機械人作為對話的一部分,視乎有關程式的演算法,這些個人資料便可能會被儲存到機械人的資料庫中,並可能成為它回答下一個用戶的材料!
 
從以上的例子可以看到,由於用戶的對話可能被用作訓練人工智能模型的新訓練數據,若是用戶不經意地向人工智能系統提供了敏感的資料,那麼他們的個人資料便可能會被濫用,超出用戶提供他們個人資料的原本目的。若是如此使用個人資料的話,又是否有依從限制資料使用於原本目的的原則呢?若是相關的資料收集過程透明度不足,又是否會出現在用戶不知情及不公平的情況下收集個人資料,從而構成私隱風險呢?除卻資料的性質及收集過程外,還有其他同樣複雜的問題有待考慮及處理,包括資料當事人可如何行使他們查閱及改正資料的權利、如何保護兒童私隱、在開發及使用生成式AI的過程中如何減少不準確的資料、具歧視性或偏見的內容,以及資料安全的風險。
 
根據公認的Asilomar AI原則,先進的人工智能的出現可以說是世界歷史上一里程碑,但這現象亦應以相對稱的謹慎和資源來規劃及管理。
 
AI共存的未來

究竟現時是否將人工智能的發展好好地規劃及管理、甚至規管的契機?
 
值得留意的是,上文所述的聯署公開信並未呼籲全面地停止開發人工智能,聯署信只是倡議所有人工智能實驗室從製造一個越來越強大又不可預測的黑盒模型危險競賽中暫時「停一停」,先放一個悠長暑假。
 
展望人工智能進一步的發展,我認為科技公司,尤其是人工智能開發科企,有責任確保人工智能系統的數據安全,相關科企應檢視及嚴謹地評估他們的人工智能系統在運作上對數據私隱及道德的影響,並確保遵從相關法例或適用的指引。
 
在這方面,私隱專員公署於2021年8月發出《開發及使用人工智能道德標準指引》,協助機構以保障私隱、具道德及負責任的方式開發及使用人工智能系統。《指引》臚列了國際認可的人工智能道德原則,涵蓋問責、人為監督、透明度與可解釋性、公平、數據私隱、有益的AI,以及數據可靠、穩健及安全等方面的標準。機構在開發及使用生成式AI時,除了須要符合《個人資料(私隱)條例》的規定外,亦應該遵守這些原則,以減輕相關私隱及道德風險。
 
展望未來,政府建議在香港發展一個人工智能超算中心,可以說是極具前瞻性,值得支持。超算中心既可成為主要的策略性技術基礎設施,增強本地研究和開發AI的能力,亦可促進香港人工智能產業生態系統的健康發展及加快人工智能的發展。在這願景中,我建議人工智能產業的生態系統應涵蓋對人類的基本價值,包括個人資料私隱的尊重及保障,令生態系統為整個人類社會帶來裨益。
 
生成式AI的出現,可以說是震驚全球。當大家正熱烈討論怎樣使用或釋放它的巨大潛力的時候,生成式AI的潛在隱憂和風險亦開始引起國際間的關注。它的普及意味著所有持份者,尤其是開發人工智能的科企,應該攜手合作,共同創建一個安全及健康的生態系統,確保這項變革性的技術會用於人類的福祉。