人工智能的出現預示著科技發展的新時代,但同時也帶來了與個人資料有關的私隱風險。
人工智能系統是一個以機器為本的系統,可以爲一組由人類界定的目標作出預測、建議或決定,影響著現實世界或虛擬環境。 人工智能系統在設計上可以不同程度的自主性來運行。
人工智能的社會和經濟價值無庸置疑。 從製造業、交通、金融到醫療、教育等多個領域,人工智能都能推動創新、提高效率。 對於企業來說,根據微軟和IDC在2019年5月發布的調查報告(https://news.microsoft.com/en-hk/2019/05/08/microsoft-idc-study-artificial-intelligence-adoption-to-increase-rate-of-innovation-and-employee-productivity-gains-by-more-than-double-by-2021/),40%的香港機構已經展開了它們的人工智能之旅。 然而,人工智能的發展和應用在資料保障的領域上,在全球各地基本上仍不受監管及/或缺乏指引。 這是漠視了當人工智能系統被應用於人類身上時,通常涉及對他們進行個人資料彙編以及作出自動化的決策,因而對私隱及其他人權構成風險。與人工智能的蓬勃發展尤其相關的個人資料私隱風險包括(a)過度收集及保留個人資料;(b)在缺乏充分透明度、解釋或具知情權的同意的情況下處理個人資料;(c)未經授權下重新識別個人身份,以及(d)對某些社群的不公平歧視情況。
爲了處理上述風險,個人資料私隱專員公署(私隱公署)一直與其他司法管轄區的相關機構緊密合作,尋求補救措施。 在大家的共同努力下,環球私隱議會(Global Privacy Assembly)剛剛在10月通過了一項由私隱公署發起的決議,鼓勵在開發和應用人工智能時加强體現問責。
環球私隱議會的前身是國際資料保障及私隱專員研討會,爲來自全球各地的130多個資料保障機構提供一個國際論壇,就私隱議題及最新的國際發展進行討論和交流。
《開發及應用人工智能的體現問責決議》
爲了應對在應用人工智能時對個人權利可能帶來的影響,在開發和應用人工智能的過程中體現問責是相當重要的。 環球私隱議會轄下的人工智能的道德與數據保障工作小組(本人是該工作小組的聯席主席),在今年較早時候向環球私隱議會所有成員進行了調查,以尋求執行有關問責模式的可行措施。私隱公署聯同環球私隱議會的其他成員根據調查結果,提出了《開發及應用人工智能的體現問責決議》(《決議》)。 《決議》要求開發或應用人工智能系統的機構、環球私隱議會的成員、各國政府以及其他持份者實施適當的問責措施,以應對人工智能對人權的干擾的風險。
本人將在下文概述建議的問責措施。
對於開發或應用人工智能系統的機構,他們應該考慮實施問責措施,例如:
當人工智能系統投入應用後,我們建議有關機構持續監察及評估人工智能的表現,以及其對人們的影響。同時,我們亦建議有關機構選定一個負責人,好讓(一)受影響的人可以向他提出與自動決策有關的關注及行使權利,以及(二)由他啟動針對決策過程的評估程序及人為干預。 爲此,對於人工智能作出的自動決策,應可隨時根據要求提供令人易於理解的解釋。
爲了增加復原能力以及減少漏洞,在人工智能的應用中加入舉報/報告機制以便揭露違規事項或重大風險至為重要。 畢竟,透過與各持份者(包括非政府組織、公營機構和學術界)的廣泛討論,可以識別和應對人工智能對社會及經濟事務的更深遠影響,並確保各人對程式運算的警惕性,這將有助於建立持份者對應用人工智能系統的信任及信心。《決議》還提倡有關機構要做好準備,以便能夠應資料保障機構的要求而展示其問責措施。
《決議》代表了一個道德規範,用以確保在人工智能的整個生命周期中,相關的應用都是負責任地進行的。 當中的大前題是,人工智能應是爲人類服務,而不是本末倒置。通過採納有關的問責措施,人工智能的應用道德得以規範化,並使其具有可追溯性、可審計性和可操作的技術和組織程序。 這是一種以道德為本的設計。儘管人工智能已滲透日常生活的各個層面,我們希望可以藉著這種道德為本的設計捍衛及强化對個人資料私隱的保護。
我呼籲大家在開發和應用人工智能時,採取和落實上述的問責措施。
《決議》的全部內容可在私隱公署的網站瀏覽: https://www.pcpd.org.hk/english/media/media_statements/files/gpa_resolution_ai.pdf。