Skip to content

报章专栏

媒体报道

个人资料私隐专员在「香港律师」的文章
私隐公署的《开发及使用人工智能道德标准指引》 (2021年9月)

正如世界经济论坛创始人兼执行主席克劳斯 · 施瓦布(Klaus Schwab)教授所说,「人工智能有潜质为社会带来巨大的益处,但先决条件是要负责任地使用它。

香港公私营机构已作好准备,在业务经营中增加使用人工智能。然而,人工智能对私隐及个人资料的保障带来挑战,也可能对个人用户的权益造成影响。香港个人资料私隐专员公署(「私隐公署」)最近发表《开发及使用人工智能道德标准指引》(「《指引》」),目的是促进人工智能在香港健康发展及应用,同时协助机构在过程中遵从《个人资料(私隐)条例》(第486章)(「私隐条例」)的规定。

甚么是人工智能?不同文献对人工智能有不同定义。一般而言,人工智能指一系列涉及以电脑程式和机器模仿人类解决难题或作出决策的科技。使用人工智能的例子包括脸容识别、语音识别、聊天机械人、数据分析,以及自动化决策或建议。由于人工智能技术现时仍在演进中,将来可能出现更多新的应用例子。

人工智能的重要性和风险

根据一份在2020年公布的研究资料,78%香港企业相信人工智能会带来益处,并有助提升企业服务的质素和效率。由于数据是人工智能的命脉,配合《粤港澳大湾区发展规划纲要》,健康地发展和使用人工智能可帮助香港发挥其作为区域性数据枢纽的优势,亦可大大促进香港成为创科中心和世界级的智慧城市。

然而,使用人工智能作决策的道德考虑在国际间也备受关注,特别是当有报导关于使用人工智能而导致偏见及歧视。

对合乎道德标准的人工智能的诉求

有鑑于此,近年要求企业负责任地及合乎道德标准地使用人工智能的声音不断增加。在本港与这个议题有关的较早期刊物包括私隐公署在2018年10月发表的《中国香港的道德问责框架》。该报告建议机构在使用数据科技的时候,恪守三个基本的数据管理价值,即以尊重、互惠和公平的方式对待持份者。此外,很多国际机构,例如欧盟委员会、环球私隐议会和经济合作及发展组织,亦特别为人工智能制定重要原则和实务指引。2021年4月,欧盟委员会建议透过立法手段监管人工智能。法案如果获得通过,有可能成为全球首条专门规管人工智能的法例。

私隐公署的指引

虽然目前对于应否以立法或其他方式规管人工智能仍未有共识,现时是适当的时候向香港机构提供有关合乎道德标准地开发及使用人工智能的实务指引。

《指引》秉持以尊重、互惠和公平的方式对待所有持份者三大数据管理价值,并由此引申出七项适用于人工智能的道德原则,并且提供一份包含四个部分的实务指引。该实务指引按照一般业务程序而制定,在人工智能系统的整个运作周期里,帮助机构进行系统管理工作。该七项原则,即问责、人为监督、透明度与可解释性、数据私隐、公平、有益的人工智能、可靠、稳健及安全,均与国际认可的原则一致。

首先,有鑑于最高管理层的支持是成功的关键因素,《指引》建议机构建立内部管治架构,指导机构开发及使用人工智能。这个架构可以包含机构层面的人工智能策略及人工智能管治委员会,同时应向全体员工传达人工智能道德价值的重要性,从而培养一种符合道德标准及尊重私隐的文化。

其次,《指引》建议机构及早并全面进行风险评估,确定并评估使用人工智能所涉及的私隐和道德风险,以为机构部署合适的风险缓解措施。要考虑的风险因素包括数据的使用量及数据的敏感程度、数据的准确性及可靠性、人工智能对持份者的潜在影响、该影响若发生可招致的严重程度,以及发生影响的可能性等。总而言之,机构应该以风险为本的方式管理人工智能。

机构应按评定的风险水平,决定人类在人工智能系统的决策过程中需要有多大程度的参与。

实务指引的第三部分聚焦于人工智能系统的开发和管理。开发人工智能模型的数据处理,只要是涉及个人资料的,就必须符合私隐条例的相关规定。人工智能应通过严谨测试才可使用,推出使用后亦应定期调校,确保其稳健可靠。机构应制定保安措施,保护人工智能系统免被攻击及数据免于外洩。为确保人工智能模型持续可靠,机构应定期检视风险,以及重复训练和微调人工智能模型。

最后, 人工智能的使用应具有透明度,以展现机构决心恪守适用的法律规定和道德价值。机构亦应就人工智能作出或协助作出的决定提供解释,并且在可行情况下,提供渠道给相关人士纠正错误之处、作出回馈、要求解说、要求人为干预及 / 或拒绝与人工智能进行互动。

在这个日益以数据为主导的经济环境里,我相信信任是成功的关键。我期望《指引》能帮助香港机构管理与人工智能系统相关的私隐和道德风险,从而推动人工智能的应用,与此同时向消费者及其他持份者证明机构值得信赖,最终协助机构开启成功之门。