人工智能的出现预示着科技发展的新时代,但同时也带来了与个人资料有关的私隐风险。
人工智能系统是一个以机器为本的系统,可以为一组由人类界定的目标作出预测、建议或决定,影响着现实世界或虚拟环境。 人工智能系统在设计上可以不同程度的自主性来运行。
人工智能的社会和经济价值无庸置疑。 从制造业、交通、金融到医疗、教育等多个领域,人工智能都能推动创新、提高效率。 对于企业来说,根据微软和IDC在2019年5月发布的调查报告(https://news.microsoft.com/en-hk/2019/05/08/microsoft-idc-study-artificial-intelligence-adoption-to-increase-rate-of-innovation-and-employee-productivity-gains-by-more-than-double-by-2021/),40%的香港机构已经展开了它们的人工智能之旅。 然而,人工智能的发展和应用在资料保障的领域上,在全球各地基本上仍不受监管及/或缺乏指引。 这是漠视了当人工智能系统被应用于人类身上时,通常涉及对他们进行个人资料汇编以及作出自动化的决策,因而对私隐及其他人权构成风险。与人工智能的蓬勃发展尤其相关的个人资料私隐风险包括(a)过度收集及保留个人资料;(b)在缺乏充分透明度、解释或具知情权的同意的情况下处理个人资料;(c)未经授权下重新识别个人身份,以及(d)对某些社群的不公平歧视情况。
为了处理上述风险,个人资料私隐专员公署(私隐公署)一直与其他司法管辖区的相关机构紧密合作,寻求补救措施。 在大家的共同努力下,环球私隐议会(Global Privacy Assembly)刚刚在10月通过了一项由私隐公署发起的决议,鼓励在开发和应用人工智能时加强体现问责。
环球私隐议会的前身是国际资料保障及私隐专员研讨会,为来自全球各地的130多个资料保障机构提供一个国际论坛,就私隐议题及最新的国际发展进行讨论和交流。
《开发及应用人工智能的体现问责决议》
为了应对在应用人工智能时对个人权利可能带来的影响,在开发和应用人工智能的过程中体现问责是相当重要的。 环球私隐议会辖下的人工智能的道德与数据保障工作小组(本人是该工作小组的联席主席),在今年较早时候向环球私隐议会所有成员进行了调查,以寻求执行有关问责模式的可行措施。私隐公署联同环球私隐议会的其他成员根据调查结果,提出了《开发及应用人工智能的体现问责决议》(《决议》)。 《决议》要求开发或应用人工智能系统的机构、环球私隐议会的成员、各国政府以及其他持份者实施适当的问责措施,以应对人工智能对人权的干扰的风险。
本人将在下文概述建议的问责措施。
对于开发或应用人工智能系统的机构,他们应该考虑实施问责措施,例如:
当人工智能系统投入应用后,我们建议有关机构持续监察及评估人工智能的表现,以及其对人们的影响。同时,我们亦建议有关机构选定一个负责人,好让(一)受影响的人可以向他提出与自动决策有关的关注及行使权利,以及(二)由他启动针对决策过程的评估程序及人为干预。 为此,对于人工智能作出的自动决策,应可随时根据要求提供令人易于理解的解释。
为了增加复原能力以及减少漏洞,在人工智能的应用中加入举报/报告机制以便揭露违规事项或重大风险至为重要。 毕竟,透过与各持份者(包括非政府组织、公营机构和学术界)的广泛讨论,可以识别和应对人工智能对社会及经济事务的更深远影响,并确保各人对程式运算的警惕性,这将有助于建立持份者对应用人工智能系统的信任及信心。《决议》还提倡有关机构要做好准备,以便能够应资料保障机构的要求而展示其问责措施。
《决议》代表了一个道德规范,用以确保在人工智能的整个生命周期中,相关的应用都是负责任地进行的。 当中的大前题是,人工智能应是为人类服务,而不是本末倒置。通过采纳有关的问责措施,人工智能的应用道德得以规范化,并使其具有可追溯性、可审计性和可操作的技术和组织程序。 这是一种以道德为本的设计。尽管人工智能已渗透日常生活的各个层面,我们希望可以借着这种道德为本的设计捍卫及强化对个人资料私隐的保护。
我呼吁大家在开发和应用人工智能时,采取和落实上述的问责措施。
《决议》的全部内容可在私隐公署的网站浏览: https://www.pcpd.org.hk/english/media/media_statements/files/gpa_resolution_ai.pdf。