我们正生活在第四次工业革命之中,而这次工业革命的特点是资讯及通讯科技的突破和创新,包括机器人技术、人工智能、机器学习、物联网和自动驾驶汽车等。科技发展彻底改变我们的生活 — 现实世界过往进行的活动现在已经转移到数码世界。浏览网站及在社交媒体平台留言,会留下我们的数据或数码足迹。现时数据以巨大的规模及以前所未有的速度收集和产生。大量的数码数据有利于人工智能发展。
在现代话语中,人工智能主要是指在机器学习技术的基础上设定的新一种演算法。执行的指令不再只由开发人员编写,而亦是由机器自行从输入的资料中「学习」而产生。这些机器学习演算法能够执行过往传统电脑程式无法执行的任务(例如从庞大的图像数据集中检测特定目标)。更具挑战性的是对「通用人工智能」的关注。根据2016年10月美国总统行政办公室及国家科技委员会辖下的技术委员会题为《为人工智能的未来作准备》(此为“Preparing for the Future of Artificial Intelligence”的译名)的报告,「概念上的未来人工智能系统,可以明显地展示出智能行为,至少在所有的认知任务中表现出与人类一样的先进」。
人工智能及机器学习促进创新应用,例如语言处理、翻译、图像识别、虚拟助理、个人资料汇编、信用评分和自动决策。人工智能技术可以提高生产力、改变企业及提高社会生活水平。然而,人工智能的商业发展和应用引起各种伦理道德和私隐问题。广泛与无处不在地收集个人资料,加上在资料当事人意料之外使用和转移资料,均对世界各地的资料私隐保障框架带来挑战。
大部分保障资料法律反映了早被确立的原则。1980年经济合作与发展组织的《私隐保障及个人资料跨境流通指引》订明八项保障资料的基本原则:限制收集原则、确保资料品质原则、目的明确原则、有限制的使用原则、安全保障原则、公开原则、个人参与原则和问责原则。有些人认为人工智能与大部分保障资料原则有冲突。
譬如我们目前的资料私隐体制的重要部分是建基于通知和同意。然而,在人工智能时代,个人可能不知道其个人资料正在被收集或共享,遑论给予同意。
精密的数据分析和个人资料汇编技术能够揭露某人最私人及亲密的生活。数据分析的结果,视乎数据来源和品质,可能涉及偏见或歧视。如果根据这些结果作出决定,可能会对有关人士造成重大损害或歧视。因此,人工智能可能造成偏见、歧视甚至排斥。
人工智能需要大量数据,以协助训练和改进其演算法。然而,累积资料对我们个人和集体自由均构成重大风险。相比之下,保障资料法例普遍主张减少收集和保留个人资料。因此,人工智能的出现迫使我们需要检讨保障个人资料的传统方法。
《个人资料(私隐)条例》(第486章)(《条例》)是以1980年经济合作与发展组织的《私隐保障及个人资料跨境流通指引》为范本,《条例》拟属原则为本及科技中立。《条例》在一定程度能适应和应对不断变化的私隐形势。然而,科技发展和剧增的高阶数据处理活动,超越了「通知和同意」、「有限制的使用」和「透明度」等基本保障资料原则。
根据《条例》,除非获得个别人士同意,否则资料使用者不得将有关人士的个人资料用于新目的(「有限制的使用」原则)。订明同意必须是明示、自愿和知情。资料当事人必须充分知悉新目的、该资料可能转移予甚么人和相关风险。
鑑于人工智能应用程式本身难以预测,在收集、处理或使用资料当事人的个人资料之前,似乎很难向资料当事人提供具体详情。此外,我们必须谨记,人工智能系统和使用人工智能作出的决定,应该以人为本 ,消费者( 即:资料当事人)的身分应放在任何人工智能计划之前,而该计划应以消费者为中心。
随着上述对私隐保障的挑战,为平衡在数码经济时代的资料使用者和资料当事人两方的利益,香港个人资料私隐专员最近已提倡以数据伦理和道德与问责原则的方法,完善《条例》的实施和执行。详情请参阅香港个人资料私隐专员公署出版题为 “Ethical Accountability Framework for Hong Kong, China”的报告。
数据伦理和道德超越了规管的遵从,并以数据管理价值为中心,即「尊重、互惠和公平」。《香港律师》2019年2月号题为《数码革命中的资料保护》的同一专栏文章载有详情。数据伦理和道德要求资料保障文化的改变,并致力协助机构尽量获取数码经济带来的利益的同时,能保障和尊重个人的基本权利,当中包括个人的私隐权。