人工智能监管重任谁能挑?

世界各地的老牌知名公司和初创企业都在急于开发或采用能够可靠地预测我们的行为、揭示我们的下意识需求和欲望的人工智能解决方案。从琐碎小事–比如买哪些杂货,看什么电影;到重要决定–要不要雇佣这个人,是否发放一笔贷款,人工智能计算机都在越来越多地作出影响我们所有人生活的预测和决断。

根据欧盟委员会(European Commission)人工智能高级专家组(High-Level Expert Group on Artificial Intelligence)的说法,人工智能“是我们时代最具变革性的力量之一,且必将改变社会的肌理”。关于人工智能技术潜在社会效益的例子有很多。但由算法作决策的相关风险也众所周知:人工智能程序反映了其开发者的偏见,包括人工智能如何将待解决的问题程序化,以及如何选择、使用要处理的数据和如何对这些数据排序。此外,人工智能技术能够识别不同数据集之间人类发现不了的联系和模式,这对我们的隐私和名誉权构成了重大挑战。

幸亏有欧盟。虽然欧盟在人工智能技术争霸赛中落后于美国和中国,但它似乎率先发展出了一个监管框架,该框架将促进消费者对本土产业树立长期信心。《通用数据保护条例》(General Data Protection Regulation,以下简称《条例》)禁止没有人为参与下的一些自动决策(包括剖绘(Profiling)),除非满足某些先决条件并由责任方采取保障措施。例如当人们在线申请贷款并立即得到结果时,根据这一法律,他们将有权获得评估中“所涉及逻辑的相关有意义信息”,他们的申请要有人类评估员的参与,并且他们有对评估结果发起申诉的权利。

虽然《条例》有意做到技术中立,甚至没提到人工智能,但欧洲数据保护委员会(European Data Protection Board)的指引是明确的:当算法技术用于涉及个人数据的剖绘或自动决策时,该法律适用。比如贷款申请人将有权了解决策过程中使用的数据类型,为什么这些数据对他们的申请结果有影响,剖绘是如何构建的以及它们将作何用途。但他们不会收到关于基础算法如何运作的解释。这一指引并不具有法律约束力,但委员会对《条例》在应用中的一致性负责,因此其意见不容忽视。

除了《条例》之外,欧洲很快将拥有自己的人工智能行为准则。这不是技术自我监管的第一次或唯一一次尝试。但该委员会专家组提出的指引试图做到超越原则,提议了系统设计和开发的具体措施,这些措施将“增加人类福祉”,体现一个“以人为中心”的人工智能方针。该小组的建议针对开发人员,包括技术和非技术措施。其指引还建议企业应该从一开始就为其人工智能产品的潜在道德影响负责。这些提议的最终版本预计将于3月份出台,届时将包含一个机制,让利益攸关方在自愿的基础上签署这一指引。

时间非常关键。虽然《条例》是必要的,但在某些方面感觉有点亡羊补牢。我们知道自己面对着人工智能挑战,现在我们得到了一个机会去应对。欧洲若想领导这一努力–而不是独自面对挑战–全球实施将至关重要。(转载自FT中文网)

发表回复