没有约束的科技可能导致不可预知的危险,这是摆在当前蓬勃发展的人工智能面前的一个紧迫的问题。

近日,欧盟率先迈出了一步,发布了一套关于人工智能的道德准则草案,这一长串颇具理想主义色彩的原则清单旨在阻止日益强大的技术给人类社会带来的不必要伤害。

根据这份欧盟准则,值得信赖的人工智能应该是:

(1) 有法可依的:尊重所有适用的法律法规;

(2) 合乎道德的:尊重伦理原则和价值观;

(3) 健康稳定的:无论是从技术角度考虑,还是从社会环境角度。

该准则还对值得信赖的人工智能提出7个关键具体要求,包括:

人类代理和监督:人工智能系统应该赋能人类,让人类做出知情决策,并促进人类的基本权利,同时需要确保适当的监督机制。

技术稳健和安全:人工智能技术必须是安全的,确保在出现问题时有一个后备计划,并且具备准确性、可靠性和可重现性。

隐私和数据管理:除了确保充分尊重隐私和数据保护,还必须确保充分的数据管理机制,考虑到数据的质量和完整性,并确保访问数据的合法渠道。

透明度:数据、系统和人工智能业务模型应该是透明的。可跟踪机制可以帮助实现这一点。此外,人工智能系统及其决策应该以适合相关利益相关者的方式加以解释。人类需要意识到他们正在与人工智能系统交互,并且必须了解该系统的能力和限制。

多样性、非歧视性和公平性:必须避免不公平的偏见,为了促进多样性,人工智能系统应该让所有人都能使用,并让相关利益攸关方能够在整个生命周期中都参与其中。

社会和环境福祉: 人工智能系统应该造福全人类,包括子孙后代。因此,必须确保它们是可持续和环境友好的。

问责制: 应建立机制,确保人工智能系统及其结果的责任和问责制。此外,应确保有适当的补救办法。

到目前为止,人工智能的研发基本上还是不受约束的,尚且没有任何国家和组织制定相关政策。例如,在美国,政府倾向于放手不管,把责任留给了大型科技公司。

因此欧盟此举可以被看作是建立一个让各国普遍接受的共同规范的一个早期尝试。

美国媒体Axios援引IBM负责政府和监管事务的副总裁Chris Padilla的话称,通过这次声明,欧盟获得了先发优势,正如它对具有里程碑意义的隐私法案GDPR所做的那样,该法案改变了大型科技公司在欧洲的经营方式。

去年5月,欧盟出台《通用数据保护条例》(GDPR),规范数据收集者的操作,禁止互联网公司以默认隐藏的模式收集用户数据。对于违规者,欧盟将会处以巨额罚款。

欧洲目前在人工智能产业的发展落后于美国和中国,率先制定道德准则某种程度上也是欧盟试图掌握AI发展和监管话语权的一次努力。

不过有分析指出,如果没有相应的执法工具,这套准侧的约束力将很有限,与严格的GDPR所产生的效果可能相去甚远。

但OpenAI政策主管Jack Clark认为,这并不意味着它们毫无用处,各国政府可能会将这些指导方针作为自己国家政策的模板。

今年夏天,欧盟将就这套准则草案开展试验,作为收集实践反馈意见的一种手段,所有感兴趣的企业和团体都可以报名参加。在试验阶段后,欧盟将在反馈意见的基础上于2020年初重新评估这些准则。

欧盟的这套指导方针将很快面临激烈的竞争。据Axios, 未来几个月里,经合组织(OECD)也将出台一套AI发展建议,与欧盟草案有许多相似之处。

现代人工智能技术领域的大师级人物、被誉为深度学习之父的Yoshua Bengio也在推动制定有约束力的道德规范,他认为靠企业自我约束是行不通的,就想自愿纳税不会有效的道理一样。

纽约大学教授、未来今日研究所(Future Today Institute)创始人Amy Webb也持类似观点,她认为,AI研发机构根本没有动力去自愿遵守这些指导原则,因为强调道德建设将减缓企业的人工智能系统发展,或许还会降低它们的能力。

此外,Webb还认为,过多的道德准则可能也会产生问题,因为一家企业如果在几项国际准则、本国的国家政策以及大学和非营利组织的建议之间做出选择,结果可能什么都做不了。

*本文来自华尔街见闻(微信ID:wallstreetcn)。开通华尔街见闻金卡会员,马上领取2019全球市场机会。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。