机器学习是人工智能的一种形式,它能够让机器不必通过复杂的程序进行学习。有导机器学习包括应用数理计算进行预测,而无导机器学习涵盖以数据挖掘来发现过去研究数据中未知的模式。机器学习的一个关键特征是当新的数据被引入和分析时,机器可以改变它自身的代码。
当和人合作时,人们将会做有报酬的事情。欺诈者的部分思维会为自己的行为寻找合理化的借口,他们会说服自己那些明明错误的行为是可以接受的。两个最普遍的借口是“我只是在借钱”和“我的付出没有得到合理的回报”。一个欺诈者理所当然地认为偷窃的回报大于被捕的风险。
在机器人伦理(robot ethics或roboethics)中,机器学习的动机是值得深入思考的。鉴于机器道德只是一种关于道德行为和人工智能产物精神性的原则问题,而机器人伦理则是关于人们创造和设计这些机器时基于的道德行为的考虑。
Walt Disney和Enzo Ferrari曾说过“梦之所至,人可为之”。所以,如果欺诈者想要设计一种不道德的学习型机器,该如何防止呢?就像《超人3》(Superman Ⅲ)里Richard Pryor扮演的角色Gus Gorman和《上班一条虫》(Office Space)里的Peter Gibbons,一台计算机被设计来实施欺诈,就和被设计来对抗欺诈一样简单。
让我们想象一个例子。作为邪恶电脑公司的合伙人,我们决定设计并且出售一种系统,这种系统可以提供自动化内部审计。但是我们在销售收入外还想获得更多的收益,所以我们在系统中加入了一个每个月从每个客户处转出50美分汇到我们账上的指令。
如果我们邪恶的系统每个月能偷出50美分,那么审计师在运用含有类似本福德定律这些工具的审计软件时,相较于无欺诈的状态,软件会识别出数字5在激增。由于邪恶的我们设计了审计程序,所以我们可以轻而易举地通过系统指令将50美分的交易结果忽略掉,然后提供给客户。
这听起来很复杂吧?大众汽车公司可不这么想。他们在环保汽车为环保而设置的测试排放量环节中使用了一个可以报告理想排放量的程序。但实际上,他们的环保汽车排放出和进入大气的污染气体含量很高,约是排放测试报告数据的40倍。
如果你愿意,机器同样可以学会说谎。2009年,在瑞士的洛桑市进行了一项机器学习多代际软件测试。机器被命令共同协作来获得报酬。但是经过几十次反复,计算机开始相互欺骗来提高它们个体的报酬,而不是致力于提升集体的报酬。看来计算机也在为回报做事。作家Isaac Asimov 在1942年的故事《环舞》(Runaround)中,陈述了机器人学的三大法则:
1.机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观。
2.机器人必须遵从人类给予的指令,除非指令违背了第一条法则。
3.在不违背第一、二条法则的基础上,机器人必须保护自己。
Asimov后来又加上了一条法则。因为在他的列表中,更小的数字代表更高的优先级,他将第4条法则作为第0条法则:
0.机器人不得伤害人类整体,或者目睹人类整体受到伤害而不作为。
为什么这些出现在75年前的科幻小说里的法则如此重要?因为这些小说的介绍,这些法则在科幻小说界和机器人学界均被人们所接受。在决定最优行动时,类似电气电子工程师协会(IEEE)和英国标准协会(BSI)之类的组织会将这些法则作为概念上的标准来指引行动,以便实现行动最优。
这些机构的最优行为需要电脑编程者为他们自己的程序负责。这如何落地实施呢?一种办法是让程序员在每一段代码开始前都进行注释。另一种更细致复杂的方法是让程序员对每一行代码进行注释。这两种方法都有弱点,会使精确的软件审查跟踪变得模糊。首先,这两种方法都依赖于个人报告。其次,欺诈者可以修改或者插入编码而不进行报告。这可能会引发错误的控告。
代码日志比自行申报更具准确性。但如果任何员工都有权限接触到日志,细节就能够被修改。有权限的员工可能参与欺诈的隐藏,他们的密码也有可能被窃取。这些管理部门里的每一个人都应该警惕,因为我们无法预测机器学习的崛起会导致怎样的局面。比如,不同公司制造的机器会需要共同协作。尽管没有恶意的代码,机器间的冲突会使它们违背Asimov法则。另一种情况是,如果学习型机器创造出自己的编码,这一程序上又该如何监视并控制呢?
随着机械学习和黑客行为的联系越来越密切,Asimov的话变得越来越现实:“科幻作家预知了必然性,尽管问题和灾难在所难免,却不是没有解决办法。”机器学习和人工智能不能保证欺诈的消除。不仅不能,它们还使得欺诈的杜绝和监测更加复杂。
Karen Maguire,CPA、CFE、CFS、博士,美国卡罗莱纳海岸大学会计学教授,IMA罗镇分会成员。联系方式:kmaguire@coastal.edu。
张晶 译,徐怡然 校