聊天机器人也有道德规范
2020年第1期 895 < 返回目录
随着机器人变得能力更强、更善于交流,服务和工具的边界正在消失,这给人工智能算法设计师带来了新的责任。

  根据Chatbots杂志的定义,商业聊天机器人是“一种由规则有时也是人工智能驱动的服务,可以通过聊天界面(发短信或对话)与之交互”。从全球看,这类虚拟助理市场正以34%的复合年均增长率增长,而该项技术在数量上和应用上都尚未充分发挥其潜力。
  在该杂志最近刊登的的一篇文章中,Daniel Thomas举例说明了新的应用程序是多么出人意料。斯坦福大学临床心理学家Alison Darcy开发的名为Woebot的机器人,可以在线为抑郁症和焦虑症患者提供帮助。Darcy解释道:“认知行为疗法(CBT)很容易转换为数字疗法,这是因其是结构化、基于数据、有时间限制且基于证据的。Woebot之所以诞生……是有些人实际上不想与人类(治疗师)交谈。这在某种程度上是Woebot的价值定位,他是一个非常出色的机器人。”
  问世一周后,Woebot就帮助了50,000多名抑郁症和焦虑症患者。目前,据估计,Woebot每周在Facebook Messenger上处理多达200万次对话。Darcy和斯坦福大学两名研究员在JMIR Mental Health杂志上发表的一项研究中,比较了70名参与者的结果,其中一半使用Woebot,一半阅读美国国家心理健康研究所(NIMH)的电子书Depression in College Students。与对照组相比,Woebot组的症状明显减轻。(参见Woebot.io/The Science上发表的“The Science Behind Woebot”)


正确使用原则
  我们采访了Wovenware(Wovenware.com)的联合创始人兼首席运营官Carlos Meléndez,他是一名位于波多黎各圣胡安的聊天机器人和人工智能软件开发服务及解决方案的创建者。Melénde指出,人工智能、机器学习、不断改进的自然语言处理(NLP),以及超大型数据库都有助于创建聊天机器人的技术的发展。但他也警告说,随着机器人变得能力更强、更善于交流,服务和工具的边界正在消失,这给人工智能算法设计师带来了新的责任。“聊天机器人是一种变革性的技术,我们必须小心前进。”
  Melénde和Wovenware团队还在不断改进所采用的一些典范做法,并持续专注于透明度这一核心问题。透明度对采购商和最终用户来说都很关键。
作为福布斯技术委员会的成员,Melénde经常在该委员会的博客上发表有关人工智能发展的文章。2019年6月,他在Expanding on Asimov’s Laws to Create Responsible Chatbots一文中探讨了人工智能开发者的责任。
  你可能还记得阿西莫夫提出的机器人三大规则(编者注:即机器人三定律),这三条规则试图涵盖人机安全交互中所有意外情况。Melénde的文章提出了设计负责任并合乎道德规范的聊天机器人的五项原则,包括:
  1.“透明。”时刻让用户知道他们在与一个软件智能机器人交互。
  2.
“确定如何使用聊天机器人。”在你确定了你的聊天机器人能做什么和不能做什么后,要确保用户也了解这些情况。
  3.“知道什么时候不宜使用聊天机器人。”一个不合时宜的例子是,医生办公室通过机器人向病人传达诊断信息。
  4.“使聊天机器人能够与不同的受众进行恰当的交流。”机器人需要了解相关文化,但使用翻译软件可能会造成语言层面的误解。“如果你与客户交流时会使用某种语言,那么需要彻底地从头开始打造聊天机器人的这种语言能力。”Wovenware不使用翻译服务。
  5.“确保其没有学习到错误的东西。”人工智能软件可以不断地进行自我学习,并且易受一个称为“不受监督的孩子”漏洞的影响。Wovenware持续监控其已安装的聊天机器人,并提供软件活动及其持续开发相关的月度报告。
  毫无疑问,未来聊天机器人将变得更加智能和多样化。正如Meléndez指出的那样,负责任的设计也应当如此。



                        

Michael Castelluccio


颖哲 译,郭强 校

< 返回目录