据《华尔街日报》报道,Adobe公司高管拉奥(Dana Rao)表示,该公司伦理审查委员会可以帮助公司减轻使用人工智能的一些风险。

Adobe公司的总顾问拉奥先生说,使用人工智能系统的首要风险之一是,该技术可能会根据从数据中了解到的情况,对某些群体产生有害偏见。为管理这些风险,可以利用伦理审查委员会,并将公司组织价值付诸实践。
拉奥周三(5月5日)在《华尔街日报》的风险与合规论坛上说,两年前启动的Adobe人工智能伦理审查委员会已经能够审查人工智能系统一些功能的潜在偏见。该委员会由来自公司不同部门的不同种族和性别的员工组成,包括法律、政府关系和市场营销部门。
他说:“让一群不同的人在一起,可以帮助识别产品开发人员可能错过的问题。”例如,一个旨在检测未经授权购买Abode软件的功能,可能会无意中阻止某个群体的客户。
人工智能伦理审查委员会最近审查了一项有可能对某些群体产生歧视的欺诈检测功能。拉奥表示,人工智能可以从姓氏和地域中学习,并建立起一种联系,例如来自巴西的信用卡欺诈行为更多。而且它可能不仅仅阻止来自巴西的人购买该软件,还可能会阻止有巴西名字的人购买。
产品开发人员应当填写人工智能伦理评估表格,确定Adobe伦理审查委员会应审查哪些功能,从而确定人工智能的功能以及如何运作。
伦理审查委员会由不同的声音组成也很重要。
拉奥表示,我们曾有过这样的例子:委员会中的一些非裔美国人发现了成像人工智能过滤器中的问题,而其他人没有发现,因为该过滤器只影响到黑人皮肤或头发的人,而不会影响其他人。