据《环球邮报》(多伦多)报道,加拿大国防部(Department of National Defence,简称DND)去年测试了人工智能的使用情况,以改善工作场所的多样性,但该项目是在旨在确保负责任地使用该技术的联邦规则之外运行的。

隐私专员办公室表示,国防部未能按照财政部委员会秘书处指令的要求,向其提供隐私影响评估。该专员的发言人表示,该办公室已经联系了国防部,要求提供更多信息。
Vito Pilieci说:“使用人工智能来做招聘等重要决定会引发隐私和人权问题。(隐私影响评估)应该在使用这些人工智能平台之前完成并提交。”
根据财政部委员会的一项单独指令,联邦机构还必须填写并公布所有人工智能工具的算法影响评估,以衡量使用这种预测技术可能产生的偏见和其他风险。然而,国防部也没有完成这一项。
警方热衷于使用面部识别,但这项技术需要加以控制。
国防部告诉《环球邮报》,作为多元化招聘活动的一部分,他们选用两家由人工智能驱动的加拿大招聘服务公司,Knockri和Plum,使用人工智能来列出候选人名单。国防部表示,这些公司向招聘经理提供行为评估,以及对应聘者“个性、认知能力和社交敏感度”的测量。
前财政部委员会(Treasury Board)数字和数据总监、人工智能政策的作者阿什利·卡索万(Ashley Casovan)表示,她一直担心各机构会忽视它。
她说:“这些政策的出台都不是为了成为各部门的负担,对(国防部)来说,这本来是很容易做到的。”
自2020年4月渥太华关于人工智能使用的政策生效以来,只有一份算法影响评估报告被提交了。那份呈文是由财政部委员会自己提交的。
这不是联邦机构第一次无视财政部委员会的数据指令。2016年,该部门开始要求他们提交他们所拥有的所有数据集的清单,然而有几个机构从未遵守。
例如,加拿大皇家骑警(Royal Canadian Mounted Police)从未提交过一份。皇家骑警发言人Robin Percival表示,该机构“目前没有一个提交完整的开放数据清单的时间表”,它正在与财政部委员会协商。
国防部的征兵行动于9月25日结束。该部门称,所有申请者都可以选择是否同意使用人工智能,或者选择其他筛选方法。
国防部的发言人Andrée-Anne Poulin表示,该部门,在招聘工作中使用了AI,而不是加拿大部队。她说,由于“最终决定”不是用AI做出的,所以没有完成财政部委员会的算法评估。该部门没有立即回应有关隐私影响评估的问题。
Poulin女士表示,该部门在选择Knockri和Plum之前进行了内部和外部咨询。她还指出,加拿大国家研究委员会(National Research Council)最近完成了对Knockri服务的“伦理评估”。《环球报》询问加拿大国家研究委员会是否对Plum进行过类似评估,但该机构以保密问题为由拒绝回答。
财政委员会发言人Alain Belle-Isle在一份声明中没有回应有关DND的具体问题,但表示政策 “要求联邦部门和机构在采用该技术之前完成算法影响评估”。
Knockri和Plum的网站称,他们提供AI服务是为了减少招聘决策中的偏见。Knockri没有回复这篇报道的几封电子邮件,Plum也拒绝发表评论。
国防部表示,Knockri的服务被用来评估其高管群体的预期行为。参与者通过视频回答问题,但该部门表示没有评估“视觉和听觉识别器”。
该部门表示,在招聘活动上总共花费了17.9万加元(约合人民币90.6万元),其中包括与两家人工智能公司签订的合同,以及与加拿大德勤公司(Deloitte Canada)的咨询费,还有其他费用,如对员工进行无意识偏见培训。国防部说,这些AI服务被用来将422名候选人名单缩减到34名“顶级”候选人。
前财政部委员会高级官员卡索万女士说,算法评估会发现围绕Knockri和Plum可能存在的隐私和公平性问题。这两家公司都会收集申请人的个人信息,包括心理档案、视频和音频记录。
卡索万女士问道:“这些数据发生了什么?它被存储在哪里?该公司可以访问多长时间?它是否经过美国?这些都是我会有很多顾虑的事情。”
康科迪亚大学(Concordia University)研究人工智能使用的传播学副教授Fenwick McKelvey表示,有必要围绕该技术进行更好的监管。
他说:“我认为,这个(算法指令)是政府应对的核心内容,因此,如果他们不真正遵循政策,那它就破坏了整个过程的合法性。”
McKelvey教授指出,使用人工智能之前已经导致了招聘过程中的问题。2018年,亚马逊创建的一个工具导致了对女性的无意偏见,因为它是基于一个男性主导的简历数据库。
他说:“这是一种奇怪的悖论,因为隐藏的偏见而被点名的设备,在试图解决隐藏的偏见。”