法治网首页>>
“AI面试官”能否担起考官之责
发布时间:2022-11-30 17:57 星期三
来源:法治参考

  本刊记者 侯建斌 见习记者 白楚玄

  “欢迎参加AI面试,我是本轮的‘面试官Lina’,我会带领你完成今天所有的面试流程……请您寻找一处安静、网络稳定的环境完成测试……”近年来,随着人工智能技术的快速发展,人工智能领域的新应用不断出现并改变人们的生产生活方式。其中,AI面试就被许多用人单位引入远程招聘中。这种方式在为招聘方降低招聘成本、提高招聘效率的同时,也让不少求职者对这种初筛方式感到不适应。此外,人工智能是否会造成个人隐私泄露和算法歧视,也让人深思——失去了必要的互动环节之后,简单机械的“AI面试官”能否担得起“考官”之名。

  “AI面试官”频频现身考场

  张宇彤今年从英国剑桥大学毕业后,回国加入求职大军。截至2022年11月,她经历了3次AI面试。她向本刊记者介绍了自己参与AI面试的过程,在点击企业发送来的链接或者扫描二维码后,便可进入面试场景,系统会出现一个动画形象对求职者进行发问,不同的面试题目数量不等,每道题有规定作答时间和录音视频限制时长,系统会通过回答问题来对面试者的基本素质进行考察。

  智联招聘测评研究院执行院长田娟娟此前接受媒体采访时表示,AI面试将人工智能技术与模拟真实面试场景融合,结合视频分析技术、语音分析技术、语义理解技术、人脸特征识别技术、测量技术等,对候选人的岗位素质进行全面分析评估,最终对候选人人才画像进行解析。

  记者了解到,现阶段不少银行、地产、快消以及互联网企业都会采用AI面试来进行人才初筛。其中,在行政、柜员、客服、工厂操作工等职业要求标准化较高的岗位招聘中,“AI面试官”出现得更为频繁,而“面试官Lina”就是多家企业正在使用的“AI面试官”。

  “提前几个小时准备一份素材稿,按照STAR法则组织答案”“AI面试的问题框架基本逃不脱‘宝洁八大问’和‘万科十九问’,大家都可以按照这些进行准备”“面试过程中尽量直视镜头,不要左顾右盼眼神飘忽,因为AI面试有防作弊算法”……随着AI面试的流行,互联网上出现大量相关“攻略”,很多“过来人”开始分享心得、提供建议。本刊记者在小红书、抖音、微博等平台上看到,今年以来,有关AI面试的攻略正逐渐成为热门内容,AI面试流程、视频录制小技巧、AI面试题库及答题模板等收藏点赞上千。

  事实上,这种面试方式也给不少求职者“可乘之机”,这些求职者还在网络上分享了自己的“作弊”经验:“把要回答的关键词或者自己特别生疏的地方粘在桌面上,做成透明的,这样就不会挡住视线”“共享屏幕来针对问题予以回答”……

  对AI面试不应过高期待

  AI面试给用人单位和劳动者都带来一定的便利,特别是面试不再受时间与空间的限制,提高面试效率,节约双方的成本。另外,AI面试能够不受面试官主观情绪的影响,可以相对客观地评价求职者的面试表现,体现出面试的公正性。但在求职者和外界看来,AI面试的出现还是存在着较大争议。

  张宇彤就不喜欢AI面试,缺乏互动性让她对“AI面试官”望而生畏,“对女生而言,面试中只能看到自己没有美颜过的脸,还带着面对镜头时的紧张和惶恐,让人看着就很尴尬”。她认为这种不是面对面交流的方式,限制了个人魅力的展现。

  刚刚结束了一场AI面试的董坤也有同样的感受。虽然事前他在网上搜索了面试可能会被问到的问题,并在回答时随时注意与摄像头互动,但仍觉得“一个人对着镜头回答问题,不确定AI能否理解我的回答”。

  除了面试时只能对“AI面试官”提出的问题进行机械反馈,基本处于单向沟通的状态以外,不少求职者认为AI面试对自然人价值观、个性、心理承受能力等内隐性强的特点,缺乏更精细的判断标准。

  事实上,关于AI面试的吐槽在网络上并不罕见。“只有我觉得AI面试跟耍猴似的,演练半天,就是为了个人都见不着的机器人”“AI面试,一生之敌,怎么会有这种东西,比无领导小组还要让人讨厌”“被AI淘汰,怎么‘死’的都不知道”“如果取一个极端的例子,因坐姿不端正,斯蒂芬·霍金大概只能去杂货店看后门了”……

  还有求职者在AI面试的过程中犯了错误:一位面试者觉得回答不流畅,中途点选了“重新录制”键,却发现已经没有重录的机会了;另外一位面试者因在面试过程中多次截屏,面试作废;还有网友表示,“AI面试笑场了,说一半没忍住把自己说笑了”。

  失去了必要的互动环节之后,简单机械的“AI面试官”能否担得起“考官”之名,这也成了需要思考的问题。中国社会科学院法学研究所助理研究员、文化法制研究中心副秘书长刘灿华认为,不能对目前的AI面试有过高的期待,人工智能技术虽然快速发展,但在整体上还处于“弱人工智能”的时代。从目前的AI面试相关产品或服务的功能来看,大部分产品或服务只能替代人类从事一些重复性、简单地沟通与判断工作,只能承担起“初筛”或者辅助决策的功能,而不能从事比较复杂的沟通互动和综合判断工作。

  警惕信息泄露和“算法陷阱”

  据媒体报道,亚马逊机器学习专家曾发现国外某企业的“AI面试官”在筛选简历阶段,存在“重男轻女”的明显倾向。

  事实上,技术鸿沟会导致歧视现象。AI面试客观上对应聘者技术能力提出了一定要求,如果此种能力并非将来工作所必须,就可能构成对不熟悉或不掌握有关技术的劳动者的歧视。在提高面试招聘效率的同时,求职者筛选的公平性,难以根除的“算法偏见”和“冰冷”的应聘体验也使得AI面试备受争议。

  刘灿华提出,要完善劳动领域的算法规则,用人单位应当要提高算法的透明度,劳动行政部门要加强对AI面试所使用算法的监管。基于其技术特征,法律上无法要求算法完全公开透明,但是用人单位应当在技术可行且不影响正常招聘工作的前提下,对其使用的算法作适当的说明,尤其是相关算法中是否包括了劳动者的民族、种族、性别、宗教信仰等因素。在算法的开发过程中,应当充分听取工会、劳动者代表等各方的意见。劳动行政部门在日常执法工作中要加强对相关算法的监管,查处以算法之名而实施的劳动违法行为。同时,要抓紧研究AI面试在实践中存在的问题,以问题为导向制定劳动领域算法规制的相关规则,为用人单位提供指引,为劳动者保护其自身合法权益提供依据。

  有人认为,AI面试更像是一种大数据收集,而非完整意义上的招聘。“企业拿到求职者数据之后有没有对外共享?会不会用于自动算法、训练人工智能呢?”AI能否守护好求职者的隐私,也是不少求职者担心的信息安全问题。

  对可能出现的信息泄露问题,在中国政法大学传播法研究中心副主任朱巍看来,AI面试会收集大量的个人信息,如果是纸质材料销毁即可,但AI面试会将数据存在系统、硬盘、“云”上。所以一旦面试未被录取,那么相关的数据,AI有清除销毁的责任和义务,此外,还要重点监管企业进行个人信息收集后的存储和运用问题,堵住个人信息保护漏洞。

  刘灿华认为,应全面实施个人信息保护法等法律法规,完善劳动领域个人信息保护规则。用人单位以及AI面试相关应用的开发者、有关数据处理者要严格遵守网络安全法、数据安全法、个人信息保护法等法律的相关要求,做好个人信息保护和数据安全工作,履行好法定义务。在发生信息泄露事件时,应当及时采取补救措施,通知受影响的劳动者。劳动行政部门应当根据劳动领域个人信息保护的特殊性,制定具体的规则。

  此外,未来AI面试内容的法律效力问题也将受到关注。例如,如果AI面试中谈及工作待遇等内容时,劳动者的回答或者AI的回应是否具有法律效力?刘灿华建议,要明确人工智能技术的功能与作用。是否签订劳动合同,应当由用人单位与劳动者共同决定,而不能交由AI决定,特别是目前AI面试所使用的人工智能相关技术还很不完善,因此在劳动法律规范中明确规定人工智能技术只能作为决策的参考,用人单位不得直接采纳人工智能的建议。



责任编辑:王占平