高校人脸识别惹争议 为人身安全应该让渡隐私吗?(2)

光山新闻网 林晓舟 2019-09-11 13:14:51
浏览

  在瑞典数据监管机构认为,在日常环境中对学生进行摄像监控等行为侵犯了学生的隐私。因为学校统计学生出勤率完全可以通过其他方式完成,而这些方式都比人脸识别技术对学生权益的侵害要小得多。

  更何况,人脸识别技术对情绪的识别尚处于研究阶段。宾夕法尼亚州立大学的一个研究小组进行研究发现,机器在识别人类情感时,人体可能比面部更具参考性。一位研究员表示,“我们发现根据肢体语言解释情绪很复杂,即使人类也存在许多不一致之处。”何况在目前机器有限的识别能力范围内,要做到对学生上课时的表情精确分析,仍为时尚早。

  更重要的是,教育本就是一套教学相长的系统工程。人脸识别技术的滥用会让人人自危。

  在中国学校使用人脸识别技术的消息曝出两天后,教育部科学技术司司长雷朝滋在接受记者采访时表示,“(对于人脸识别技术应用)我们要加以限制和管理。现在我们希望学校非常慎重地使用这些技术软件。”

  其实,尽管人脸识别技术一进校园便成为抵制的对象,并不意味着人们因此因噎废食。使用其基本原则,应该是被监控者知情同意和最大程度的隐私保护。

  近日,美国伊利诺斯州和德克萨斯州通过生物特征识别法,要求收集和使用人脸识别的公司和个体必须遵循一套基本的隐私协议。要求包括在收集前得到知情同意、规定数据保护义务和限制保留位置、禁止从生物特征数据中获利等。

  在欧洲,据欧盟委员会的高级官员透露,他们正在计划一项关于人脸识别数据使用的立法,这将赋予所有欧洲居民明确的决定权,“知道人脸识别数据何时被使用”。一组欧洲隐私监管机构希望将面部识别数据重新分类为“生物识别数据”,这意味着收集数据时需要对方明确的同意以及其他更严格的隐私保护。

  但这依然有很长的路要走。其实更令人害怕的是,在人脸识别技术无孔不入地延伸后,人类只会变成一台台监控摄像头下流水线上的冰冷机器,或者擅长使用肢体和表情掩饰情感的“戏精”。而在这背后,是人们关于让渡安全还是让渡隐私的矛盾。

  早在两年前的一部科幻剧《黑镜》中,这种矛盾的结局已可窥见。一位焦虑的母亲时刻害怕孩子受到伤害,从小给孩子身体植入芯片,便可以通过iPad随时监视孩子的动态,还可以主动把孩子眼中任何涉及血腥、暴力和色情的内容都打上马赛克。在故事的最后,母亲的“含辛茹苦”最后只换来了女儿义无反顾的反抗和逃离。