3D面具骗过中国人脸识别 安全风险到底有多大?
扫一扫
分享文章到微信
扫一扫
关注鹿财经网微信公众号
2019年12月12日,美国《财富》杂志报道,美国圣地亚哥的一家人工智能公司Kneron用高清3D面具和照片,在世界多地成功欺骗了包括中国的微信、支付宝以及中国的火车站。由此,引发了关于人脸识别安全性的一些讨论。
3D面具破解人脸识别更多是测试行为,而非实际风险
从身份验证的技术上来看,常常是多个维度共同约束、同时验证一个人的身份的。我们的手机支付,实际上就有三重保护。首先,人不会把手机给其他人,会保护好;其次,手机通常都会设置一个开机密码。这些开机密码提供的保护很强,像苹果的隐私保护机制,就连FBI、CIA也没办法。这些关都过了,最后才是微信与支付宝的人脸识别。而这背后还有潜在常行为信息、常用地点、常在时间等保护,支付金额限制等保护措施。所以,这个破解,前面几关都是用户配合,然后直接进入测试人脸识别。所以,从安全性上看,更多的是一个测试行为,而非一个实际风险。所以,从实际生活务实层面,消费者也不必过虑。
不过,由此扩展开的一些务虚的思索,不妨“过虑”一些。
此前,杭州一家动物园要把之前的指纹入园认证改为人脸识别认证,已经办理年卡的浙江理工大学的一位教授就把公园告上法庭,理由是:凭什么你没征求我的意见,就默认我们都同意把面部信息提供给你?公园最初还颇为疑惑,为什么指纹电话号码大家觉得问题不大,但一谈到“人脸识别”大家都惊呼“我的隐私数据被盗了”。
▲图片来源:视觉中国
人脸识别具有更高的数据保护需求
大众态度的差别,是直觉性的,因为人脸识别技术最新,人一般对新东西的怀疑会更大。不过,从客观来看,人脸识别的风险也远胜于电话号码,甚至也高于同为生物信息的指纹、虹膜、声纹等。
密码泄露,只需要改变密码即可,但指纹、人脸信息是无法改变的,一旦被盗用,被有意识的窃取,被窃取者除了改变其他安全方式之外,没有其他办法。所以,人脸信息更加敏感。
而且,DEEPFAKE技术的出现,使得人脸信息可以被用来“换头”移植到其他视频中。Deepfake,是由“deep machine learning”(深度机器学习)和“fake photo”(假照片)组合而成,是深度学习模型在图像合成、替换领域的一次成功应用。不久前,轰动一时的“ZAO”换脸APP风波,就是基于DEEPFAKE技术。所以,对于普通人来说,人脸识别会带来一个全新的风险:一般来说,密码泄露,只会损失被密码保护的东西,但是,人脸信息的扩散,很可能影响到生活。
所以,欧盟地区的数据保护法《通用数据保护条例》(“GDPR”)的规定,面部图像(facial image)构成特殊类型个人数据下的“生物识别数据”,进而相较于一般个人数据受制于更高的保护要求。
中国国家网信办,11月29日发布的《网络音视频信息服务管理规定》也规定从明年1月1日起,AI造假视频不得随意发布。新规定中关于AI造假音视频的规定主要有四条:“按照国家有关规定开展安全评估”、“以显著方式予以标识”非真实音频信息、不得利用AI造假技术发布虚假新闻、部署AI造假音视频鉴别技术和健全辟谣机制等。
投稿邮箱:lukejiwang@163.com 详情访问鹿财经网:http://www.lucaijing.com.cn