2元钱就能买上千张涉隐私人脸照-人脸识别对隐私的影响
现在越来越多的事情都可以通过刷脸来完成,如手机刷脸解锁、购物刷脸支付等,这些让我们的生活变得十分便利,但同时也会带来一定的安全隐患。近日有记者调查发现,某些网络交易平台上花2元钱就能买上千张涉隐私人脸照,而这些照片落入不法分子手中很有可能造成巨大的危害。那么,人脸识别对隐私的影响都有哪些呢?大家可以和小编一起详细了解一下哦~
2元钱就能买上千张涉隐私人脸照
近日,由全国信息安全标准化技术委员会等机构成立的App专项治理工作组,发布了一份《人脸识别应用公众调研报告(2020)》。
报告显示,有九成以上的受访者都使用过人脸识别,具体用途当中“刷脸支付”最为普及。不过有六成受访者认为人脸识别技术有滥用趋势,还有三成受访者表示,已经因为人脸信息泄露、滥用而遭受到隐私或财产损失。
正如调查显示,越来越多的人开始接受并使用人脸识别,但同时也在担心,四处“刷脸”会不会造成个人信息泄露。“刷脸”时代,我们的人脸信息安全吗?
对于人脸识别,多数人是又爱又恨,爱的是它的方便快捷,而恨的当然就是安全风险。
今年8月13日,杭州钱塘新区公安部门抓获两名犯罪嫌疑人,他们在多个网络平台盗取了数千条个人信息准备倒卖。而今年年初,浙江衢州也破获了一起盗用公民个人信息案,犯罪嫌疑人使用盗取的信息注册某金融平台账号,非法获利数万元。值得注意的是,这两起案件的犯罪嫌疑人都是利用“AI换脸技术”非法获取公民照片进行一定预处理,而后再通过“照片活化”软件生成动态视频,骗过了人脸核验机制,得以实施犯罪的。
记者调查发现,在某些网络交易平台上,只要花2元钱就能买到上千张人脸照片,而5000多张人脸照片标价还不到10元。浏览商家的素材库,里面全都是真人生活照、自拍照等充满个人隐私内容的照片。
当记者询问客服,这些图片是否涉及版权时,客服矢口否认,但却提供不了任何可以证明照片版权的材料。可以想象,这些包含个人信息的人脸照片如果落入不法分子手中,那么照片主人除了有可能遭遇精准诈骗,蒙受财产损失之外,甚至还有可能因自己的人脸信息被用于洗钱、涉黑等违法犯罪活动,而卷入刑事诉讼。对此倒卖人脸信息的违法行为,相关部门也在不断加大打击力度。
减少信息泄露,需要人脸识别技术不断升级,而技术网升级如何实现呢?这就要说到海量人脸信息的另一个用处了。
专家表示,人脸识别技术的发展,不仅需要不断优化算法,更需要海量的人脸数据用于训练和测试。而在用户授权的情况下,绝大多数的人脸数据,都被技术提供方用来进行系统锤炼了。且用于锤炼系统的人脸数据都是已经被脱敏处理过的大数据,不再带有个人信息,直接或间接都无法识别对应到自然人的身上。
除了技术的不断提升,破除人脸识别领域的风险,相关法律法规的出台更加必不可少。
我们的人脸信息被采集之后,究竟保存在了什么地方呢?
专家介绍,由于人脸识别应用五花八门,也没有统一的行业标准,大量的人脸数据都被存储在各应用运营方或是技术提供方的中心化数据库中。数据是否脱敏、安全是否到位、哪些用于算法训练、哪些会被合作方分享,外界一概不得而知。而且,一旦服务器被入侵,高度敏感的人脸数据就会面临泄露风险。
为了封堵这个漏洞,专家提出了分层授权、分布式存储的数据脱敏和加密方式。
中国科协“源新闻”专家库成员 中科院自动化所研究员 张兆翔:人脸识别从一张人脸的这个原始的图象,到它整个信息抽取的过程,在这个过程当中我们可以分层级把不同的一个阶段,分配使用在不同的使用者的手上。在一个脱敏的数据,或者是脱去它的本身的一个ID信息的情况下面,去进行一系列的人脸识别的服务的提供。
专家进一步指出,人脸数据存储应该建立更严格的标准和规范,技术开发方、App运营方不能成为各自为战的数据孤岛,只求技术更迭,忽视隐私风险,而是应该在更趋严格的监管网,以及法律和行业规范下采集、使用、存储数据。
中国科协“源新闻”专家库成员 中科院自动化所研究员 张兆翔:其实从安全性的角度来说,我们迫切需要行业能够提供一套标准,使得我们能够有一个规范去遵循,这样可以有效防止这种人脸这样一个敏感的身份数据的一个泄露情况。
越来越多的人在越来越多的场合使用人脸识别,想象一下,当这些汇聚在一起,是多么海量的人脸信息。那这些人脸信息又被用来做什么了呢?部分技术开发商或App运营商的确存在信息泄露的问题,造成有人脸信息被滥用,甚至形成了黑色产业链。
人脸识别对隐私的影响
原来段子里的“刷脸”时代真的来了。据报道进入9月,“刷脸”新闻频频进入公众视野:北京某大学宿舍楼全部安装了人脸识别门禁系统;杭州一家餐厅可以“刷脸”支付;多个银行可以“刷脸”转账;而最新出的iPhone X也支持Face ID和支付……人脸识别技术应用“爆发”,随着人们对隐私意识的提升,这些应用背后的用户消费隐私安全吗?
人脸不仅仅能表明身份,它还显示了许多其他信息,同样能由机器读取。这同样带来了一些益处。一些公司正通过分析脸部特征来自动诊断罕见遗传疾病,比如Hajdu-Cheney综合症,和其他可能的手段相比,早早就发现了病情。
测量情绪的系统也许能让自闭症患者更好地理解对他们来说难以捉摸的社交信号。但这项技术也造成了威胁。斯坦福大学的研究人员已经证明,面对一个男同性恋者和一个异性恋者的照片时,算法识别他们性取向的准确率可以达到81%。人类只能达到61%。在那些视同性恋为犯罪的国家,一个能从面部推断出性取向的软件让人恐惧。
不那么暴力的歧视也可能变得普遍。雇主本来就可能会根据自己的偏见来拒绝雇用某个人,而人脸识别也许会让这种偏见成为常态,令公司能够通过种族以及显现智力水平和性取向的特征过滤所有工作申请。夜总会和体育场馆也许会受到压力,可能需要扫描访客的脸来识别暴力威胁,从而保护人们——尽管由于机器学习的性质,所有的人脸识别系统都不可避免地面对概率问题。
此外,这类系统可能会对那些非白色皮肤的人有偏见,因为用来训练算法的数据集里大部分是白人面孔,这样的算法不太适用于其他种族。在影响法院保释和量刑决定的自动评估工具中,已经出现过这样的偏见。
最终,持续的面部记录和用计算机数据测量真实世界的小工具可能会改变社交互动的本质。掩饰有助于润滑日常生活的齿轮。如果你的伴侣能发现每一个强压下去的哈欠,你的老板能觉察每一丝恼怒的表情,婚姻和工作关系都会变得更真实,但也更不和谐。
社交互动的基础可能也会改变,从基于信任的一系列承诺,变成对风险和回报的算计,这些算计则源自于计算机对人们面部信息的解读。人际关系可能变得更理性,但也变得更像交易。
&n网bsp;
协调人脸识别与隐私关系
技术推动人的自主发展,教室公共目标也不存在什么问题,保护隐私又是必需的。那么,协调三者的关系是推动新技术应用的关键。
一般的思路是,从监视者与被监视者两端限制对隐私的侵犯,“教室等公共场所不存在侵犯隐私”的说法潜含着这种限制。然而,被监视者更小心地出现在有AI人脸识别系统的地方,显然缺乏可操作性。一旦出现,不管多久,都存在隐私泄露问题。另外,对监视者进行监视,使其只是在出现公共目的需要时使用人脸识别技术,似乎也不可行,监视者的公开行为确实可以有效监控,但其私人行为无法监控,否则也是侵犯隐私。
一种有效的思路是,将技术物与其操作界面区分开。人脸识别系统抓拍到人的微表情,被视为是技术物与人的接触效应,通过操作界面实现。而监视者也是通过对人脸识别系统的操作来达到鉴别其微表情的目的。可以将监视者的操作界面与真正微表情识别区隔开来,对微表情的识别和解读通过技术本身来实现,监视者只负责看最后的结果。
当监视者需要看到更多牵涉隐私的信息时,可以在取得被监视者同意的基础上,通过技术人员解码达到。而技术人员不能拿到一手的技术解码信息,需要通过另外的过程来实现。简言之,扩展技术过程本身,以达到隐私保护的目的。
运用AI人脸识别技术能否提升人的学习?如果运用得当,当然可以。所谓运用得当,是建立在技术数据为个人自己所用的基础上。学生可以根据AI分析自己的表现,去改进表现,在符合自身要求上改进学习方法和态度。但如果只是监控意义上运用,侵犯人的隐私,则可能限制人的学习自由和热情,阻碍人的学习。学习说到底是个体的事,并包含波兰尼(Karl Polanyi)所说的个人知识隐性过程。
微信搜索:购易购,关注购易购公众号,即可了解更多相关最新消息!