精选文章

ZAO“丢脸”风波:算法时代的隐私泄露,这“必然”代价用户自己承担?

2019-09-03 19:12:20 | 来源:中培企业IT培训网

“ZAO”AI换脸APP火爆全网。用户只需要在APP中上传一张照片,就能将自己的脸替换成“小李子”“陈情令”“白展堂”“玛丽莲梦露”“”等经典形象,其人脸融合效果几乎可以以假乱真。

截止 9.3 15:30左右,该 APP 已经上升至苹果商店免费 App 榜单第一。

和之前杨幂换脸黄蓉的海外开源工具效果类似

但在注册账号的过程中,发现了用户协议中有如下条款:

划个重点:

ZAO可以对你的短视频进行全部或部分的修改和编辑。

换脸后,你就授权ZAO使用你的肖像,并且是完全免费、不可撤销、永久、可转授权和可再许可的权利。

这就霸道了。

ZAO也在随后修改了自己的“霸王条款”。

紧接着也发布了自己的声明,称不会存个人面部生物识别特征信息,无支付风险。

而这一些列举动还是再次引起了各方对算法时代用户隐私权的讨论。

关注隐私风险深度问题

在2018年的中国发展高层论坛上,百度董事长兼CEO李彦宏表示:

“中国人对隐私问题的态度更开放,也相对来说没那么敏感。如果他们可以用隐私换取便利、安全或者效率。在很多情况下,他们就愿意这么做。当然我们也要遵循一些原则,如果这个数据能让用户受益,他们又愿意给我们用,我们就会去使用它的。我想这就是我们能做什么和不能做什么的基本标准。”


这句话里“隐私换便利”的观点,当时将李彦宏推上了一个风口浪尖。

我们确实经常体验“安装一个App 需要开放10多项权限许可”,但今天的用户未必都没有隐私保护意识,也不是所有人都愿意拿隐私换便利,但对普通人来说,最大的问题是,他们并不知道自己的隐私会如何被侵犯,被侵犯到何种程度。

他们与掌握和利用数据的公司之间,是不平等的。所以,“无知”,根本谈不上隐私保护。


在ZAO这个事件里,我们关注的是用户的脸部数据泄露会侵犯自己的资金账户,但用户数据使用边界远不止这些。这些直接获取数据的公司,是否会把数据转给第三方?第三方会不会再次易手?这些数据是否有权相互关联……

一些用户,会用现有的工具保护自己的隐私。


——为避免隐私暴露,隐身可以吗? 

比如,关闭手机的GPS功能,关于摄像头和语音获取功能,但网络服务商依然可以找到我们,这些都能轻易破解。

——注销抹去自己的信息? 

有的用户通过选择被网络遗忘——注销来保护自己的隐私。但如今的网络就想一个“数字化监狱”。一旦信息上传过,想再剥离出来,真的不太可能。不过针对这一点,我国已经出台法,对个人信息存留风险做出法律回应。

2016年11月,政府颁布了《网络安全法》,正式确认了个人对其网上个人信息的“删除权”:“个人发现网络运营者违反法律、行政法规的规定或者双方的约定收集、使用其个人的信息,有权要求网络运营者删除其个人信息。”


——谨言慎行一些会好吗? 

谨言慎行是一个看起来减少风险的方法,但基于如今的算法通过人们的“点赞”就能判断性格的情况,在未来物联网盛行,各种传感器可以随时随地捕捉人的数据的情况下,用户信息还是会被一直记忆的。

究竟该如何对抗风险?

1、 公众数据素养的教育

数据素养是一种有效发现、评估和使用数据的意识和能力。美国19世纪以来,就开始向民主普及这类教育,如今包括数据的风险意识、伦理意识,对算法的反思与使用中必要的节制,个人的数据保护意识、隐私意识等;

2、 国家建立数据资源基础设施

用户数据被窃取现象的存在,有一部分是因为共享数据的缺乏。多数行业性数据难以满足大规模、持续的数据应用需要,服务商垄断的数据,也难以转化为公共资源。因此,国家可以建立数据资源基础设施,来保证社会对数据的基本需要。

3、 伦理约束,行业自律

2017年1月在美国加州的阿西洛马(Asilomar)市,全球2000多人,包括844名人工智能和机器人领域的专家已联合签署该原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全,即《阿西洛马人工智能原则》。参加会议的有特斯拉和SpaceX的CEO Elon Musk,DeepMind的创始人和CEODemis Hassabis等。

这类信息规范虽然任重道远,但却是必然选择。


这是一个数据和算法决定人们生存方式的时代,识别和抵抗风险应该成为每一个人生活的一部分,当然,更是数据应用组织的责任。

注:部分图片来源于网络,如有侵权,请联系作者删除。


标签: 信息安全