这几天,网红应用FaceApp又引发了一场小小的互联网恐慌,这已经是自2017年1月FaceApp诞生后引发的第三次大型互联网争议——窃取用户隐私。
FaceApp是一款安卓与iOS平台上广受欢迎的“换脸”App,据说,在拿到用户的“第一手“照片”后,App会在未经用户明确许可的情况下将用户的数据传到俄罗斯,并在云端进行操作。
它不仅不像苹果自有的应用程序那样在设备上进行处理,也不像iOS上其他第三方软件那样所有执行步骤都让用户清楚。
因此,FaceApp的用户现在已经开始担心“自己”是否真的被监视了。
对于这场轩然大波,FaceApp的创始人Yaroslav Goncahrov作出了以下几点回应:
1)用户数据不会转移到俄罗斯,而是要在云中进行照片处理;
2)只会上传用户选择的照片进行编辑。从未将任何其他照片从手机传输到云端;
3)之所以上传云端,要确保用户不会为每次编辑操作而重复上传照片,且从上传日期开始的48小时之内会删除大多数的照片;
4)用户还可以请求删除所有用户数据。用户可以通过转到设置,然后支持并选择报告错误,使用主题行消息中的“隐私”一词来完成此操作。
最后他强调说:“我们绝不会向任何第三方出售或分享任何用户数据。”
但是,FaceApp在其隐私条款中明确写道:
“您授予FaceApp永久的、不可撤销的、非独家的、免版税的、全球范围内的、全额支付的、可转让的子许可,它可以用于使用、复制、修改、改编、发布、翻译、公开执行和显示您的用户内容。”
也就是说,从开始使用FaceApp那一刻,你就默认了“你的脸”可以用于商业目的了。
FaceApp曾为涉嫌种族歧视道歉
FaceApp是俄罗斯应用开发公司Wireless Lab的旗下产品。
它的创始人Goncharov是俄罗斯圣彼得堡的一位开发者和创业,此前曾担任俄罗斯互联网巨头Yandex的执行官,后来自己创建公司来进行移动应用方面的开发。
自2016年开始,Goncharov就开始带领团队进行FaceApp的开发。
随着FaceApp的名气大增,公司名字也从Wireless Lab改成了FaceApp。
作为一款是一款“革命性”的自拍滤镜,FaceApp利用人工智能技术将处理照片这件事变得前所未有的简单。
例如能为你P上笑容、带你穿越看到不同年龄的自己,甚至还能让你瞬间成为异性。
除了这些,真正让FaceApp别具一格的是它的技术——这款有趣的工具实际上使用了深度神经网络的技术来改变你的面部外观,让你看起来更开朗,而不是依靠基础级别的照片编辑来拍摄。
这样做的结果就是,让你笑起来更自然、眼睛更大、牙齿更白。在年龄与性别的转换上,还可以看到老年的自己和“变性”后的模样。
然而,自2017年诞生以来,FaceApp就接连不断受到指控。
例如有用户指出,FaceApp中就有一项名为“hotness”的滤镜功能,能够将图像中人物的肤色变浅。
而这项所谓的“美白”功能也被指责为“种族歧视”。
面对这项指控,Goncharov也通过电邮声明作出道歉:
“对于这个严肃的问题,我们深表歉意。造成该现象的主要原因来自于为应用提供支持的神经网络的‘副作用’,是其训练数据中存在的偏见性问题,并非是一项预期行为。目前我们已经第一时间对滤镜效果进行了调整,以消除任何不利影响。”
虽然FaceApp方面的解释是AI系统训练数据的问题,同时为FaceApp滤镜效果提供支持的AI技术,也确实包含了一些开源数据库的代码。
对此,Goncharov也没有推脱责任,坦言用来训练“hotness”滤镜的数据集是他们自己的,并非公共的数据集,此次事件仍旧是FaceApp内部的疏忽。
这次风波的结果是,FaceApp在将滤镜从“hotness”更改为“spark(亮化)”之后,又将这款滤镜撤下。
几个月后,FaceApp推出的几款滤镜又惹上了相应风波,即“亚洲人”(”Asian”)、“黑人”(”Black”)、“白人”(”Caucasian”)以及“印度人”(”Indian”),选择不同滤镜即可将照片中的人像修改成相应人种。
这次风波也是以移除滤镜作为收尾。
如何消除AI算法偏见?
这不是互联网公司第一次因算法偏见陷入类似争议。
2015年,谷歌的图片应用软件Google Photos误把两名黑人标注为“大猩猩”。为此,谷歌移除了Google Photos中的“大猩猩”类别。Flickr的自动标记系统也曾错将黑人的照片标记为“猿猴”或者“动物”。
2016年,微软公司的人工智能聊天机器人Tay上线不到一天,就成了“反犹主义者”,于是被微软公司紧急下线。
Snapchat也曾推出过一个“Yellowface”滤镜,能够让用户“变成”黄种人,也因涉及到种族歧视而遭到抗议和抵制。
由于人工智能是通过机器学习,利用大量数据让计算机自己学习,从而形成算法。因此,前期数据集的偏差、价值观,以及人类行为都会体现在最后的算法上。
比如,如果研究者给出的简历数据集,以男性工资更高、职位更好时,那么相应的算法也会出现类似特征。
2014年,亚马逊公司曾研推出过一款AI招聘引擎——算法筛选系统,试图通过此系统来帮助亚马逊在招聘的时候筛选简历。
研发小组开发出了500个模型,与此同时也教算法识别了50000个曾在简历中出现的术语;以此让算法去学习在不同能力分配的权重。
听起来高大上、但是久而久之,开发团队发现算法竟对男性应聘者有着明显的“喜好”,而且当算法识别出“女性”(women and women’s)等相关词汇时,便会以“偏见”的看法给女性简历相对较低的分数。
例如,女子足球俱乐部等,算法甚至会直接给来自于两所女校的学生降级。随着“偏见问题”愈演愈烈,这种情况现已经引起学术界和业界的特别关注。
前不久,麻省理工学院的计算机科学和人工智能实验室为此研发了一种新的基于深度学习的人工智能预测模型,可提前5年为人类预测乳腺癌的病变。
团队为了能确保白人女性和黑人女性的预测结果同等准确,他们采用了更加多样化的数据来进行训练。在这件事情上,研发团队就特别有意识地运用了“更公平”的数据。
不过,要真正消除人工智能算法中的“偏见”,单凭“更公平”的数据来填补是远远不够的,我们真正需要消除的是:根深蒂固在“人类头脑中的偏见”。
“俄罗斯软件,美国佬别用”
尽管存在算法偏见或者隐私问题,FaceApp凭借独特的功能还是吸引了一大波粉丝。
自2017年“种族歧视”事件后,FaceApp就积累了超过8000万活跃用户之后,现在已经是121个国家iOS App Store中排名第一的应用程序。它的粉丝也已涵盖了体育界、音乐界以及政界。
近日,美国民主党的全国委员会(Democratic National Committee,DNC)就发出预警,警告他们不要使用换脸应用FaceApp。参议院少数党领袖Chuck Schumer也已经正式要求FBI和FTC对该应用展开国家安全调查。
那么,美国政府担心的隐私问题是否真的会存在呢?那要探究下“云端”(即服务器)到底在不在俄罗斯了。
事实上,这些服务器主要是在美国,而不是俄罗斯。据福布斯报道称,“FaceApp.io的服务器位于美国的亚马逊数据中心”。
当然,还有一些服务器也由谷歌托管在其他国家,包括爱尔兰和新加坡。此外,FaceApp还使用了第三方代码。
当然,鉴于FaceApp的开发商公司位于圣彼得堡,因此这些面孔将会在俄罗斯进行查看和处理。与此同时,这些亚马逊数据中心的数据也将反映到俄罗斯的计算机。
对于“隐私”问题,俄罗斯是否真的有泄漏?不管我们是否相信,FaceApp这一隐私问题已经引发了参议院少数党领袖、纽约州民主党参议员Chuck Schumer的关注,FaceApp又一次被推上了舆论风口。