大猩猩

注册

 

发新话题 回复该主题

俄罗斯出了款风靡西方的AI变脸App,却 [复制链接]

1#
哪家治疗白癜风专业 https://yyk.39.net/bj/zhuanke/89ac7.html

FaceApp的基本原理是通过算法获取照片中人物脸部的图像,并根据数据库中的其他图像进行表情调整。这几天,网红应用FaceApp又引发了一场小小的互联网恐慌,这已经是自年1月FaceApp诞生后引发的第三次大型互联网争议mdash;mdash;窃取用户隐私。

FaceApp是一款安卓与iOS平台上广受欢迎的ldquo;换脸rdquo;App,据说,在拿到用户的ldquo;第一手ldquo;照片rdquo;后,App会在未经用户明确许可的情况下将用户的数据传到俄罗斯,并在云端进行操作。

它不仅不像苹果自有的应用程序那样在设备上进行处理,也不象iOS上其他第三方软件那样所有执行步骤都让用户清楚。

因此,FaceApp的用户现在已经开始担心ldquo;自己rdquo;是否真的被监视了。

对于这场轩然大波,FaceApp的创始人YaroslavGoncahrov作出了以下几点回应:

1.用户数据不会转移到俄罗斯,而是要在云中进行照片处理;

2.只会上传用户选择的照片进行编辑。从未将任何其他照片从手机传输到云端;

3.之所以上传云端,要确保用户不会为每次编辑操作而重复上传照片,且从上传日期开始的48小时之内会删除大多数的照片;

4.用户还可以请求删除所有用户数据。用户可以通过转到设置,然后支持并选择报告错误,使用主题行消息中的ldquo;隐私rdquo;一词来完成此操作。

最后他强调说:ldquo;我们绝不会向任何第三方出售或分享任何用户数据。rdquo;

但是,FaceApp在其隐私条款中明确写道:

ldquo;您授予FaceApp永久的、不可撤销的、非独家的、免版税的、全球范围内的、全额支付的、可转让的子许可,它可以用于使用、复制、修改、改编、发布、翻译、公开执行和显示您的用户内容。rdquo;

也就是说,从开始使用FaceApp那一刻,你就默认了ldquo;你的脸rdquo;可以用于商业目的了。

FaceApp曾为涉嫌种族歧视道歉

FaceApp是俄罗斯应用开发公司WirelessLab的旗下产品。

它的创始人Goncharov是俄罗斯圣彼得堡的一位开发者和创业,此前曾担任俄罗斯互联网巨头Yandex的执行官,后来自己创建公司来进行移动应用方面的开发。

自年开始,Goncharov就开始带领团队进行FaceApp的开发。

随着FaceApp的名气大增,公司名字也从WirelessLab改成了FaceApp。

作为一款是一款ldquo;革命性rdquo;的自拍滤镜,FaceApp利用人工智能技术将处理照片这件事变得前所未有的简单。

例如能为你P上笑容、带你穿越看到不同年龄的自己,甚至还能让你瞬间成为异性。

除了这些,真正让FaceApp别具一格的是它的技术mdash;mdash;这款有趣的工具实际上使用了深度神经网络的技术来改变你的面部外观,让你看起来更开朗,而不是依靠基础级别的照片编辑来拍摄。

这样做的结果就是,让你笑起来更自然、眼睛更大、牙齿更白。在年龄与性别的转换上,还可以看到老年的自己和ldquo;变性rdquo;后的模样。

然而,自年诞生以来,FaceApp就接连不断受到指控。

例如有用户指出,FaceApp中就有一项名为ldquo;hotnessrdquo;的滤镜功能,能够将图像中人物的肤色变浅。

而这项所谓的ldquo;美白rdquo;功能也被指责为ldquo;种族歧视rdquo;。

面对这项指控,Goncharov也通过电邮声明作出道歉:

ldquo;对于这个严肃的问题,我们深表歉意。造成该现象的主要原因来自于为应用提供支持的神经网络的lsquo;副作用rsquo;,是其训练数据中存在的偏见性问题,并非是一项预期行为。目前我们已经第一时间对滤镜效果进行了调整,以消除任何不利影响。rdquo;

虽然FaceApp方面的解释是AI系统训练数据的问题,同时为FaceApp滤镜效果提供支持的AI技术,也确实包含了一些开源数据库的代码。

对此,Goncharov也没有推脱责任,坦言用来训练ldquo;hotnessrdquo;滤镜的数据集是他们自己的,并非公共的数据集,此次事件仍旧是FaceApp内部的疏忽。

这次风波的结果是,FaceApp在将滤镜从ldquo;hotnessrdquo;更改为ldquo;spark(亮化)rdquo;之后,又将这款滤镜撤下。

几个月后,FaceApp推出的几款滤镜又惹上了相应风波,即ldquo;亚洲人rdquo;(quot;Asianquot;)、ldquo;黑人rdquo;(quot;Blackquot;)、ldquo;白人rdquo;(quot;Caucasianquot;)以及ldquo;印度人rdquo;(quot;Indianquot;),选择不同滤镜即可将照片中的人像修改成相应人种。

这次风波也是以移除滤镜作为收尾。

如何消除AI算法偏见?

这不是互联网公司第一次因算法偏见陷入类似争议。

年,谷歌的图片应用软件GooglePhotos误把两名黑人标注为ldquo;大猩猩rdquo;。为此,谷歌移除了GooglePhotos中的ldquo;大猩猩rdquo;类别。Flickr的自动标记系统也曾错将黑人的照片标记为ldquo;猿猴rdquo;或者ldquo;动物rdquo;。

年,微软公司的人工智能聊天机器人Tay上线不到一天,就成了ldquo;反犹主义者rdquo;,于是被微软公司紧急下线。

Snapchat也曾推出过一个ldquo;Yellowfacerdquo;滤镜,能够让用户ldquo;变成rdquo;*种人,也因涉及到种族歧视而遭到抗议和抵制。

由于人工智能是通过机器学习,利用大量数据让计算机自己学习,从而形成算法。因此,前期数据集的偏差、价值观,以及人类行为都会体现在最后的算法上。

比如,如果研究者给出的简历数据集,以男性工资更高、职位更好时,那么相应的算法也会出现类似特征。

年,亚马逊公司曾研推出过一款AI招聘引擎mdash;mdash;算法筛选系统,试图通过此系统来帮助亚马逊在招聘的时候筛选简历。

研发小组开发出了个模型,与此同时也教算法识别了00个曾在简历中出现的术语;以此让算法去学习在不同能力分配的权重。

听起来高大上、但是久而久之,开发团队发现算法竟对男性应聘者有着明显的ldquo;喜好rdquo;,而且当算法识别出ldquo;女性rdquo;(womenandwomenrsquo;s)等相关词汇时,便会以ldquo;偏见rdquo;的看法给女性简历相对较低的分数。

例如,女子足球俱乐部等,算法甚至会直接给来自于两所女校的学生降级。随着ldquo;偏见问题rdquo;愈演愈烈,这种情况现已经引起学术界和业界的特别

分享 转发
TOP
发新话题 回复该主题