再次被部分韩国男人的令人震惊的举动震惊了!
8月底,杨幂已就引发巨大争议的韩国“N号房”事件作出批评。
此次,同样恶劣的性犯罪事件再度发生:
一些韩国男性利用AI抠除女生脸部,制作色情内容上传到网站供人观看,赚取疯狂金钱,堪称N号房事件2.0。
这个色情网站的影响力到底有多恐怖?
据爆料者统计,在人口500万的韩国,该应用有40万注册会员,其中70%的浏览用户都是青少年,本次调查涉及500多所学校。
想想就觉得恐怖……
来源:该事件相关新闻报道
也就是说,如此高的用户覆盖率,说明这些犯罪分子的恶行已经侵入了这些女性受害者的熟人社交圈。
而身边熟人的犯罪,则进一步加速了这些色情网站的扩张。
韩国甚至有专门的术语叫“지인능욕”(熟人羞辱)——在聊天群里分享女性熟人的照片,并呼吁其他男人对她进行性羞辱。
更令人愤慨的是,一些儿童脸部被AI替换后,还成为色情作品的受害者。
在这些众多的女性受害者中,有女性受害者表示,不仅隐私被暴露,还收到了敲诈勒索。
热搜直接显示:韩国女孩被迫向全世界求助。
这些违法行为实施者身份的多样性也同样令人震惊,除了一些被网络隔开的阴沟里的蛆虫外,甚至还包括一些男性名人。
新闻报道涉及JYP、YG、CUBE等几大韩国娱乐巨头的艺人。
违法行为曝光后,部分艺人退团,经纪公司也不得不发表声明,看来这是铁板一块了。
恶行已经达到这样的地步,不仅韩国女性,全世界的女孩都为此忧心忡忡:
科技在发展,人工智能在进步,这都是好事。但为什么有些人会利用它作为对女性施暴的工具呢?
今天,我将详细讲解什么是Deepfake这一犯罪工具,以及高科技行业女性应该如何正确防范。
Deepfakes 正在遭受滥用
这是悬在女人头上的一把刀
我们先来聊聊,这个让人不安的高科技Deepfake到底是什么。
学科内“Deepfake”一词,一般指利用AI技术进行“面部操控”,制作虚假视频,制造虚假新闻。
此次被曝光的色情网站Telegram就有两个这样的AI工具。
其中一款工具名为bot,利用人工智能自动将女性受害者的照片合成为色情图片和视频。
除了机器人之外,还有一种霸凌室(聊天室,按高校、地区组织),跟之前曝光的N号房类似,顾名思义,很烂。
有些照片甚至是女性亲属被下药后拍摄的,令人恶心又恐怖。
虐待室群里的男性会故意接近女性受害者,告诉她自己被deepfake了并分享,记录下她的反应,然后传播到群里,以沉浸式羞辱为主。
除图片、视频外,该网站还提供一些猥亵女孩的群体直播。
将毫无戒心的普通人制作成色情图片供陌生人观看,这种追求美丽的行为有多么离谱?
据受害者称,其中一个机器人拥有40万粉丝,仅学生群体中的网站用户数量就相当可观。
这名韩国女子用Telegram绘制了一张按照男生密度划分的共享地图,红点密密麻麻覆盖了一片区域,让人感到窒息。
还有爆料人称,普通网民走上韩国街头,有人被AI换脸,被带到色情网站。
韩国的深度伪造性犯罪已经渗透到养老院,老人每天都在消费这些由人工智能恶意生成的色情视频,就像订阅报纸和杂志一样。哈哈。
@韩国奋斗
N号房和Deepfake的本质都是性剥削,但犯罪形式完全不同,Deepfake利用女生发布的照片进行AI操控。
也就是说,后者操作起来更容易、更普遍,犯罪门槛更低,女孩也更容易成为受害者。
与此同时,比N号房犯罪更可怕的,是利用Deepfake进行犯罪的人,因为他们可能和受害者根本就没有任何关系。
道德被网络割裂,被人性煽动,又被技术麻木,在他们的犯罪过程中,受害者被最大程度地客体化为牺牲品。
陌生人可以随意作案,熟人也可以随意作案,尤其是熟人作案,很容易摧毁受害人在熟人圈子中建立起来的安全感。
正如我们前面提到的,一些女孩被周围的人认出,被勒索,遭受二次暴力。
无论是被换脑袋,还是被勒索,这些对他们来说都可能是突如其来的灾难。
最令人恶心的是,AI换脸不仅危害女性,还可以通过给男生换脸来免除男性的责任。
丑闻爆出后,韩国网络上有人发帖称“我上初中的儿子利用AI换脸进行性犯罪,会受到惩罚吗?”
愤怒的网友恶评:你家宝宝不是在玩游戏,不是在练脸,他已经犯罪了!
很明显,滥用Deepfake是韩国部分男性触犯法律的行为,但到最后却成了专门针对女性的刀子。
而且,不仅在韩国,而且在美国其他地区也发现该技术被滥用于色情内容。
人工智能换头并非恶作剧
这是犯罪
为何这次对Deepfake的滥用,会引发全世界的仇恨?
也许有人会说,既然自己问心无愧,又没做过,那为什么不直接忽略呢?显然,Deepfake 的问题并没有那么简单。
在施暴者眼中,换脸只是一场无足轻重的玩笑、闹剧,但对于受害者而言,却是将他们拖入地狱模式。
“当她们的脸被盗时,女孩们的身份、名誉、隐私和尊重也被盗了。”
这些身份被盗用、被伤害的女孩,不只是一行图像代码、一个数据订阅,而是有思想、有生命、有血有肉的人。
哪怕他们的信息被盗、头被换,单是色情内容就足以让他们受苦了。
其次,Deepfake在情色行业的滥用,本质上是对女性的性剥削。
追溯该词最早出现的时期,Deepfake一词一般是指利用AI技术进行脸部操控、制作假视频、制造假新闻等。
这一概念最早源自一位名为deepfakes的用户,他在Reddit上发布了一段视频,将娱乐明星的脸替换成色情视频,获得了大量关注和转发。
赫敏的脸被人工智能替换的视频
也就是说,从一开始,它在色情领域的使用就是非法的。
一些学者也将这种数字产品或互联网技术的发展给女性造成的伤害称为“数字性剥削”。
以Room N和Deepfake为例,数字性剥削不仅包括偷拍、传播、交易淫秽物品等具体行为,还包括在技术层面上,全体女性的权益并未得到制度和规则的保障。
幸好,我们还有科研人员坚持为女性权益发声。
就在几天前,上海外滩大会AI创新大赛上,中科院工程师张心怡公开宣布,她和她的团队将努力攻克Deepfake算法。
如何克服这个问题?简单来说就是检测图片是否是AI合成的,类似AI重复检测。
张歆艺承诺将尽快开放针对Deepfake的应用程序,降低门槛让所有人都可以免费使用。
她说:“既然有些人利用科技手段进行诈骗,我们也必须利用科技手段阻止他们得逞。如果一个人的火炬太小,我们就会把火炬传递给世界上的每个人。”
一位同样是AI技术创造者的女性博主也发自肺腑的说道:我们做AI产品的初衷,是为了让社会变得更美好,这就是AI的意义。
如果技术可以提供动力,那么总会有比妥协更好的方法。
除了针对深度伪造的算法之外,还有一些好消息。
据韩联社9月5日报道,韩国警方逮捕了一名韩国高中生,涉嫌利用Deepfake实施性暴力犯罪。
最后,杨想说,犯错的人就应该受到惩罚,而不是以受害者屈服而告终。
每个女孩都是活生生的人,不应该被物化、被性化,女孩活着的时候就应该闪耀光芒,而不是被践踏、被消灭。
女孩子的日常生活不应该成为色情网站的内容。
正如《N号房间追踪:韩国数字性剥削犯罪实录》作者在书中所写:
“我们需要斩断父权制与资本主义之间的联系,这种制度将女性视为美丽的花朵,并最终将她们等同于性器官。”
如果技术进步损害了妇女的权利,那么就应该有人站出来做出改变。
只有妇女权利得到保障,人类科技文明才能实现真正的进步。