Deepfake(深度伪造)自拍偷拍.,再度深陷公论的风云。
这一次,用这项 AI 技能不法的严重进程被网友直呼是“韩国 N 号房 2.0”,魔爪致使伸向了繁密未成年东谈主!
事件影响之大,径直冲上了各大热搜、热榜。
早在本年 5 月,《韩联社》便通报过一则音书,履行是:
首尔大学毕业生朴某和姜某,从 2021 年 7 月至 2024 年 4 月,涉嫌诈欺 Deepfake 换脸合成色情像片和视频,并在通讯软件 Telegram 上奥秘传播,受害女性多达 61 东谈主,包括 12 名首尔大学学生。
仅是这位朴某便用 Deepfake 合成了简单 400 个色情视频和像片,并与同伙一皆分发了 1700 个露骨的履行。
然则,这件事情照旧 Deepfake 在韩国泛滥的冰山一角。
就在最近,与之相干的更多细想极恐的内幕被不绝扒了出来。
举例韩国妇女东谈主权不息所公布了一组数据:
从本年 1 月 1 日到上周日,共有 781 名 Deepfake 受害者在线求援,其中 288 名(36.9%)是未成年东谈主。
而这个“N 号房 2.0”也长短常恐怖的存在。
据《阿里郎》进一步的报谈:
一个与 Deepfake 相干的 Telegram 聊天室,竟眩惑了 220000 东谈主,他们通过点窜妇女和女孩的像片来创建和共享伪造的图像,受害者包括大学生、教悔,致使是军东谈主。
不仅是受害者有未成年东谈主,致使加害者也有大都的青少年。
不仅如斯,此次公论的兴起历程也长短常的 drama。
因为闯祸的韩国男性们(以下简称韩男)不错说长短常的荒诞,有公论苗头的时候,他们就会稍许“克制”一下:
有些韩男对这件事的格调亦然较为恶劣,致使有初中男生开公开写到“无须惦记,你不够漂亮,不至于被 Deepfake”这种话。
于是乎,韩国女性们(以下简称韩女)的反击开动了。
她们将“阵脚”转向韩国除外的应酬媒体,举例在 X 上,有东谈主发布了制作 Deepfake 学校的舆图:
还有韩女在微博中发布“求救贴”:
跟着公论在各大应酬媒体上发酵,韩国政府也出头作念出了表态:
面前一经有跳跃 200 个学校收到 Deepfake 影响;谋略将 Deepfake 不法的刑期从 5 年晋升到 7 年。
据了解,韩国警方已斥地越过使命组,有益交代深度伪造性不法等作假视频案件,该使命组将运行到来岁 3 月 31 日。
Deepfake 已舒缓进化事实上,最新 Deepfake 技能一经进化到了“恐怖”阶段!
生图 AI Flux 以一组真假难分的 TED 演讲像片,引千万𝕏(前推特)网友在线打假。(左边由 AI 生成)
学生萝莉夜深直播的“马斯克”,也眩惑了上万群众围不雅打赏,致使搞起了网友连麦。
要知谈,整场直播仅用一张图片就能杀青及时换脸。
这一切确凿如网友所言,Deepfake 已将科幻照进现实。
其实,Deepfake 一词最早发祥于 2017 年,那时又名 Reddit 用户“Deepfakes”将色情女演员的面部替换成了一些好意思国著明演员,引起一派争议。
而这项技能不错挂牵到 2014 年,Goodfellow 与共事发表了全球首篇先容 GAN 的科学论文。
那时就有迹象标明,GAN 有望生成仿真度极高的东谈主脸。
自后跟着深度学习技能的发展,自动编码器、生成抵抗网罗等技能舒缓被应用到 Deepfake 中。
浮浅先容下 Deepfake 背后的技能旨趣。
比如伪造一个视频。
其中枢旨趣是诈欺深度学习算法将指标对象的面部“嫁接”到被师法对象上。
由于视频是一语气的图片组成,因此只需要把每一张图片中的脸替换,就能获得变脸的新视频。
这里要用到自动编码器,在应用于 Deepfake 的情况下输入视频帧,并编码。
△ 图源:维基百科
它们由编码器息争码器组成,编码器将图像减少到较低维的潜空间,解码器从潜表征中重建图像。
浮浅说,编码器将一些要害特征信息(如面部特征、身体姿势)调治成低维的潜在空间默示,而解码器将图像从潜在默示中复原出来,用于给网罗学习。
再比如伪造图像。
这里主要用到生成抵抗网罗(Gan),它长短监督式学习的一种门径,通过让两个神经网罗互相博弈的步地进行学习。(此门径也不错用于伪造视频)
第一个算法称为生成器,输入当场噪声并将其调治为图像。
然后,该合成图像被添加到确凿图像流(举例名东谈主图像)中,这些图像被输入到第二个算法(称为判别器)中。
判别器试图辞别样底本源于确凿照旧合成,每次能干到二者之间的各异时,生成器都会随之调整,直至最终再现确凿图像,使判别器无法再辞别。
然则,除了让外不雅上看起来无法辞别,面前的 Deepfake 正在阐明“组合拳”。
声息克隆也升级了。当今,苟且找一个 AI 器具,只需提供几秒原音,就能立马 copy 你的声息。
用合成声息伪造名东谈主的事件也屡见不鲜。
此外,1 张图生成视频已不再新奇,而且面前的使命要点在于后续打磨,比如让颜料、姿势看起来更天然。
其中就有一项唇形同步技能(Lip syncing),比如让小李子启齿言语。
怎么识别 Deepfake?固然 Deepfake 当今一经很传神了,但底下照旧给群众先容一些识别妙技。
面前网罗上群众参谋的各式门径,归纳起来即是:
不寻常或狼狈的面部姿势
不天然的身体通顺(肢体畸变)
着色不天然
音频不一致
不眨眼的东谈主
皮肤的陈旧与头发和眼睛的陈旧并不相符
眼镜要么莫得眩光,要么有太多眩光,何况不管东谈主怎么迁移,眩光角度都保持不变。
放大后看起来很奇怪的视频
得,列灯谜克看了直呼内行,不外单凭肉眼不雅察的确有点费东谈主了!
更高效的门径还得是,用魔法击败魔法 —— 用 AI 检测 AI。
国表里著明科技企业均有相干看成,比如微软就开发了一种身份考据器具,不错分析像片或视频,并对其是否被主宰给出评分。
OpenAI 此前也告示推出一款器具,用于检测由 AI 图像生成器 DALL-E 3 创建的图像。
在里面测试中,该器具在 98% 的时候内正确识别了 DALL-E 3 生成的图像,何况能以最小的影响科罚常见修改,如压缩、编著和满盈度变化。
芯片制造商英特尔的 FakeCatcher 则使用算法分析图像像素来笃定真假。
而在国内,商汤数字水印技能可将特定信息镶嵌到多模态的数字载体中,支撑图像、视频、音频、文本等多模态数字载体。官方称这种技能能保证跳跃 99% 的水印索取精度,且不会耗费画质精度。
天然了,量子位此前也先容过一种很火的识别 AI 生图的门径 —— 调整满盈度搜检东谈主物牙齿。
满盈度拉满下,AI 东谈主像的牙齿就会变得十分诡异,规模污秽不清。
Science 发文:需要轨范和检测器具就在昨天,Science 也发表了一篇著述对 Deepfake 进行了探究。
这篇著述认为,Deepfake 所带来的挑战是科学不息的齐备性 —— 科学需要信任。
具体而言,即是由于 Deepfake 传神的作秀、以及难以检测等原因,进一步胁迫到对科学的信任。
而濒临这一挑战,Science 认为应当“两手握”,一是使用 Deepfake 的技能谈德轨范,二是开发精确的检测器具。
在谈及 Deepfake 与证据发展的关系时,著述认为:
尽管 Deepfake 对科学不息和换取的齐备性组成要紧风险,但它们也为证据提供了契机。
Deepfake 的异日影响将取决于科学和证据界怎么交代这些挑战并诈欺这些契机。
有用的瑕疵信息检测器具、健全的谈德轨范和基于不息的证据门径,不错匡助确保 Deepfake 在科学中获得增强,而不是受到 Deepfake 的阻止。
一言以蔽之,科技谈路千万条,安全第一条。
One More Thing当咱们让 ChatGPT 翻译相办事件的履行时,它的响应是这么:
嗯,AI 看了都合计欠妥。
参考流畅:
[1]https://en.yna.co.kr/view/AEN20240826009600315
[2]https://en.yna.co.kr/view/AEN20240828003100315?input=2106m
[3]https://en.yna.co.kr/view/AEN20240829002853315?input=2106m
[4]https://www.arirang.com/news/view?id=275393&lang=en
[5]https://www.science.org/doi/10.1126/science.adr8354
[6]https://weibo.com/7865529830/OupjZgcxF
[7]https://weibo.com/7929939511/Out1p5HOQ
本文来自微信公众号:量子位(ID:QbitAI),作家:金磊一水
告白声明:文内含有的对外跳转流畅(包括不限于超流畅、二维码、口令等面容)自拍偷拍.,用于传递更多信息,节俭甄选时候,效果仅供参考,IT之家通盘著述均包含本声明。