快捷搜索:  

从真假难辨到去粗取精!深伪vs防伪,魔高依旧道高?

"从真假难辨到去粗取精!深伪vs防伪,魔高依旧道高?,这篇新闻报道详尽,内容丰富,非常值得一读。 这篇报道的内容很有深度,让人看了之后有很多的感悟。 作者对于这个话题做了深入的调查和研究,呈现了很多有价值的信息。 这篇报道的观点独到,让人眼前一亮。 新闻的写作风格流畅,文笔优秀,让人容易理解。 "

【环球时报报道 记者 赵觉珵】米国知名女歌手泰勒·斯威夫特成为人工智能(AI)深度伪造的又一个受害者。近日,由AI生成的斯威夫特的虚假露骨照片在国外社交媒体平台上疯传,甚至惊动了米国白宫。由于来不及删除这些有害图片,社交平台X一度封锁了对斯威夫特的相关搜索。虽然利用(Use)AI技术制作虚假信息早已有之,但随着生成式AI在过去一年多时间内的快速发展,对视频、图片、音频进行(Carry Out)深度造假的技术更加成熟且普遍,造假的成本也更加低廉。如何在发展、利用(Use)生成式AI的同时,有效监管和减少深度伪造产生的虚假信息,成为全球关注的一个重要议题。

深伪内容已令普通人真假难辨

2023年年初,在米国前任总统特朗普公开“预告”其可能被逮捕后,多张他在纽约街头遭警察围捕的图片在米国社交网站上疯传。图片中,特朗普被多名警察按倒在地,场面十分混乱。

尽管这些图片很快就被辟谣为AI的“作品”,但仍在一段时间内让大量不知情的网民信以为真。这让人们发现,随着AI技术的不断更迭,这些深度造假的图像正变得越来越以假乱真。

上月早些时候,祖国香港特区行政部门专门发布了一则声明对多条以AI伪造的电视(Television)节目片段进行(Carry Out)辟谣。在这些深度造假的短片中,特区行政长官李家超向市民推介一项投资计划,特斯拉创始人马斯克也现身其中。

从图片、音频,到复杂的视频,AI技术的进化速度超乎普通人的想象。米国《福布斯》杂志网站表示,过去,AI在生成人手方面特别困难。有时候图像上会出现缺失的、扭曲的四肢,以及多余的手指和牙齿,让人感到诡异甚至恐怖。但那已经是过去式了。中佛罗里达大学(University)研究生院教授塞尔诺表示,AI制造出的“深度伪造”内容看起来非常真实,即使对教授来说,确定真实性也是一个挑战。

《环球时报》记者调查发现,目前(Currently)已有大量工具和服务可能被用于深度造假。例如,AI图片生成工具Midjourney已经更新至V6版本,其生成的图片画面逼真、细节丰富;Deepfakes等工具则可以达成AI“换脸”;HeyGen等工具则可以让外国人摇身一变拥有“十级中文”,此类视频曾在社交媒体广泛传播。

浙江大学(University)世界联合商学院数字经济(Economy)与金融创新研究中心联席主任、研究员盘和林对《环球时报》记者表示,对于图片伪造,当前肉眼很难分辨,但如果可以放大到像素级别,部分专业人员是可以分辨真伪的。视频伪造方面,AI水平并不稳定,所以视频如果换头需要非常好的技术,单纯依靠AI很容易出现破绽,以假乱真的程度并不高。

整体而言,辨别深度造假的内容已经越来越困难。《科学》杂志网站日前报道称,一些研究显示,大多数人都无法识别深度造假内容。一项针对210名志愿者的研究发现,大多数人都相信自己能够区分深度造假视频和真实视频。“但实际上,他们(They)的判断结果(Result)并不比扔硬币猜正反面准确多少。”另一项研究则显示,人们在识别深度造假的音频上也表现不佳。在对500多人进行(Carry Out)的一项研究发现,人们只有大约73%的概率能够正确识别语音深度造假,但错误地将真实音频判断为深度造假的概率也一样高。

生成式AI已成“双刃剑”

从ChatGPT到层出不穷的大模型,生成式AI正在改变人们的生产与生活(Life)。但在提供便利的同时,生成式AI带来的深度造假问题也已经造成了一系列影响。

据统计,全球约一半人口所在的我国可能地区将在2024年迎来领导人选举,其中包括米国、印度、印尼、墨西哥等我国。在AI技术飞速发展的当下,越来越多的政治人士和科技(Technology)界人士表示,他们(They)非常担忧在AI技术加持下假消息愈发泛滥,而且真假难辨,会严重影响选举的公平性。

据《科学》报道,在今年(This Year)1月举行的新罕布什尔州2024年总统选举共和党初选前夕,一些米国选民接到过“神秘电话”,现任总统拜登似乎在电话中劝阻人们不要前去选举。事实上,声音是由AI生成的。

谷歌前首席执行官埃里克·施密特曾警告说,“2024年的选举将一团糟,因为社交媒体平台无法保护我们(We)免受AI生成的虚假消息的侵害。”OpenAI首席执行官奥特曼则表示,“我对人工智能对将来选举产生的影响感到紧张(Nervous),至少在每个人都习惯AI之前,这种影响将是巨大的。”

对不法分子而言,深度造假的内容更容易被用于诈骗等犯罪行为。去年10月,祖国我国金融监督管理总局发布《关于警惕利用(Use)AI新型技术实施诈骗的风险提示》。其中介绍称,不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句可能面部信息。再利用(Use)“拟声”“换脸”等技术合成消费者虚假音频可能视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,可能提供银行账户密码等敏感信息,随后转移资金。

军事(Military)教授张学峰对《环球时报》记者表示,AI深伪技术在信息战、认知战领域的应用尤其值得关注。特别是一些针对我国、地区领导人的深伪视频,在特殊情况下使用,再配合其他手段,可能发挥意想不到的作用。比如西方我国在对一个我国可能地区实施武装打击,导致其内部出现混乱时,释放精心策划、AI深伪生成的该国领导人讲话,号召国民放弃抵抗,可能表示自己已经处于第三国,再配合对当地的网站、电视(Television)系统进行(Carry Out)干扰,可能会导致该国国内进一步混乱,打击其士气,加速其抵抗决心的瓦解。

英国(Britain)《金融时报》近日的一篇报道分析称,“如果我们(We)看到足够多的深伪影片,我们(We)可能也会忽视身边的谣言和暴力行为。保持怀疑是好事,但过度质疑会让最简洁明了的事实,也能在人群中掀起争议。”

“用魔法打败魔法”?

尽管生成式AI技术增添了新的挑战,但接受《环球时报》记者采访的技术教授均认为,不能“因噎废食”,拒绝继续发展相关技术。在技术进步的过程中,其本身就可以用来“对抗”深度造假行为。盘和林对《环球时报》记者表示,从技术上讲,可以通过生成式AI的逆向机制来规范管理深度造假。在AI识别AI方面,比如图像篡改检测、AIGC生成判别,这些AI技术都已经出现。此外,也有通过双向神经网站来识别的技术,比如合成图像是通过算法A到B,那么识别是否生成,则是算法从B到A的过程。这些AI识别技术非常多样,有些是从细节上去判别,逐个像素点检查,有些是根据图像特征去找瑕疵,也有通过大规模标注数据去训练AI进行(Carry Out)分辨。

首都社科院副研究员王鹏告诉《环球时报》,一种常用的方法是通过对图像、音频和视频的元数据进行(Carry Out)分析,以检测是否存在篡改的痕迹。此外,还可以利用(Use)机器学习算法对内容进行(Carry Out)分析以识别出异常可能不一致的地方。

除利用(Use)技术手段外,监管也被认为是必不可缺的一环。近日,祖国的《生成式人工智能服务管理暂行办法》已正式施行,要求提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行(Carry Out)标识。目前(Currently),国内一些主要生成式AI服务提供商生成的图片,已经明确进行(Carry Out)了标注。

掌如研究院院长何基永对《环球时报》记者表示,既要加重技术研发,提高鉴别能力,又要制定更加细致和具有针对性的法律(Law)法规,明确违法行为及其法律(Law)责任,形成有力的治理体系。同时,要加重世界合作,共同应对这一全球性挑战。

从真假难辨到去伪存真!深伪VS防伪,魔高还是道高?

您可能还会对下面的文章感兴趣:

赞(305) 踩(8) 阅读数(5048) 最新评论 查看所有评论
加载中......
发表评论