2025年,真实与AI生成视频之间的明显界限可能会消失
AI生成的内容将长期存在。它正在变得越来越好,我们在2024年看到了AI技术的显著改进。到了2025年,我们能否区分什么是真实的,什么是虚构的呢?
我最近在浏览Instagram时,发现自己在问:“那是真的女人吗?”——我略微眯起眼睛,然后看了一眼帖子。”不,那一定是AI生成的。”我在片刻后下了结论。然后我立刻想知道:明年我们是否还能在几秒钟内分辨出区别呢?所有迹象都指向不行,特别是在社交媒体上,最近AI技术的重大发展暗示着这一点。
几天前,Instagram的负责人Adam Mosseri在Threads上分享了一条关于这个问题的信息。“生成型AI正在明显地产生出难以区分现实记录的内容,并且进步迅速。”他写道。Mosseri公开承认,他们在Meta标记AI创建的内容以及控制和监控在他们的社交媒体平台上每秒分享的大量媒体内容方面遇到了困难。
Mosseri将Meta的责任推得一干二净,并警告用户,判断一篇帖子是否真实的责任取决于他们自己。“对于观众或读者来说,当他们接触到声称是现实账户或现实记录的内容时,带着辨别的心态变得越来越关键。”他补充说。
仅仅几天后,OpenAI发布了Sora Turbo,这是一个强大的AI视频生成器,允许Pro和Plus用户根据文本提示生成逼真的视频。用户只需几分钟就开始创作出引人入胜的逼真视频,并在社交媒体上分享。
就在所有人都似乎达到了新的视频制作水平时,Google宣布了其最新的AI视频工具,Veo 2,它的分辨率更高,片段比Sora更长。当然,那些能够使用这项先进技术的人分享的结果更为令人印象深刻。
“现在没有人能看出这是AI,”一位用户写道。
It’s over.
Google Veo 2 刚刚一举击败了所有竞争对手,成为了AI媒体世界的新霸主。
现在没人能分辨出这是AI。
10个疯狂的例子:pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 2024年12月17日
这已经在发生
在2024年,我们见证了AI生成的内容如何影响人群、选举和社交媒体用户。
今年一月,新罕布什尔州的居民收到了来自“乔·拜登” 的电话,告诉他们不要在初选中投票。政治顾问史蒂夫·克拉默是这场骗局的幕后黑手,他因此被罚款600万美元,这些电话是使用AI技术伪造的。政府开始理解AI可能带来的影响,像新加坡这样的国家已经在制定法律和策略,帮助人民识别深度伪造的内容。
在委内瑞拉,AI生成的视频已经在传播错误信息——但也帮助记者通过AI虚拟形象绕过审查,传播真相。
人们越来越难以分辨什么是真实的,什么是虚假的,这并不是他们的错:人工智能生成的内容变得越来越好。
高质量的人工智能生成内容正在各种形式中快速发展,如文本、音频和视频。许多OnlyFans的创作者们现在依赖聊天机器人与他们的粉丝进行对话,这项工作过去通常由低收入国家的零工来完成。新的专门研究调情技巧的人工智能模型甚至从他们的追随者那里获得了1000美元的小费。
今年四月,Nvidia支持的创业公司Synthesia推出了能够表达人类情感的AI虚拟形象,并能够用130种语言进行交流。TikTok现在允许公司使用AI生成的广告,这些广告使用了Getty Images的内容,而现在YouTube创作者可以使用新的AI自动配音功能将他们的内容翻译成9种语言,未来的更新将复制原始语音。
Zoom正在研发看起来和用户一模一样的AI虚拟形象,以帮助他们录制信息,甚至参与会议。这个工具将在明年推出,但是人们已经开始测试多种工具,公司现在已经可以创建逼真的AI克隆。
你确定你在上次的Zoom通话中是和真人交谈的吗?
如何判断它是否由AI创建?暂且如此
我们正生活在这个令人困惑的数字时代。滤镜可以让任何人看起来像皮肤无暇的模特,Instagram或Snapchat上只需轻轻一点,就可以做出堪比Photoshop的修图——还有多少人愿意分享他们的”自然”形象,包括所有的缺点,而不是在几秒钟内进行美化呢?我们看到越来越多的广告采用了由人工智能生成的逼真的图片,逐渐让我们的眼睛习惯于它们的熟悉和”正常”。而且,世界各地每天都有令人惊讶的事件让我们不禁质疑:现在,什么是真实的,什么又不是了呢?
大型AI公司一直在研究水印技术,以便轻松识别他们的AI生成内容。 Google DeepMind在去年10月推出了其开源水印系统,用于标记AI视频、文本和音频,而Meta也在其AI视频工具中加入了一个。
但它的有效性仍有待商榷,从Meta承认他们无法标记所有AI生成的内容开始。恶意行为者仍然可以找到方法来删除水印,社交媒体公司和政府之间需要更多的法律、合作和协议,以实现一个更成功的系统。
目前,除了相信我们的直觉,我们在社交媒体上分享或者相信我们所看到的内容之前,可以问自己几个问题:
- 就像Mosseri建议的,考虑以下问题:这个信息是谁分享的?这是一个值得信赖的来源吗?
- 这个人的表情或动作是否显得像机器人?虽然AI头像可以非常逼真,但依然有可能识别出奇怪的僵硬或缺乏情感——尽管有几家像Synthesia这样的公司已经在改善这个问题。
- 这个内容是否设计得能引起强烈的情绪反应?恶意行为者知道我们多么容易在社交媒体上分享负面新闻,和与情绪充沛的材料互动,研究也证实了这一点。在你将那些让你的血液沸腾的内容分享出去,让其他人和你一样愤怒之前,想一想这是否是为了激起争议而设计的,或者它是否真的是真实的新闻或真实的事件。
- 你能否从其他来源验证这个内容?与值得信赖的来源进行双重检查永远不会有错。
最后,你有没有问过自己—或者你最喜欢的聊天机器人—如何提高批判性思维能力?培养批判性思维绝对应该是每个人新年决议的一部分。
留下评论
取消