查看原文
其他

物理学不存在了?!

万里晴 九万里
2024-08-30

《三体》中,杨冬说过一句经典:“物理学,不存在了”。 

在人工智能飞速发展的今天,这句话似乎在不断应验。 

近日,人工智能公司OpenAI推出文生视频大模型Sora。Sora可通过用户提供的文本描述,生成最长60秒的视频。

从演示效果看,Sora表现相当不俗,能非常精确地解析文本,生成场景逼真、运镜复杂、人物表情生动的视频,物理和现实的壁垒已被洞穿,很难再分清AI和现实的界限了。

Sora的出现,会带来哪些影响?

人工智能技术再次重磅突破。

通过OpenAI官方公布的Sora技术文档可以看出,Sora实属生成式人工智能的“大聪明”,其最大亮点在于通过学习视频来理解现实世界的动态变化,并用计算机视觉技术模拟这些变化,从而创造出新的视觉内容。

它不仅能学习视频、画面以及像素点,还能学习视频世界里的“物理规律”,足以“吊打”现存其他视频生成软件。

特斯拉创始人马斯克在社交平台连发多条动态,称“被人工智能增强的人类,将会在未来几年内创作出最杰出的作品”。

马斯克在“X”平台上发布的动态

Sora的出现,标志着AI技术在内容创作领域进入了一个新纪元。

Sora强大的视频生成能力,不仅为内容创作者提供了前所未有的工具,使他们能够以更低的成本和更快的速度将创意变为现实,而且也给观众带来了更丰富、更多样的视觉体验。
这一技术进步将重塑传统的影视制作流程和商业模式同时也预示着AI在未来人类生活的各个方面都将发挥更加重要的作用。
360公司创始人周鸿祎评论称,Sora的诞生意味着AGI(通用人工智能)实现时间可能从十年缩短至一两年,人工智能发展将引领新一轮行业变革。

“以假乱真”引发新的社会问题。

Sora的技术突破,在带来行业发展新机遇的同时,也不可避免地造成了前所未有的风险和挑战。

虽然目前Sora生成的视频里仍存在个别瑕疵,但普通民众可能不会注意到这些细节。深度伪造技术更先进的“易容”手段,使得视频辨识难度大大增加,由此可能引发一系列社会问题。

一些专家指出,先进的文生视频技术让虚假信息和仇恨内容的生产变得更加容易,如果被滥用,将带来诸多伦理挑战。

牛津大学互联网研究所专家恩孔德担忧,这些工具可能会嵌入社会偏见,让仇恨事件或痛苦悲观的文字描述“摇身一变”成为逼真的影像视频,进而对人们的生活产生影响。

特别是Sora可能被用来编造网络虚假信息,给政治选举造成负面干扰,增加不稳定不确定因素。(另见本号文章《真假霉霉?真假拜登?》

OpenAI公司也承认,2024年美国总统大选前,参选各方有可能利用深度伪造技术,释放“烟雾弹”迷惑各地选民。

对此,该公司表示,他们正进一步加大安全监管力度,具体措施包括明令禁止将Sora工具用于政治造势活动、采取数字水印和内容标记等,以减少有害或误导性内容的传播与渗透。

众所周知,AI工具的高算力往往伴随着高能耗。一旦Sora普及应用,将不可避免地对生态环境造成更大影响。

有研究表明,与文本生成模型相比,Sora是能耗“大胃王”,技术碳足迹更大,生成一个图像所消耗的电量可以充满一部智能手机。

衍生国家安全领域新风险。

ChatGPT、Sora等人工智能产品不仅会在一般行业得到应用,也有可能成为间谍情报机关开展“认知战”的新工具。

长期以来,以美国为首的西方国家在网络舆论操纵上劣迹斑斑,屡次通过引导话题走向、欺骗性宣传等手段对他国进行渗透,影响民众认知。

去年5,美国中央情报局在加密消息应用Telegram上开设官方频道,推出一段类似广告的视频,目的是招募对现状不满的俄罗斯平民充当黑客间谍。

历史学家、俄罗斯分析人士伊恩·加纳表示:“这段视频学习了普京的语言,并悄无声息地将其扭曲成另一种语境。”

CIA在Telegram上发布的招募视频截图

不难预见,随着Sora的横空问世,以CIA为代表的美西方情报机构将进一步利用文生视频大模型迭代情报技术手段,开展招募策反、混淆视听、煽动舆论等活动。

因此,Sora等工具给国家安全造成的风险不容小觑。

接下来,人工智能领域还会有什么重磅进展,让我们拭目以待。

文中图片源自网络


   扫码关注“九万里”  
继续滑动看下一个
九万里
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存