影像版 Midjourney 又进化:一句话产生影像,Google 投资,网友大呼好莱坞已死!

提到生成式 AI 大模型,文字领域有 ChatGPT,图像领域有 Midjourney 和 Stable Diffusion,那影片领域有什麽?

很多人第一个会想到Runway公司的Gen-1。Gen-1是Runway 2月推出的(也是第一款)文字产生影像的AI大模型。不过几天前更新版Gen-2发表了。Gen-2从3月底开始小范围测试,当时发言人Kelsey Rondenet说Gen-2会在几周内开放,不过直到6月,这承诺才算兑现。

千呼万唤始出来的Gen-2,到底进化到哪了?

真正从零产生影像

发表Gen-1时Runway专门做网页讲解Gen-1怎麽用,有五个功能:

  1. 输入一张图片当提示,让影像产生你想要的风格。
  2. 上传影片及提示词,产生想要的影片(如拉布拉多变成大麦町)。
  3. 输入图片或提示词,让3D建模影像草稿变完整。
  4. 上传随意影片,产生有故事感的片段(如随意摆放的书最後成为高楼大厦)。
  5. 原影像基础上,自由设定想要的风格(哪怕变出现实不存在的奇行种)。

发现了吗?Gen-1可用前提是要有支现成影片,Gen-1作用只等於原影片加上高级滤镜。到了Gen-2,才真正达成从零产生影片的梦想。从介绍看,Gen-2比Gen-1多了3个厉害功能:

  1. 文字到影片:只要输入提示词,就能产生影片。
  2. 文字和图片到影片:输入一张图片+提示词,就能让图片动起来。
  3. 图片到影片:只要输入一张图片,就能自动产生一段影片(如让云飘起来、水流人走)。

如果说Gen-1只能当成修改影片工具,那Gen-2几乎就能当成影片生产工具了──试想用文字产生几支影片,拼成一支就能讲个完整的故事……总之就是只能玩玩和能商用的差别。虽然目前Gen-2产生影片依然有细节模糊、形体扭曲等问题,且长度最多4秒,但可能是现在影片产生领域最厉害的AI工具了。

当然从Gen-2开始,代表Runway正式进入收费时代:Gen-1完全免费,Gen-2免费版功能有限(试用额度只有105秒,约等於26支4秒影片,且解析度低、有浮水印),用户每月付15美元(或144美元包年)才有完整功能。

Runway是啥来头?成立於2018年,一直研究怎麽用AI提升影片制作效率,最有名事蹟应是去年最红电影〈妈的多重宇宙〉,让人印象深刻的面条手还有石头对话等超现实场景都有用到Runway的技术。不过很多人可能忽略,之前爆出大丑闻的Stable Diffusion也和Runway关系密切。

Stable Diffusion(图像产生领域最热门的大模型之一)背後公司Stability AI雷爆了,媒体列出Stability AI罪状之一就是把Stable Diffusion的10亿程式码成果「据为己有」,公司充其量只是提供Stable Diffusion算力(也出钱)。

真正出力的是慕尼黑大学、海德堡大学及Runway。Stable Diffusion最早於CVPR 2022年中发表的论文出现,也就是说Runway是Stable Diffusion研发者之一。Runway去年还因发表Stable Diffusion v1.5被Stability AI抓着不放,但那次舆论最终站在Runway这边,是Runway「成名」前为数不多的八卦。

後来就像多数大模型开发公司,不再参与Stable Diffusion的Runway发表Gen-1後,发展速度就像坐上火箭,月初拿到Google投资,距离D轮1亿美元融资刚过一个月,累计融资至少2亿美元,成为大模型领域的明星。2021年12月对冲基金Coatue花3,500万美元投资Runway时,估值为2亿美元,一年後估值变成5亿美元,再过半年,估值又翻了3倍(保守有15亿美元)。

网友:好莱坞 is dead

Gen-2让不少网友兴奋,Runway推文下出现一些普通用户「求教程」的声音:

不过已有行动力强的用户试着用Gen-2产生影片,不少用户都在Runway推文留言交出4秒钟「作业」。尽管Runway只列出Gen-2主要功能,并没有教大家更多玩法,但聪明的网友都自己学着用Gen-2产生影片剪出短片。

如「Monster of the sea」(海怪)的48秒故事:天气晴朗、风平浪静的一天,一艘帆船悠闲行驶在海上,乘客惬意乾杯喝酒,突然狂风大作,船员拿起望远镜往远处望,发现一只巨大的海怪出现,船随着海浪开始颠簸,甚至烧起来,大家纷纷弃船逃生。

甚至有直接用ChatGPT写剧本,再用Gen-2产生影片说故事。还有用户拿Gen-2素材剪了一支1分钟的电影预告,最後加上坎城影展logo,如果影片品质好一点,都能以假乱真了。

不过品质差、时间太短确实成了Gen-2的槽点,且Android App问题,Gen-2和Gen-1一样没长进。当然更多用户还是对Runway很宽容。网友评价「虽然它很不完美,但有点可肯定,对整个娱乐影视产业有革命性的改变。」还有网友说「好莱坞已死,任何人都可拍出世界级电影。」

真能取代好莱坞吗?

虽能理解为何网友对Gen-2如此兴奋,因很明显假以时日,文字产生影片成熟,代表拍电影不再是好莱坞的专属权利,任何人都可拍电影。Runway并没有说Gen-2客群是谁,不过可从App及与影视工作室合作等猜到哪些人会用到Gen-2:专业制片公司、个人工作室及普通用户。

虽然Gen-2对普通用户很友善,但制片公司当然也会用Gen-2,毕竟大型语言模型与以往大热後就销声匿迹的概念产品不同,会成为又一次深刻改变人类产业的革命,几乎是各行各业的共识。中国已有影视计画藉大模型完成,如剧本筹备阶段,会把分镜交给Midjourney做(据说省下几十万成本)。假设有天Gen-N成熟到也能产生能直接用的完美镜头呢?

或可拿大模型的游戏业应用比较,Midjourney等工具显然对游戏公司产生非常现实的影响:先是出於节省成本目的砍掉美术外包团队,接着就是动到自己人,甚至有从业者提到最多八成原画师会失业。考虑到大模型更新速度,影响到影视业也是迟早的事。不过Gen-2可能会先淘汰影视业流水线「工人」,却淘汰不了真的艺术家。

有个说法,AI模型产生内容,可能80%只是无聊重复人类经验,但也可能有20%是可用的东西,如中式美学和赛博庞克如何融合,普通创作者可能需要极长时间思考,AI却可能产生让人意想不到的结果,这20%就是AI存在的意义,剩下的就让有创造力的人补足。

有业者提到一个观点,AI大模型进入影视业,不代表非专业人士也能轻松上手──如果想藉AI的力量创作剧本,也需要学习剧本公式和故事结构等基本知识,不具备这些的小白即便有AI超级助理也无济於事。

回到AI是否能取代好莱坞的问题,其实好莱坞可能是最早对新技术「入侵」有反应的有优势者,5月初数以千计好莱坞编剧工会(WGA)成员罢工示威,诉求之一便是抵制写剧本用到AI。如果有天Gen-N真的出现,就会换成好莱坞导演跳出来抵制了。

(本文由 品玩 授权转载;首图来源:网页截图)

proton加速器怎么用

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
最旧
最新 最多投票
内联反馈
查看所有评论