序:元宇宙中的我们是什么?
shadow:
这几天为#实验性虚拟展览准备内容,尝试使用#StableDiffusion生成了一组图像,然后通过AI配音,添加滤镜,完成了这个视频。整个流程非常高效,生产力爆满!
#虚拟展览
《无影》— 皮肤之外
如果世界上有一种服饰,称作“无影”。
策展团队:Luuuucky 、小·狐狸·魔法球、JING-ML1933、Five six 、y-ML2011
AI技术:Stable Diffusion
服装软件:Style3D
虚拟空间服务:vland云现场
内容编辑:杜韦柯
架构师: shadow
之前介绍了不少 AI 创意工具,设计师拥有了创意工厂生产线。
#
AI 创意工厂的一个强大功能就是打通不同媒介的壁垒,文本、音频、图像、人物、场景皆可生成。
还有其他文本生成电影的案例吗?
#
艺术家团队 Sagans 运用 Metahuman+AI 算法制作了音乐电影,制作全程未使用现实镜头与真人演员, 仅根据书面描述便生成了大部分镜头。
全民电影制作时代来临!
音乐视频 Coherence
艺术家团队 Sagans 受 Akira 的赛博朋克电影启发,创作了音乐电影 Coherence — 使用 Unreal Engine 的 MetaHuman 和 AI 算法,根据书面描述生成了首张音乐视频中的大部分镜头。
这部独特的电影充满了 “后现代” 的写照,影片中的女子在一个城市中不断变换自己的位置,从一棵明亮的樱花树漂流到纽约地铁,通过人物不断移动来伴随音乐的 AI生成图画。
小杜
Sagans 的艺术家们认为,人工智能不需要成为一个旨在接管人类工作(甚至是整个世界运作)的 “主宰”。相反,人工智能或许是开启全新创意可能性的新赛道。
Mixlab
影片中的主角是如何制作的?场景构建运用了哪些工具?AI生成技术在影片制作流程中的哪些环节发挥作用?
小杜
在制作影片之前,团队决定使用大友克弘标志性的 Akira 动漫风格作为视频美学的基础。团队创建视频虚拟女主角时,混合了 MetaHuman 数据库中三张面孔的元素,以综合最优的效果,角色的面部表情制作动画使用的是适用于iOS的 Live Link Face 。
小杜
Sagans 的艺术家们使用 Quixel 来构建视频的场景环境,AI 将其风格化为日式风格的英国街道、纽约地铁列车等内容。团队也使用了虚幻引擎对的 Lumen 技术,使团伙可以在几秒钟内生成在 UI 稿中看到的完全对应的渲染。”
Quixel 场景制作+AI风格渲染
小杜
视频的风格化渲染所用的 AI 算法有三类用法。
第一个算法使 Sagans 艺术家能够在文本中描述场景的风格,然后将其视转化为视频。第二种算法采用参考图像制作动画视频,最终算法将真人电影渲染为风格化的动画结果。
Coherence 大多数镜头中使用了文本到视频算法,Disco Diffusion 5 用来生成单个帧,然后算法将其转换为视频。运用AI进行影片渲染必须确保文字描述非常详细,既要确定风格并填补任何内容空白。
获得了质量过关的的第一帧后,团队会确保有足够多的描述来根据团队想要的镜头语言移动生成下一帧,并在第 20 帧进行一次检查渲染。
Coherence 完成后,团队的目标是继续在未来的音乐视频制作项目中使用虚幻引擎和 AI。团队成员认为,人工智能不仅可以帮助和激励创组作者,并且推动着他们继续探索设计工具与AI结合的全新工作流。
小杜
音乐人可以自己制作MV,每个人都有机会运用设计+AI的工作流描绘心中的理想世界与传奇故事了~
我得赶紧翻翻前期的推文,恶补下AI创作与Metahuman 的知识。
#
工作流程,我们可以继续加入音乐生成的算法
如果互动性更强点
画面是很惊艳,但其实我有点没看懂作品的表达思路
你是指互动电影吗?根据观众的情绪来调整画面生成的参数?
#
互动与实时渲染确实是AI创作的优势,探索空间很大
不过AI艺术家有自己的独特表达也不需要人人都能get到......
本文来自微信公众号“无界社区mixlab”(ID:mix-lab)。大作社经授权转载,该文观点仅代表作者本人,大作社平台仅提供信息存储空间服务。