真香!Midjourney的风格一致化和角色一致化

2024-05-23 22:14:18| 发布者:小编 | 查看: 354

首页 / Ai教程 / Midjourney教程

       

ac8b0e4c99acb006741de5d0ae4da4ca.png


         悠悠谷最近参与了一个央视频投稿的项目,作为绘画组的得力干将,悠悠谷今天又抽了一天卡。 总算把绘画组要出的镜头都搞定了。虽然累,但是悠悠谷也有一种满足感,毕竟是第一次这么高强度的抽卡出图。 同时在抽卡的过程中,悠悠谷也收获了一些对于 midjourney 的感悟,分享给大家。 没错,今天的文章不做项目拆解,是好久没写的技术帖,哈哈。 

         一、做大场面还是要看 midjourney 目前用 AI 出图,绝大多数人都是使用 midjourney、sd 和 dall-E3 三种。 这三种的区别,悠悠谷也再简单给大家科普一下。 MJ 出图最具备美感,但随机性大,有种不顾提示词死活的美感。一个词、一句话就能出最好看的图,但是一旦描述过多,画面一复杂,画质就容易降低,美感也逐渐降低。但依然是最具美感的图。 Sd 最强的在于控制,使用 Lora 和 CN 等进行控制,你想让一个人摆成什么姿势,就可以让她摆成什么姿势。更适合商业场景的批量化出图。结合上 MJ 出一些背景,更是绝配。 dall-E3 最强的在于对于提示词的理解。基于 GPT 对于文本的强大理解能力,它能很好地明白你到底要怎么样的画面,但是图片的质感就比以上两者差了很多。不过在 GPT-4o 出现之后,图片的质感比之前要好很多。 基于以上的区别。 如果要做视频画面,还是要靠 midjourney。但是缺点也很明显,就是太随机,全靠调词抽卡。很费时间精力。但一旦做出合适的图,会让视频具备更好的视觉效果。

          二、角色一致化和风格一致化 Midjourney 的角色一致化和风格一致化出现很久了,悠悠谷也玩过几次,不过一直很少用,毕竟悠悠谷更多是测试不同的提示词和出图效果。 不过这次悠悠谷需要做视频,对于这两个功能,悠悠谷只能说:真香。 因为做视频的分镜,一定要保持前后风格一致,同时保持视频的主体角色一致。 这样,midjourney 的角色一致化和风格一致化就占了至关重要的作用。 既能保持前后画面风格一致,也能保持画面中的角色一致。从而才能有好的视频诞生。 悠悠谷也简单和大家讲解一下这两个指令。 风格一致化 指令是:--sref+需要参照的图片链接(和 --ar 指令一样,记得加空格)。 图片链接和垫图一样,直接上传即可。 后面可以加 --sw 0-1000(和 --s 指令一样,代表相似程度)。 --sref 后面可以输入一个(或多个)图像的链接,格式如下:--sref A B C,记得加空格就可以。 可以设置权重以获得不同的权重赋值,如下:--sref A::2 B::3 C::5(数值越大意味着此参考越强)。 --sref 和 --sw 放在一起使用可以放在 --ar 后面前面都可以。但要放在提示词后面。 角色一致化 和风格一致化类似,指令是:--cref+需要参照的图片链接。 可以通过 --cw 来调节参考角色的“强度”,范围是从 0 到 100。 --cw 0,只关注脸部,适合换个衣服或发型的时候。 --cw 100,这时会参考角色的脸、头发和衣物。 

           三、midjourney 的理解力急需提高 出图中,很多次悠悠谷都是用 GPT 先把图出了,再用垫图,让 midjourney 出图。 因为 midjourney 理解不了我的提示词,当然也因为时间原因,不可能一直调试提示词。 但还是暴露了 midjourney 的理解能力还是需要提升。希望之后的版本这方面会有提升。 今天的分享就到此结束了。大家有关于更多 AI 绘画的问题也可以随时和悠悠谷交流。 今天悠悠谷分享的项目内容就到这里了。

14e4dce4d8b73f7acc722fa882c41bc0.png

<
>
QQ在线咨询
售前咨询热线
400-9999-531
售后服务热线
13831235958
返回顶部