哈喽大家好!这里是AIZ
时隔两周时间,为大家继续带来MJ的参数详细教程,话不多说,我们正式开讲:
--tile
我认为这是一个还挺好玩的参数。
“ --tile ”是Midjourney中用于生成可无缝重复拼贴的图案单元的参数,常用于壁纸、纹理设计等场景(当然,具体的拼接需要我们自己单独进行操作)。
这么看这段定义似乎有点一头雾水,其实也很简单,就是用了该参数后,可以制作类似下面这种特点的图片:
(由多张完全相同无缝衔接,图片来源于网络)
这次我们用“An extremely funny emoji”这段提示词,中文译为:一个极度搞笑的表情包(呃...纯属贪玩)。
如果我们不使用该参数,就按正常的文本输入然后生成图像,得到的是这样的结果:
嗯!有点那味儿了...
然后我们将这个参数添加到提示词后面(注意该参数是不需要任何数值的),看看出来的拼接图片长什么样:
(到这里有个很明显的地方大家应该会有所察觉,就是如果你使用“ --tile ”这个参数进行图像生成,可能由于对AI来说,需要更多地去考虑生成图像的结构问题,所以最终呈现出来的画面效果和质感都会下降很多,这或许是不可避免的,所以很多时候需要我们多抽几次卡【多生成几次】)
在最后得出的这8张图中,为看中这两张,并决定用它们来试试最终的拼接效果到底如何:
好,接下来我们进入拼接环节。
这时候可能就有朋友要问了,现在我们是不是得多复制几张一样的图出来,然后找个什么图片编辑软件进行拼接操作?
不,这多麻烦,我都替你们找好工具了!主打一个省事:
无缝纹理检查器:https://www.pycheung.com/checker
打开这个网页,界面长这样子:
啊哦,又是英文,看不懂吧,我也看不懂,我给大家伙翻译翻译:
再简单翻译成人话就是:直接把图片拖里面,就像这样:
然后你就可以验证这张图片是否可以真的做到无缝衔接了:
好的,恭喜你收获了满屏的“嘲讽”【狗头】。
我们接着第二张图,看看又会是什么样的效果:
...这才对味儿哈哈哈哈
当然你可以通过中间的滑块来自由调节画面,就像这样:
所以这个参数有时候用来玩一玩还是挺不错的。
--seed
如果大家用过SD(Stable Diffusion),那大致会了解AI每生成一张图像,都会有一段与该图像匹配的“种子数”随之产生,大概可以理解为是这张图片的“身份证号码”。
而在MJ当中,同样存在类似这样的“图片身份证”。
“ --seed ”是Midjourney中用于指定图像生成随机起点的参数(种子数),其实就是MJ在生成图像时,会基于一个随机生成的种子值(Seed)创建初始的“视觉噪声场”,作为图像生成的起点。
大家也会在使用AI进行图像创作时发现,即便你的提示词写得很详细,甚至保持不变,AI基于这段提示词生成出来的画面内容每次都是高度不同的;而在MJ当中,如果采用相同的提示词与种子值即可生成高度一致的图像,适用于连续创作、细节微调及风格统一。
既然能够使AI以指定图像为起点,在相同提示词下保持画面的高度一致,那想要使用“ --seed ”这个参数,就需要先获取一张或一组指定图像的种子数。
(这里需要注意的是:这张指定图像也必须是通过MJ生成的,因为MJ生成的图片才能拥有一段MJ能够识别的种子数)
以下演示指定图片种子数常见的获取方式(我就拿MJ随机生成出来的一组图中的一张为例):
假设你现在确定了你想要获取种子数的图片,就可以右击图片,鼠标放到“APP”选项上,选择“DM Results”:
然后MJ机器人便会给你发送一条私信:
点开查看,就能够看到这张图片的Seed种子数是多少了:
现在我们复制这串种子数,然后提示词保持跟原图的提示词一致,进行输入框内容的书写:
然后你可以得到这样的结果:
对比上面原来的那组图,可以说一模一样。
现在我们可以再稍微修改一下提示词,让其与原来的有些差别。
因此,我们将提示词简单修改为:A little dog(一只小狗)
然后还是保持这个种子数,可以得到下面的效果:
可以看到画面就发生了很大的改变,所以在使用该参数时,一般建议大家保持提示词一致。
--hd
(使用时,参数后面不需要另外添加任何数据)
该参数是Midjourney中的高清模式参数,用于生成更大尺寸且更清晰的图像,尤其适合需要高分辨率的场景(如风景画、抽象艺术)。
但这里需要向大家详细说明的一点是,该参数作为一种对MJ旧版本的画面补充操作,在一定程度上弥补了旧版MJ因生成图像尺寸及受限于当时训练技术等原因造成的最终成像画面缺乏细节的问题,而在较新版本的MJ(准确来说,指≥4.0的MJ版本)当中该参数是无效的,甚至连最开始的1.0版本也是不兼容的。
所以绕了半天,其实也就只有2.0和3.0版本可以使用该参数...
当然啦,如果你也同样有一颗无限探索的好奇心,偏想试试这个“邪门”,那你将会收到MJ机器人返回给你的以下信息:
讲到这里或许也有一些朋友会好奇:
“那老版本的MJ生成的图像尺寸具体为多少呢?其通过高清模式参数进行细化之后,尺寸又会是多少呢?此外,画面表现方面,到底有何提升?”
今天就让我来为大家解答这些问题。
以下图片生成我们皆以这段提示词作为演示: A lovely puppy(一只可爱的小狗)
我们先分别来看MJ从V1.0到V3.0基于这段提示词的成像效果如何:
(从左到右分别为V1.0、V2.0、V3.0)
从中我们分别任选一张图进行保存,得到了它们具体的尺寸:
没有想到吧,即便是画面如此不堪的图像,它的图像尺寸依旧是1024*1024,跟现在的版本保持一致,这也反映出了旧版MJ在成像表现方面的欠缺原因不在于最终输出的图像尺寸,而更多的来源于数据集和训练等技术性问题。
所以...正如我在【关于MJ常用的一些参数详解:AI时代,学会用好一款工具,永远比泛泛而谈来得更有价值!】这篇文章当中提到的一样:真心没眼看...
然后我们分别为后两者添加高清模式参数“ --hd ”,来看来会出现怎样的效果:
(左边四张为2.0版本输出,右边则为3.0)
其实大致一对比下来,我们还是可以看出高清模式参数对画面总体上还是有一定优化效果的,正如以上关于该参数的介绍一样,画面在艺术性表现方面有了提升,不再是灰蒙蒙的了(但还是想补一句:还是没眼看哈哈哈哈)
接下来我们来看看运用“ --hd ”参数后,最终的成像尺寸会是多少:
好家伙,1536*1536,难怪生成速度慢了那么多!
--fast 和 --relax
首先,这两个参数的后面也都是不需要添加任何数据或描述的。
让我们来逐个讲解
先是“ --fast ”,顾名思义,fast,中文译为“快速的”,所以这是Midjourney的快速生成模式参数,用于优先使用GPU资源,加快图像生成速度。
说完了“ --fast ”,那相信其实“ --relax ”就特别好理解了。相对的,relax,是放松的意思,所以其是Midjourney的放松模式参数,用于以较低优先级生成图像,节省GPU资源,但生成速度较慢。
相比默认的“放松模式”( --relax ),“ --fast ”会更快完成图像生成,因为使用该参数后, 在Midjourney的GPU队列中,任务会被优先处理,减少等待时间。
但如果有人天真的以为只要订阅了MJ后,就认为“这么好的参数,我不用白不用,我得使劲造它”,我只能回一句:这货用钱的【狗头】,算力资源是那么好嫖的吗哈哈哈哈。
而相比于“快速生成模式”( --fast ),“ --relax ”无需抢占 GPU 资源,适合对时效性要求低的任务,且订阅后的用户可无限使用。
当然在我的实际使用过程,通过参数的形式来切换快速生图模式和放松模式是很少的,如果我的快速模式尚有余额,我更倾向于直接通过设置指令来切换生图模式,就像这样:
有三种生图速度供选择,你也没有看错,还有比快速生图模式(Fast mode)更快的生图模式,但其所消耗的资源更大,是Fast mode的数倍!
--iw
(在使用该参数时,后面所填写的数值范围因不同MJ版本而异,以常使用的MJ6.1版本为例,该参数的取值范围是0-3,高版本默认值为1)
如果大家之前对MJ有过一定的接触,那想必“垫图”这二字各位不会感到陌生。
所谓垫图,是指在Midjourney当中通过上传图片作为参考,结合文本提示生成新图像的创作方式。通过这种方式,最后所生成的图像可以在一定程度上参考指定图像的风格、构图等。
而对这个“一定程度”进行控制的,就是这里要讲到的参数——“ --iw ”,其控制上传图片与文本提示词在生成图像时的权重比例。不难猜出,该参数的数值越大,上传的图片对生成结果的影响越大(更贴近上传图像的风格、构图、颜色等);数值越小,文本提示词的主导作用越强(AI更倾向于根据文字描述生成新内容)。
光这样看着我的描述你可能对这个参考权重没有多大的感知,我们直接上实操演示:
首先提到上传的图片和参考权重,那我们就得向MJ上传一张图片。
当然上传图片很简单,只需要点几下:
然后选择你想要上传的图片,点击回车即可。
其实写到这里,我还在犹豫要上传什么图片?然后,我就干净利落地把我的头像直接扔给它了,就像这样:
上传完你想参考的图片,你就可以写提示词了,这里还是以上面的“A lovely puppy”为例,但是在提示词输入框我们如何向MJ描述我们想要参考的具体是哪一张图片呢?
这时候就需要大家回忆一下MJ的输入框输入结构了(不知道的朋友可以看一下【关于MJ常用的一些参数详解:AI时代,学会用好一款工具,永远比泛泛而谈来得更有价值!】这篇文章)。
没错,我们需要先填写指定参考图片的链接,链接哪来?点击放大你上传的图片,链接这就来:
(这里需要注意的是:由于每个人使用的MJ渠道可能存在差异,所以具体获取图片链接的点击形式可能不同,但其实都很好找)
所以最终的提示词结构大致是长这样的:
(虽然划得丑陋,但是相信大家肯定都能看得懂【狗头】)
现在我们上传好了想要参考的图片,也知道了输入框当中的内容该如何书写,那就先让我们以0参考权重(也就是完全不参考)来看看效果如何。而既然是0参考,那其实就跟没有参考图的链接一样,也不需要输入参考权重的参数:
嗯,你别说,这狗还挺可爱。
接下来是0.5的参考权重:
稍微有点参考图中裂痕和白石膏那味儿了。
让我们继续加大权重,直接来个1、2、3:
好家伙,平时大家骂人都是说“你是越来越狗了”,这简直倒反天罡!
“ --iw 2 ”的时候那起码还有点狗味儿是吧(可能这就是传说中的人模狗样),到3的时候跟“狗”哪还有半毛钱关系,画面整体效果确实是太像参考图了。
--cref 和 --cw
大家看到这里可千万不要以为“ --cref ”和“ --cw ”这两个参数的功能是一样的,只是不一样的写法而已。
事实上这两个参数是配套使用的,其中:
“ --cref ”是角色参考参数(Character Reference),用于指定参考图像的URL(图片链接),保持生成图像中角色的一致性;
“ --cw ”是调节参考强度的参数(Character Weight),用于控制参考图像对生成结果的影响程度,也就是控制对指定图像中角色的参考权重(该参数取值范围为0-100,数值越高,对于角色参考的权重越高)。
若只使用“ --cref ”而未使用“ --cw ”,则默认“ --cw ”的数值为100;
而如果只单独使用“ --cw ”,则参数无效。
在这里我直接用MJ随便生成一组角色形象图:
然后我们选择这一张作为我们的角色参考图:
再以“A full-body display of a personified puppy. It is wearing a blue work uniform and a white hat, lying leisurely on the grass”作为提示词,中文译为:一只拟人化的小狗的全身展示,它穿着蓝色工作服,戴着白色帽子,悠然自得地躺在草地上。
然后搭配上这两个参数,最后呈现在输入框中的内容长这样:
最终得到以下结果:
可以看出画面当中的小狗无论是形象还是着装方面,都跟原参考图非常想象。
我们也正好趁此机会,来试试不同的参考权重出来的效果分别是什么样的:
(从左到右所用数值分别为:0、25、50、75、100)
啊这...如果不给说明,你能判断出这些图的参考程度吗?反正我自己估计够呛...
(在此还是想提醒朋友们一句,这里要做到生成的角色与参考图中的完全一致是不可能的,这在一定程度上局限于AI本身的随机性所带来的不确定性,所以尽管你将数值设置为最高的100,MJ也只能做到尽可能的还原)
--sref 和 --sw
这组参数嘛,跟上面那组非常神似,只不过把“c”改成了“s”。
没错,这同样也是一组搭档,其中:
“ --sref ”是风格参考参数(Style Reference),用于指定参考图像的URL,指导生成图像的风格;
“ --sw ”是风格权重参数(Style Weight),用于控制参考图像对生成结果的影响强度,该参数的取值范围跨度很大:0-1000,同样的,数值越大,对原图风格的参考权重越高。
这里我相信有一部分朋友会产生一个疑惑,这也是我在刚接触这些参数时所疑惑的,那就是:同样是对参考图的参考,使用“ --sref ”和“ --sw ”这两个参数与直接垫图有什么区别?
具体来说,垫图是对原图的结构、内容、风格等进行全方位的参考;而这里的两个参数仅是对原图风格这一项的参考,最终画面所呈现出什么样的内容,取决于输入的文本提示词。
我们回到这两个参数的演示,我的头像又要派上用场了,它将作为本次的嘉宾,负责当这个参考图(俗称小丑)。
然后我们用回那段提示词:A lovely puppy
接下来我们直接看不同的参考权重带来的不同效果:
(从左到右:0、250、500、750、1000)
从这张对比图中我们可以看出:
-
与上文讲解垫图的部分中所演示的图片对比,正如上面所说的,这两个参数参考的是原图的风格,不至于破坏掉提示词对画面内容的控制(狗,它终究还是狗...哈哈哈哈哈哈);
-
从这张对比图,我们也能够看出这两个参数在不同权重下的表现差异非常明显,从0权重下的自然风格逐渐加强对参考图“白石膏”风格的模仿,特别是相较于上面“ --cref ”两个参数的对比图而言,这种差异会显得更加清晰可视。
好了,今天的分享到这里结束,我们下期见!
最后,如果你喜欢我的文章,欢迎你的关注;如果我的文章能给你提供一点价值,那将是我的荣幸,在此感谢每一位读者🙏
AIZ荐读
我的7000字长文自述:人人都需要AI的时代,我们一起成长!