先看看CEO 的帖子内容,我做了简要概述。
接下来我们就来测试一下。
1. 实测Midjourney V6 Alpha
主要就测试一下帖子中提到的那几项。
-
更精准的语义理解
-
直接展示文字
-
前所未有的真实
1.1 更精准的语义理解
这是之前MidJourney 相比于DALL.3最弱的一项, 比如会把位置关系搞混。 初步看起来确实比V5.2 有所提升。
举个例子,输入提示词:a cat sit on a table( 一只猫坐在桌子上).
可以看到:V5.2确实无法理解猫坐在桌子“上”, 但V6能表现出正确的方位关系。初步看起来有些提升,而且画面确实更加逼真,光影表现更好。关于更长的语义理解没有尝试,后面真实使用的时候来试一下。
1.2 直接展示文字
我输入提示词:
Elon Musk walking on street, holding a board saying "Grok beats Close AI ?"
(马斯克拿着一块牌子走在街上,牌子上写着: ” Grok beats Close AI ? “)
使用V6 确实可以直接表达文字,但是不完全正确,在四张图中只有右上显示正确了。有所提升,但是还要改进。
1.3 前所未有的真实感
我使用这样一段提示词:
a woman , light skin and blonde hair , blue eyes , natural lighting , kodak portra 160 , split into multiple different images , shot from multiple angles
(一个女人,浅色皮肤和金发,蓝眼睛,自然光,柯达 portra 160,分成多个不同的图像,从多个角度拍摄)
V6确实更加真实了,不过也有可能对某些场景来说少了些朦胧感,不那么美了。结合其他的测试,光影的表现在V6中确实有很大提高。
2. 最后总结
总结一下,V6 Alpha的语义理解确实提高了,真实和光影也有所提高。不过,这也会消耗更多的算力,也意味着同样的提示词,用V6可能需要更多的💰,我现在的MJ账号每月到20天左右就不够用了,V6用起来,估计都撑不到20天了。
这让我想起90年代无论intel芯片怎么提高,都赶不上微软的软件应用诉求。当时的Intel芯片的 CEO是 Andy Grove,所以也就流传下来一个顺口溜:“What Andy giveth, Bill taketh away.”
虽然这是Andy用来抱 怨盖茨并没有充分利用英特尔芯片的强大功能,但这个顺口溜却让人记住了“硬件的进步总是被软件的提升而驱动”,所以英伟达在很长一段时间内应该还是最大赢家( 有点跑题~~~~ )。
最后,在MJ的圣诞礼物已经出发的时刻,提前祝大家节日快乐!
我是关注AI产品的产品二姐,致力于带来丰富的AI学习分享、体会,欢迎你和我一起学习,如果你觉得文章有用,欢迎关注、点赞、转发。