凌晨发布的MidJourney V6,真实体验如何(圣诞礼物在路上了)

火山方舟向量数据库大模型
前一阵MidJourney 就说要赶在圣诞前发布V6 版本,昨天北京时间下午1:56 V6 alpha悄然上线,没有什么盛大的发布,就是CEO David Holz在discord 社区发了一条帖子,一如既往的低调。

先看看CEO 的帖子内容,我做了简要概述。

picture.image

接下来我们就来测试一下。

1. 实测Midjourney V6 Alpha

主要就测试一下帖子中提到的那几项。

  1. 更精准的语义理解

  2. 直接展示文字

  3. 前所未有的真实

1.1 更精准的语义理解

这是之前MidJourney 相比于DALL.3最弱的一项, 比如会把位置关系搞混。 初步看起来确实比V5.2 有所提升。

举个例子,输入提示词:a cat sit on a table( 一只猫坐在桌子上).

picture.image

可以看到:V5.2确实无法理解猫坐在桌子“上”, 但V6能表现出正确的方位关系。初步看起来有些提升,而且画面确实更加逼真,光影表现更好。关于更长的语义理解没有尝试,后面真实使用的时候来试一下。

1.2 直接展示文字

我输入提示词:

Elon Musk walking on street, holding a board saying "Grok beats Close AI ?"

(马斯克拿着一块牌子走在街上,牌子上写着: ” Grok beats Close AI ? “)

picture.image

使用V6 确实可以直接表达文字,但是不完全正确,在四张图中只有右上显示正确了。有所提升,但是还要改进。

1.3 前所未有的真实感

我使用这样一段提示词:

a woman , light skin and blonde hair , blue eyes , natural lighting , kodak portra 160 , split into multiple different images , shot from multiple angles

(一个女人,浅色皮肤和金发,蓝眼睛,自然光,柯达 portra 160,分成多个不同的图像,从多个角度拍摄)

picture.image

V6确实更加真实了,不过也有可能对某些场景来说少了些朦胧感,不那么美了。结合其他的测试,光影的表现在V6中确实有很大提高。

2. 最后总结

总结一下,V6 Alpha的语义理解确实提高了,真实和光影也有所提高。不过,这也会消耗更多的算力,也意味着同样的提示词,用V6可能需要更多的💰,我现在的MJ账号每月到20天左右就不够用了,V6用起来,估计都撑不到20天了。

这让我想起90年代无论intel芯片怎么提高,都赶不上微软的软件应用诉求。当时的Intel芯片的 CEO是 Andy Grove,所以也就流传下来一个顺口溜:“What Andy giveth, Bill taketh away.”

虽然这是Andy用来抱 怨盖茨并没有充分利用英特尔芯片的强大功能,但这个顺口溜却让人记住了“硬件的进步总是被软件的提升而驱动”,所以英伟达在很长一段时间内应该还是最大赢家( 有点跑题~~~~ )。

最后,在MJ的圣诞礼物已经出发的时刻,提前祝大家节日快乐!


我是关注AI产品的产品二姐,致力于带来丰富的AI学习分享、体会,欢迎你和我一起学习,如果你觉得文章有用,欢迎关注、点赞、转发。

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论