蜗蜗助手
让 AI 更懂你

Midjourney或SD是否完美支持AI绘图提示词中文输入?

直接说结论,目前它俩都不能算“完美”支持中文输入。但这不意味着你完全没法用中文,只是这里面有不少门道,而且实际效果跟你用什么方法、画什么东西有很大关系。

咱们先聊聊Midjourney。它的情况比较简单直接。你确实可以在Midjourney里直接输入中文提示词,它看得懂。 背后是什么原理呢?它内置了一套自动翻译系统。你输入中文,它在后台给你悄悄翻译成英文,然后再拿去生成图片。 听起来很方便,对吧?大部分情况下确实省事,尤其是一些简单的、日常的东西,比如“一只猫在晒太阳”,直接用中文输入,出来的效果基本没问题。

但是,问题就出在这个“翻译”环节。机器翻译这东西,你懂的,总有翻不准的时候,特别是碰到一些有中国特色或者文化内涵比较深的词。举个例子,你想画一幅“水墨山水画,意境悠远”,它翻译过去可能就变成了“ink wash painting, distant artistic conception”,听着好像没毛病,但“意境”这两个字里那种只可意会不可言传的感觉,机器翻译很难抓得住。结果就是,画出来的东西可能形似,但缺少了那个神韵。还有,一些网络流行语或者比较潮的中文梗,它就更懵了,翻译出来完全不是那么回事。

我的经验是,用中文写提示词,就像隔着一层毛玻璃看东西,大概轮廓能看清,但细节就模糊了。Midjourney本身训练用的数据,绝大部分是英文图片和对应的英文描述。 这就决定了它对英文的理解深度和广度,是中文没法比的。所以,如果你想让画面细节更精准,风格更可控,老老实实写英文,或者用翻译工具先把自己想好的中文转成英文,再微调一下,效果会好得多。

那么,什么时候用中文反而有优势?当你需要画一些特别本土化的、英文里没有对应词汇的东西时。比如你想画一个“穿着汉服的侠客,在竹林里比武”,直接写中文,Midjourney通过翻译加联想,反而可能抓住一些关键的中国元素。你要是硬翻译成英文,比如“a swordsman in Hanfu, fighting in a bamboo forest”,它对“Hanfu”的理解可能就是一个笼统的“中国传统服饰”概念,出来的衣服样式可能就不对味了。

总结一下Midjourney的中文输入策略:
1. 简单、普适的主题:直接用中文,比如“一只可爱的柯基犬”、“赛博朋克风格的城市夜景”,没问题,图个方便。
2. 追求精准控制和复杂风格:优先用英文。可以先用中文构思,然后借助DeepL这类比较靠谱的翻译工具翻译成英文,再根据需要修改和添加更专业的词汇。
3. 有强烈中国文化特色的主题:可以先尝试用中文,看看它能不能抓住那个感觉。如果不行,再换成“拼音+英文解释”或者纯英文的方式。

接下来说Stable Diffusion(简称SD)。SD的情况跟Midjourney完全不一样,因为它是个开源的工具。 这意味着它更灵活,可玩性更高,但也更折腾。

原版的Stable Diffusion模型,跟Midjourney一样,也是吃英文数据长大的。 你直接在基础模型上用中文提示词,效果基本等于“对牛弹琴”,它根本不理解你在说什么。所以,想让SD支持中文,得靠社区的力量,通过一些“外挂”或者专门的“补丁”来实现。

主要有两种方法:

第一种:使用中文提示词插件。
这是最直接的办法。有一些插件,比如特定的翻译插件,可以直接集成在WebUI(就是SD的操作界面)里。 你在提示词输入框里打中文,它在你点击生成按钮的时候,自动帮你翻译成英文再喂给模型。这和你用翻译软件没本质区别,但好处是集成在软件里,流程上更顺畅。不过,缺点也一样,受限于机器翻译的准确度。

第二种:加载专门的中文模型或LoRA。
这是更有效也更推荐的方法。因为SD开源,全世界的开发者都可以用自己的数据去训练模型。于是,就出现了一些专门针对中文或者东方元素训练的大模型(Checkpoint)和微调模型(LoRA)。

  • 中文大模型:有些模型在训练的时候就加入了大量的中文图文数据,因此对中文提示词有天生的理解能力。你加载了这种模型后,就可以在一定程度上直接使用中文写提示词,并且效果会比单纯的翻译插件好,因为它能理解词汇背后的图像逻辑,而不是简单地做文本替换。
  • 特定风格的LoRA:LoRA是一种轻量化的模型,你可以把它理解成一个“风格包”。比如,有专门画国风山水、二次元水墨、或者特定中国朝代服饰的LoRA。这时候,你的提示词可以中英结合。比如主体和动作你可以用英文写,来保证基础模型的理解不出错,然后在需要体现特定风格的地方,加上触发这个LoRA的中文或特定提示词。

所以,用SD处理中文输入,更像是一个自己动手组装电脑的过程。你需要自己去C站(Civitai)这样的模型分享社区,找到适合的中文模型或者国风LoRA,下载下来,放到指定的文件夹里,然后在WebUI里选择加载它们。 这个过程对新手来说有一定学习成本,但一旦你配好了环境,对特定风格的掌控力会比Midjourney强很多。

给用Stable Diffusion的朋友的建议步骤是:
1. 安装翻译插件:先装一个自动翻译插件,解决“有没有”的问题,至少让你能用中文开始玩起来。
2. 寻找并下载中文/国风模型:去C站或者国内的一些模型社区,搜索关键词“Chinese”、“GuoFeng”或者其他中文风格的词,找到评价高、示例图好看的大模型和LoRA,下载备用。
3. 学习中英结合写提示词:这是最实用的技巧。把那些普适的、关于构图、画质、光影的词用英文写,比如“masterpiece, best quality, cinematic lighting”,因为所有模型对这些词的优化是最好的。然后,把核心的主体、风格,用那个专门模型的中文提示词或者触发词来写。这样既能保证出图质量的下限,又能精准控制你想要的特定风格。

所以,回到最初的问题,Midjourney或SD是否完美支持AI绘图提示词中文输入?答案是否定的。Midjourney提供了一种“傻瓜式”的兼容方案,方便但不够深入。Stable Diffusion则提供了一种“DIY式”的解决方案,门槛稍高,但上限也更高,更灵活。对普通用户来说,如果你只是想快速出图,不追求极致的细节控制,Midjourney的中文支持够用。但如果你是想深入玩AI绘画,希望对画面有更强的掌控力,尤其是在创作特定国风内容时,花点时间折腾一下Stable Diffusion,学会使用中文模型和LoRA,会给你带来更大的回报。

赞(0)
未经允许不得转载:蜗蜗助手 » Midjourney或SD是否完美支持AI绘图提示词中文输入?

评论 抢沙发

评论前必须登录!

 

你的AI灵感库与创作引擎

给想象力一个支点,让蜗蜗助手撬动AI的无限可能。

立即了解联系我们

登录

找回密码

注册