OK,你现在手里捏着一把AI生成的提示词,下一步棋该怎么走?直接告诉你,下一步就是把这些词喂给专门的AI绘画平台,让它们给你变出图来。这事不复杂,但里面的门道,值得聊聊。
现在市面上能打的AI绘画平台,主流就那么几个:Midjourney、Stable Diffusion,还有OpenAI家的DALL-E 3。 它们各有各的脾气和玩法,挑哪个看你的需求和条件。
先说Midjourney:艺术生的首选
如果你想要那种一看就很有艺术感、风格强烈的图片,Midjourney通常是第一选择。 很多设计师和艺术家都爱用它,因为它生成的图片有点像概念艺术,特别适合做些有创意、需要氛围感的东西。
但是,Midjourney的操作方式有点特别。它不住在自己的网站里,而是“寄生”在Discord这个聊天软件上。
所以,你要用Midjourney,步骤是这样的:
- 准备Discord账号:你得先有个Discord账号。这软件在国内用需要科学上网,这是个绕不开的坎。下载软件,注册,登录,一气呵成。
- 加入Midjourney服务器:在Midjourney官网上找到Discord的邀请链接,点一下就能加入他们的官方服务器。
- 找到“新手村”:服务器里人很多,很乱。找到名字里带“newbie”或者“新手”的频道,进去。 这里就是你开始画画的地方。因为是公共频道,你能看到别人发的提示词和生成的图,是个学习的好地方。但缺点也明显,你画的图很快就会被别人的刷上去,得自己往上翻着找。
- 开始画图:在聊天框里,输入
/imagine,然后会弹出一个prompt的框。 这时候,把你准备好的提示词粘贴进去,回车。机器人就会开始吭哧吭哧干活,大概一分钟后,给你四张备选的小图。 - 选图和优化:图片下面会有U1、U2、U3、U4和V1、V2、V3、V4这样的按钮。U代表Upscale,就是放大你选中的那张图,让它更清晰。 V代表Variation,意思是基于你选的那张图,再创作四个相似风格的新版本。 还有一个刷新按钮,按了就会根据同一个提示词重新生成四张完全不同的图。
Midjourney现在基本不提供免费试用了,想玩就得付费订阅。 好处是,付费后生成的图片,版权归你,可以商用。
接下来说Stable Diffusion:技术宅的乐园
Stable Diffusion最大的特点是开源。 这意味着什么?意味着你把它当成一个模型,可以下载到自己的电脑上跑。 这就是所谓的“本地部署”。
本地部署的好处是自由度极高。你可以加载别人训练好的各种模型(Checkpoint),也能用Lora这种小模型来精准控制画风或者某个角色的样子。而且,因为是在自己电脑上跑,所以完全免费,想画多少画多少,还没有内容审查的烦恼。
但缺点也很直接:对电脑硬件要求高。 主要是吃显卡,一张性能不错的NVIDIA显卡是基本门槛,显存最好在8GB以上。 整个安装部署过程对新手来说有点复杂,需要装Python、Git这些东西,还得去网上下载模型文件,一步步配置。 网上有很多一键安装包,能省不少事,对新手友好一些。
Stable Diffusion的操作流程大概是这样:
- 环境部署:如果你决定本地部署,第一步就是折腾环境。这包括安装Python、Git,然后下载Stable Diffusion WebUI(一个用户图形界面,让你不用敲代码就能操作)。
- 下载模型:你需要一个基础模型(Checkpoint),这是生成图片的根本。Civitai(俗称C站)是目前最主流的模型分享社区,上面有海量的模型可以下载,各种风格都有。
- 启动与生成:环境和模型都到位后,运行一个启动文件,它会在你的浏览器里打开一个操作页面。 页面上会有“文生图”(txt2img)和“图生图”(img2img)这些选项卡。把你的提示词分别填在“正向提示词”和“反向提示词”(你不希望画面里出现的东西)的框里。
- 调整参数:Stable Diffusion的可调参数非常多。比如采样方法(Sampler)、迭代步数(Sampling Steps)、图像尺寸等等。这些参数会直接影响出图的效果和速度。新手可以先用默认设置,多生成几次看看效果。
- 生成和优化:点击“生成”按钮,等一会儿图片就出来了。如果不满意,可以调整提示词或者参数,也可以用图生图功能,上传一张已有的图片作为参考,让AI在此基础上进行修改。
如果你觉得本地部署太麻烦,也可以用一些基于Stable Diffusion的在线平台,比如Stability AI官方的DreamStudio。 这些平台省去了配置的麻烦,但通常会有一些免费额度,用完就需要付费。
最后是DALL-E 3:普通人的方便之选
DALL-E 3是OpenAI的产品,它最大的优势是和ChatGPT深度整合。 如果你订阅了ChatGPT Plus,就可以直接在聊天界面里使用DALL-E 3。
DALL-E 3对自然语言的理解能力非常强。 你甚至不用给它特别专业的提示词,直接用大白话描述你想要的画面,它就能理解,并自动帮你优化成更专业的提示词再拿去画画。 这对新手来说简直是福音。
使用DALL-E 3的步骤:
- 订阅ChatGPT Plus:这是目前最直接的方式。登录你的ChatGPT账户,在模型选择那里切换到DALL-E 3。
- 直接描述:在对话框里,直接写你想要什么画面。比如,“画一只穿着宇航服的猫,在月球上弹吉他,风格要像梵高的星空”。
- 生成与修改:ChatGPT会接管一切,生成图片。 如果不满意,你可以继续跟它对话来修改。比如,“让猫的表情看起来更惊讶一点”,或者“背景里再加一个地球”。 这种对话式的修改体验非常好,就像在指挥一个人类画师。
另外,微软的Bing Image Creator也免费集成了DALL-E 3的功能,你只要登录微软账号就能用,虽然可能会有一些生成速度和次数的限制,但作为免费体验来说,性价比很高。
总结一下,该怎么选:
- 追求艺术感和风格化,不差钱也不怕折腾:选Midjourney。
- 爱钻研技术,电脑配置好,追求极致自由度和免费:选Stable Diffusion本地部署。
- 图个方便,是ChatGPT重度用户,或者完全是新手:选DALL-E 3。
拿到提示词只是第一步,真正的乐趣在于把这些文字变成图像的过程。每个平台都有自己的个性和优点,最好的方法就是都去试试,看哪个最对你的胃口。





评论前必须登录!
注册