用AI画画,最头疼的就是想不出来好的提示词(prompt)。有时候看到一张特别喜欢的图,就想知道作者到底用了什么魔法咒语才生成出来的。其实,有一些工具专门干这个活,就是帮你把图片反过来,解析出可能的提示词。这技术,行话叫“提示词反推”或者“图像描述”。
CLIP Interrogator:老牌但依然好用
最早玩AI绘画的那批人,应该都听过CLIP Interrogator。这东西不算是一个独立的软件,更像一个开源模型,很多人把它做成了网页版或者集成到自己的工具里。
它的原理是基于OpenAI的CLIP模型,这个模型能把图片和文字关联起来。你给它一张图,它就用自己学到的知识库去猜,这张图最可能对应哪些文字描述。
使用方法很简单:
1. 找到一个用了CLIP Interrogator的网站,比如Hugging Face上就有。
2. 上传你想分析的图片。
3. 点击“提交”或者“分析”按钮。
等一会儿,它会给你返回一段描述。通常分成几个部分:
* 主体描述: 会告诉你图片里有什么,比如“a cat sitting on a windowsill”(一只坐在窗台上的猫)。
* 风格词: 这部分很有用,会猜这张图的艺术风格、艺术家、渲染引擎等。你可能会看到像“art by Greg Rutkowski”(Greg Rutkowski的艺术风格)、“trending on Artstation”(Artstation上的热门作品)、“Unreal Engine”这类词。
* 媒介词: 还会告诉你这幅画可能用了什么媒介,比如“digital painting”(数字绘画)、“oil on canvas”(布面油画)。
我用一张梵高风格的星空猫咪图测试过。它准确地识别出了“a cat,” “starry night,” 和 “in the style of Vincent van Gogh”。但是,它给出的提示词有时候会很长很乱,需要你自己手动整理一下,挑出有用的部分组合起来用。它的优点是分析得比较细致,尤其是对艺术风格的识别,但缺点是返回的结果有点“生”,需要二次加工。
Midjourney 的 /describe 命令:官方出品,更懂自家模型
如果你用的是Midjourney,那它自带的 /describe 命令就是最直接的工具。这个功能是Midjourney官方开发的,所以它生成的提示词天然就更符合Mid-ET的“口味”。
操作非常直接,就在Discord里:
1. 在输入框里打 /describe。
2. 然后会跳出一个上传图片的框,把你的图片拖进去。
3. 回车发送。
几秒钟后,Midjourney机器人会给你返回四条不同的提示词。 这四条提示词风格各不相同,但都能用来重新生成和你上传图片类似的图像。 你可以直接点击下面的1、2、3、4按钮,让Midjourney用这几条提示词再去画图,看看效果。
/describe 的好处是快,而且生成的提示词可以直接在Midjourney里用,不用你再去猜怎么组合。 它分析出来的词,往往是Midjourney能很好理解的。比如,它可能会用“in the style of”来描述风格,用“–ar 16:9”来指定宽高比。
我拿一张赛博朋克风格的城市夜景图试了一下,它给我的四个提示词里,有的侧重于“neon-lit streets”(霓虹灯街道),有的侧重于“futuristic cityscape”(未来主义城市景观),还有的加上了“cinematic lighting”(电影感光照)这种描述。这给了我很多灵感,我可以把这几条提示词里好的部分组合起来,创造出更精确的效果。
它的局限性也很明显,就是只能在Midjourney里用。而且它给出的不是一个详尽的分析报告,而是四条可以直接用的“成品”提示词,如果你想深入学习每个关键词的作用,还得自己去琢adece。
各种在线识图工具:简单粗暴,适合快速获取灵感
除了上面两个比较专业的,还有很多在线工具也能实现类似的功能。它们可能没那么精准,但胜在方便,而且免费。
-
IMG2PROMPT: 这是一个专门做图片转提示词的网站。界面很简单,上传图片,它就会生成一段描述。我用下来感觉它对照片的识别效果比对绘画作品要好。它会尝试描述画面的构图、颜色和主体,但对于艺术风格的识别能力比较弱。
-
DeepDanbooru: 如果你经常画二次元风格的图,这个工具会很有用。它的数据库里全是动漫图片,所以对各种动漫角色、画风、甚至一些特定的“萌属性”标签都能识别得很好。你上传一张图,它会返回一大堆标签(tags),比如“1girl”、“solo”、“long hair”、“blue eyes”等等。这些标签可以直接用在像Stable Diffusion这样的模型里,配合一些二次元的特定模型,效果会很好。缺点是,它只能识别二次元相关的图,你给它一张风景照,它就懵了。
-
Taggd: 这个工具更侧重于给图片打标签,而不是生成一段完整的描述。它会识别出图片里的物体、场景和概念。比如上传一张海滩日落的照片,它可能会返回“beach”、“ocean”、“sky”、“sunset”、“sand”这些标签。虽然不是完整的句子,但这些核心关键词也是构成一个好提示词的基础。
这些在线工具的共同点是,它们提供的是关键词“灵感”,而不是一个完整的、可以直接复制粘贴的完美提示词。你需要把它们给出的关键词当作积木,自己动手搭建。
怎么选择合适的工具?
到底用哪个,取决于你的需求。
- 如果你是Midjourney用户,那首选肯定是
/describe命令。 因为它和模型是配套的,效果最直接。 - 如果你用Stable Diffusion或者其他开源模型,并且想深入分析一张图的风格和构图,CLIP Interrogator 是个不错的选择。虽然结果需要手动整理,但信息量大。
- 如果你画二次元,那DeepDanbooru几乎是必须的,它能帮你精准地找到描述角色特征的标签。
- 如果你只是偶尔需要找点灵感,或者想快速分析一张照片里的元素,那么用那些免费的在线网站就够了。
最后要说的是,这些工具都只是“辅助”。它们猜出来的提示词不一定100%准确,因为AI生成图片有很大的随机性,同一张图也可能由完全不同的提示词生成。最好的方式是把这些工具当成一个学习的起点。看看它们是怎么描述画面的,学学它们用的那些关于风格、艺术家、光照的词,然后慢慢地,你就能形成自己的一套写提示词的思路了。








评论前必须登录!
注册