想让AI生成的图片和你给它的原图更像,或者只是借鉴一下构图和颜色,而不是完全重画一张,关键在于控制一个核心参数。在不同的工具里,这个参数的名字不一样,但原理是相通的。
在Stable Diffusion里,核心是“重绘强度”
在Stable Diffusion的图生图(img2img)功能里,最重要的滑块就是“重绘强度”(Denoising Strength)。 这个参数的数值范围是从0到1,它直接决定了AI对你上传的图片有多大的修改权限。
你可以这么理解:AI在工作时,会先给你上传的图片加上一些噪点,然后再根据你的提示词(prompt)把这些噪点去掉,重新“画”出一张图。重绘强度这个值,就控制了第一步加噪点的程度。
- 值为0:完全不加噪点,AI根本不动你的原图,生成出来的图片会和原图一模一样。
- 值为1:把你的原图彻底变成一张纯噪点图,然后再根据提示词重新画。这样一来,生成图只会受到提示词的影响,和你的原图基本就没什么关系了,相当于一次纯粹的文生图。
所以,控制相似度的秘诀,就在于调整这个0到1之间的数值。
具体怎么调?这里有一些实际经验:
-
想做微小调整或提升画质(值:0.1 – 0.3)
如果你只是想让一张有点模糊的图变清晰,或者给原图稍微增加一些细节,同时又想基本保持原样,就把重绘强度设置得很低。比如0.25左右,AI会在基本保留原图结构和内容的基础上,用更高清的细节去重绘,起到一个优化的作用。 -
保留构图,替换风格或主体(值:0.4 – 0.6)
这是最常用的一个区间。在这个范围里,AI会很好地保留原图的整体构图、颜色搭配和光影关系,但是会根据你的提示词把具体内容换掉。 举个例子,你上传一张自己画的火柴人草图,构图是一个小人站在山顶。然后你把重绘强度设为0.5,提示词写“一个宇航员站在月球上,写实风格”,AI就会在保持火柴人构图的基础上,画出一个宇航员。原图的草稿感会被完全替代,但“站姿”和“山顶”这种大的结构关系会被保留下来。 -
想让AI自由发挥,只借鉴大概轮廓(值:0.7 – 0.9)
当你把重绘强度调到这个区间,就等于告诉AI:“这张图你随便改,只要大概还有点原来的样子就行”。 比如,你上传一张杂乱的风景照,你想让它变成一幅梵高风格的油画。你就可以把值设为0.75,然后在提示词里写“梵高风格,星空”,AI就会大刀阔斧地修改,最后生成的图片可能只有一些模糊的色块分布和原图有点像,但整体已经是一张全新的创作了。
操作步骤很简单:
- 在Stable Diffusion WebUI里,切换到“图生图”(img2img)标签页。
- 把你的原始图片拖拽到图片框里。
- 写下你的正向和负向提示词。提示词描述的是你希望最终生成的图片是什么样子,而不是描述你的原图。
- 找到那个叫“Denoising strength”或“重绘强度”的滑块,根据你的需求调整数值。
- 点击“生成”按钮。
多试几次,很快你就能找到感觉。通常建议从0.5或者0.6开始试,然后根据生成结果往高或往低微调,这是最快找到理想效果的方法。
在Midjourney里,核心是“图片权重”
Midjourney的逻辑不太一样,它没有一个直接叫“重绘强度”的滑块,但有类似的概念,通过一个叫做“图片权重”(Image Weight)的参数来实现,代码是 --iw。
这个参数的作用是告诉你上传的参考图和你的文字提示词哪个更重要。--iw 的值越高,AI就会越重视你给的图片,生成的图和原图就越像。
--iw 的数值范围通常在0.5到2之间。
--iw 0.5:这是比较低的权重,AI会更多地参考你的文字提示词,图片只是给个大概灵感。--iw 1.0:这是一个平衡点,图片和文字提示词的重要性差不多。--iw 2.0:这是目前版本里最高的权重,AI会最大限度地模仿你的原图,包括构图、风格、颜色,甚至人物的相貌。 如果你想让生成图和原图高度相似,就用这个值。
具体怎么操作:
- 先上传你的图片到Discord,拿到图片的链接地址。
- 在输入框里敲
/imagine,然后把图片链接粘贴进去。 - 在链接后面敲一个空格,然后写你的文字提示词。
- 在提示词的最后,加上
--iw参数,比如--iw 2。
举个例子,你的指令可能看起来是这样的:
https://s.mj.run/xyz... an astronaut, realistic style --ar 16:9 --iw 2
这条指令的意思是,让Midjourney参考前面那个图片链接,画一个宇航员,风格要写实,宽高比16:9,并且要尽可能地像原图。
除了核心参数,还有哪些因素会影响相似度?
无论是Stable Diffusion还是Midjourney,除了上面说的主要参数,还有一些东西也会间接影响最终结果。
1. 提示词(Prompt)的详细程度
你的提示词写得越具体、越详细,AI被“带跑”的可能性就越大,和原图的差异可能也会变大。如果你想让结果更接近原图,提示词可以写得简单一些,只强调你最想改变的关键点。反过来,如果你想让AI多点创意,就可以用更复杂的提示词去引导它。
2. CFG Scale (提示词相关性)
在Stable Diffusion里,还有一个叫“CFG Scale”的参数。这个值越高,AI就越会严格按照你的提示词来画画,可能会忽略原图的一些信息。如果想让原图的特征保留得更多,可以适当降低CFG Scale的值,比如降到7以下。
3. 使用ControlNet等高级工具
如果你对相似度的控制要求非常高,比如必须保留原图的人物姿势、建筑线条或者手部细节,那就要用到更专业的工具,比如ControlNet。 ControlNet可以通过提取原图的边缘、深度、姿态等信息,强制AI在生成新图时必须遵守这些“骨架”。 比如用Canny模型提取轮廓,或者用OpenPose模型固定人物姿势,这样即使你把图片风格改成油画或者二次元,人物的动作和原图会保持一致。 这是一种比单独调整重绘强度更精确的控制方法。
4. Seed(种子)
种子值决定了AI生成图片时的随机性起点。如果你在多次生成中用同一个种子值,那么即使参数有微小变动,生成的图片在大体上也会比较相似。 这在你反复调试细节时很有用,可以帮你固定住一些满意的元素,只调整你想改的部分。
总的来说,精确控制相似度的关键就是找到并理解那个核心的“强度”或“权重”参数。先从这个参数入手,通过几次实验找到一个适合你需求的基准值,然后再去微调提示词或其他次要参数,这样就能高效地得到你想要的结果。








评论前必须登录!
注册