写一个好提示词,让AI从复杂的图片里把线稿给弄出来,其实没那么玄乎。这事儿分成两大类:一类是“看着一张图,让AI照着画出线稿”,另一类是“压根没图,纯靠嘴说,让AI给你创造一张线稿”。咱们一个个聊。
第一种玩法:指着一张照片说,“嘿,给我画出它的线稿”
这是最直接的需求,也是大家最常问的。比如你手机里有张挺好看的风景照,或者一张人物特写,你想把它变成只有线条的样子,方便自己上色玩,或者做成别的设计素材。
这时候,光靠简单的“文生图”工具,比如Midjourney或者基础版的Stable Diffusion,就不太好使了。因为它们的核心工作方式是听你“说”,而不是看你“指”。你说“把这张图变成线稿”,它可能听不懂,或者理解得乱七八糟。
要解决这个问题,就得用上一个叫ControlNet的工具。你可以把它理解成一个“精准控制器”,专门装在Stable Diffusion(一个开源的AI绘画模型,很多人都用它)上。ControlNet的作用就是给AI一双“眼睛”,让它能看懂一张参考图的结构、姿势、轮廓,然后严格按照这些信息来画画。
用ControlNet提取线稿,具体步骤大概是这样:
第一步:准备工具
你得有一个能运行Stable Diffusion的环境,并且装好了ControlNet这个插件。现在有很多整合包,一键安装,不用自己折腾复杂的代码,对新手友好很多。
第二步:上传你的原图
在Stable Diffusion的界面里,找到ControlNet的控制面板。把你想提取线稿的那张复杂图片,直接拖进去。
第三步:选择合适的“预处理器”
这是最关键的一步。预处理器(Preprocessor)是ControlNet的“眼睛”,它负责先把你的原图分析一遍,提炼出AI需要关注的关键信息。针对提取线稿,有几个特别好用的预处理器:
-
Canny: 这家伙是个“边缘检测专家”。它会把图片里所有能识别出来的边缘都给你标出来,线条非常细,而且粗细都一样。 优点是极其精准,缺点是有点太“机器”了,没啥艺术感,所有线条都一个样。
-
Lineart: 这个是我个人更推荐的。它提取出来的线稿,会更像人手画出来的感觉。 线条有粗细、深浅的变化,能更好地表现出图片的层次感和深度。 Lineart底下还有几个细分的模型,比如
lineart_realistic适合处理真实照片,lineart_anime就适合处理动漫风格的图。 -
SoftEdge: 它提取的轮廓比较柔和,更像是一个大概的框架,给AI的发挥空间更大一些。如果你不要求线稿特别精细,用这个也行。
所以,如果你想从一张真实照片里提取线稿,直接选lineart_realistic,通常效果最好。选好预处理器后,可以点一下预览按钮,看看它提取出的线稿预览图长啥样,不满意的可以换一个试试。
第四步:写一个简单的提示词
虽然我们主要是靠ControlNet来控制画面,但还是需要写个提示词来告诉AI我们最终想要的是什么。不过,这个提示词可以非常简单。
你就直接写:line art, a girl's portrait, black and white, clean lines (线稿,一个女孩的肖像,黑白,干净的线条)。
这里的核心是line art(线稿)这个关键词,它能强化AI的认知。后面的内容就是简单描述一下图片主体。
第五步:设置并生成
最后,确保你已经勾选了“启用ControlNet”,然后点击生成按钮。AI就会开始工作,它会看着预处理器生成的线稿图,再结合你简单的提示词,最终画出一张全新的、只有线条的图片。这张新图的构图和轮廓,会和你的原图基本一模一样。
举个真实例子:我之前拍了一张我家猫的照片,背景很乱,有沙发、靠垫什么的。我把它扔进ControlNet,预处理器选了lineart_realistic,提示词就写line art of a cat, black and white。生成出来的结果非常棒,猫的轮廓、胡须、眼神的线条都抓得很准,而且背景的杂物线条也被提出来了,整个画面就是一张很不错的线稿图。
第二种玩法:凭空想象,让AI直接画线稿
有时候你脑子里有个画面,但是没有现成的照片。比如,你想画一个“宇航员在月球表面喝咖啡”的线稿。这时候就得靠纯提示词来创作了。
这种玩法,Midjourney和Stable Diffusion都能做。核心思路就是用语言把线稿的特点描述清楚。
核心关键词是基础
不管你想画什么,先把定义“线稿”的关键词放进去。这些词就像给AI设置了一个基本框架,告诉它“别上色,画线条就行”。
- 基础词:
line art,line drawing,coloring book page,black and white。 这几个是最常用的,基本上包含了它们,出来的图就不会是彩色的。 - 风格词:
minimalist line art(极简线稿),clean lines(干净的线条),intricate details(复杂的细节),technical drawing(技术图纸),blueprint style(蓝图风格)。 这些词能进一步定义线稿的风格。比如minimalist出来的线条就少而精,而intricate details就会有很多装饰性的细节。
清晰描述主体和场景
告诉AI画什么,这是提示词的肉体。要具体,不要模糊。
- 错误示范:
line art of a person(一个人的线稿)。这太模糊了,AI不知道是男是女,是老是少,在干什么。 - 正确示范:
line art of a young woman with long hair, sitting by the window and reading a book, minimalist style(一个长发年轻女性的线稿,她坐在窗边看书,极简风格)。
你看,描述越具体,AI就越能理解你的想法。
使用负面提示词排除干扰
负面提示词(Negative Prompts)也很有用,它可以告诉AI“不要画什么”。 这能帮你过滤掉很多不想要的效果。
比如,你想让线稿纯粹一点,就可以在负面提示词里加上:color, shading, shadows, photorealistic, 3d render, blurry (颜色,阴影,光影,照片写实,3D渲染,模糊)。这样AI就会刻意避开这些元素,专注于线条本身。
一个完整的例子
假设我们要画一个“未来城市的线稿,带有赛博朋克风格”。
一个好的提示词可以是这样的:
正面提示词: line art of a futuristic cityscape, cyberpunk style, clean sharp lines, high contrast, intricate details, flying vehicles and towering skyscrapers, black and white (未来城市的线稿,赛博朋克风格,干净锐利的线条,高对比度,复杂的细节,飞行的载具和高耸的摩天大楼,黑白)。
负面提示词: color, shading, blurry, soft lines, painting, photorealistic (颜色,阴影,模糊,柔和的线条,绘画感,照片写实)。
按照这个逻辑去写,不管是Midjourney还是Stable Diffusion,都能生成质量相当不错的线稿图。
总的来说,从复杂图片里提取线稿,最可靠的办法是使用Stable Diffusion配合ControlNet,因为它能精准复制原图的结构。 如果是想自由创作线稿,那关键就在于用精准的关键词和描述,把脑海里的画面“翻译”成AI能听懂的语言。多试试不同的关键词组合,很快你就能找到感觉。





评论前必须登录!
注册