合集 Stable Diffusion AIGC 视觉设计实战教程 下的文章
ControlNet 插件为 Stable Diffusion 提供工业级精准控图能力,通过姿态、深度、边缘、语义分割等 20 余种预处理器,将参考图结构转化为生成条件,实现线稿上色、建筑可视化、换脸、局部重绘、风格迁移等场景。文章系统梳理安装流程、参数释义、多预处理器叠加技巧,并以 OpenPose、Canny、Depth、Tile、Inpaint 等为例给出实战参数,帮助创作者在插画、摄影、3D 辅助等领域高效产出高保真、高一致性的 AI 图像。
本文系统梳理 Stable Diffusion 的高清放大与高级图像处理方案:详解 Hires.fix 两阶段重绘、后期处理、图生图、SD Upscale、Ultimate SD Upscale、Tiled Diffusion 等六种放大策略及参数设置;介绍 Layer diffusion 原生透明图生成、ADetailer 人脸手部智能修复、Inpaint Anything 点击分割重绘三大插件用法;并说明 PNG 元数据读取与保护技巧,为 AIGC 视觉设计提供一站式技术参考。
本文系统梳理 Stable Diffusion 图生图全流程:先解析扩散模型把噪声还原为图像的底层机制;再详解上传底图后,如何借“缩放模式、重绘幅度”等参数控制构图与变化程度;演示真人、卡通风格迁移;对比涂鸦、局部重绘、涂鸦重绘、上传蒙版四种精修方式,说明蒙版边缘模糊度、模式、内容填充与重绘区域对融合自然度的影响,助用户精准实现换装、换背景、瑕疵修复及创意合成。
本文系统梳理 Stable Diffusion 正向与负向提示词撰写技巧,涵盖主体、动作、道具、环境、风格、构图、质量关键词七大要素,示范权重调节、模板保存、反推工具及无界 AI、Civitai、LiblibAI 等提示词资源站用法,帮助用户高效精准控制 AI 图像生成。
本文系统梳理 Stable Diffusion 的四大模型:Checkpoint 决定风格与画质,SD、Flux、厂商自研系列对比详尽;Embedding 用触发词精简提示、抑制崩坏;LoRA 轻量微调,实现角色与风格定制;Hypernetwork 提供深度风格实验。附 Hugging Face、Civitai、LiblibAI 下载与调用流程,并给出写实、动漫、3D 等案例参数,帮助用户快速选型、组合出图。
本文系统梳理 Stable Diffusion 文生图关键参数:先选检查点模型,再写精准提示词,随后按场景择采样器(DPM++ 2M Karras 均衡,Euler a 速试),步数 25–30 性价比最高;尺寸优先原生 512/1024 并被 8 整除,批次与显存平衡;提示词引导系数 6–9 通用,种子固定可复现微调。掌握上述设置,可高效输出高质量 AI 图像。
本文介绍 Stability Matrix 与 LiblibAI 在 Stable Diffusion 生态中的角色与用法。Stability Matrix 作为开源跨平台管理器,可一键部署 Automatic1111、ComfyUI 等 WebUI,支持模型共享与插件扩展,并演示汉化流程。LiblibAI 则是封装 Stable Diffusion 的云端创作平台,免部署、中文界面、弹性算力,兼容本地参数与模型生态,适合快速出图与轻量训练。两者互补,共同降低 AIGC 视觉设计门槛。
- 1
- 2
- 后一页 »