问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

SD 老照片修复

创作时间:
2025-01-22 02:16:28
作者:
@小白创作中心

SD 老照片修复

在AI技术飞速发展的今天, Stable Diffusion(SD)作为一款强大的AI图像生成工具,已经广泛应用于各种图像创作和修复任务中。本文将详细介绍如何使用SD修复老照片,包括具体的步骤和参数设置,以及不同方法的效果对比。

AI生成图片的现状与局限性

自8月31日以来,SD webUI没有发布新版本,SDXL的ControlNet更新后也没有大的技术更新。许多关注的B站大佬要么停更,要么开始卖课程资源。这是否意味着通用模型的进化已经基本结束?接下来可能是行业专业大模型的发展阶段。

从写实作图开始,下载模型,炼制Lora,模型抽卡,roop换脸,以及各种插件安装尝试。虽然参考样例提示词可以生成精美的图片,但看多了之后就能看出明显的AI味道。图片的精确控制和自然完整的手部细节,依旧是AI作图的难题。从原理来看,文字到图片的转换还是依赖于人工标注的CLIP模型,而文字生成的风格和细节则依赖于训练模型所用的素材,这说明AI生成图片并非无所不能,真是有多少人工就有多少智能。

个人学习经历与硬件升级

在AI颠覆一切的口号浪潮下,我从写实作图上手,下载模型,炼制Lora,模型抽卡,roop换脸,以及各种插件安装尝试。我也来盘点一下,升级硬件学习Stable Diffusion已经两个月了,加了三条8G内存,换了RTX2060S显卡,花费2K和一些电费成本。

AI修复老照片的价值

文字生图在细分领域,比如设计创作工作有很大帮助。但对普通人来说,可能就是妙鸭相机那样的尝试一次发个圈而已。在摄影修图应用,对比PS各种效果来说,提升其实并不明显,而且不可能一步到位,只是修图中间过程,一些大V推出了这方面教程,看效果就知道受众更小。想起多年前学习摄影的宗旨:发现美,捕捉美,分享美。对普罗大众有意义的是实在的经历和回忆,通过AI实现的云旅游,只一时的新奇,很快新鲜感消失就会被丢弃。视频也一样,那些试图炫技吸引眼球的特效,只能做广告,并不适合普通人。留下当时的片段记忆,才会随时间流逝而愈加珍贵。说到这,AI修复老照片,这个方向对大部分人可能会有更大的价值。

老照片修复流程

准备工作

首先,找到老照片用手机拍下来,然后压缩足够小,我这里做了512768和7681152两个分辨率。原图如下:

方法一:通过stableSR放大和清晰化

  1. 512*768通过stableSR直接放大1.5倍。参数如下:用时23秒,效果如下,感觉画面太锐了。

  2. 768*1152通过stableSR直接放大1倍。参数如下:

  3. 512*768,打开Tiled Diffusion和tiled VAE,再通过stableSR放大2倍。参数如下:

三个效果跟原图对比如下:

方法二:通过ControlNet tile图生图方法

512*768,打开Tiled Diffusion和tiled VAE,记得换一个真实风格大模型:

因为是重绘,对重绘幅度比较敏感:

下面分别是 原图 :0.05 : 0.1 :0.4

方法三:通过扩展模式放大做修复的方法

放大算法对比可参考这篇博文:

https://blog.csdn.net/snans/article/details/130122766

我做了如下尝试,具体数值根据图片而定:

后面两张换了算法和参数:Postprocess upscale by: 2, Postprocess upscaler: R-ESRGAN 4x+ Anime6B, GFPGAN visibility: 0.678, CodeFormer visibility: 0.141, CodeFormer weight: 0.152

从以上效果可以看出,通过图生图生成的图片清晰度更高,但是变形更严重,需要根据效果细调参数。

总的来说,这些只是半成品,最终修复还需要综合各种方式,还有表情细节等,还需要抽卡,然后移花接木拼接出来。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号