博文

目前显示的是 五月, 2023的博文

Stable Diffusion最新脸部修复神奇After Detailer,能多脸能搭配lora真的太强了

图片
Stable Diffusion最新脸部修复神奇After Detailer,能多脸能搭配lora真的太强了 我们用 Stable Diffusion 生成人物图片的时候,可能经常会遇到脸崩的情况。 以前我们都是用脸部修复,或者是用 face editor插件,基本上能解决大部分问题,不过这次我们介绍一个功能更强大的插件,它就是 Stable Diffusion的新插件 After Detailer ,这款插件才刚刚发布,就引起了大家的关注, After Detailer有三个大的优势: After Detailer优势一: 通过局部重绘具有极高的修复效率,速度很快; After Detailer优势二:可以同时恢复图片中的多个面部; After Detailer优势三:结合插件自带的prompt,可以针对性使用lora,使图片高度可定制 Stable Diffusion 新插件 After Detailer: https://github.com/Bing-su/adetailer Stable Diffusion 新插件 After Detailer模型: https://huggingface.co/Bingsu/adetailer/tree/main 将模型文件放入models\adetailer文件夹内即可。 现在给大家介绍一个超强修复烂脸的插件adetailer,这个插件可以有效改善脸崩的情况,有用得着的可以去试试,下面演示一下具体操作。 安装After Detailer扩展,打开stable diffusion webui页面,点击【扩展】-【从网址安装】,在git仓库地址栏里输入如下地址: https://github.com/Bing-su/adetailer ailer.git ,然后点击安装按钮即可。这个安装过程需要一定时间,点击【已安装】可以查看是否安装完成。 然后重启stable diffusion程序,不是重启webui,是重启整个stable diffusion程序,启动时会下载几个After Detailer模型,速度可能会有些慢,需要一些时间请耐心等待,控制台里可以看到下载信息,下载完成了就会自动启动webui界面。 然后在文生图,图生图界面底部就可以看到After Detailer选项了。 随便找一张脸崩的图片,拖到【图片信息】选

Stable DiffusionWebUI发布1.3.0 大佬AUTOMATIC1111再次更新

图片
Stable DiffusionWebUI发布1.3.0 大佬AUTOMATIC1111再次更新           今天 Stable Diffusion WebUI的开发大佬AUTOMATIC1111 发布1.3.0, AUTOMATIC1111最近频频更新,AI绘图进化之快令人咂舌 。 Stable DiffusionWebUI1.3.0 更新方法: 想升级的在 Stable Diffusion WebUI目录下 打开cmd命令窗口,运行git pull命令即可自动更新,不过新版本容易有bug,升级前务必先备份。 Stable DiffusionWebUI1.3.0 项目地址: https://github.com/AUTOMATIC1111/stable-diffusion-webui 更新内容: Stable DiffusionWebUI1.3.0 主要更新: 添加 UI 以編輯默認值 令牌合併(通過 dbolya/tomesd) 設置選項卡返工:添加很多額外的解釋和鏈接 在加載主程序的同時加載擴展的 Git 元數據以在啟動期間節省大量時間 更新擴展表:顯示分支,在單獨的列中顯示日期,並顯示來自標籤的版本(如果可用) TAESD - 廉價實時預覽的另一種選擇 允許選擇採樣器並提示第二次招聘修復 - 默認情況下隱藏,在設置中啟用 計算 Lora 的哈希值 將 lora 哈希添加到信息文本 粘貼信息文本時,使用信息文本的 lora 哈希值為 <lora:xxx:1> 條目查找本地 loras,其哈希值與用戶擁有的 loras 匹配 從 UI 中選擇交叉注意力優化 Stable DiffusionWebUI1.3.0 次要更新: 將 Gradio 升級到 3.31.0 將適用於 macOS 和 Linux 的 PyTorch 升級到 2.0.1 AMD 允許為擴展選項卡中的元素設置默認值 允許選擇實時預覽的文件類型 首次顯示時為額外網絡顯示“正在加載...” 抑制不使用它的採樣器的 ENSD 信息文本 客戶端優化 添加選項以顯示/隱藏額外網絡中的隱藏文件和目錄,並且不列出隱藏目錄中的模型/文件 在 styles.csv 中允許空格 添加選項以重新排序選項卡 將一些功能(交換分辨率並將種子設置為 -1)移動到客戶端 為 img2img 指定編輯器高度的

Photoshop史上最强更新 Adobe Firefly 开启公测 – Ai绘画 Generative Fill智能技术 PS修图无敌有手就行

图片
Photoshop史上最强更新 Adobe Firefly 开启公测 – Ai绘画 Generative Fill智能技术 PS修图无敌有手就行 Adobe 刚发布了一项名为Generative Fill的新功能,这是世界上首个在创意和设计工作流程中为用户提供了一种神奇的新工作方式,这个功能以极高的效率解决了局部的AI重绘问题,并且通过文本to图像的方式把过程极简化了。 Photoshop  Generative Fill 简单的操作,就可以给人带上各式各样的太阳镜,更加可以轻松改变眼睛的颜色。 Photoshop  Generative Fill  给白宫自动添加水面倒影。 Photoshop  Generative Fill  画面轻松扩展延伸。 Photoshop  Generative Fill  人/物体的轻松抹除。 Photoshop  Generative Fill  人/物体的轻松添加,毫无违和感。 Generative Fill由Adobe Firefly驱动,这是Adobe的一系列创新的生成式AI绘画模型。Generative Fill是一种神奇的新体验,它使你能够以非破坏性的方式在你的图像中添加、扩展或移除内容,使用简单的文本提示来实现令人惊讶、欣喜、震惊的真实结果,而且只需几秒钟。 Generative Fill自动匹配你的图像的透视、光照和风格,使以前耗时的任务变得迅速,并且提供的结果真的令人震惊和愉快。Generative Fill在Photoshop中的应用改变了创建和组合图像的方式,大大加快了工作流程,并为创意过程增加了更多的乐趣。只需做出选择,点击生成,就可以创建你想要的选项。你可以选择是否在提示中添加文本。Generative Fill已经集成到Photoshop的每一个选择工具中,并产生了一个全新的“生成层”,这样你就可以在探索这项新技术带来的无限可能性的同时,进行非破坏性的工作。Adobe称:我们相信生成式AI对于Photoshop的创意客户来说是一种极其强大的工具,我们很高兴从今天开始将这种变革性的能力融入到产品中。 同时,Adobe Firefly现在已经在Photoshop(测试版)中开放使用了,不需要在排队了! Adobe Firefly是Adobe开发的一系列创新的生成式AI模型。这些模型能够根据用户的输入(例如文本

微软推出Olive AI绘图Stable Diffusion出图速度翻倍

图片
 微软推出Olive AI绘图Stable Diffusion出图速度翻倍 微软推出 一款易于使用的硬件感知模型优化工具 Olive,直接导致 Stable Diffusion的出图速度翻倍,这下玩大了! 微软推出的 Olive ,汇集了跨模型压缩、优化和编译的行业领先技术。给定一个模型和目标硬件,Olive会组合最适合的优化技术,输出在云端或边缘设备上进行推理的最高效模型,同时考虑到准确性和延迟等约束条件。 由于每个机器学习加速器供应商都实现了自己的加速工具链以充分利用其硬件,因此硬件感知优化呈碎片状。有了Olive,可以为云端和边缘设备上的模型优化减少工程师努力,开发人员需要学习并使用多个针对特定硬件供应商的工具链来准备并优化他们训练好的部署模型。Olive旨在通过整合和自动执行针对所需硬件目标的优化技术来简化体验。 微软推出的 Olive后不久, 随即 英伟达 Nvidia宣布: “5 月 24 日,我们将发布 532.03 版驱动程序中的最新优化,这些优化与 Olive 优化模型相结合,可大幅提升 AI 性能。使用 Olive 优化版本的 Stable Diffusion 文本到图像生成器和流行的 Automatic1111 发行版,新驱动程序的性能提高了 2 倍以上。” 532.03 版驱动程序, 特别针对了机器学习和 Stable Diffusion 进行了优化, Stable Diffusion 的基础模型以及lora模型都可以通过该工具进行优化处理,微软展示了相关优化demo脚本,不过lora还没适配safetensors格式,实际使用需要等实装。 微软推出Olive详情网址: https://github.com/microsoft/Olive/tree/main/examples/directml/stable_diffusion AI领域如此大的技术更新,显卡厂商自然不甘落后纷纷跟进,英伟达宣布支持 微软推出Olive 优化的N卡驱动,经过测试,旗舰RTX4090显卡在768分辨率下的 Stable Diffusion 跑分提升2倍性能,提升效果十分惊人。

Stable Diffusion又一神级功能,ControlNet新功能Reference Only竟然能保持人物连续性

图片
Stable Diffusion又一神级功能, ControlNet新功能 Reference Only竟然能保持人物连续性 Stable Diffusion又又双叒叕发布了一款超好用功能,这就是 ControlNet的新功能 Reference Only,这一功能解决了AI绘画无法保持连贯性的痛点,让 Stable Diffusion商用又往前迈了一大步,如果你对AI绘画感兴趣,一定要了解这一功能。 Stable Diffusion插件 ControlNet 新功能Reference Only,直译“仅供参考”,其实更像仿制图章,在特定的环境下是相当好用的,能保持画面良好的连贯性。 ControlNet新功能Reference Only安装 方法一:通过 Stable Diffusion WEBUI扩展更新 打开Stable Diffusion WEBUI,找到扩展设置,检查更新找到ControlNet,更新到最新版本 更新到最新版本controlnet 方法二:代码更新 在Stable Diffusion WEBUI \extensions\sd-webui-controlnet目录地址栏内输入CMD,输入git pull完成更新 方法三:下载更新 下载插件 https://github.com/Mikubill/sd-webui-controlnet.git,覆盖原有的文件夹。 然后重启UI,如果能在预处理器能看到reference_only则更新成功 预处理器找到reference_only ControlNet新功能Reference Only 效果测试: 打开Reference Only,提示词除了质量先关Promot之外,只写“1girl”, 模型选择和原图一样的Chilloutmix, controlnet设置如下 跑图试试 和原图基本保持了人物的一致性,效果十分理想。 原图长提词如下: [:(highly detail face: 1.2):0.1], (8k, RAW photo, best quality, masterpiece:1.2), (realistic, photo-realistic:1.37), best quality, HDR, cinematic lighting, natural lighting, 1girl, (pu

AI绘画大杀器Drag Your GAN,千万别错过这款能拖拽修复的神器DragGAN

图片
  AI绘画大杀器Drag Your GAN,千万别错过这款能拖拽修复的神器DragGAN GAN要卷土重来, DragGAN这款可以拖拽修图的大杀器,能否打败Stable Diffusionde AI绘图深化? 看了官方的效果演示,不得不相信AI绘图圈被Diffusion模型独领风骚的日子,可能要被DragGAN打破了。 5月18日,DragGAN的官宣代表着AI盲盒抽卡时代可能成为过去,AI可以精准修图了,哪里不准修哪里,AIGC,这已然到达了全新的里程碑! DragGAN官宣网址: https://vcai.mpi-inf.mpg.de/projects/DragGAN/ DragGAN从命名就可以看超乎,这是一款可以任意拖动图像来创作的AI绘图工具,无论是对象的形状、布局、姿态、表情、位置、大小,都可以做到精准控制,效果确实极为惊艳。 只要拖拽动作,确定生成图像的起点和终点,再根据对象的物理结构,用GAN生成在精细尺度上符合逻辑的图像,一张挑不出破绽的图就生成了,这真是太棒了! DragGAN主要的功能 包括以下两个部分: 第一,是基于特征的运动监控,驱动操作点向目标位置移动 第二,是一个新的点跟踪方法,利用区分性的GAN特征持续定位操作点的位置 通过DragGAN这款工具,哪怕你不会画画,也可以对像素进行精确的控制,进而编辑如动物、汽车、人类、风景等多种类别的姿态、形状、表情和布局。 由于这些可视化操作在DragGAN生成图像 ,因此它们倾向于生成逼真的输出,DragGAN即使在富有挑战性的场景下也是如此,例如被遮挡的内容和变形的图像。 定性和定量的对比表明,DragGAN在图像操作和点跟踪任务中,都明显由于目前的主流AI绘图工具。 DragGAN的横空出世表明,GAN模型开始模型了,或许它会比Diffusion模型(DALLE.2、Stable Diffusion和Midjourney)更具影响力。 此前,Diffusion模型一直在AI绘图领域大受欢迎,但生成式对抗网络GAN也引起了人们广泛的兴趣,Ian Goodfellow2017年提出GAN理论后,三年后它再次复兴。 不过这款工具目前还没开源,期待6月份的开源吧,到时AI绘图又会有一阵腥风血雨吧!

Stable Diffusion WebUI发布1.2.0 大佬AUTOMATIC1111二周后在更新大版本

图片
Stable DiffusionWebUI发布1.2.0 大佬AUTOMATIC1111二周后在更新大版本  今天 Stable Diffusion WebUI的开发大佬AUTOMATIC1111 发布1.2.0,二周后再次更新。 更新方法: 想升级的在 Stable Diffusion WebUI目录下 打开cmd命令窗口,运行git pull命令即可自动更新,不过新版本容易有bug,升级前务必先备份。 项目地址: https://github.com/AUTOMATIC1111/stable-diffusion-webui 更新内容: Features: do not wait for stable diffusion model to load at startup add filename patterns: [denoising] directory hiding for extra networks: dirs starting with . will hide their cards on extra network tabs unless specifically searched for Lora: for the  <...>  text in prompt, use name of Lora that is in the metdata of the file, if present, instead of filename (both can be used to activate lora) Lora: read infotext params from kohya-ss's extension parameters if they are present and if his extension is not active Lora: Fix some Loras not working (ones that have 3x3 convolution layer) Lora: add an option to use old method of applying loras (producing same results as with kohya-ss) add version to infotext, footer