DeepFaceLab 2019年历史版本更新记录!

2019年12月29日

fix faceset enhancer for faces that contain edited mask
人脸增强适用于带蒙版信息的图片

fix long load when using various gpus in the same DFL folder
修复在同一DFL文件夹中使用不同gpu时的长负载

fix extract unaligned faces
修复提取未对齐的人脸功能

avatar: avatar_type is now only head by default
阿凡达:默认情况下,阿凡达类型现在只有头部

2019年12月28日

FacesetEnhancer now asks to merge aligned_enhanced/ to aligned/
FacesetEnhancer 现在将aligned_enhanced合并到了aligned/

fix 0 faces detected in manual extractor
修复手动提取为零的问题。

Quick96, SAEHD: optimized architecture. You have to restart training.
Quick96,SAEHD:优化结构,你需要重新训练模型(重要,将不在兼容以前的模型!)

Now there are only two builds: CUDA (based on 9.2) and Opencl.
现在只有两个版了:基于9.2的CUDA和支持AMD的Opencl

2019年12月26日

fixed mask editor
修复遮罩编辑器

added FacesetEnhancer
添加人脸增强脚本
4.2.other) data_src util faceset enhance best GPU.bat
4.2.other) data_src util faceset enhance multi GPU.bat

FacesetEnhancer greatly increases details in your source face set,
FacesetEnhancer可以很好改善图片质量增强细节。

same as Gigapixel enhancer, but in fully automatic mode.
类似Gigapixel正确,但是现在是全自动,省去了很多步骤。

In OpenCL build works on CPU only.
OpenCL版本只能用CPU

before/after https://i.imgur.com/TAMoVs6.png
前后对比图片

 

2019年12月23日

Extractor: 2nd pass now faster on frames where faces are not found
提取器:第二阶段处理没有人脸的图片更快。

all models: removed options ‘src_scale_mod’, and ‘sort samples by yaw as target’
所有模型移除src_scale_mod 和 sort samples by yaw 参数

If you want, you can manually remove unnecessary angles from src faceset after sort by yaw.
如果你想要,那么根据yaw排序后手动删除不需要的角度

Optimized sample generators (CPU workers). Now they consume less amount of RAM and work faster.
优化样本生成器(CPU玩家) 现在他们消耗更少的RAM,工作更快。

added
新增

4.2.other) data_src/dst util faceset pack.bat
Packs /aligned/ samples into one /aligned/samples.pak file.
After that, all faces will be deleted.
src打包脚本,可以把人类压缩到一个文件里面

4.2.other) data_src/dst util faceset unpack.bat
unpacks faces from /aligned/samples.pak to /aligned/ dir.
After that, samples.pak will be deleted.
src解压脚本,可以把压缩文件解压成图片

Packed faceset load and work faster.
打包后的数据集加载和工作更快。

2019年12月20日

fix 3rd pass of extractor for some systems
针对某些系统,修复提取器的第三阶段提取。

More stable and precise version of the face transformation matrix
人脸转换矩阵更稳定,更精确的版本

SAEHD: lr_dropout now as an option, and disabled by default
When the face is trained enough, you can enable this option to get extra sharpness for less amount of iterations
SAEHD:lr_dropout现在是一个选项,默认情况下处于禁用状态
当面部经过足够的训练后,您可以启用此选项以减少重复次数,从而获得额外的清晰度。

added
4.2.other) data_src util faceset metadata save.bat
saves metadata of data_src\aligned\ faces into data_src\aligned\meta.dat
src 元数据保存

4.2.other) data_src util faceset metadata restore.bat
restore metadata from ‘meta.dat’ to images
if image size different from original, then it will be automatically resized
src 元数据恢复,如果图像尺寸与原始尺寸不同,则会自动调整尺寸

You can greatly enhance face details of src faceset by using Topaz Gigapixel software.
您可以使用Topaz Gigapixel软件极大地增强src面部表情的面部细节。

example before/after https://i.imgur.com/Gwee99L.jpg
演示图:

Download it from torrent https://rutracker.org/forum/viewtopic.php?t=5757118
下载地址

Example of workflow:
使用流程

1) run ‘data_src util faceset metadata save.bat’
运行保存脚本

2) launch Topaz Gigapixel
运行放大软件
3) open ‘data_src\aligned\’ and select all images
选中aligned所有图片

4) set output folder to ‘data_src\aligned_topaz’ (create folder in save dialog)
创建一个名为aligned_topaz输出目录

5) set settings as on screenshot https://i.imgur.com/kAVWMQG.jpg
you can choose 2x, 4x, or 6x upscale rate
设置参数,参考图片,可以选择放大倍数。

6) start process images and wait full process
开始处理图片

7) rename folders:
重命名文件夹
data_src\aligned -> data_src\aligned_original
data_src\aligned_topaz -> data_src\aligned

8) copy ‘data_src\aligned_original\meta.dat’ to ‘data_src\aligned\’
把meta.dat拷贝到aligned下面

9) run ‘data_src util faceset metadata restore.bat’
运行restore脚本

images will be downscaled back to original size (256×256) preserving details
metadata will be restored
图片会缩小到原始尺寸,元数据会恢复。

10) now your new enhanced faceset is ready to use !
现在,您可以使用增加后的人脸数据了。

2019年12月15日

SAEHD,Quick96:
improved model generalization, overall accuracy and sharpness
提示模型泛化能力,总统准确性和清晰度。

by using new ‘Learning rate dropout’ technique from the paper https://arxiv.org/abs/1912.00144
使用了新的“学习率下降”问题,参考论文地址:https://arxiv.org/abs/1912.00144

An example of a loss histogram where this function is enabled after the red arrow:
下图演示了启用新的学习率之后的效果。

 

2019年12月12日

removed FacesetRelighter due to low quality of the result
因为结果不是太理想,因此移除了人造阴影功能FacesetRelighter

added sort by absdiff
添加基于absdiff的排序

This is sort method by absolute per pixel difference between all faces.
这是通过所有脸图之间的绝对每像素差进行排序的方法

options:
选项

Sort by similar? ( y/n ?:help skip:y ) :
根据相似度排序?

if you choose ‘n’, then most dissimilar faces will be placed first.
如果你选择了否(N), 那么会先放置不相同的脸

‘sort by final’ renamed to ‘sort by best’
最终排序改名为最佳排序。

OpenCL: fix extractor for some amd cards
OpenCL(针对A卡) 修复了一些提取的问题

 

 

2019年11月14日

Converter: added new color transfer mode: mix-m
转换器:添加了新的颜色转移模式:mix-m

2019年11月13日

SAE,SAEHD,Converter:
SAE,SAEHD转换器

added sot-m color transfer
添加了sot-m的颜色转换选项。

Converter:
转换器
removed seamless2 mode
移出seamless2模式

FacesetRelighter:
数据集阴影

Added intensity parameter to the manual picker.
向手动选择器添加了强度参数。

‘One random direction’ and ‘predefined 7 directions’ use random intensity from 0.3 to 0.6.
“一个随机方向”和“预定义7个方向”使用0.3到0.6之间的随机强度。

== 12.11.2019 ==

FacesetRelighter fixes and improvements:
FacesetRelighter修复和改进

now you have 3 ways:
现在您有3种方法:

1) define light directions manually (not for google colab)
手动定义灯光方向(不适用于Google Colab)

watch demo https://youtu.be/79xz7yEO5Jw
查看演示:https://youtu.be/79xz7yEO5Jw

2) relight faceset with one random direction
2) 用一个随机方向重新照明面部

3) relight faceset with predefined 7 directions
3)使用预定义的7个方向为面部照明

2019年11月11日

added FacesetRelighter:
添加脸部数据集光线处理

Synthesize new faces from existing ones by relighting them using DeepPortraitRelighter network.
通过DeepPortraitRelighter网络对现有面孔添加不同光照来生成新的面孔

With the relighted faces neural network will better reproduce face shadows.
这么做之后可以更好的重现面部阴影。

Therefore you can synthsize shadowed faces from fully lit faceset.
这么一来即便你的数据集没有阴影,也可以合成很好的阴影效果。

as a result, better fakes on dark faces:
使用这个功能后效果更好

operate via
通过操作

data_x add relighted faces.bat
data_x delete relighted faces.bat

in OpenCL build Relighter runs on CPU
在OpenCL中,构建Relighter在CPU上运行

 

 

2019年11月09日

extractor: removed “increased speed of S3FD” for compatibility reasons
提取:出于兼容性原因,删除了“ S3FD提速”

converter:
转换:

fixed crashes
修复崩溃的问题

removed useless ‘ebs’ color transfer
移出颜色转换中的ebs

changed keys for color degrade
修改了color degrade的键

added image degrade via denoise – same as denoise extracted data_dst.bat ,
添加图片降噪,和降噪提取差不多。

but you can control this option directly in the interactive converter
但您可以直接在交互式转换器中控制此选项

added image degrade via bicubic downscale/upscale

SAEHD:
default ae_dims for df now 256. It is safe to train SAEHD on 256 ae_dims and higher resolution.
AE_dims默认值改为256,训练SAEHD的时候用256的AE和高像素是安全的。

Example of recent fake: https://youtu.be/_lxOGLj-MC8
最近做的一个换脸视频:https://youtu.be/_lxOGLj-MC8

added Quick96 model.
添加Quick96模型

This is the fastest model for low-end 2GB+ NVidia and 4GB+ AMD cards.
这是一个针对低端显卡的快速模型。适合2GB+的N卡和4GB+的A卡
Model has zero options and trains a 96pix fullface.
模型无需配置,默认训练96显示的全练模型。

It is good for quick deepfake demo.
该模型可以实现快速换脸。(当然牺牲了清晰度和质量)

Example of the preview trained in 15 minutes on RTX2080Ti:
这是用RTX2080TI训练了15分钟的效果。

2019年10月27日

Extractor: fix for AMD cards
提取:修复A卡的问题

2019年10月26日

red square of face alignment now contains the arrow that shows the up direction of an image
面部对齐的红色正方形现在包含显示图像向上方向的箭头

fix alignment of side faces
修复侧面对齐

Before https://i.imgur.com/pEoZ6Mu.mp4
after https://i.imgur.com/wO2Guo7.mp4

fix message when no training data provided
修复没有数据是的提示信息

 

2019年10月23日

enhanced sort by final: now faces are evenly distributed not only in the direction of yaw,
but also in pitch

增强“最终排序”功能,现在可以的脸部可以在yaw(左右)和pitch(上下)上均匀分布。

added ‘sort by vggface’: sorting by face similarity using VGGFace model.
添加一个vggface排序, 基于VGGFace的相似度排序

Requires 4GB+ VRAM and internet connection for the first run.
需要4G显存,首次使用需要联网

2019年10月19日

fix extractor bug for 11GB+ cards
修复11G显卡提取时候的bug

2019年10月15日

removed fix “fixed bug when the same face could be detected twice”
移除修复“修复相同的脸被提取两次”

SAE/SAEHD:
removed option ‘apply random ct’
移除随意颜色参数‘apply random ct’

added option
添加参数
Color transfer mode apply to src faceset. ( none/rct/lct/mkl/idt, ?:help skip: none )
把颜色转换应用于src数据集。
Change color distribution of src samples close to dst samples. Try all modes to find the best.
改变颜色让src和dst样本更加接近,尝试所有模型找到最好的一种。

before was lct mode, but sometime it does not work properly for some facesets.
之前版本默认用的是lct模式,但是对于有些人脸集合效果不好。

2019年10月14日

fixed bug when the same face could be detected twice
修复相似的脸重复提取的问题。

Extractor now produces a less shaked face. but second pass is now slower by 25%
现在,提取器提取的脸晃动更少。 但是第二阶段慢了25%(我感觉不止)

before/after: https://imgur.com/L77puLH
之前/之后

SAE, SAEHD: ‘random flip’ and ‘learn mask’ options now can be overridden.
SAE,SAEHD模型的 ‘random flip’,’learn mask’ 选项可以中途修改了。

It is recommended to start training for first 20k iters always with ‘learn_mask’
强烈建议前2万迭代开启learn_mask参数。

SAEHD: added option Enable random warp of samples, default is on
SAEHD:添加参数“random warp” ,默认为启用。

Random warp is required to generalize facial expressions of both faces.
“Random warp” 概括两张脸的表情是必需的。(不知道咋翻译)

When the face is trained enough, you can disable it to get extra sharpness for less amount of iterations.
当训练足够的次数之后,您可以禁用它以减少重复次数,这样达到同等清晰度的迭代数次更少

 

2019年10月10日

fixed wrong NVIDIA GPU detection in extraction and training processes
修复提取和训练N卡的错误识别

increased speed of S3FD 1st pass extraction for GPU with >= 11GB vram.
为11G显卡提示第一阶段速度

 

 

2019年10月9日

fixed wrong NVIDIA GPU indexes in a systems with two or more GPU
修复多张N卡序号错误的问题

fixed wrong NVIDIA GPU detection on the laptops
修复了笔记本电脑上N卡检测问题。

removed TrueFace model.
移除了TrueFace 模型

added SAEHD model ( High Definition Styled AutoEncoder )
添加SAEHD模型(高清样式的自动编码器)

Compare with SAE: https://i.imgur.com/3QJAHj7.jpg
与SAE比较https://i.imgur.com/3QJAHj7.jpg

This is a new heavyweight model for high-end cards to achieve maximum possible deepfake quality in 2020.
这是高端卡的新型重量级模型,可以称霸2020年(还能两个月~^_^)。

Differences from SAE:
与SAE的差别:

+ new encoder produces more stable face and less scale jitter
新的编码器生成的人脸更新稳定,抖动更少。

+ new decoder produces subpixel clear result
新的解码器可生成亚像素清晰度的视频

+ pixel loss and dssim loss are merged together to achieve both training speed and pixel trueness
pixel loss 和dssim loss 已经被合并进去,这样可以提升训练速度和像素真实性

+ by default networks will be initialized with CA weights, but only after first successful iteration
默认情况下,网络将使用CA权重进行初始化,但仅在首次成功迭代之后

therefore you can test network size and batch size before weights initialization process
因此,您可以在权重初始化过程之前测试网络大小和批次大小

+ new neural network optimizer consumes less VRAM than before
新的神经网络优化器消耗的显存有所降低

+ added option <Enable ‘true face’ training>
添加新的训练参数 trueface。

The result face will be more like src and will get extra sharpness.
启用后结果会更像src,并且可以提升清晰度。

Enable it for last 30k iterations before conversion.
启用这个参数最好在最后的3万迭代中。

+ encoder and decoder dims are merged to one parameter encoder/decoder dims
编码和界面的dims已经合并成一个参数

+ added mid-full face, which covers 30% more area than half face.
添加了mid-full脸类型,这个类型比半脸多出30%的区域。

example of the preview trained on RTX2080TI, 128 resolution, 512-21 dims, 8 batch size, 700ms per iteration:
实例演示,基于RTX2080ti, 128像素,512-21 dims , BS 8 每个迭代700ms

without trueface : https://i.imgur.com/MPPKWil.jpg
没有使用trueface

with trueface +23k iters : https://i.imgur.com/dV5Ofo9.jpg
使用了trueface

 

2019年9月24日

fix TrueFace model, required retraining
修复TrueFace 模型,需要重新训练。

 

2019年9月21日

fix avatar model
修复Avatar模型

2019年9月19日

SAE : WARNING, RETRAIN IS REQUIRED !
SAE : 警告,模型不兼容以往版本。

fixed model sizes from previous update.
针对上一个更新,修复模型大小的问题。

avoided bug in ML framework(keras) that forces to train the model on random noise.
避免了使用keras时随机噪声对模型的影响。

Converter: added blur on the same keys as sharpness
转换:添加锐化模糊。

Added new model ‘TrueFace’. Only for NVIDIA cards.
添加一个叫TrueFace的新模型,该模型仅适用于N卡

This is a GAN model ported from https://github.com/NVlabs/FUNIT
这是一个基于GAN的模型,具体内容可参考英伟达的开源项目FUNIT :https://github.com/NVlabs/FUNIT

Model produces near zero morphing and high detail face.
优点:该模型可以产生高相似度和高清晰度(细节)的人脸。

Model has higher failure rate than other models.
缺点:模型的失败概率远高于其他模型。

It does not learn the mask, so fan-x mask modes should be used in the converter.
它不会学习遮罩,所以在转换的时候应该使用fan-x的遮罩模式。

Keep src and dst faceset in same lighting conditions.
让src和dst的人脸集合保持光照一致。

2019年9月13日

Converter: added new color transfer modes: mkl, mkl-m, idt, idt-m
转换器:添加新的颜色处理方案:mkl,mkl-m,idt,idt-m

SAE: removed multiscale decoder, because it’s not effective
SAE:移除multiscale解码器,因为这东西没鸟用。

 

2019年9月7日

Extractor: fixed bug with grayscale images.
提取器:修复灰度图像、

Converter:
转换器:

Session is now saved to the model folder.
会话现在保存到模型文件夹中了。

blur and erode ranges are increased to -400+400
模糊和侵蚀范围增加到-400 + 400

hist-match-bw is now replaced with seamless2 mode.
hist-match-bw现在替换为seamless2模式。

Added ‘ebs’ color transfer mode (works only on Windows).
添加了’ebs’颜色转换模式(仅适用于Windows)。

FANSEG model (used in FAN-x mask modes) is retrained with new model configuration
FANSEG模型(用于FAN-x掩模模式)通过新的模型配置进行重新训练

and now produces better precision and less jitter
现在可以产生更好的精度和更少的抖动

 

2019年8月30日

interactive converter now saves the session.
交互式转换器现在会保存会话。

if input frames are changed (amount or filenames)
如果输入帧被更改

then interactive converter automatically starts a new session.
那么交互式转换器会自动启动新会话。

if model is more trained then all frames will be recomputed again with their saved configs.
如果模型训练得更好,那么所有的帧都会用他们保存的配置再次重新计算。

 

2019年8月27日

fixed converter navigation logic and output filenames in merge folder
修正了转换引导逻辑,以及合成后的输出的文件名

added EbSynth program. It is located in _internal\EbSynth\ folder
添加了EbSynth程序,位于_internal\EbSynth\

Start it via 10) EbSynth.bat
通过10) EbSynth.bat启动

It starts with sample project loaded from _internal\EbSynth\SampleProject
它会从_internal\EbSynth\SampleProject加载示例项目

EbSynth is mainly used to create painted video, but with EbSynth you can fix some weird frames produced by deepfake process.
EbSynth主要用于创建绘制视频,但使用EbSynth,您可以修复由deepfake过程产生的一些奇怪的帧。

使用之前: https://i.imgur.com/9xnLAL4.gifv
使用之后: https://i.imgur.com/f0Lbiwf.gifv
EbSynth的官方教程:https://www.youtube.com/watch?v=0RLtHuu5jV4

2019年8月26日

updated pdf manuals for AVATAR model.
更新了AVATAR模型的PDF手册。

Avatar converter: added super resolution option.
AVATAR转换器:添加超级分辨率选项。

All converters:
所有转换器:

fixes and optimizations
修复和优化

super resolution DCSCN network is now replaced by RankSRGAN
超级分辨率的方案从DCSCN网络换成了RankSRGAN

added new option sharpen_mode and sharpen_amount
添加了新选项sharpen_mode和sharpen_amount

 

2019年8月24日(模型训练直接报错)

Converter: FAN-dst mask mode now works for half face models.
转换器:半脸模型也可以用Fan-dst。

Added interactive converter.
添加了互动转换器

With interactive converter you can change any parameter of any frame and see the result in real time.
使用交互式转换器,您可以更改任何帧的任何参数并实时查看结果。

Converter: added motion_blur_power param.
转换:添加motion_blur_power参数

Motion blur is applied by precomputed motion vectors.
运动模糊通过应用预先计算的运动矢量实现。

So the moving face will look more realistic.
可以使移动的脸看起来更逼真。

RecycleGAN model is removed.
RecycleGAN模型已经被移出

Added experimental AVATAR model. Minimum required VRAM is 6GB for NVIDIA and 12GB for AMD.
添加阿凡达模型预体验,配置要求6G N卡,或12G A卡。

Usage:
使用方法:

1) place data_src.mp4 10-20min square resolution video of news reporter sitting at the table with static background,other faces should not appear in frames.
找一个静态背景,每一帧都只有一个人,方形的新闻播报类视频。片长10到20分钟。

2) process “extract images from video data_src.bat” with FULL fps
使用extract images from video data_src.bat脚本全帧率分割视频。

3) place data_dst.mp4 video of face who will control the src face
找一个用来控制原始的data_dst视频。

4) process “extract images from video data_dst FULL FPS.bat”
使用extract images from video data_dst FULL FPS.bat 脚本全帧率分割视频。

5) process “data_src mark faces S3FD best GPU.bat”
使用data_src mark faces S3FD best GPU.bat脚本

6) process “data_dst extract unaligned faces S3FD best GPU.bat”
使用data_dst extract unaligned faces S3FD best GPU.bat脚本

7) train AVATAR.bat stage 1, tune batch size to maximum for your card (32 for 6GB), train to 50k+ iters.
训练阿凡达模型第一阶段,把BS调整极限(6GB可以调32),训练到5万+迭代

8) train AVATAR.bat stage 2, tune batch size to maximum for your card (4 for 6GB), train to decent sharpness.
训练阿凡达模型第二阶段,把BS调整极限(6GB可以调4),训练到足够清晰

9) convert AVATAR.bat
使用训练好的模型进行转换

10) converted to mp4.bat
将图片合成合成MP4格式的视频

2019年8月16日(有坑勿用,19版亦如是)

fixed error “Failed to get convolution algorithm” on some systems
修复部分系统错误“Failed to get convolution algorithm”

fixed error “dll load failed” on some systems
修复部分系统错误“dll load failed”

model summary is now better formatted
修改模型下面的summary文件的格式,显示更多内容。

Expanded eyebrows line of face masks. It does not affect mask of FAN-x converter mode..
修改脸部遮罩,扩展眉毛部分区域,这个修改不影响Fan-x

ConverterMasked: added mask gradient of bottom area, same as side gradient
转换遮罩:为底部区域添加遮罩渐变。

2019年7月23日

OpenCL : update versions of internal libraries
OpenCL : 更新内部库的版本

 

2019年6月20日

 

Enable autobackup? (y/n ?:help skip:%s) :
启用自动备份

Autobackup model files with preview every hour for last 15 hours. Latest backup located in model/<>_autobackups/01
自动备份模型文件,过去15小时每小时一次。备份文件位于model目录下。

SAE: added option only for CUDA builds:
SAE:添加一个针对CUDA的选项

Enable gradient clipping? (y/n, ?:help skip:%s) :
启用渐变剪裁

Gradient clipping reduces chance of model collapse, sacrificing speed of training.
渐变裁剪减少了模型崩溃的可能性,牺牲了训练的速度。

 

2019年5月20日

OpenCL : fixed bug when analysing ops was repeated after each save of the model

OpenCL:修复每次保存模型就重复出现analysing ops 的问题。

2019年5月10日

fixed work of model pretraining

修复预训练

2019年5月8日

SAE: added new option
SAE:添加新选项
Apply random color transfer to src faceset? (y/n, ?:help skip:%s) :
对Src脸部应用随机颜色转换
Increase variativity of src samples by apply LCT color transfer from random dst samples.
通过应用随机dst样品的LCT颜色转移,来增加src样本的变异性。

It is like ‘face_style’ learning, but more precise color transfer and without risk of model collapse,
这有点象学习’face_style’,但相比之下更准确,没有模型崩溃的风险

also it does not require additional GPU resources, but the training time may be longer, due to the src faceset is becoming more diverse.
同时它也不需要额外的GPU资源,但由于src 变得更加多样化,训练时间可能会更长。

2019年5月1日

SAE: added option ‘Pretrain the model?’
SAE: 添加模型预训练参数

Pretrain the model with large amount of various faces.
用大量的人脸进行预训练。
This technique may help to train the fake with overlay different face shapes and light conditions of src/dst data.
通过覆盖不同的脸部形状和光照条件可能会提升模型效果。

Face will be look more like a morphed. To reduce the morph effect,
用这种方式脸部看起来会有些变形,为了减少这种变形效果,

some model files will be initialized but not be updated after pretrain: LIAE: inter_AB.h5 DF: encoder.h5.
一些模型文件将被初始化但在预训练后不会更新:LIAE:inter_AB.h5 DF:encoder.h5。

The longer you pretrain the mode,lthe more morphed face will look. After that, save and run the training again.
预训练模型的时间越长,变形的脸就会越多。 然后,保存并再次运行模型就会进入常规模式。

2019年4月28日

fix 3rd pass extractor hang on AMD 8+ core processors
修复 提取脸部第三阶段的问题,主要针对AMD 8核CPU

Converter: fixed error with degrade color after applying ‘lct’ color transfer
转换:修复lct下使用degrade color出错的问题。

added option at first run for all models: Choose image for the preview history? (y/n skip:n)
为每个模型添加配置项: 为预览窗口选择图片。

Controls: [p] – next, [enter] – confirm.
控制:[p] -下一个,[enter] – 确认

fixed error with option sort by yaw. Remember, do not use sort by yaw if the dst face has hair that covers the jaw.
修复Yaw模式的排序问题。记住,如果dst脸部有覆盖下巴的头发,请不要使用yaw模式。

2019年4月24日

SAE: finally the collapses were fixed
SAE: 崩溃的问题终于解决了

added option ‘Use CA weights? (y/n, ?:help skip: %s ) :
添加 Use CA weights选项

Initialize network with ‘Convolution Aware’ weights from paper https://arxiv.org/abs/1702.06295.
使用Convolution Aware初始化权重,参考论文:https://arxiv.org/abs/1702.06295.

This may help to achieve a higher accuracy model, but consumes a time at first run.
这也许能够实现高精度模型,但是首次运行会比较慢。

2019年4月23日

SAE: training should be restarted
SAE:模型必须重新训练

remove option ‘Remove gray border’ because it makes the model very resource intensive.
移除了Remove gray border选项,因为他会使得模型非常耗费资源。

2019年4月21日

SAE:
fix multiscale decoder.
修复多尺度解码器
training with liae archi should be restarted
使用liae训练的模型必须重新来过

changed help for ‘sort by yaw’ option:
修改sort by yaw的帮助信息
NN will not learn src face directions that don’t match dst face directions. Do not use if the dst face has hair that covers the jaw.
神经网络不会学习与dst面部方向不匹配的src面部。 如果dst脸部的头发覆盖下颚,请不要使用。

2019年4月20日

fixed work with NVIDIA cards in TCC mode
修复N卡 TCC模式

Converter: improved FAN-x masking mode.
转换器:优化Fan-x 遮罩模式
Now it excludes face obstructions such as hair, fingers, glasses, microphones, etc.
现在能排除那些脸部遮挡了,比如头发,手指,眼镜,麦克风,diao 等!

example https://i.imgur.com/x4qroPp.gifv
演示:https://i.imgur.com/x4qroPp.gifv
It works only for full face models, because there were glitches in half face version.
新功能仅适用于全脸模型,因为半脸版本有毛刺。

Fanseg is trained by using manually refined by MaskEditor >3000 various faces with obstructions.
Fanseg通过使用MaskEditor> 3000手工精制的各种面部障碍物进行训练而成。

Accuracy of fanseg to handle complex obstructions can be improved by adding more samples to dataset, but I have no time for that 🙁
通过向数据集添加更多样本可以提高fanseg处理复杂障碍物的准确性,但我没有时间:(没有时间:

Dataset is located in the official mega.nz folder.
训练的数据集就在官方mega.nz文件夹中。

If your fake has some complex obstructions that incorrectly recognized by fanseg,
如果你换脸的时候有一些复杂的障碍物被fanseg错误识别,

you can add manually masked samples from your fake to the dataset
你可以手动将你的样本添加到数据集中

and retrain it by using –model FANSEG argument in bat file. Read more info in dataset archive.
然后通过在BAT文件中添加 –moel FANSEG 参数重新训练。更多内容请看数据集。

Minimum recommended VRAM is 6GB and batch size 24 to train fanseg.
训练fanseg的推荐配置为,显存6GB,BS 24
Result model\FANSeg_256_full_face.h5 should be placed to DeepFacelab\facelib\ folder
训练完后需要将model\FANSeg_256_full_face.h5 放到DeepFacelab\facelib\替换同名文件。

Google Colab now works on Tesla T4 16GB.
谷歌云笔记本现在的配置是Tesla T4 16GB
With Google Colaboratory you can freely train your model for 12 hours per session, then reset session and continue with last save.
你可以使用谷歌云笔记本训练模型,但是回话会最多只能持续12小时,然后环境会重置。

2019年4月06日

  • 添加试验性的蒙版编辑器
  • 更新SAE,更新之后不支持老的模型。
  • 更新SAE,大大降低了模型崩溃的可能性。
  • 更新SAE,提高了模型的准确性。
  • 更新SAE,Residual blocks 成为默认配置,移除了配置选项。
  • 更新SAE,提升了learn mask
  • 更新SAE,添加了遮罩预览(按空格键切换)。
  • 更新转换器,修复seamless 模式下的rct/lct。添加一个mask mode选项: learned*FAN-prd*FAN-dst
  • 修复在非预览模式下Ctrl+C 退出的问题。

 

蒙版编辑器说明

它的创建是为了改进FANSeg模型,但你可以尝试在换脸中使用它。
但请记住:它并不能保证质量的提高。
使用方法:
运行 5.4) data_dst mask editor.bat

编辑那些DST脸部中有障碍物的遮罩。
使用 ‘learn mask’ 或’style values’训练SAE
截图预览: https://i.imgur.com/SaVpxVn.jpg
使用蒙版编辑训练和合并的结果: https://i.imgur.com/QJi9Myd.jpg
复杂的遮罩更难训练。

2019年3月31日

  • 修复seamless模式的脸部抖动
  • 删除两个配置选项,分别是 Suppress seamless jitter 和 seamless erode mask modifier.
  • seamlessed face现在正确使用模糊修饰符(不懂。。。机翻)
  • 添加选项’FAN-prd&dst’ – 使用相乘的FAN prd和dst遮罩(不懂….机翻)

2019年3月26日

  • 修改SAE模型,移除了轻量级编码器(lightweight encoder)。
  • 修改SAE模型,继续训练的时候可以修改optimizer mode这个选项了。
  • 修改训练过程,损失线现在显示保存后的平均损失值
  • 修复转换过程中没有没有脸拷贝文件的问题。
  • 升级图片预览工具XNViewMP
  • 修复 cut video.bat 路径带空格的问题。

2019年3月24日

  • 修改SAE模型,修改后老得SAE模型将不再适用于新的版本
  • 修复SAE的BUG,解决一段时间后崩溃的问题。
  • 修改SAE模型,移除了 CA weights , encoder/decoder dims,这三个选项。
  • 新增模型参数,Encoder dims per channel,Decoder dims per channel,Add residual blocks to decoder,Remove gray border
  • 新增提取参数,Output image format?  输出图片格式可选JPG 和PNG

参数的一些说明:

Encoder dims per channel (21-85 ?:help skip:%d)

编码器选项,数值越大就能识别越多的面部特征。但是需要更多的显存,您可以微调模型大小以适合您的GPU

Decoder dims per channel (11-85 ?:help skip:%d)

解码器选项,数值越大,细节越好。但是需要更多的显存,您可以微调模型大小以适合您的GPU

Add residual blocks to decoder? (y/n, ?:help skip:n) :

这些残余块助于获得更好的细节,但需要更多的计算时间。

Remove gray border? (y/n, ?:help skip:n) :

删除预测面的灰色边框,但需要更多的计算资源。

Output image format? ( jpg png ?:help skip:png ) :

视频转图片,输出可选文件格式jpg或png.

PNG是无损的,但它生成的图像大小为JPG的10倍。

JPG提取速度更快,尤其是在HDD硬盘上。

 

2019年3月21日

  • 修复OpenCL版本,支持更多的显卡。
  • 修复了SAE在一段时间内可能出现崩溃的问题,新版不支持老版本的model,也就是老丹白练了。
  • 添加选项Use CA weights  使用“Convolution Aware”权重初始化网络。这可能有助于实现更高精度的模型,但在首次运行时会消耗时间。
  • 移除过时的DLIB提取器,建议使用S3FD 提取器,能大大提高精度。
  • 更新转换器,添加针对全脸模型的Mask。

Mask模式:(1) learned, (2) dst, (3) FAN-prd, (4) FAN-dst (?) help. Default – 1 :

Learned :如果训练模型的时候选Learn maks那么转换的时候就选这个,这个选项换脸后轮廓相当平滑,但可能摇摆不定。
Dst ?:源脸的原始Mask,摇晃的轮廓。
FAN-prd : mask from pretrained FAN model from predicted face. 非常光滑而不会摇晃的轮廓。
FAN-dst : mask from pretrained FAN model from dst face. 非常光滑而不会摇晃的轮廓。

FAN优点:    光滑而不会摇晃的轮廓

FAN缺点:如果脸部受阻,可能会在轮廓上产生伪影

下载:magnet:?xt=urn:btih:A148C2178F87F9195EB3A90FD519B651EDA42C58

2019年3月13日

  • 新增SAE模型配置项Optimizer mode,  这是低配N卡人群的福利参数。
  • Epoch term 名字改成 iteration term.
  • 训练过程在控制台显示时间。

Optimizer mode? ( 1,2,3 ?:help skip:1) :  (选项说明)
1 – default.  (默认)
2 – allows you to train x2 bigger network, uses a lot of RAM. (网络翻倍, 使用一部分内存)
3 – allows you to train x3 bigger network, uses huge amount of RAM and 30% slower.(网络x3,使用跟多内存,降速30%)

Optimizer mode 这个参数和核心用意,是为了解决显存不够OOM的情况。在同等显卡配置下,可以通过将这个参数设置为2或3提高神经网络的复杂度。换句话说,低配显卡能运行相对复杂的神经网络。再直接点说,就是你之前的配置跑不了,通过这个配置就能跑了。

 

下载:magnet:?xt=urn:btih:C363301FCF40D8A3F99B8CC5153603526678B08C

2019年3月11日

  • 对于CUDA10.1用户,需要更新你们的想卡驱动
  • 添加新的脸部提取方法S3FD- 更加精确,减少错误,提取更快
  • 优化DLib,提示第一阶段的速度。
  • 优化所有提取器,减少“假脸”。
  • 优化手动提取器,添加了“h”按钮以隐藏帮助信息
  • 优化安装包,减小APP与系统Python之间的冲突。
  • 删除不需要的控制台信息,看起来更加简洁明了

下载:magnet:?xt=urn:btih:DBA1FFD2EECE6F9AD672CE1AD1C5BD3F6A0637D1

 

2019年3月7日

  • 发布了三个预编译版版本(CUDA9.2 SSE,CUDA10.1AVX,OpenClSSE)
  • SSE版本的CDUA从9.0升级到9.2
  • AVX版本的CUDA从10.0升级到10.1
  • Python升级到python 3.6.8
  • 缩减了预编译安装包,删除一些无用文件,安装体积变小。

说明: 主要是版本依赖升级,并不修改核心代码。这三个预编译的集成板都有自己适用的范围。

  • SSE  低配版,针对低配低CUDA版本的NVIDIA卡,最高到 GTX1080 和64为CPU。
  • AVX 完全版,支持安装最新CUDA10.1的NVIDIA卡,适用于支持AVX指令的NVIDIA RTX和CPU。
  • OpenCL兼容版,支持AMD/IntelHD 显卡和所有64位CPU

下载地址:magnet:?xt=urn:btih:34528CAEE3077C86C155DE0DA116403785E3EE41

2019年3月4日

  • 首次划分成三个版本(CUDA9 SSE,CUDA10AVX,OpenClSSE)
  • 从原先固定CPU到使用所有CPU
  • 灰度梯度求均值,优化合成视频效果。
  • 更新每个版本requirements文件
  • 修改multiscale_decoder默认值为NO
  • 加入Python版ffmpeg

版本说明:

  • SSE  低配版,针对低配低版本NVIDIA卡
  • AVX 完全版,高配NVIDIA卡
  • OpenCL兼容版,支持A卡,支持CPU。

下载地址:magnet:?xt=urn:btih:4CCAA5D3A0E02C5079B28A3567EFFB9A49BAEDCD

2019年3月1日

  • 修复seamless模式合成视频抖动的问题

2019年2月28日

  • 优化提取器
  • 优化排序工具,可以自定义最终脸部数量
  • 优化转化器,修复seamless
  • 修复提取,如果不具备系统要求,着退回CPU处理。
  • 升级到 cuda 10.0, cudnn 7.4.1, tf 1.13.1, dlib 19.16.0

2019年2月22日

  • 软件重构,涉及多个文件
  • 优化手动提取,可获取高质量jpg面部数据
  • 优化排序工具,对于N卡,A卡,集成卡需要的可用内存从512降到256。
  • SAE模式优化,脸部像素范围扩展至64~256 ,可以训练高像素图片。