【不満】DFL【日記】 [無断転載禁止]©bbspink.com
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2020/01/16(木) 05:47:06.17ID:oYeQQY9l
DFLの不満をぶちまけよう。ただそれだけです。質問/回答禁止
物好きな人ぐらいしかレスしなくていいです
あと、僕の日記もOK

DFLの質問と回答はここへ
【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/
0212名無しさん@ピンキー2020/02/24(月) 17:09:34.08ID:JD+S1Xp8
ぐはあ。また昔のDVDを切り出したまま
720×480でやってしまった
640×480にしないと、顔の横幅が引き伸ばされて大きく
顔抽出を修正して
今のモデルから継続trainでうまくいくかな?
0213名無しさん@ピンキー2020/02/24(月) 23:37:43.39ID:JD+S1Xp8
バッチを書き換えれば、任意のフォルダの顔画像をSortしたりエンハンスしたりできるな
Trainとかもできそう
しかし元に戻さないと、色々とややこしそう。ミスの元
0214名無しさん@ピンキー2020/02/25(火) 18:06:22.19ID:rM2xddLU
昔のトレジャー女優の麻○淳○がデコ出しで眉毛が見えているので
○宮○子をsrcにして
臭正女優を無臭女優にやってみるのをTry中
0215名無しさん@ピンキー2020/02/26(水) 00:26:09.37ID:4DwI6Q0H
dstの顔、肌色が赤みがかっているのだが
rctトレインにすると、srcの肌が赤みかかるのね
0216名無しさん@ピンキー2020/02/26(水) 00:48:01.56ID:4DwI6Q0H
フォーラムのダウンロードスレッドDFL1,0とDFL2.0の2つだけにしてくれと言われた
スレタイにdeletedとしたら、管理者から削除された
0218名無しさん@ピンキー2020/02/26(水) 02:56:47.38ID:4DwI6Q0H
しかし、DFLのTrain中であっても、
動画のH.265への再エンコードや、BD-R DLへの書き込みなど同時にできる
0219名無しさん@ピンキー2020/02/26(水) 03:44:18.10ID:4DwI6Q0H
random warpは
src画像の変形と回転をやって学習させることでいろんなバリエーションに対しての汎化度を上げている

random warpオフでも、
srcの抽出コマを多くしたら、よく学習できるのかな?
0220名無しさん@ピンキー2020/02/26(水) 05:15:52.03ID:4DwI6Q0H
DドライブのHDDの残り容量が少なくなっていると思ったら、
女優名_SAEHD_autobackupsフォルダが100GBくらい
いつまでも保管しておく物じゃないな
0221名無しさん@ピンキー2020/02/26(水) 06:12:20.20ID:4DwI6Q0H
Eyes priority: yにすると、全体的なloss値の低下が遅くなる様な気がする
0224名無しさん@ピンキー2020/02/26(水) 22:42:13.23ID:4DwI6Q0H
GeForce RTX 20シリーズの「NVLink」は従来のSLIの欠点を克服している?
http://www.jisaka.com/archives/28548553.html
従来のSLIは,レンダリング結果として出力されたピクセルデータだけを共有するものだったが,
NVLink時代のSLIでは,2基のGPUがまるであたかも1つのGPUのように振る舞って動作できるところに特徴がある。
たとえばRTX 2080 Tiを2枚差ししたシステムでは,総CUDA Coreが8704基(=4352基×2)に上る1基のGPUとして動作させることができるのだ。
またグラフィックスメモリも共有できるため,RTX 2080 TiのSLI構成であれば,グラフィックスメモリは22GB(=11GB×2)ということになる。
それぞれのGPUに接続されているものが共有利用できるので11GB搭載のGeForce RTX 2080 Ti×2枚差しのシステムであれば単一の22GBとして利用できるのだ。
0226名無しさん@ピンキー2020/02/27(木) 01:03:32.88ID:AnE31Pt7
train mergeともrctでやったら、眉毛の上の黒い前髪が無くなった様な。。
単にtrain数が増えたからかな?
0227名無しさん@ピンキー2020/02/27(木) 08:22:30.15ID:AnE31Pt7
Face++の顔検出Web APIを使用して、
data_src\alignedフォルダの顔画像を、gender == 'Female'でage < 30 and age > 15の人だけ、
matchフォルダに移動するPythonスクリプトができた
映画やTVドラマなどで、男優さんや歳の人が混ざっている時に役立ちそう
参考サイト
https://hibiki-press.tech/learn_prog/python/faceplusplus/2388
https://github.com/hibikisan2018/learn_python/blob/master/face_recognition/face_detection.py
https://mrdeepfakes.com/forums/thread-facial-recognition-script-to-sort-aligned-folder

Face++サイトに登録してAPI KeyおよびAPI Secretの取得が必要
python face_detection.py data_src\aligned
0228名無しさん@ピンキー2020/02/27(木) 08:32:16.31ID:AnE31Pt7
>>227
しかし、えらい時間がかかりますね。WebのAPIコールしているからかな?
これも、sort_by_face.pyと同じく、2回目流そうとすると、あまり上手く行かない様な。。
Pythonのローカルライブラリに、性別、年齢判定の簡単な奴が無い。。
0229名無しさん@ピンキー2020/02/27(木) 08:43:33.83ID:AnE31Pt7
デモ ローカル画像をアップロードするか、画像のURLを指定して、顔検出を今すぐ試してください。
https://www.faceplusplus.com/face-detection/#demo

人の顔を解析する便利なAPI
https://qiita.com/kudota/items/52a197e271474e022b63

画像の年齢や性別などを当ててもらう

curl -X POST "https://api-us.faceplusplus.com/facepp/v3/detect"; -F "api_key=API_KEY" -F "api_secret=API_SECRET" -F "image_filel=@image_file.jpg" -F "return_attributes=gender,age"

curlはmsys64をインストールすれば使える
0230名無しさん@ピンキー2020/02/28(金) 01:00:07.45ID:Y51LP6dH
02_27_2020版で5) data_dst extract faces S3FD best GPU.batで
512で顔抽出されています
0233名無しさん@ピンキー2020/02/28(金) 02:14:05.43ID:Y51LP6dH
おお。02_23_2020版で、srcを色々な映画から切り出したので、
顔色の悪い完成動画があったのですが、
rctでtrainしてrctでmergeで顔色が良くなりました
0234名無しさん@ピンキー2020/02/28(金) 02:34:07.19ID:Y51LP6dH
ファミレスで聞いた馬鹿な話

俺さあ。最近めっちゃ金貯まる様になったんだよね

ええ?本当?何か儲かったのか?

最近パチンコやめたんだよね。そしたらめっちゃ金貯まる様になった

マジか。俺もパチンコやめてみようかな

本当にかわうそな二人でした
0235名無しさん@ピンキー2020/02/28(金) 02:37:42.19ID:Y51LP6dH
そんな事より1よ、ちょいと聞いてくれよ。スレとあんま関係ないけどさ。
昨日、近所の吉野家行ったんです。吉野家。
そしたらなんか人がめちゃくちゃいっぱいで座れないんです。
で、よく見たらなんか垂れ幕下がってて、150円引き、とか書いてあるんです。
もうね、アホかと。馬鹿かと。
お前らな、150円引き如きで普段来てない吉野家に来てんじゃねーよ、ボケが。
150円だよ、150円。
なんか親子連れとかもいるし。一家4人で吉野家か。おめでてーな。
よーしパパ特盛頼んじゃうぞー、とか言ってるの。もう見てらんない。
お前らな、150円やるからその席空けろと。
吉野家ってのはな、もっと殺伐としてるべきなんだよ。
Uの字テーブルの向かいに座った奴といつ喧嘩が始まってもおかしくない、
刺すか刺されるか、そんな雰囲気がいいんじゃねーか。女子供は、すっこんでろ。
で、やっと座れたかと思ったら、隣の奴が、大盛つゆだくで、とか言ってるんです。
そこでまたぶち切れですよ。
あのな、つゆだくなんてきょうび流行んねーんだよ。ボケが。
得意げな顔して何が、つゆだくで、だ。
お前は本当につゆだくを食いたいのかと問いたい。問い詰めたい。小1時間問い詰めたい。
お前、つゆだくって言いたいだけちゃうんかと。
吉野家通の俺から言わせてもらえば今、吉野家通の間での最新流行はやっぱり、
ねぎだく、これだね。
大盛りねぎだくギョク。これが通の頼み方。
ねぎだくってのはねぎが多めに入ってる。そん代わり肉が少なめ。これ。
で、それに大盛りギョク(玉子)。これ最強。
しかしこれを頼むと次から店員にマークされるという危険も伴う、諸刃の剣。
素人にはお薦め出来ない。
まあお前らド素人は、牛鮭定食でも食ってなさいってこった。
0236名無しさん@ピンキー2020/02/28(金) 02:49:16.62ID:Y51LP6dH
02_27_2020版で4) data_src extract faces S3FD best GPU.batも
512抽出で動作しています
0237名無しさん@ピンキー2020/02/28(金) 03:39:49.19ID:Y51LP6dH
02_27_2020版で4.2) data_src util faceset enhance.batも動作していますね
dstが動作したから当然か
0238名無しさん@ピンキー2020/02/28(金) 09:09:28.16ID:Y51LP6dH
==---------- Model Options ----------==
== resolution: 256 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: dfhd ==
== ae_dims: 512 ==
== e_dims: 96 ==
== d_dims: 96 ==
== d_mask_dims: 16 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: True ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: rct ==
== clipgrad: False ==
== pretrain: False ==
== write_preview_history: False ==
== random_flip: False ==
== batch_size: 2 ==
0239名無しさん@ピンキー2020/02/28(金) 09:10:19.03ID:Y51LP6dH
==----------- Running On ------------==
== Device index: 0 ==
== Name: TITAN RTX ==
== VRAM: 24.00GB ==
0240名無しさん@ピンキー2020/02/28(金) 09:17:49.22ID:Y51LP6dH
srcとdstのloss値が同じペースで低下している。。
(新規srcで0からtrain)
0241名無しさん@ピンキー2020/02/28(金) 09:57:57.58ID:Y51LP6dH
広○す○の他、橋○環○も眉毛、デコ出し素材があるのでやりやすい
0243名無しさん@ピンキー2020/02/28(金) 17:04:12.26ID:Y51LP6dH
もしかして、dimsを上げられれば、power系の味付けも不要になったりして。。
0244名無しさん@ピンキー2020/02/28(金) 18:54:24.49ID:Y51LP6dH
dstに対して、dimsやResの値が大きい場合、loss値の絶対値がそれほど下がらなくても、
結構実用的な完成動画ができる気がする
0245名無しさん@ピンキー2020/02/29(土) 00:52:44.86ID:ScrmdSJK
setenv.batでシステムのCUDA 9.2 を参照する様にすると
OOMエラーで落ちる様な。。
元に戻してもOOMエラーで落ちた
アプリ、グラボドライバ、Windowsアップデートで再起動してtrain再開
同時にH.265へのCPUエンコードをしていたからかな?
0246名無しさん@ピンキー2020/02/29(土) 07:43:14.17ID:ScrmdSJK
2台目のPC、サブ機が、エクスプローラーが固まる
動画をMPC-HCで再生しようとした時とか、Blu-rayにアクセスしようとした時とか
システムメモリぎりぎり使用しているな。CPU負荷も高い
ffmpegでの動画のコマ切り出しとか、Smart Defragも同時実行
メモリ+16GBして、32GBくらい必要かな?
ディスプレイのオンボード接続がまずいのかな?
0247名無しさん@ピンキー2020/02/29(土) 08:23:29.33ID:ScrmdSJK
BDドライブのソフトインストール、ファームアップデートで随分ましになった
CCleanerでレジストリクリーン
動画再生しようとすると固まるな。メモリもやたらと食っている
0249名無しさん@ピンキー2020/02/29(土) 18:41:52.38ID:ScrmdSJK
モデルの完成に時間がかかるので、srcモデルも使いまわした方がよさそう
0251名無しさん@ピンキー2020/03/01(日) 03:57:53.69ID:IAnqn3Ix
4.2) data_src sort by similar histogram.batが、顔画像数が多い場合
2スレッドで動作するのか?
高速になった様な。。
0252名無しさん@ピンキー2020/03/01(日) 13:28:23.14ID:IAnqn3Ix
横顔はまだやらないので
4.2) data_src sort by face yaw.batを使用して
右横顔、左横顔フォルダに待避して、顔画像数を減らしている
0254名無しさん@ピンキー2020/03/01(日) 17:36:36.32ID:IAnqn3Ix
srcを橋○環○学習済みモデルから、継続trainで
広○す○を学習中。果たしてうまくいくか??
0255名無しさん@ピンキー2020/03/01(日) 22:28:17.17ID:IAnqn3Ix
○本○奈学習済みモデルから、継続trainで○瀬○ずを学習で
プレビュー的には○本○奈の名残もなく、○瀬○ずに似てきた
srcモデルは使いまわしでいいみたい
0256名無しさん@ピンキー2020/03/02(月) 00:47:05.73ID:W7zY6nx2
バッチ数がぎりぎりだと、2台目のPCからファイルコピー、移動でも、Trainが落ちたりするみたい

Mask Editorで開いてみたら、顎の輪郭も誤解しているものがあった
どうりで顎のあたりがボケるはず

TITAN RTXでしか回らないTrain設定なので、2台目のPCは顔抽出やMask Editor、動画のコマ抽出や
DFL以外の作業に使用。BDからMkvとか

パソコン工房でBDドライブをポイントのみで購入したら、BDリードできるが、BDライトができない物だった
ライトはDVDまで。世の中にその様な仕様のBDドライブがあるとは。。
0257名無しさん@ピンキー2020/03/02(月) 00:54:30.65ID:W7zY6nx2
一時期、眉毛、前髪で暴れていた人はすっかりおさまった様ですね
顔認識の手法はDFL\_internal\DeepFaceLab\docフォルダの
landmarks.jpgとlandmarks_98.jpgを参照
DFLの作者がオリジナルに考えた事ではない
オリジナルに考えた手法があれば、英語で論文が発表されているはず。話題になっているはず
眉毛前髪かかりは、顔の前に邪魔な障害物があるので
srcをMask Editorでマスク作業必須
作者の鍛えたFANSEGモデルに、前髪と舌は無いよ
眉毛前髪かかりは、日本人と韓国人くらいのものだし
他の国の人にとっては、眉毛前髪かかりは何ぞ?でしょう
0258名無しさん@ピンキー2020/03/02(月) 13:41:26.66ID:W7zY6nx2
res256 dims512/96/96/16はオーバースペックの様な気もする
バッチ2でしか回らないし
res256 dims512/96/96/16で480pの顔のどアップでやってみよう
0259名無しさん@ピンキー2020/03/02(月) 13:43:50.58ID:W7zY6nx2
コントロールパネル→マウス→ホイール
1度に次の行数スクロールする 3→10くらいでいい感じ
0260名無しさん@ピンキー2020/03/02(月) 13:59:36.36ID:W7zY6nx2
res256 dims512/64/64/16が最低ラインとして、e/d_dimsをどこまで上げられるか?
バッチ数は4くらいは欲しいな
0261名無しさん@ピンキー2020/03/03(火) 23:59:38.09ID:z6qgtnWg
長○愛ちゃんの顔の年齢判定をgad.pyでしたら、4-6歳に。。
0262名無しさん@ピンキー2020/03/04(水) 00:07:27.76ID:A6NFYpu5
gad.pyだと、顔だけのアップ画像だとうまくいかないな
workspace\data_src\aligned画像ならだめで
workspace\data_src画像だとうまくいく
0264名無しさん@ピンキー2020/03/04(水) 01:11:46.03ID:A6NFYpu5
train時rctにしたら顔色が変になる物があった
res: 256、dims:512/80/80/16でもバッチ3で動作する
res: 256、dims:512/80/64/16でもバッチ3で動作する
480pの顔のどアップ笛に耐えられるか?
0265名無しさん@ピンキー2020/03/05(木) 04:02:02.51ID:6fzkpuLH
おお
Wiki作成してよかった
ありがとうございます
FAQやスレのまとめなど頑張ろうかな
0266名無しさん@ピンキー2020/03/05(木) 18:08:32.87ID:6fzkpuLH
VRAM 8GBだとarch:dfhdが難しく、arch:dfの様だ
res: 256 dims: 256/64/64/22 batch:4 face_type: f
models_opt_on_gpu: True random_warp: False learn_mask: False
eyes_prio: False Power系:0.0 ct_mode: none random_flip: False

models_opt_on_gpu: Falseにしてもバッチ数は大差なし。ループが遅くなるだけ
learn_maskは最後の方に。eyes_prioはどうしても視線が合わない時に
random_warp: falseなのはsrcの枚数が多く、類似顔が多いから
ct_modeはsrcの照明条件がバラバラで、完成動画の顔色がおかしい時に
ct_mode: rctとかにしてみる
Power系も変更するなら最後の方に変更
0267名無しさん@ピンキー2020/03/06(金) 02:09:04.86ID:a6N9UcyQ
df res: 256 dims: 256/64/64/22 batch:4の方が、
dfhd res: 256、dims:512/80/64/16 batch:3よりdstのloss値が下がるのが速いですね
0268名無しさん@ピンキー2020/03/06(金) 03:55:56.26ID:a6N9UcyQ
Windows10で動画ファイルを再生しようとすると、しばらく固まっていたが
MediaPreviewConfの設定がおかしかっただけかもしれない
MediaPreviewConfでApplyをクリックで症状が出なくなった様だ
0269名無しさん@ピンキー2020/03/06(金) 05:24:46.88ID:a6N9UcyQ
srcはつべでインタビュー、CMとか入手できると楽ですね
映画やTVドラマは別人を除くのが大変。。
IVとかでもいいけど、レンタルだとDVDのみでBlu-rayが無いとか。。
0270名無しさん@ピンキー2020/03/06(金) 07:35:51.00ID:a6N9UcyQ
train時にsort_by_yawが無くなったので
srcとdstを混ぜてsort_by_yawし、dstに無いsrcはtrain用としては削除して
src枚数を減らしてみた
手作業でのミスでdstが少し少なくなってしまった。dstを補充
dstが重複しているか、全コマMaskしたけど、Maskされていないコマが残ってしまったか
src枚数が多いとloss値が下がりにくい。Train時間がかかる
train時にsort_by_yawが欲しいな
0271名無しさん@ピンキー2020/03/06(金) 08:43:59.99ID:a6N9UcyQ
face_recognition_cli.pyだが、--toleranceがデフォルトの0.6だと別人とマッチしすぎ
0.5でも別人と1ファイルだけマッチした
0.4でようやく別人と判断。0.4で同一人物は同一人物として判断
しかしソースコードでは--toleranceオプションの指定が無効ですがな
ソースコードは少し修正
py face_recognition_cli.py --cpus 12 'known_people_folder' 'image_to_check'
しかし1枚の画像判定にしてはかなり時間がかかりますね
'known_people_folder'に30枚の画像を置いたからかな?
GPUで処理するなんて難しすぎます。。
正面顔でないと顔でないとする様です。角度が厳しいと無理
0272名無しさん@ピンキー2020/03/06(金) 16:48:22.70ID:a6N9UcyQ
8GBでQuick256だと
res: 256 dims: 256/64/48 batch:8で動作
SAEHDはプログラム中で何倍かしている箇所があるそうだし、dimsの意味合いは違う
バッチ数が多いと縦4行表示なのね
0273名無しさん@ピンキー2020/03/06(金) 16:55:46.70ID:a6N9UcyQ
1ループ380ms程度。高速に完成すればいいな
VRAM 24GBだと大幅にパラメーターを上げられたはず
0274名無しさん@ピンキー2020/03/06(金) 17:15:16.40ID:a6N9UcyQ
2台目のPCから1台目のPCにリモートデスクトップで乗り込んだ後、
ディスプレイの入力I/Fを切り替えると
1台目のPCがロック画面になっています
リモートデスクトップで乗り込まれた後、PCがロック画面になるのはWindows10の仕様でしょうか?

RDPプロトコルで接続すればそうなります。
クライアントOSではマルチセッションもできないので仕様です。
0275名無しさん@ピンキー2020/03/06(金) 20:42:56.43ID:a6N9UcyQ
5) data_dst extract whole_face S3FD.bat を試しに使用してみたが
顔ではないとして未検出の物が多かった
顔が全て512×512に入っていない?おでこに前髪あり?頭頂まで見えない?
0276名無しさん@ピンキー2020/03/06(金) 21:10:56.89ID:a6N9UcyQ
1回rctでTrainしたモデルが、他のdstで顔色が変になってしまった
mklでTrainして復旧しないか実験中
0277名無しさん@ピンキー2020/03/06(金) 21:37:24.95ID:a6N9UcyQ
dstで1080pは540pに縮小してから作業していたが
最終完成動画を540pに縮小する方がいいみたい
0278名無しさん@ピンキー2020/03/07(土) 01:11:14.09ID:JjyCLJ2k
rctでTrainしたモデルが、他のdstで顔色が変になってしまったものは
プレビューを見る限りはmkl trainで復旧しつつあるみたい
0279名無しさん@ピンキー2020/03/07(土) 05:45:07.99ID:JjyCLJ2k
mkl trainとかにすると、noneに比べてsrcの照明条件のバラツキを抑えられる気がする
0280名無しさん@ピンキー2020/03/07(土) 14:33:41.29ID:JjyCLJ2k
プレビューで視線が合わないのでeyes_prio:Onにしてしばらく流してみた
なんだかだんだんとモデル崩壊の雰囲気も
5列目の顔色、肌色がおかしいかな
0281名無しさん@ピンキー2020/03/07(土) 14:57:07.58ID:JjyCLJ2k
誰か添削お願い
あまり長く流さない方がいいオプション
eyes_prio:True、learn_mask:True
最後の方に回すオプション
Power系、learn_mask:True、eyes_prio:True(必要時)
0282名無しさん@ピンキー2020/03/07(土) 15:14:39.95ID:JjyCLJ2k
ct_mode: rct→mkl→noneにしてみた
顔色の復旧は、random_warp: Trueかな?
0283名無しさん@ピンキー2020/03/07(土) 15:17:10.79ID:JjyCLJ2k
ct_mode: rct→mkl→noneでも顔色が復旧しつつあるみたい(Preview画像)
顔色が妙に白かった
0284名無しさん@ピンキー2020/03/07(土) 15:37:05.39ID:JjyCLJ2k
trainでct_mode: rctやmklにするのは、長い間モデルを使用する場合は
モデル崩壊に繋がりやすい気が。。
0285名無しさん@ピンキー2020/03/07(土) 16:42:36.11ID:JjyCLJ2k
arch df res: 256 dims: 256/64/64/22 batch:4 face_type: f
だと480pの顔のどアップのdstだと
20万回以上回してもプレビューはあまりいい感じでは無いな
dims: 512とかで回せるResにしないとだめかな?
0286名無しさん@ピンキー2020/03/07(土) 17:54:12.66ID:JjyCLJ2k
==------------- Model Options -------------==
== resolution: 224 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: df ==
== ae_dims: 512 ==
== e_dims: 80 ==
== d_dims: 80 ==
== d_mask_dims: 22 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: False ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: False ==
== pretrain: False ==
== autobackup_hour: 1 ==
== write_preview_history: False ==
== target_iter: 0 ==
== random_flip: False ==
== batch_size: 3 ==
==-------------- Running On ---------------==
== Device index: 0 ==
== Name: GeForce RTX 2080 ==
== VRAM: 8.00GB ==
0287名無しさん@ピンキー2020/03/07(土) 17:56:53.41ID:JjyCLJ2k
>>286
== batch_size: 2 ==
でした

Resを上げるよりdimsを上げるのが優先?
ae_dims: 512は確保すべき?
0288名無しさん@ピンキー2020/03/07(土) 23:58:33.94ID:JjyCLJ2k
03_07_2020版にdenoise.batは見当たりませんね
3) extract images from video data_dst FULL FPS.bat
のオプションなのかな?
Denoise factor (1-20)だとか
0289名無しさん@ピンキー2020/03/08(日) 00:04:37.30ID:9N8Hk5GN
カスタムの
4) data_src extract faces S3FD best GPU.bat
は動作しています。dstも動作するでしょう
--force-gpu-idxs 0
オプション有効。バッチファイル内で指定
srcも念の為
--output-debug ^
しかしsrcは無理に再抽出は試みないな。自動抽出できなかったsrc顔は学習にふさわしくない
0290名無しさん@ピンキー2020/03/08(日) 01:11:52.49ID:9N8Hk5GN
==---------- Model Options ----------==
== resolution: 256 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: dfhd ==
== ae_dims: 512 ==
== e_dims: 80 ==
== d_dims: 64 ==
== d_mask_dims: 48 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: False ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: False ==
== pretrain: False ==
== autobackup_hour: 1 ==
== write_preview_history: False ==
== target_iter: 0 ==
== random_flip: False ==
== batch_size: 3 ==
==----------- Running On ------------==
== Device index: 0 ==
== Name: TITAN RTX ==
== VRAM: 24.00GB ==
=======================================
0291名無しさん@ピンキー2020/03/08(日) 03:46:07.36ID:9N8Hk5GN
4.2) data_src sort.batを実行すると、
[3] face rect size in source imageが新たに表示されますね
よく使用する様であれば、カスタムバッチに
--by face-source-rect-size
指定でよさそう
4.2) data_src sort by src rect size.bat あたりのファイル名かな?
0292名無しさん@ピンキー2020/03/08(日) 03:58:20.65ID:9N8Hk5GN
[3] face rect size in source imageの効果はよく分からなかった
先頭の方に顔ではなく削除すべきな体の画像とか来ましたね
0293名無しさん@ピンキー2020/03/08(日) 06:16:29.80ID:9N8Hk5GN
close_eye.pyがなかなか便利です
512×512ピクセルの顔画像で、「眼を閉じている」ものをclose_eyeフォルダに移動
顔画像が正面近くでないと上手くいかないと思いますが
横顔などは別にtrainした顔学習済モデルとか必要でしょう
py close_eye.py またはpython close_eye.py
workspaceフォルダにclose_eye.py ファイルとshape_predictor_68_face_landmarks.dat ファイルを置く
http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2
WinRarなどで解凍できます
workspace\data_src\aligned顔画像が対象です。決め打ち
0295名無しさん@ピンキー2020/03/08(日) 10:18:16.46ID:9N8Hk5GN
deepfacelabでうまく学習させるために注意すべきポイント、コツを紹介
https://localbias.work/640
過学習・過剰適合を避ける
[n] Use learning rate dropout :
上記のオプションにYes(y)を選択してください。
学習データを増やす
学習を打ち切る
Use learning rate dropout: yにしたら、lr_dropout: Trueにしたら、
バッチ数が3から2に下がってしまった。。
0296名無しさん@ピンキー2020/03/08(日) 10:55:19.52ID:9N8Hk5GN
[n]Use learning rate dropout(学習率ドロップアウトを使用)(y / n?:help):
この機能は、トレーニングの最後にのみ有効にし、サンプルのランダムワープや 顔のランダムな反転などの機能を有効にしないでください。

モデルがかなりよく訓練され、シャープになったら、サンプルのランダムワープを無効にします。
これにより、通常のモデル なしで実行するより少ない反復で、もう少し詳細でシャープになります。
モデルを完全にトレーニングする前に有効にすると、モデルを無効にし、この機能を無効にしてトレーニングを続行するまで改善されないことがあります。
デフォルト値はn(無効)です。
0297名無しさん@ピンキー2020/03/08(日) 11:16:38.09ID:9N8Hk5GN
lr_dropout: TrueにするとVRAMバカ食いの様な。。
Res:256 dims 512/64/64/48 Batch: 2とかでしか動かない様な。。
e_dims: 80だとエラー
random_warp: Falseにすること
480pの顔ドアップ笛動画はどこまでのパラメーターが必要なのか??
0298名無しさん@ピンキー2020/03/08(日) 11:28:31.07ID:9N8Hk5GN
[Y]Enable gradient clipping(勾配クリッピング)(Y / N:ヘルプ):有効
DFL 2.0のさまざまな機能を使用するときに発生する可能性のある、いわゆるモデルの崩壊/破損を防ぎます。
パフォーマンスへの影響は小さいため、実際に使用したくない場合は、折りたたまれたモデルは回復できず、スクレイピングする必要があり、
トレーニングを最初からやり直す必要があるため、自動バックアップを有効にする必要があります。

もありますね。意識していませんでしたが
clipgrad: True
0301名無しさん@ピンキー2020/03/09(月) 01:12:49.23ID:tcsyoOUx
しかし、ソフトウェア板にはHost規制で自分のプロバイダだと書き込めないのな
0303名無しさん@ピンキー2020/03/09(月) 01:35:50.02ID:tcsyoOUx
==---------- Model Options ----------==
== resolution: 256 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: dfhd ==
== ae_dims: 512 ==
== e_dims: 64 ==
== d_dims: 64 ==
== d_mask_dims: 48 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: False ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: True ==
== pretrain: False ==
== autobackup_hour: 1 ==
== write_preview_history: False ==
== target_iter: 0 ==
== random_flip: False ==
== batch_size: 3 ==
==----------- Running On ------------==
== Device index: 0 ==
== Name: TITAN RTX ==
== VRAM: 24.00GB ==
=======================================
0306名無しさん@ピンキー2020/03/09(月) 02:18:03.77ID:tcsyoOUx
>>302
スレタイ教えてくだしゃあ
Google検索に引っかかりづらい様に変更しましたね?
0307名無しさん@ピンキー2020/03/09(月) 02:21:41.12ID:tcsyoOUx
GitHubに上がっている物丸ごと上書きしたら、FANSeg Trainが動いた
6) train FANSeg.bat
@echo off
call _internal\setenv.bat

"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" train ^
--training-data-src-dir "%WORKSPACE%\data_src\aligned" ^
--training-data-dst-dir "%WORKSPACE%\data_src\aligned" ^
--model-dir "%WORKSPACE%\model" ^
--model FANSeg

pause
0308名無しさん@ピンキー2020/03/09(月) 02:32:21.18ID:tcsyoOUx
--training-data-dst-dir "%WORKSPACE%\data_dst\aligned" ^
に変更してsrcとdstに同じ物を置きました
しかしDFL1.0の時もそうだったのだが、FANSegモデルのTrainは
あっという間にモデルが壊れる様な。。
srcもdstもMaskあり/なし混ぜているんですけれどもね
学習顔数が682しか無いのがまずいのか?
VRAM 8GBでのバッチ数8でも動作。上限は未確認
0309名無しさん@ピンキー2020/03/09(月) 02:37:05.98ID:tcsyoOUx
FANSegモデルの学習顔として、dstのMaskした物/Maskなしの物だけなのだが
それが根本的な間違い??
srcの顔とかも混ぜるのかな?
0310名無しさん@ピンキー2020/03/09(月) 03:41:52.84ID:tcsyoOUx
しかし、dstの顔の前に障害物が無くて、dstの顔のどアップでなければ、ほんま段違いに楽ですね
srcの眉有り、高画質が大量に入手できれば、ほんま段違いに楽ですね
完成したdstを540pとか480pとかに縮小するとか
srcがつべのインタビュー、CMとか別人を取り除くのが楽だといいですね
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況