【不満】DFL【日記】 [無断転載禁止]©bbspink.com
■ このスレッドは過去ログ倉庫に格納されています
DFLの不満をぶちまけよう。ただそれだけです。質問/回答禁止
物好きな人ぐらいしかレスしなくていいです
あと、僕の日記もOK
DFLの質問と回答はここへ
【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/ GeForce RTX 20シリーズの「NVLink」は従来のSLIの欠点を克服している?
http://www.jisaka.com/archives/28548553.html
従来のSLIは,レンダリング結果として出力されたピクセルデータだけを共有するものだったが,
NVLink時代のSLIでは,2基のGPUがまるであたかも1つのGPUのように振る舞って動作できるところに特徴がある。
たとえばRTX 2080 Tiを2枚差ししたシステムでは,総CUDA Coreが8704基(=4352基×2)に上る1基のGPUとして動作させることができるのだ。
またグラフィックスメモリも共有できるため,RTX 2080 TiのSLI構成であれば,グラフィックスメモリは22GB(=11GB×2)ということになる。
それぞれのGPUに接続されているものが共有利用できるので11GB搭載のGeForce RTX 2080 Ti×2枚差しのシステムであれば単一の22GBとして利用できるのだ。 2020-03-07にまた牧○み○ちゃんが配信される様ですね train mergeともrctでやったら、眉毛の上の黒い前髪が無くなった様な。。
単にtrain数が増えたからかな? Face++の顔検出Web APIを使用して、
data_src\alignedフォルダの顔画像を、gender == 'Female'でage < 30 and age > 15の人だけ、
matchフォルダに移動するPythonスクリプトができた
映画やTVドラマなどで、男優さんや歳の人が混ざっている時に役立ちそう
参考サイト
https://hibiki-press.tech/learn_prog/python/faceplusplus/2388
https://github.com/hibikisan2018/learn_python/blob/master/face_recognition/face_detection.py
https://mrdeepfakes.com/forums/thread-facial-recognition-script-to-sort-aligned-folder
Face++サイトに登録してAPI KeyおよびAPI Secretの取得が必要
python face_detection.py data_src\aligned >>227
しかし、えらい時間がかかりますね。WebのAPIコールしているからかな?
これも、sort_by_face.pyと同じく、2回目流そうとすると、あまり上手く行かない様な。。
Pythonのローカルライブラリに、性別、年齢判定の簡単な奴が無い。。 デモ ローカル画像をアップロードするか、画像のURLを指定して、顔検出を今すぐ試してください。
https://www.faceplusplus.com/face-detection/#demo
人の顔を解析する便利なAPI
https://qiita.com/kudota/items/52a197e271474e022b63
画像の年齢や性別などを当ててもらう
curl -X POST "https://api-us.faceplusplus.com/facepp/v3/detect" -F "api_key=API_KEY" -F "api_secret=API_SECRET" -F "image_filel=@image_file.jpg" -F "return_attributes=gender,age"
curlはmsys64をインストールすれば使える 02_27_2020版で5) data_dst extract faces S3FD best GPU.batで
512で顔抽出されています 5.2) data_dst util faceset enhance.batも動作していますね 02_27_2020版で5.2) data_dst util faceset pack.batも動作しています おお。02_23_2020版で、srcを色々な映画から切り出したので、
顔色の悪い完成動画があったのですが、
rctでtrainしてrctでmergeで顔色が良くなりました ファミレスで聞いた馬鹿な話
俺さあ。最近めっちゃ金貯まる様になったんだよね
ええ?本当?何か儲かったのか?
最近パチンコやめたんだよね。そしたらめっちゃ金貯まる様になった
マジか。俺もパチンコやめてみようかな
本当にかわうそな二人でした そんな事より1よ、ちょいと聞いてくれよ。スレとあんま関係ないけどさ。
昨日、近所の吉野家行ったんです。吉野家。
そしたらなんか人がめちゃくちゃいっぱいで座れないんです。
で、よく見たらなんか垂れ幕下がってて、150円引き、とか書いてあるんです。
もうね、アホかと。馬鹿かと。
お前らな、150円引き如きで普段来てない吉野家に来てんじゃねーよ、ボケが。
150円だよ、150円。
なんか親子連れとかもいるし。一家4人で吉野家か。おめでてーな。
よーしパパ特盛頼んじゃうぞー、とか言ってるの。もう見てらんない。
お前らな、150円やるからその席空けろと。
吉野家ってのはな、もっと殺伐としてるべきなんだよ。
Uの字テーブルの向かいに座った奴といつ喧嘩が始まってもおかしくない、
刺すか刺されるか、そんな雰囲気がいいんじゃねーか。女子供は、すっこんでろ。
で、やっと座れたかと思ったら、隣の奴が、大盛つゆだくで、とか言ってるんです。
そこでまたぶち切れですよ。
あのな、つゆだくなんてきょうび流行んねーんだよ。ボケが。
得意げな顔して何が、つゆだくで、だ。
お前は本当につゆだくを食いたいのかと問いたい。問い詰めたい。小1時間問い詰めたい。
お前、つゆだくって言いたいだけちゃうんかと。
吉野家通の俺から言わせてもらえば今、吉野家通の間での最新流行はやっぱり、
ねぎだく、これだね。
大盛りねぎだくギョク。これが通の頼み方。
ねぎだくってのはねぎが多めに入ってる。そん代わり肉が少なめ。これ。
で、それに大盛りギョク(玉子)。これ最強。
しかしこれを頼むと次から店員にマークされるという危険も伴う、諸刃の剣。
素人にはお薦め出来ない。
まあお前らド素人は、牛鮭定食でも食ってなさいってこった。 02_27_2020版で4) data_src extract faces S3FD best GPU.batも
512抽出で動作しています 02_27_2020版で4.2) data_src util faceset enhance.batも動作していますね
dstが動作したから当然か ==---------- Model Options ----------==
== resolution: 256 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: dfhd ==
== ae_dims: 512 ==
== e_dims: 96 ==
== d_dims: 96 ==
== d_mask_dims: 16 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: True ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: rct ==
== clipgrad: False ==
== pretrain: False ==
== write_preview_history: False ==
== random_flip: False ==
== batch_size: 2 == ==----------- Running On ------------==
== Device index: 0 ==
== Name: TITAN RTX ==
== VRAM: 24.00GB == srcとdstのloss値が同じペースで低下している。。
(新規srcで0からtrain) 広○す○の他、橋○環○も眉毛、デコ出し素材があるのでやりやすい もしかして、dimsを上げられれば、power系の味付けも不要になったりして。。 dstに対して、dimsやResの値が大きい場合、loss値の絶対値がそれほど下がらなくても、
結構実用的な完成動画ができる気がする setenv.batでシステムのCUDA 9.2 を参照する様にすると
OOMエラーで落ちる様な。。
元に戻してもOOMエラーで落ちた
アプリ、グラボドライバ、Windowsアップデートで再起動してtrain再開
同時にH.265へのCPUエンコードをしていたからかな? 2台目のPC、サブ機が、エクスプローラーが固まる
動画をMPC-HCで再生しようとした時とか、Blu-rayにアクセスしようとした時とか
システムメモリぎりぎり使用しているな。CPU負荷も高い
ffmpegでの動画のコマ切り出しとか、Smart Defragも同時実行
メモリ+16GBして、32GBくらい必要かな?
ディスプレイのオンボード接続がまずいのかな? BDドライブのソフトインストール、ファームアップデートで随分ましになった
CCleanerでレジストリクリーン
動画再生しようとすると固まるな。メモリもやたらと食っている モデルの完成に時間がかかるので、srcモデルも使いまわした方がよさそう 顔抽出が512になったからか、以前より時間がかかる様だ 4.2) data_src sort by similar histogram.batが、顔画像数が多い場合
2スレッドで動作するのか?
高速になった様な。。 横顔はまだやらないので
4.2) data_src sort by face yaw.batを使用して
右横顔、左横顔フォルダに待避して、顔画像数を減らしている NVIDIA Quadro RTX 8000 / 48GB が欲しい。。 srcを橋○環○学習済みモデルから、継続trainで
広○す○を学習中。果たしてうまくいくか?? ○本○奈学習済みモデルから、継続trainで○瀬○ずを学習で
プレビュー的には○本○奈の名残もなく、○瀬○ずに似てきた
srcモデルは使いまわしでいいみたい バッチ数がぎりぎりだと、2台目のPCからファイルコピー、移動でも、Trainが落ちたりするみたい
Mask Editorで開いてみたら、顎の輪郭も誤解しているものがあった
どうりで顎のあたりがボケるはず
TITAN RTXでしか回らないTrain設定なので、2台目のPCは顔抽出やMask Editor、動画のコマ抽出や
DFL以外の作業に使用。BDからMkvとか
パソコン工房でBDドライブをポイントのみで購入したら、BDリードできるが、BDライトができない物だった
ライトはDVDまで。世の中にその様な仕様のBDドライブがあるとは。。 一時期、眉毛、前髪で暴れていた人はすっかりおさまった様ですね
顔認識の手法はDFL\_internal\DeepFaceLab\docフォルダの
landmarks.jpgとlandmarks_98.jpgを参照
DFLの作者がオリジナルに考えた事ではない
オリジナルに考えた手法があれば、英語で論文が発表されているはず。話題になっているはず
眉毛前髪かかりは、顔の前に邪魔な障害物があるので
srcをMask Editorでマスク作業必須
作者の鍛えたFANSEGモデルに、前髪と舌は無いよ
眉毛前髪かかりは、日本人と韓国人くらいのものだし
他の国の人にとっては、眉毛前髪かかりは何ぞ?でしょう res256 dims512/96/96/16はオーバースペックの様な気もする
バッチ2でしか回らないし
res256 dims512/96/96/16で480pの顔のどアップでやってみよう コントロールパネル→マウス→ホイール
1度に次の行数スクロールする 3→10くらいでいい感じ res256 dims512/64/64/16が最低ラインとして、e/d_dimsをどこまで上げられるか?
バッチ数は4くらいは欲しいな 長○愛ちゃんの顔の年齢判定をgad.pyでしたら、4-6歳に。。 gad.pyだと、顔だけのアップ画像だとうまくいかないな
workspace\data_src\aligned画像ならだめで
workspace\data_src画像だとうまくいく learn_mask:onにすると、dstのloss値が上がるのね。。 train時rctにしたら顔色が変になる物があった
res: 256、dims:512/80/80/16でもバッチ3で動作する
res: 256、dims:512/80/64/16でもバッチ3で動作する
480pの顔のどアップ笛に耐えられるか? おお
Wiki作成してよかった
ありがとうございます
FAQやスレのまとめなど頑張ろうかな VRAM 8GBだとarch:dfhdが難しく、arch:dfの様だ
res: 256 dims: 256/64/64/22 batch:4 face_type: f
models_opt_on_gpu: True random_warp: False learn_mask: False
eyes_prio: False Power系:0.0 ct_mode: none random_flip: False
models_opt_on_gpu: Falseにしてもバッチ数は大差なし。ループが遅くなるだけ
learn_maskは最後の方に。eyes_prioはどうしても視線が合わない時に
random_warp: falseなのはsrcの枚数が多く、類似顔が多いから
ct_modeはsrcの照明条件がバラバラで、完成動画の顔色がおかしい時に
ct_mode: rctとかにしてみる
Power系も変更するなら最後の方に変更 df res: 256 dims: 256/64/64/22 batch:4の方が、
dfhd res: 256、dims:512/80/64/16 batch:3よりdstのloss値が下がるのが速いですね Windows10で動画ファイルを再生しようとすると、しばらく固まっていたが
MediaPreviewConfの設定がおかしかっただけかもしれない
MediaPreviewConfでApplyをクリックで症状が出なくなった様だ srcはつべでインタビュー、CMとか入手できると楽ですね
映画やTVドラマは別人を除くのが大変。。
IVとかでもいいけど、レンタルだとDVDのみでBlu-rayが無いとか。。 train時にsort_by_yawが無くなったので
srcとdstを混ぜてsort_by_yawし、dstに無いsrcはtrain用としては削除して
src枚数を減らしてみた
手作業でのミスでdstが少し少なくなってしまった。dstを補充
dstが重複しているか、全コマMaskしたけど、Maskされていないコマが残ってしまったか
src枚数が多いとloss値が下がりにくい。Train時間がかかる
train時にsort_by_yawが欲しいな face_recognition_cli.pyだが、--toleranceがデフォルトの0.6だと別人とマッチしすぎ
0.5でも別人と1ファイルだけマッチした
0.4でようやく別人と判断。0.4で同一人物は同一人物として判断
しかしソースコードでは--toleranceオプションの指定が無効ですがな
ソースコードは少し修正
py face_recognition_cli.py --cpus 12 'known_people_folder' 'image_to_check'
しかし1枚の画像判定にしてはかなり時間がかかりますね
'known_people_folder'に30枚の画像を置いたからかな?
GPUで処理するなんて難しすぎます。。
正面顔でないと顔でないとする様です。角度が厳しいと無理 8GBでQuick256だと
res: 256 dims: 256/64/48 batch:8で動作
SAEHDはプログラム中で何倍かしている箇所があるそうだし、dimsの意味合いは違う
バッチ数が多いと縦4行表示なのね 1ループ380ms程度。高速に完成すればいいな
VRAM 24GBだと大幅にパラメーターを上げられたはず 2台目のPCから1台目のPCにリモートデスクトップで乗り込んだ後、
ディスプレイの入力I/Fを切り替えると
1台目のPCがロック画面になっています
リモートデスクトップで乗り込まれた後、PCがロック画面になるのはWindows10の仕様でしょうか?
RDPプロトコルで接続すればそうなります。
クライアントOSではマルチセッションもできないので仕様です。 5) data_dst extract whole_face S3FD.bat を試しに使用してみたが
顔ではないとして未検出の物が多かった
顔が全て512×512に入っていない?おでこに前髪あり?頭頂まで見えない? 1回rctでTrainしたモデルが、他のdstで顔色が変になってしまった
mklでTrainして復旧しないか実験中 dstで1080pは540pに縮小してから作業していたが
最終完成動画を540pに縮小する方がいいみたい rctでTrainしたモデルが、他のdstで顔色が変になってしまったものは
プレビューを見る限りはmkl trainで復旧しつつあるみたい mkl trainとかにすると、noneに比べてsrcの照明条件のバラツキを抑えられる気がする プレビューで視線が合わないのでeyes_prio:Onにしてしばらく流してみた
なんだかだんだんとモデル崩壊の雰囲気も
5列目の顔色、肌色がおかしいかな 誰か添削お願い
あまり長く流さない方がいいオプション
eyes_prio:True、learn_mask:True
最後の方に回すオプション
Power系、learn_mask:True、eyes_prio:True(必要時) ct_mode: rct→mkl→noneにしてみた
顔色の復旧は、random_warp: Trueかな? ct_mode: rct→mkl→noneでも顔色が復旧しつつあるみたい(Preview画像)
顔色が妙に白かった trainでct_mode: rctやmklにするのは、長い間モデルを使用する場合は
モデル崩壊に繋がりやすい気が。。 arch df res: 256 dims: 256/64/64/22 batch:4 face_type: f
だと480pの顔のどアップのdstだと
20万回以上回してもプレビューはあまりいい感じでは無いな
dims: 512とかで回せるResにしないとだめかな? ==------------- Model Options -------------==
== resolution: 224 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: df ==
== ae_dims: 512 ==
== e_dims: 80 ==
== d_dims: 80 ==
== d_mask_dims: 22 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: False ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: False ==
== pretrain: False ==
== autobackup_hour: 1 ==
== write_preview_history: False ==
== target_iter: 0 ==
== random_flip: False ==
== batch_size: 3 ==
==-------------- Running On ---------------==
== Device index: 0 ==
== Name: GeForce RTX 2080 ==
== VRAM: 8.00GB == >>286
== batch_size: 2 ==
でした
Resを上げるよりdimsを上げるのが優先?
ae_dims: 512は確保すべき? 03_07_2020版にdenoise.batは見当たりませんね
3) extract images from video data_dst FULL FPS.bat
のオプションなのかな?
Denoise factor (1-20)だとか カスタムの
4) data_src extract faces S3FD best GPU.bat
は動作しています。dstも動作するでしょう
--force-gpu-idxs 0
オプション有効。バッチファイル内で指定
srcも念の為
--output-debug ^
しかしsrcは無理に再抽出は試みないな。自動抽出できなかったsrc顔は学習にふさわしくない ==---------- Model Options ----------==
== resolution: 256 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: dfhd ==
== ae_dims: 512 ==
== e_dims: 80 ==
== d_dims: 64 ==
== d_mask_dims: 48 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: False ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: False ==
== pretrain: False ==
== autobackup_hour: 1 ==
== write_preview_history: False ==
== target_iter: 0 ==
== random_flip: False ==
== batch_size: 3 ==
==----------- Running On ------------==
== Device index: 0 ==
== Name: TITAN RTX ==
== VRAM: 24.00GB ==
======================================= 4.2) data_src sort.batを実行すると、
[3] face rect size in source imageが新たに表示されますね
よく使用する様であれば、カスタムバッチに
--by face-source-rect-size
指定でよさそう
4.2) data_src sort by src rect size.bat あたりのファイル名かな? [3] face rect size in source imageの効果はよく分からなかった
先頭の方に顔ではなく削除すべきな体の画像とか来ましたね close_eye.pyがなかなか便利です
512×512ピクセルの顔画像で、「眼を閉じている」ものをclose_eyeフォルダに移動
顔画像が正面近くでないと上手くいかないと思いますが
横顔などは別にtrainした顔学習済モデルとか必要でしょう
py close_eye.py またはpython close_eye.py
workspaceフォルダにclose_eye.py ファイルとshape_predictor_68_face_landmarks.dat ファイルを置く
http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2
WinRarなどで解凍できます
workspace\data_src\aligned顔画像が対象です。決め打ち deepfacelabでうまく学習させるために注意すべきポイント、コツを紹介
https://localbias.work/640
過学習・過剰適合を避ける
[n] Use learning rate dropout :
上記のオプションにYes(y)を選択してください。
学習データを増やす
学習を打ち切る
Use learning rate dropout: yにしたら、lr_dropout: Trueにしたら、
バッチ数が3から2に下がってしまった。。 [n]Use learning rate dropout(学習率ドロップアウトを使用)(y / n?:help):
この機能は、トレーニングの最後にのみ有効にし、サンプルのランダムワープや 顔のランダムな反転などの機能を有効にしないでください。
モデルがかなりよく訓練され、シャープになったら、サンプルのランダムワープを無効にします。
これにより、通常のモデル なしで実行するより少ない反復で、もう少し詳細でシャープになります。
モデルを完全にトレーニングする前に有効にすると、モデルを無効にし、この機能を無効にしてトレーニングを続行するまで改善されないことがあります。
デフォルト値はn(無効)です。 lr_dropout: TrueにするとVRAMバカ食いの様な。。
Res:256 dims 512/64/64/48 Batch: 2とかでしか動かない様な。。
e_dims: 80だとエラー
random_warp: Falseにすること
480pの顔ドアップ笛動画はどこまでのパラメーターが必要なのか?? [Y]Enable gradient clipping(勾配クリッピング)(Y / N:ヘルプ):有効
DFL 2.0のさまざまな機能を使用するときに発生する可能性のある、いわゆるモデルの崩壊/破損を防ぎます。
パフォーマンスへの影響は小さいため、実際に使用したくない場合は、折りたたまれたモデルは回復できず、スクレイピングする必要があり、
トレーニングを最初からやり直す必要があるため、自動バックアップを有効にする必要があります。
もありますね。意識していませんでしたが
clipgrad: True >>293
close_eye.pyってどこからダウンロードできますか? しかし、ソフトウェア板にはHost規制で自分のプロバイダだと書き込めないのな ==---------- Model Options ----------==
== resolution: 256 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: dfhd ==
== ae_dims: 512 ==
== e_dims: 64 ==
== d_dims: 64 ==
== d_mask_dims: 48 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: False ==
== lr_dropout: False ==
== random_warp: False ==
== gan_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: True ==
== pretrain: False ==
== autobackup_hour: 1 ==
== write_preview_history: False ==
== target_iter: 0 ==
== random_flip: False ==
== batch_size: 3 ==
==----------- Running On ------------==
== Device index: 0 ==
== Name: TITAN RTX ==
== VRAM: 24.00GB ==
======================================= >>304
笛動画だから。ここまでなら上げてもバッチ数が下がらなかったから >>302
スレタイ教えてくだしゃあ
Google検索に引っかかりづらい様に変更しましたね? GitHubに上がっている物丸ごと上書きしたら、FANSeg Trainが動いた
6) train FANSeg.bat
@echo off
call _internal\setenv.bat
"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" train ^
--training-data-src-dir "%WORKSPACE%\data_src\aligned" ^
--training-data-dst-dir "%WORKSPACE%\data_src\aligned" ^
--model-dir "%WORKSPACE%\model" ^
--model FANSeg
pause --training-data-dst-dir "%WORKSPACE%\data_dst\aligned" ^
に変更してsrcとdstに同じ物を置きました
しかしDFL1.0の時もそうだったのだが、FANSegモデルのTrainは
あっという間にモデルが壊れる様な。。
srcもdstもMaskあり/なし混ぜているんですけれどもね
学習顔数が682しか無いのがまずいのか?
VRAM 8GBでのバッチ数8でも動作。上限は未確認 FANSegモデルの学習顔として、dstのMaskした物/Maskなしの物だけなのだが
それが根本的な間違い??
srcの顔とかも混ぜるのかな? しかし、dstの顔の前に障害物が無くて、dstの顔のどアップでなければ、ほんま段違いに楽ですね
srcの眉有り、高画質が大量に入手できれば、ほんま段違いに楽ですね
完成したdstを540pとか480pとかに縮小するとか
srcがつべのインタビュー、CMとか別人を取り除くのが楽だといいですね >>311
今の所、WikiのFAQ内にFANSEGのやり方が少し書いてあります
DFL FAQ
FANSEG関連
https://seesaawiki.jp/dfl/d/DFL%20FAQ ・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
エラーの質問はテンプレ必須。スレのテンプレにある物は、1回は目を通したり、検索したりする事が必須。
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須 >>314 は誤爆
ソフトウェア版の方は書き込めないし、したらばは少したてば消えるかも dfhdの方が重たいですが、dfより似るのは速い気がします
2080 8GBでもdfかな
dfhdはTITAN RTX 24GBぐらいないと、厳しいのでは? loss値が下がらないと思ったら、いつまでもrandom_warp: Trueにしていたからでした FANSegモデルのTrainは、VRAM 8GBでバッチ:24くらい
ほとんどMaskしていないが、笛顔を23,000以上でTrain中
srcとdstが同じだからか、いきなりloss値が0.0000に
DFL 1.0と違って、Maskありとなしとを混ぜてはいけないのか? Facial recognition script (to sort aligned folder)
https://mrdeepfakes.com/forums/thread-facial-recognition-script-to-sort-aligned-folder
sort_by_face.pyがなかなか便利だと思います
workspace\data_src\alignedフォルダ内の指定の顔1枚と同一人物と判断した顔画像を
data_src\aligned\matchフォルダに移動
使用例
python sort_by_face.py data_src\aligned\01680.jpg data_src\aligned
sort_by_face.pyはworkspaceフォルダに置いてそこで実行
前準備:pip install face_recognition
映画やTVドラマなど、複数の俳優が写っている時に便利
顔認識の限界があり、正面顔を指定すれば、横顔は分からない ==---------------- Model Options ----------------==
== resolution: 192 ==
== face_type: f ==
== models_opt_on_gpu: True ==
== archi: liaech ==
== ae_dims: 448 ==
== e_dims: 112 ==
== d_dims: 112 ==
== d_mask_dims: 32 ==
== masked_training: True ==
== learn_mask: False ==
== eyes_prio: True ==
== lr_dropout: False ==
== random_warp: True ==
== gan_power: 0.1 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: False ==
== pretrain: False ==
== autobackup_hour: 0 ==
== write_preview_history: False ==
== target_iter: 0 ==
== random_flip: False ==
== batch_size: 4 ==
==----------------- Running On ------------------==
== Device index: 0 ==
== Name: GeForce RTX 2080 Ti ==
== VRAM: 11.00GB ==
=================================================== 誰かが検証とか所感を書いてくれるのを待ってるだけのヒヨコ共はどうするんだろうな? 顔の前に特に障害物の無い動画で顔のどアップで無い動画ならうまくいくのだが
笛の舌Maskや前髪触覚Maskがまだだし
顔ドアップはDFL2.0ではまだ作成していないな ■ このスレッドは過去ログ倉庫に格納されています