【動画プレイヤー】JavPlayer【超解像】 Part.12
■ このスレッドは過去ログ倉庫に格納されています
JavPlayerは、「動画の特定部位だけ超解像するアプリ」です。
AV鑑賞において、ディテールを損なわずにモザイクを目立たなくする動画プレイヤーとして使用できます。
このスレッドは、JavPlayer の使用法などについての質問や、より効果的な設定、効果が高い動画などについて、ディスカッションする場所です。
「モザイク破壊」などとして、著作権のある動画を「動画の特定部位だけ超解像」して、無断でアップロードすることは、犯罪です。
また、そのようにしてアップロードされている動画を、ダウンロードする事も犯罪です。
違法動画に誘導するリンクを貼ったり、違法行為を推奨する行為は厳禁です。
※前スレ
【動画プレイヤー】JavPlayer【超解像】 Part.11
https://mercury.bbspink.com/test/read.cgi/avideo/1722068238/
【動画プレイヤー】JavPlayer【超解像】 Part.10
https://mercury.bbspink.com/test/read.cgi/avideo/1720528086/
【動画プレイヤー】JavPlayer【超解像】 Part.9
https://mercury.bbspink.com/test/read.cgi/avideo/1715513701/
【動画プレイヤー】JavPlayer【超解像】 Part.8
https://mercury.bbspink.com/test/read.cgi/avideo/1701833899/
【動画プレイヤー】JavPlayer【超解像】 Part.7
https://mercury.bbspink.com/test/read.cgi/avideo/1688497310/
【動画プレイヤー】JavPlayer【超解像】 Part.6
https://mercury.bbspink.com/test/read.cgi/avideo/1673537216/
【動画プレイヤー】JavPlayer【超解像】 Part.5
https://mercury.bbspink.com/test/read.cgi/avideo/1665323989/
【動画プレイヤー】JavPlayer【超解像】 Part.4.1 {Part4がなぜか57で過去ログ入りしたので、Part4.1として新スレ作成}
https://mercury.bbspink.com/test/read.cgi/avideo/1655220450/
【動画プレイヤー】JavPlayer【超解像】 Part.4
https://mercury.bbspink.com/test/read.cgi/avideo/1654779343/
【動画プレイヤー】JavPlayer【超解像】 Part.3
https://mercury.bbspink.com/test/read.cgi/avideo/1646955938/
VRの話はこちらで
【VRAV】バーチャルリアリティAV総合 108
https://mercury.bbspink.com/test/read.cgi/avideo/1722039749/ ★YouTube で日本人のおっぱいをみる方法を解説します 前スレで質問あったけど、ADIVはソースが高画質だとポリゴンも細かくなって良い結果が得られるよ
まんこの中の複雑な凹凸がポリゴン化されるのは圧巻の一言
非VRでPOVの作品がなかなか無いのが悩みの種やね AVIDの操作とか設定の日本語マニュアル誰か作ってちよ >>6
DVD解像度の動画がうにょうにょしがちなのはそのせいか >>7
ブレブレになる時は再生位置を変えると直る場合も
あと、ファイル一覧を開いてもう一度再生し直すか、ADIVを終了させて再起動するかすると直る場合もある
斜線が多めな場合はDepthを下げると良いかも(立体感はなくなる >>10
1200円は安すぎなんで半額にはならんのでは Javski@Javski2
BVPP8Xのモデル作成を優先しています
学習データだけでなくプログラムの調整も行うことで良い感じになってきました
トレーニングしているのはSTDだけですが、AFLは頑張っても鮮明にならないので
手早く作ると思います
今週末にTG&BVPPの差分として配布する予定です >>13
steamdb.infoによると2024サマーセールでは660円だったらしい
最安は2023冬で600円の時があったらしい てかADIV前スレ見たらVRコンで操作してる人多数だけど
マウスで操作した方が圧倒的に楽だぞ >>24 リアルタイムで2D動画を3D再生するソフト。破壊済動画やお気にの動画を見ると目の前でええ感じで見れる。steamで1200円で買える、当然それなりのvrゴーグル必要。 >>25
説明するなら正式名も教えてやれよ。少なくともADIVでは検索に引っかからなかったはず。
>>24
Auto Depth Image Viewer で検索してみ。 TG8Xft2+SPAN4XHDの超解像でGPUは10%程度で安定してるけどCPUが100%で張り付く
これはもうCPUが足引っ張ってるってことなのかな?ちなRyzen7 5800x+RTX3060ti 3.0beta複数モザ対応すばらしいが、エンコード終了後に「無効な出力」って表示されるのは何だろ
Moviesフォルダーにはしっかりと出力されている
出力する動画の命名規則(rec_name_format.txt)もまだ未対応ですよね? >>33
自己レスです
3.00beta最後の音声処理の部分で止まる事も多かったのですが
入力ファイルのフルパスを英数だけにしてみたら完走するみたいでした >>32
それは流石におかしいので
グラボでなくCPUで超解像する設定にしちゃってるか、使用VRAMの上限設定を低くし過ぎてるんでない? >>32
うちの5800xも100%に張り付きますね 並列数は3〜4
ただGPUは1660なのでこちらも100%に張り付いてます
この状態で超解像の時間はソースの3倍位かかってます
もうちょっと速くしたいけど全とっかえになるので・・・ >>35
ソフト側のGUIでは超解像で使用するデバイスは両方ともGPU0になってるけどこっちの設定参照してないのかな?
バッチファイルいじらないとだめか >>37
その書き方だとVer2.0台までの「録画詳細設定」→「TecoGAN」の設定だと思うけどもその下の項目3つ
3060tiだとVRAMが8Gみたいだから7Gを超解像に使うように設定してみる
GPUによるtgmainの最大並列数 6(もっと行けるかもだけどうちの環境と違うのでとりあえず)
超解像に使用するGPUのVRAM容量 7GB
超解像ツール以外が使用するVRAM容量 1000MB
ここをちゃんと設定しないとVRAMを十分に使ってくれない、バッチファイルはいじらなくて大丈夫
ここを最適化してもダメならちょっとわかんない >32
計測ソフトは何使ってます?
windows10のタスクマネージャーだとGPU使用率が低く表示されてたような記憶があるので、そうならHWinfoだとか別ソフトで確認してみるのがよろしいかと。
ちなみにwindows11のタスクマネージャーだと正しく表示されてます 若干古い動画で使おうとしてるからかtg8xhdでやろうとしたらぐちゃぐちゃ
tgafx2、bvppでやらないと使い物にならないのはおま環なのかそもそもフォルダの設定が間違えてるのか2015年近辺の動画はこの界隈では古いのか >>38 >>39
今帰って来たんで確認したらその他の超解像に使用するプロセッサがCPUになってました…お騒がせして申し訳ない
GPU0に戻してwin11のリソースモニターで見たら70%ちょいに戻ってた。HWmonitorだと90%前後で安定してるみたい 複数モザ対応って、モザの粗さとかが違っても対応してるんかな? おんなじ女優さんの色んな動画を全部学習して具の形がほぼ完全に分かるような技術を持つソフトって将来いつか出るのかな もうその頃にはこのスレを見ている奴らの精子は全て枯渇しているので問題無い。 そもそもjavplayerってよく分かんないけど藻あり動画(学習用動画)を頑張って技術使って藻なしに復元させて、それを藻なし動画(テスト動画)と比較して点数を付けて、それをめっちゃ繰り返していい点数出したやつだけを取り出して確立した技術ってことで合ってる? >>47
まず大量の画像や動画を見せて、画像の穴埋め問題や、低解像度の画像を高解像度にする問題を解かせることで、リアルな絵を描ける絵描きの人工知能を教育する
その人工知能にどこがモザイクか判定させ、モザイクの部分に来れば自然になるような絵を描かせ、それを合成してる
人間でも同じ作業はやればできるよ
時間がかかるし、リアルな絵が描けなければ駄目だが 流出物使っても無しとも有り両方学習させるとよりリアルになるの? >>48
はえ〜サンガツ
loocvってよりはもっと本格的な総合ディープラーニング技術だったんやな >>44
そうでなければ、複数モザ対応とは言わないでしょ
同じサイズのモザなら昔から対応できている。 もうすっかり配信専用作品のモザ破壊が出回らなくなったな・・・ >>54
博士の1月14日のツイ読みなはれ
生成AI方式はその後も採用していない 自称AI詳しい奴がTecoGANのGANすら知らないの草 >>48 定期的に生成AIとネット上の無修正チ○コマ○コと差し替えてるって奴が湧くな 同じ男優のチンコはどのメーカーのどの作品でも同じチンコに復元されるということは、無修正チンコの差し替え映像ではない証拠 >>60
ほんまのアルゴリズム言ったら対策されちまうだろ BVPP8Xの調整に苦労してるみたいね
気長に待ってますよ 突然2.02cで再生失敗になってしまって再インスコでも解決出来ず。
試しに2.02bで再生してみたら再生可能。
もう一度2.02cで再生してみたら今度は再生可能になった。
解決したが良く解らん。 JavPlayerの超解像、いわゆるモザイク破壊は、モザイク部分を低解像度画像とみなし、
低解像度の画像を高解像度画像に再構成する技術により、モザイクを除去した様な画像に
すると理解しているのですが、生成AIと既存の無修正画像を利用して、モザイク部分に
置き換えていると誤解している人がたくさんいますね。
博士のXのポストで時々”トレーニング”というワードが出てくるので、余計にややこしい。
自分も良く理解できていないのですが、トレーニングって、何をどうしてるのかな? ちょっと期待が高すぎたか
どれが最適かよく分からないや
アプデで変わりそうだから、放置してる >>68
モザイク化で情報が失われてるんだから再構成なんてできないよ
使われてる超解像アルゴリズムは深層生成学習だよ 博士がRTX 4090欲しいらしいが…
そもそも買い切り1,200円じゃ安過ぎた >>71
BVPP8Xの仕上げで忙しいだろうに親切だ 自分のしょうもない疑問に対し、博士がXのポストで丁寧に解説してくれてる。
ここを見ててくれてるんですね。ありがとうございます。 >>72
買うのはいいけどハイエンド向けにチューニングされても困る 博士の解説わかりやすい!
ディープフェイク(お絵描き)じゃなくて超解像復元ということか。
学習データも「具象的なものではなく皺や毛のような」と仰っていた意味もようやく理解しました。 自分含めこのソフトを勘違いしていた人がいるので補足。
おさらいするとGANの学習は、ジェネレーターで精巧な偽物を生成させ、ディスクリミネーターで本物と偽物を区別するよう学習させる。
ジェネレーターとディスクリミネーターを敵対的に競わせて最終的にジェネレーターの偽物が本物と区別できないくらい最適化されるまで学習させる生成モデルだが、これだと情報不足でファミコンドット絵みたいな8×8ピクセルのモザイクから実写みたいな復元は不可能だと思う。 だけど、TecoGANのアーキテクチャーを使えばGANの仕組みに時系列の要素が追加され、動画の前後フレームなど学習情報がめちゃ増えるのでトレーニング次第では動画の超解像度の復元ができるようなった。 普通の人はこれを低解像度動画の画質改善に使うが、この技術を応用して縮小すれば8×8ピクセルみたいなモザイク画像も最適なトレーニングさせて超解像復元すればモザイク無くなったように見えるかもって思いついてしまった博士は超天才!
だからトレーニングもかなり重要!そしてBVPP8Xの完成楽しみにしてます! >>75
トレーニングの計算と修正にめちゃ時間かかってるから
処理能力高いグラボ買って開発速度上げたいという博士の真心。要求スペックは関係ない話、グラボ大事ではあるが。
博士のトレーニング速度が早まればBVPP8Xの完成も早まるのでむしろ良いこと しかし、初代と比べたら相当な進化だよね
博士の努力に4090贈呈したい 博士が受け取ってくれるなら一万ぐらいなら喜んで寄付します GANのモデルも深層学習(3層以上のニューラルネットワーク)だし、GANも生成AIの一種に分類されるからここの指摘が間違ってるわけではないぞ
博士が言っている「生成AIではない」というのは「StableDiffusionみたいに、チンポ全体の絵を描いているわけではない」という意味
「チンポのシワや陰毛のディテールに相当するピクセルは作り出したものをブレンドしてる」わけで「ピクセルレベルの生成AI」とは言える 脱衣サイトなんかは、服の部分を自動認識して、その形状に当てはまる裸の画像をstable diffusionでお絵描きしてブレンドしてる
ただまだ静止画レベル
博士が「動画生成AIが発展したら」と触れてるのは、OpenAIのSORAみたいな動画生成にstable diffusionとかが対応すれば、チンポ全体を描いてブレンドすることも可能かも、という話だと思う
こうなってくると「AVや顔画像を参考に全く新しいAVを作る」って夢が実現するかもしれない
ローカルでやるにはGPUがまだまだ性能足りないだろうけど 俺たちのパソコンが頑張ってちんぽ精製してると思うと涙出てくるわ
何万通りも計算してあーじゃないこーじゃないおおこれが一番良いちんぽだ!って頑張ってるんだぞ RTX 4090は28万円
4090対応の1000W電源は2万円
博士に4090買ってもらうには合計30万円の寄付が必要だな
1万円の寄付なら30人だ
1万円の特別javpを販売するとか 学習時間短縮されてそれだけリリースが早まるんだから何かしら力になれんのかな >>87
博士が学習させてる時は、あーじゃないこーじゃないと(識別器が)頑張ってるんだけど、俺たちのパソコンの中で推論してる時は、あーじゃないこーじゃないはやってなくて(識別器(discriminator)は動いてない)、一発でこれだろう!と判断してるんだ
だから博士の学習にはすごい計算パワーが必要なんだ
頑張ってるのは博士のパソコンと、時間かけて調整してる博士なんだ Generative Adversarial Networks
ttps://arxiv.org/abs/1406.2661
Learning Temporal Coherence via Self-Supervision for GAN-based Video Generation
ttps://arxiv.org/abs/1811.09393
BasicVSR: The Search for Essential Components in Video Super-Resolution and Beyond
ttps://arxiv.org/abs/2012.02181
アルゴリズムに興味ある人はChatGPTとかBingとかGeminiとかClaudeとかを利用して翻訳や要約させつつ元の論文を読んでみよう GANsとは?: Generative Adversarial Networks(GANs)は、2つのAIモデルが競い合うことで、リアルなデータを生成する技術です。
2つのモデル:
生成モデル (G): 新しいデータを作り出す役割を持っています。例えば、偽の画像を生成します。
識別モデル (D): データが本物か偽物かを見分ける役割を持っています。
競争の仕組み:
生成モデル (G) は、識別モデル (D) を騙そうとします。
識別モデル (D) は、生成モデル (G) が作った偽物を見破ろうとします。
最終目標: 生成モデル (G) が非常にリアルなデータを作れるようになり、識別モデル (D) が本物と偽物を区別できなくなることです。
例え話
想像してみてください。ある画家(生成モデル)が偽の絵を描き、鑑定士(識別モデル)がその絵が本物か偽物かを見分けようとします。画家はどんどん技術を磨き、鑑定士を騙せるような絵を描くようになります。
最終的に、鑑定士が本物と偽物を区別できなくなると、画家は非常にリアルな絵を描けるようになったと言えます。
これがGANsの基本的な考え方です。 TecoGAN原論文のAI要約
この研究では、動画を作るAIが、時間の流れに沿って自然に見えるようにする方法を提案しています。具体的には、以下のポイントがあります:
自己監督学習:AIが自分自身で学習する方法を使って、動画の中で時間的な一貫性を保つようにしています。これにより、動画が滑らかに見えるようになります。
Ping-Pong損失:新しい損失関数を使って、動画の中で時間的なズレや不自然さを減らしています。これにより、長い動画でも自然に見えるようになります。
評価方法:動画の品質を評価するための新しい方法を提案し、実際に人々に見てもらってその評価を確認しています。
簡単に言うと、この研究はAIが作る動画をもっと自然で滑らかにするための新しい技術を提案しているんです。 博士に提案
もし出来るのならば学習の分散処理に参加させてもらえないだろうか?
SETIとかUDみたいな感じで
自分にはそういうプログラムを書く能力はないけど BVPP原論文のAI要約
この論文は、ビデオの画質を向上させる技術について説明しています。
具体的には、低解像度のビデオを高解像度に変換する「ビデオ超解像(VSR)」という技術です。
主なポイント
基本的な仕組み:
論文では、ビデオ超解像のための基本的な仕組みを再評価しています。
具体的には、ビデオのフレーム間で情報をどのように伝えるか、フレームをどのように整列させるか、
情報をどのように集約するか、そして最終的にどのように高解像度に変換するかを検討しています。
シンプルな設計:
複雑な設計を避け、シンプルな方法で高品質な結果を得ることを目指しています。
既存の技術を最小限の変更で再利用し、効率的に高解像度のビデオを生成します。
情報補充メカニズム:
ビデオのフレーム間で失われた情報を補うための新しいメカニズムを提案しています。
これにより、より自然で高品質なビデオを生成することができます。
拡張性:
提案された方法は、将来の研究や技術開発の基盤として利用できるように設計されています。
BasicVSRとその拡張版であるIconVSRは、他の研究者がさらに改良を加えるための強力なベースラインとなります。
この研究は、ビデオの画質を向上させるための効率的で効果的な方法を提供し、
将来的な技術開発に大きな影響を与えることを目指しています。 >>95
学習の分散処理は今のところ難しい
単純にやると、分散した方が逆にすごく遅くなってしまう可能性が高い
将来、うまい処理の切り分け方が見つかるかもしれない
現状は寄付などで博士のメインPCのGPUを4090にしてもらうのが一番 モザイク無し画像と比較しないのに真偽の判定を学習するって限界あるのでは?
そもそも、モザイク事態もただ元を拡大した訳じゃなくランダムに混ぜられてるだろうし。 >>98
モザなしの画像を学習させてる
モザかけた画像は学習してない
モザなしの画像を拡大したものか、モザなしの元画像そのままなのかを判定する識別器のモデルをまず学習させる
次に学習された識別器が区別つけられないよう、モザを拡大(超解像)する生成器のモデルを学習させてる 修正
モザなしの画像を学習させてる
モザかけた画像は学習してない
モザなしの画像にモザかけたものを拡大したものか、モザなしの元画像そのままなのかを判定する識別器のモデルをまず学習させる
次に学習させた識別器が区別つけられないよう、モザを拡大(超解像)する生成器のモデルを学習させてる ■ このスレッドは過去ログ倉庫に格納されています