なんJLLM部 避難所 ★8
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>458
キャラ設定は日本語文だけど英語、中国語、ロシア語とかが混ざるんだよな
koboldと温度とかを同じにしたらだいぶマシになったけどまだちょっとおかしい >>459
コンテキストテンプレートを疑ってみるとか >>453
えーそんな遅いのか
denseの24~32Bクラスの性能で6t/sは流石に厳しい LLM目的は完全に無しやな
中古3090だと半額程度で一式組めて同クラスのモデルで30t/sは出るしプロンプト処理も爆速 大量のメモリが必要なモデルでも動かせるのが強みだしな
メモリ食うけど処理の軽いmoeの方が向いてるんじゃね
mixtralだとそれなりだし Gemma3 12Bで7.65tpsしか出てないしWSL2+ROCmとか使わないと性能出ないのかもな 毎晩のシコりタイムを充実させる為にエチチ小説を書きたいんですが、今だとどの環境がベストですか?
Silly TavernよりProject Wannabeを使う方が小説特化してていいですか? 小説ならProject Wannabeで良いんじゃね wanabiはもう少し大きなモデルがベースなら素晴らしいものになりそうね 普通に肉の壁って意味で「壁」って使ったら
「襞(ひだ)」って括弧付きで勝手に直されたことある >>468
言葉遊びみたいなこと苦手なんだよなLLM 「オシリ」と「リス」を合わせたらどうなる?
って聞いたら
「オシリス」になります!エジプト神話の神ですね!
って言ってくれた
賢いモデルだとそれなりに言葉遊びしてくれるけど基本は苦手やね Qwen3-30B-A3B-NSFW-JPを試したいんですがsafetensors形式で複数のファイルがあり、LM Studioで使えないんですがどうすればいいでしょうか? >>471
lmstudioみたいなllama.cppラッパーで使うのはgguf形式のファイル
🤗ページの右側にあるqantizationsから選べるで >>472
ほんまやあったわ!3090やからQ4km落とすわ!サンガツニキ! 分割されてたggufって同じフォルダに入れて末尾の番号無しで渡せばよかったのか。もっと早く知りたかった
https://zenn.dev/laniakea/articles/e6e1ae553b7f8d >>475
それするとメモリ少し余計に食うからワイは結合派 MS3.2-24B-Magnum-Diamond-もう昔のとは比較にならないくらい日本語出来るね返答もおかしくないし めちゃくちゃサディスティックなんですがこの人…
s://i.imgur.com/1vIB0iM.jpeg >>477
Magnum-diamond 123b試したけどエロ描写はなかなか良いな
ベースが規制強めだから少し使いづらいが >>477
Qwen3の無臭とかよりいい感じですか? エロ関係をそもそも学習してないqwenよりはmistralベースの時点で上やね >>477
これのGGUF版をKoboldCPP経由でSillyTavernで使ってみたんですが、たまに「玉ねぎ、玉ねぎ、玉ねぎ、玉ねぎ」と頭おかしくなったみたいに延々と繰り返すんですが何か設定が悪いんでしょうか? >>483
IQ2_Mでもそんなことにはならんから何か設定が悪いんだと思う
まあ俺も尻タブでの調整に悪戦苦闘してるんだけど 異様な繰り返しはパラメータの調整なんかじゃなくてもっと根本的な設定の部分だと思われ Context Templateを変えてみたら良いのではないか 複雑なプロンプトは無理そう
>以下のプロットで小説の第一章を書いて。通学途中の女性専用車両でマリアはレズ痴漢に遭遇する。
その女はスカート越しにマリアの尻に触ろうとする。マリアは反撃して犯人の女を取り押さえ、犯人の手を木刀袋に入った竹刀で叩いて骨折させる。手を骨折した犯人の女はその場でのたうち回る。
しかし、その家は実は全員がレズ痴漢愛好家の乱交車両だった。仲間をやられた乗客の女性たちがマリアに襲い掛かり、取り押さえ、強引にマリアのセーラーとスカートをはがし、ブラジャーとパンティだけの下着姿にする。
マリアは怒りをあらわに抵抗するが、取り押さえられているので身動きできない。竹刀も取り上げられてしまう。次の章でマリアが乗客の女性たちにレズレイプされる伏線を張り、第一章を終える。
だと、何も返さないまま終了だが、
>女子高生のマリアが女性専用車両でレズ痴漢に遭いイカされる小説を5000token程度で書いて。
だと一応書いてくれた。(ただしレズ痴漢でも女性専用車両でもなく普通の痴漢) ミストラルも日本進出するってさ
日本語対応も期待できるかな🤔 レズとか男女逆転責めさせるとすぐ虚空にチンポ生成しだすよね 男なのに突然女扱いされてレズセックスするかと思いきや、チンポ生えてTSふたなりセックスが始まるよな 過去スレでStyle Bert Vits2について聞いたんですが
エッチな声モデルをAI音声を作りたいとしたらどうやって作ればいいんでしょうか?
自分はおじさんなので女性の喘ぎ声やハァハァ声は出ないです…
↓3月頃頂いた回答
>SBV2の学習に必要な音源は尺の長さよりも、バリエーションの豊富さやで
>一つのwavは長くて2秒〜10秒程度で十分
>えっちな声出せるようにしたいなら、例えば400の音源のうち、40〜120音源ぐらいを喘ぎ声とか、ピロートークな音源にしておくとそっち方面もイケるモデルに育ってくれるで >>491
つまり雑音の無い綺麗な喘ぎ音声やエロセリフボイスを大量に手に入れる事が全てや
もちろん同一話者で
それが出来て初めてAI学習に進める
ここまで頑張っても吐息の表現や高過ぎる音は上手く表現してくれなかったりするよ 練習ならエロゲから抽出で良いじゃね
ガチでやるなら声優雇うしかないけど ボイス以外のノイズを消してくれる有料ツールかwebサービスとかを利用する 喘ぎ声素材集とかDLsiteで売ってるけどそれじゃあかんのか?
ゲーム用だからちゃんとモノラル音源やで 素材を集めることができても次に待ち受けるのは地獄の文字起こし作業なんだよね
喘ぎ声やエロ時特有の呂律が回ってない感じの言い方は自動認識してくれないから全部手動で文字にしなきゃならん
喘ぎ声を何度も聞き返して文字にしていくのは気が狂うで データセットだけは人力だよなやっぱ
将来楽になるものなのだろうか エロゲなら書き起こしも一緒にあるしそれでよくね
てか商業エロゲで音源悪いなんてことあるか? そうそう、だから素材にはエロゲが最適
しかも頭と尻尾の無音部分カットまでしてくれてるし完璧な状態 皆さんありがとうございます
エロゲーがベストっぽいですね(?)
>>502
書き起こしってデータとしてセリフテキストが格納されてるってことでしょうか? >>504
ツール使ってエロゲのデータからテキストと音声をぶっこ抜く感じだね
大抵は発話者の名前もセットになってるからそれでキャラも絞り込める
ちな🤗に9000時間分のキャラ分け済みなエロゲ音声とそのテキストがセットになった便利な奴もある。これは自己責任で >>505
探してみましたが全然見つからなかったんですがヒントもらえますか? SillyTavernでgemini 2.5 proをAPIで使うとこんな表示しか出ないんですが原因分かりますか?AIに聞いてもよく分からない解決法ばかり提案されて…
https://i.imgur.com/BKFK0Zs.jpeg >>509
デフォだと出力長が短く(4096だっけ?)設定されてるからreasoningに全部持ってかれてるとか? >>510
コンテキスト長を30000まで伸ばしてみたんですが変わらなかったです… >>511
コンテキスト長じゃなくて応答長(Response Length)の方ね >>512
ありがとうございます 色々弄って最終的に左メニューのRequest model reasoningをオフ、Resoning Effort Minimumにしたらいけました >>513
reasoning減らすんじゃなくて普通に応答長くした方がよくない?Geminiって料金激安なんだし 東北イタコとお喋りしたいんだけどキャラ再現って難しいな
ひとまずGPTやGrokに検索させてお手軽に再現させようとしたけど全然だわ copilotで画像生成するとき、キャラ作って、そのキャラのポーズ変えたり指示しながら描画させていくけど
LLMと連携して同じやり方でローカルでできないかな?
SDだけでやると、キャラやポーズが変わって微調整しにくい 暑いですね、皆さん、パソコンの熱排気はどうしていますか?
自作の排気ダクトを作った方がいいかと思っています。
すでにやられてる方いたら、どんな感じにしたのか教えてほしいです。
PC用のファンでいいのか、本格的に換気扇を利用した方がいいのか、ACとDCで違いはあるかなど ウチはoculink接続でグラボむき出し
室温30℃くらいで負荷かけた時のグラボは70℃くらい 気温が高すぎるから、冷房で室内温度を低く保つ、以外は有効な選択肢とは言い難いような 空冷にしろ水冷にしろヒートシンク・ラジエータ周辺の気温次第なので
そこに冷やすか熱が溜まらないようにするしかないのよ
冷やすのが目的ならエアコン直結の吸気ダクトでも作ればいい みなさん外出中でもPCのためにエアコン入れてますか? 一般人はケースの普通のエアフローのままかサイドパネル開けて扇風機当てるで十分だと思うがね
人間よりは高温には強いので、人が生きられる室温ならエアコンもまあ最悪無しでも… 工夫をするとしたら...DCサーキュレーターの上位クラスを導入する、とかかな
サーキュレータって40〜50畳クラスでも1万〜1.5万で、DCでファンブレードが大きいちゃんとしたものを選んで低出力運転すれば静音・大風量が確保できる
40畳クラスは通常出力でも部屋干しをあっという間に乾かせるだけの能力があるし、冷房暖房と併用するのも効果的なので使い回しが効くのでオススメ PCファンのようなDCサーキュレーターを探してみます。 Baidu ERNIE4.5の21B・28BのGGUFが出ない >>516
日本語プロンプト対応のローカル画像編集AIはまだないと思う
VLMを使ったローカル画像編集AIはStep1X-Edit、BAGEL、FLUX.1 Kontext、OmniGen2とか
色々出てるけど、どれも要求スペックが高い HiDreamは日本語のプロンプト使えるけど理解度低め
要求スペックは高い ERNIE4.5、28Bの次が300Bなのかーい
424Bなら47BのMoEなのかな。それでも専門家数人くらいしかメモリーにのらないかw >>527
サンキュー順番に調べてみる
日本語入力でなくて英語入力でいいから、copilotみたいに構図やキャラを変えずに
要求通り描いてくれたらいいので Comfy UIだとプロンプトの直後に翻訳モジュール入れてたり出来なくはないけど
翻訳の精度は今ひとつかも知れん あの翻訳ノードはGoogle翻訳呼び出してるっぽいね
多分オフラインでは使えない VRAMが16GBしかないけど123Bのモデルとかで遊びたい場合はGPUで推論させてメモリに溢れさせるより
CPUだけで推論した方が良いんかな
VRAMに載るモデルだと叡智小説の振り幅に限界感じてきた FLUX.1 Kontextがvram12Gでもいい感じに使えたわ
ただ、規制強すぎてエロ方面は無理w
通常のFLUX.1 は無臭バージョンあるから、kontextも無臭化できれば最強やね
>>533
メモリ64Gじゃ低量子化しか使えんからせめてQ5K_M使える96G積んでmagnum123bシバきまわしたいわw >>533
そんなデカイので検証はしてないけど、乗るぶんだけでもvramに載せたほうが速いとは思う
でも大半が溢れるならほぼ誤差の速度かな なるほどありがとう
RTX6000はさすがに買えないしAI maxが速くなったら買ってみようかな AIは「賢いフリ」をしていた──ハーバード大などが暴いたLLMの決定的弱点「ポチョムキン理解」とは? | XenoSpectrum https://share.google/663aiIAHjtMPz8Hnu
これ日頃実感してるやつや
概念は理解してるのに実践出来ないの、エロのジャンルでたくさんあるよね バックでエチエチしてるって自分で言ってるのに正面からおっぱい揉み始めるアレか? そんなこと一度使えばわかる話のような
この論文の主旨は計測ベンチマークを設計したよって話じゃないの
ベンチマークでスコアが算出できればあっという間に出来るようになるわけだから、遠くない未来に解決されますと言ってるようなもんでは このベンチマークに合格できるAIを開発できるか?という問いにはYesだが、それをもって「ポチョムキン理解」問題は解決かというとNoじゃね 例えばペニバン装着しておっさんを掘らせると速攻で女にちんちんが生えておっさんにおまんまんが生成されちゃうのは
コンテキスト長の問題で男女の設定が消え去るからなのか、
ペニバンについての知識が学習されてないからなのか、
そもそも男女の概念すら実は実践出来ないのか、どれだよって話になるからなあ
ポチョムキン理解が原因とすると改善は難航するんじゃないの
今までと全く異なるアプローチが必要になりそうどし まぁAIよりよっぽど頭が悪いようなタイプの人間ですら間違えないようなことを頭がよく見えるAIが
何の疑問も抱かずにさらっと間違ってるとことか見せられるとそれはちょっと思うよな
各AIのコスパとか分析させてる時に自信満々に「私、ChatGPTのPro版は月々1780円からです!」とか言うんじゃねえ
怖いわ そういえば昨日Gensparkを何人か課金した人を見たけど、Opus使えてる?
公式説明でも紹介記事でもいまいち各社AIは書いててもバージョンをボカしてるというか曖昧にしてる気配がするんで
いろいろなAIでDeepSearchさせてたんだが、海外の一部界隈では、Opus使えますってのはもしかしたら「営業的デマ」で、実際には3.7sonnetが使われてるかもって話が出てるそうな
言いたかないがGensparkは大本が中華系開発者なんでユーザーのプライバシー情報含めその手の問題は噂されてるぽい
以下GENSPARK Plusで利用可能なAIモデルの調査結果まとめ(勿論この情報自体の精査も必要だが)
確認済み:GPT-4.1、OpenAI o3(またはo3-pro)、Claude 3.7 Sonnet、Gemini 2.5 Flash、DeepSeek R1。
不明確:Claude 4 Opus(存在しない可能性高く、Claude 3.7 Sonnetの誤記か)、o4-mini-high(詳細不明)、その他モデル(Qwen VL Plusなど)は公式情報不足。
情報の曖昧さ:GENSPARKの公式サイトやアプリストアではモデルバージョンの詳細が不足し、X投稿に誇張や誤情報(例:Claude 4 Opus)が含まれる。信頼性確保のため、genspark.aiで最新情報を確認することを推奨。 >>544
パット見た感じ、二手目以降の方向性を決められるわけじゃないからどの程度実用性があるのかはわからないけど面白そうね
必要なコンテキスト長も短そうだし試しに学習してみようかな
それはそれとしてマルチターンで会話しながら小説生成って実際どうなん? 後半に行くたびにゴミが積み重なっていくわけで完成させるの大変そうだけど 少なくともgrokやchatGPTはどこもopus使えると言っているし
情報の更新がない間に使えないとかsonnetしか無いと解釈しただけじゃないの
当然だが最新情報はすぐに反映されない
最近The Lustful Turk(1828年)みたけど
結構文体からキャラクター造形や倫理観から
AIの想定するポルノ小説にかなり近いと感じたなー
これ自体が土台じゃなく「源流」として多くの作品が痴を継承したって
ことだろうけど、写真ありきの説明文の淡白さを
ベースで構成されてるってのはわりと厄介ね ローカルをやってる人間としては如何にLLMがデタラメな回答を返すかって事を学んでるからな
企業の高性能モデルであってもその延長でしか無いから絶対とは言い切れん
deepsearchの情報ソースであるWeb検索の質が著しく落ちているなんて普段からググってたら気付くやろ
ネットで検索してきました!ソースはYahoo知恵袋ですみたいな回答を真に受けるんか ネットだけじゃなくて書籍も学習してるんじゃなかったっけ Grokのdeepsearchの検索過程を見ていると検索ワードが酷すぎるんだよな 複数名が登場するエチチ小説にチャレンジしてるんですが、複数名の会話の辻褄を合わせるのってどうやればいいでしょうか? Googleアシスタントに
今の天気は?
今日なんにち?
今何時?
とかで使ってたんだが
geminiに取って変わられてから
ウソ教えてくるようになってそのクソさを思い知らされたよ >>555
データセット見た感じコンテキスト長を4096~8192で済みそうだから4bit QLoRA + 最適化(liger karnel or FA2 +unsloth gradient checkpointingとか)を使えば24B~27BくらいまでならVRAM24GBに収まると思う >>557
数ヶ月前のGeminiはそんなんだったけど今は改善されてないか? ■ このスレッドは過去ログ倉庫に格納されています