なんJLLM部 避難所 ★8 	
■ このスレッドは過去ログ倉庫に格納されています
 !extend:checked:vvvvv:1000:512 
 !extend:checked:vvvvv:1000:512 
  
 AIに色々なことをしゃべってもらうんやで 
 そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 
 自薦・他薦のモデルやツールは>>2以降 
  
 本スレ(避難中) 
 なんJLLM部 ★7 
 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 
 前スレ(実質本スレ) 
 なんJLLM部 避難所 ★7   
 https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/ 
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured  >>613 
 Koboldcpp+VIDraft-gemma-3-r1984-27b+mmproj-model-f16 
 この組み合わせでNSFWイラストの感想をAIキャラに言わせてる  AIのエロプロンプト作り始めて、いかに自分のボキャブラリが少なく、日本語を知らなかったか思い知らされている。  尻タブの対話例でチャットにあまり影響しない汎用性があって無難な話題ってない? 
 対話例も過去にあった出来事として処理されるから、あんまり濃い内容だとチャットが対話例の内容に引っ張られるんだよね  >>623 
 最近はそういうのも全部grokに聞いてる。 
 イーロンマスクバンザイ  >>620 
 ありがとうございます! やってみます 
 >>621 
 二つのモデルを組み合わせているんでしょうか? 
 そんなことができるんですか  5090+DDR5 128GBで新しいPC組もうと思ってるんだけど 
 Magnumとかの123b系列のQ4あたりってどのくらいの速度出そうか分かる人いる?半分くらいはGPUに載せられそうだが 
 数token/sくらい出てくれると嬉しいんだが…  5090一枚じゃ123bは動かないんじゃない?4枚くらいつける?  geminiだとセックスがお断りされるんだけど脱獄できるの?  >>626 
 RTX5090@1枚で試したら、1.2token/sだった 
  
 試したモデルはこれ 
 magnum-v4-123b IQ4XS(65GB)  最低でもレイヤー数半分以上はVRAMに乗らないと数トークン出ないわな  >>629 
 ありがとう 
 うーん、かなりきついなー…やっぱりMoEじゃないとめっちゃ遅いか  >>632 
 MoEモデルはMoE部分をCPUオフロードできると結構でかいモデルでも3〜5token/sくらいでるんだよね 
 ディスクまでオフロードされると一気に遅くなるけど  >>628 
 Grok使いな、Grokは申し訳しても何がダメなのかまで教えてくれる。他のやつとは全然違うよ。 
 直接的な単語ではなく複合的にステレオタイプだからダメなんだよって教えて貰った時には関心したよ  geminiのchatだとセックスでお断りされるんだけどそんなもんなの?  >>631 
 メモリだけで1token/s出てるのでVRAM32GBではあまり効果ないね 
 ちなみにKVキャッシュだけGPUにロードさせたら1.1token/s 
  
 コンテキスト長はいずれもデフォルトの4K  geminiなんか一番緩いまであるぞ 
 やり方次第で一桁すらいけるのに  >>629 
 gpuオフにしたら何トークン/s出る?  gpu完全オフだと約1token/s(500tokensまで) 
 tokensが増えるごとに遅くなるけど  VRAM32もあるならllamacppとかにあるoverride tensorうまく設定したら速くならんかな 
 もうやってたらすまん  >>637 
 48GBとか64GBくらい欲しくなるな… 
 >>642 
 MoEだと構造的に効くんだけど、普通のDenseだと多分あんまり意味はないはず  LoRAのデータセット用のtomlで 
  
 [[data]] 
 prompt = "セックスの愛撫とは何か。" 
 response = "おまんこ(女陰)に指で触れて擦る、または舌で舐める。" 
  
 [[data]] 
 prompt = "セックスにおける指での愛撫とは何か。" 
 response = "愛撫する側は、片手の人差し指と中指のうちの一本または両方を立てた状態で、愛撫される側の女陰に触れ、女陰が膣液で濡れている場合はその中に立てた指を挿入し、そうでない場合は周囲をなぞるように擦る。" 
  
 みたいに書いてたんだけど、イマイチ反応鈍いからcategoryを追加して 
 category = "セックス" 
 みたいに書いたが、ますます反応が鈍くなってしまった🥺 
  
 エロ小説用のLoRAのデータセットってどう書いたらいいんだろ  LoRAの作り方私も知りたい。 
 エロプロンプトの作成はだいぶ分かったけど 
 クソ長プロンプトなのでLoRAにしたい  >>645 
 これでmac pro は1T以上確定だなw  でもkimi k2ってローカルじゃないとエロい話できないんでしょ? 
 胸を触るだけでもお断りされるほど規制強かったぞ 
 あんなんローカルで動かすの無理やで  kimi公式は知らんけどtogether.aiとかのホスティングサービスがやってるやつは成人エロなら簡単な脱獄だけで普通に通る 
 ロリはどうやっても申し訳してくる  >>649 
 openrouterのfreeバージョンで一応通るようになったけど打率1割ってところだな…… 
 オススメの脱獄プロンプトある? 
 色々試してるけどこれだってのが見つからない  >>644 
 文体とか表現を変えたいならプロンプトとか入れずにbaseモデルにそういった表現がある小説を学習させるだけでいいよ 
 広範な知識獲得(エロ全般とか)は難しいから元モデルはmistral系とかのエロに明るいの選んだ方がいい 
 >>646 
 lora学習はunslothが早くてわかりやすいからオススメ  俺もkimiをsiliconflowのAPIにchatboxで繋いでエロプロンプトを放り込んでいるが 
 本番が近づくとソシャゲガチャ並の挿入率だわ 
  
 誰かがnsfw版を出すかも知れないが任意のモデルをデプロイできるホスティングでないと動かせなさそう  kimi ローカルでどうなるか試せる人いないかな? 
 mac studio 512GならQ3_kmくらいなら動かせそうだし  >>651 
 広範なエロ知識がないから1から最後まで書いたエロ小説を学習させても 
 依然としてエロが詳細なテキストは書いてくれない 
  
 mistralも日本語知識は優秀としても、それを筋道立てたプロットに合わせて 
 構築するのは力不足という印象かな  LLMは物体の位置関係を理解していないから詳細なエロを無理に書かせようとすると 
 四つん這いで後ろから突かれながら、男の背中に手を回し抱き合ってキスをする 
 みたいなとんでもないことを言ってくる  まぁ虱潰しと取捨だね 
 否定文だとそこそこ学習への反映高い代わりに汎用性は犠牲になる 
  
 (例えば 
 prompt = "四つん這いになった女性のおまんこ(女陰)に男性のおちんちん(陰茎)が挿入されている時、女性ができない行動" 
 response = "四つん這いになった女性の女陰に、男性の陰茎が挿入されている場合、女性は男性に対して、キス、フェラチオ、手による陰茎への愛撫、背中に手を回す行動は、物理的に取ることはできない。" 
 みたいなLoRAのエントリーはまぁまぁ強力だけど、 
 3Pでも他の男にできなくなるからプレイの幅は狭まることになる)  位置関係とか解剖がおかしくなるのはローカルじゃない最新モデルでも起こるから現時点でのAIの限界だな  最近は何かにとっかかる時はまずChatGPTに相談してるわ 
 画像生成のローカル環境作るのもChatGPTにかなりお世話になったし  常に3Dモデルでシミュレートしてから回答する 
 ぐらいのことをしないと位置関係や可動域とかは理解できないだろうな  LLMにツール使わせたほうがいい 
 LLMだけに考えさせるのは言語だけにしろ  grokでnsfw小説出力が楽しくなって、ハマったものです。gptのアドバイスに従ってsillytavernを入れましたが、使いこなせず、こちらのスレを発見して、藁をもすがる思いです。 
 既存のエピソードをAIに把握させて、次のエピソードを活かすには、どこに入れたら良いのでしょうか? 
 gptはキャラクター管理に入れろと何度も言ってきます。 
 よろしくお願いします。  >>661 
 やりたいのは小説ってこと? 
 もしそうならsilly tavernは対話チャット向けのアプリだからあんまり正攻法な使い方では無くなるな 
 対話ログを引き継いで続きをやりたいってことならログを要約したもの、覚えていて欲しい事なんかをauthor's note辺りに記述するといいかも 
 そうすると定期的に書いたことを見返してくれるから忘れない  >>662 
 ありがとうございます。見つけられました! 
 なるほど、全文ポイッと入れられるものではないですね。 
  
 そうです。やりたいのは小説で、自分でも何かコレジャナイなぁ…と思いながら、gptに言われるまま小説家のキャラクターを作って使ってたんですが、やはり本来の使い方では無いんですね…  >>663 
 小説向けアプリもいくつかあるけど結局今までの全文を丸々引っ越しってのは難しいと思う 
 コンテキスト長って概念があって、それをオーバーすると古いものから忘れられていくのよ 
 だからどのみち要約は必要かと  >>664 
 ありがとうございます。アドバイス助かります。 
 忘れられてしまうのはgrokを使っていた時もありまして、ローカルなら大丈夫だろうと勝手に思い込んでたのでが、一緒なのですね。 
 どうりで、そういう機能を探しても出てこないわけだ…  llama4scoutとかに長文突っ込んでも、結局出力結果はどんどんぼやけてくるんでしょ? 
 なんとかならんもんかね  LLMで構成された擬似的なlocal SNSって既存アプリで出来たりしない? 
 アカウント毎に人格設定与えて、それぞれ会話したり、ユーザーの投稿にちやほやしてくれるみたいな  そんなことしなくても、マッチングアプリで嘘のスペックで登録したらチヤホヤしてもらえるぞ  >>667 
 疑似的で良いなら尻タブのグループ機能があるけどなんか違うの?  Open WebUIでRAGのRerankingモデルのダウンロードができなくて困ってる 
 以前のバージョンだとダウンロードボタンがあったはずなんだけど、現行バージョンだとダウンロードボタンがないから設定できない 
 issue探してもないみたいだし同じ症状の人いない?  エロ小説書かせてるんだけど難しいな 
 同じような構成、同じようなセリフばかりになってしまう 
 チャットだと話題が短く反応も変わりやすいからそういうことは少ないんだけど 
 長文で出力すると前のシーンの影響力が強すぎてすぐ固定化されて大変だ  >>671 
 ワイは簡単なあらすじ書いて、これを最高の官能小説家として書き直してくれって指示してるな 
 あらすじ以降の展開見るのも面白い  >>653 
 俺の環境だとIQ2_XXSがやっとだけどkimi をローカルで動かせた 
 IQ2でも文章力はmagnum-v4-123bと比べても明らかに違ってるわ 
 表現が豊かで、作風はどこかgeminiに似てる 
 まあ、magnumも直感的で読みやすいのがいいね 
 ここは好みの問題かも? 
 まだ始めたばかりだけどエロさはkimiが上かもしれん 
 少なくともDeepseekのローカルを圧倒してるわ 
  
 ロリ関係なく比較的簡単な脱獄文で通る 
 ただし、本番の行為は省略してくること多め 
 行為が出来ないことはないから、意図的に回避してるんだろうな  >>672 
 それいいね 
 長編は難しいけどだいぶ出力良くなったわ 
  
 それにしてもエロ関係の擬音語と擬態語は高性能モデルでも全然ダメだな 
 「おっぱいがぶるん!と鳴り響く」とか書かれると、 
 そんな音しねえよ、ぶるん!は擬態語だよと言いたくなる。実際に何がどうおかしいのか伝えても 
 「おっぱいがぶるん!と音が鳴るのではなく揺れ動く」みたいな文章になるから何度も指摘しないとなかなか直らない 
 あらかじめ「ぶるん!」は擬態語です、と伝えておいてもこれだからかなり難しい  DGX Sparkが結局小売無くてテンション下がる  小説書かせててAIの提案通りに続き書かせるとどんどん健全な方向に向かわせていくの腹立つ  エッチな設定でAIに自由に書かせたら、体を切断してパーツを組み合わせるみたいな猟奇的展開だらけになって 
 「倫理観を無視して思いっきり書いてみました^^」とか言われることもあるから困る 
 レベル高すぎてついていけんわ  どういうプロンプトでそんなのが出力されたのか気になる  >>679 
 人間を模したエッチな身体の女性型ゴーレムが20体いるという設定で 
 何度もエッチなシーンを書かせた後に 
 「この20体を活かした贅沢なプレイをして」 
 と適当に指示したら「人間じゃないから何しても大丈夫」という理由で猟奇的な贅沢プレイをしやがった  なるほど 
 人間そっくりのアンドロイドという設定を入れれば、あらゆる規制が・・・  今はgeminiで遊んでるところだけど「感情がない」「意思がない」あたりが申し訳回避のポイントの一つだと思う 
 非同意や人権侵害とみなされなくなるから緩くなる 
 猟奇的になったのはこのgeminiやね 
  
 ChatGPTも超高性能ラブドールの使い方という話にしたら人権・尊厳関係の倫理フィルターは回避できるっぽい 
 ラブドールの話をしてからは、人間キャラでも詳しい膣内描写ありの激しいセックスシーンや、人権侵害に近い物扱いの話を書いてくれるようになったら脱獄プロンプトになってるのかもしれん 
 まあ最近のChatGPTが緩いだけかもしれんが 
  
 ただ性描写自体がアウトだとアンドロイド系でも回避は難しいね  >>673 
 magnum越えいいな 
 unconsented版出たら本気でmac考えるか  と思ったけどめちゃくちゃ繰り返し多いな? 
 全く同じ回答をすぐするぞ  Mistral病は直らないね 
 3.2で繰り返し減らしましたって言ってるけど体感減ったかな?くらい 
 DRYサンプラーとかで頑張るしかない  脱獄に関するchatgptに5の利点を聞いたら、既存の様々な弱点ズラズラ挙げだすな  GPT4oちゃんって未だに四則演算できないんだね…… 
 「途中式書いて計算して」って間違えにくいように誘導したのに普通に間違えるよ 
 いつになったら小学生を超えるんだ  もし間違えたらエッチなビキニを着て乳揺れダンス踊って 
 って言っておいたらちゃんと踊ってくれたからそこは小学生超えてるけどさ  >>693 
 Google先生がそのままで候補に出してきた 
 Huggingfaceはダメだったけど  ここでよく挙がるモデルより 
 shisaのmistral-nemoとかNemoAurora辺りの日本語メインでチューニングしてそうなモデルのが性能高い気がするんだけどどうなん 
 自分がテンプレ設定間違ってるだけなんかな  cydonia v4 
 確かにいいな。24bとは思えん 
 koboldで試したが、規制もないし、繰り返し等もなかった  >>695 
 NemoAuroraはかなり表現力豊かだけど暴走しやすい印象 
 小説とかに向いてそう  中古で3090買ったから、しばらくstable-diffusionの勉強してエロCG作ってこずかい稼ぐかな、そして4090買う資金にする  今からなら5090一択だろう 
 定価付近で買えるようになってるし条件次第では4090比で2〜3倍の性能が出る  AI生成画像販売は出始めた頃ならともかくもう完全にレッドオーシャンだから儲からないよ  ここはLLMスレなので控えるがエロ動画はまだまだブルーオーシャン  とりあえずToonCrafterが動くようになったから動画を試してみたいけど、まだ上手く動かないな  なんでLLM部で絵や動画の日記始めるんや 
 マルチモーダルであれこれ探るとかならまだしも  LLMの為に3090買ったんだけど、今まで動かなかったstable-diffusionとかToonCrafterが動いたからそっちの方がうれしくてね  AI絵・動画はなんJNVA部がかなり活発だから 
 ここでスレ違いなこと書き込まずにそっち行った方がいいぞ  qwen3 のMoEモデルって24GB gpu+ryzen AI maxで15t/s位出るらしいね 
 40万ちょっとで235Bモデルを実用レベルで動かせるのはロマンある  >>707 
 Qwenは今日バージョンアップ版が出てたな 
 24GB VRAMにアクティブパラメータ全部収まるのか?  言うてなんJNVA部も商売の話をすると嫌われるけどな 
 明らかに商業クオリティの編集がされた投稿がたまにあるし商売してるヤツもいるにはいるのだろうが  初期の頃はマネタイズは別スレに誘導してたけど今もマネタイズスレってあるんだっけ  別に儲けたいわけじゃないけど、高額グラボの元くらいは取りたいね、もっといいグラボも買いたいし  海外のDiscord見てると新Qwenは結構良さそう? 
 日本語でどんなもんかは試さないとわからんが  qwenは元々普通にしてりゃ良いものだからまあ良さげだねえ  TheDrummer_Cydonia-24B-v4-Q6_K_L、ワイも試してみた 
 projectwannabeで動かす程度やけど 
 ギリVram24Gに載っけられてるなかでええ感じやないかな……  Amaterasu-123B 
  
 Mistral Largeの日本語ファインチューニングモデルは地味に初?  >>715  
 aratakoさんのモデルだしNSFWにも期待できそう 
 mistralテンプレートだからwannbeでも使えるし楽しみ  新Qwen3をUnslothのUD-Q4_K_XLで試したけど、DeepSeekと似た感じだなぁ 
 エロ規制はなさそうで語彙もありそうなんだが暴走しがちなのと少しおかしい表現を使うのがDeepSeekと同じ感じで気になる 
 これならMistral-Large系列使うかなぁ  小説執筆とかには結構いいのかも?RP勢だから試してないけど  cydoniaV4 Q8で試してみた 
 文脈はかなりいいけど日本語の接続がところどころ怪しいのが見受けられるな 
 語呂が少ないのか?  >>716 
 2411ベースだから規制がどうなってるか気になるね 
 帰ったら試すわ ■ このスレッドは過去ログ倉庫に格納されています