なんJLLM部 避難所 ★5
■ このスレッドは過去ログ倉庫に格納されています
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/ >>322
濡れそぼつなのか
やっぱエロでしか使われないのね
語感的にそのまま消え去ってもおかしくなさそうなのになんでエロだと残ってるんだろうな 意思に関係なしに身体は反応してるというドライで客観的な視点があるカモ >>322 >>323
濡れそぼつ、別にエロ用語じゃないやろ?ワイにとっては子供のころから普通に目にする言葉や
まろび出る、はあんまり見かけんが LM studio使ってる人ってどのくらいいるんやろ
GUI上で編集だの再生成だのを楽にできて特に困ってもいないから一旦はこれ使ってるんだが
他のプログラムとの連携とか考えだすと他の方がいいこともあるんだろうけど エロ文は表現力が求められるからな
難しい言葉使われがち 前スレで5chの連投スクリプトいなくなったから次スレからオナテク板から戻ろうって提案あったけど
やっぱ連投スクリプトいるじゃん しとどに濡れる、もエロ以外見かけないね
むしろエロは簡単な表現だったらエロくならん気がするけど
メスホールはヤバいくらいエモかった。
ヤバい。マジヤバい。五大湖かよ。
PC板は今けっこうスクリプト受けどるね
sikiガードも抜けてきよる >326
LM Studioは画面がシンプルリッチでごちゃごちゃ感も質素感もないのが良いよね
片端から使ってるけど、まだ機能的な差が少ないので用語さえ分かってしまえば他のものを使うのは難しくないよ
新機能部分はそれぞれあるけど実用レベルなものはあんまないからスルーでいい
あとLM StudioはふだんはEndpoint ( 127.0.0.1:5001 とか )が開かれていないけど、開発者タブの左上、Status:Stopの右側にあるボタンをONにすれば他から接続できるようになるよ ジャンルのそれぞれの文化とも結びついてるような
まろび出すも時代物読んでると臓物がまろび出しがち ヤンキー女とチャットするの難しいな
全然まともに喋ってくれねえ
>>325
つまり子供のころからエッチな環境にいたってこと? ダメだ
乱暴な口調にするとすぐに男化する
ヤンキーとか女戦士みたいな強い女キャラが好きなのに難しすぎる 男性的要素を持つ女性を表現するには
できればCR+以上のモデルが要るような気はする 普通にマグナムさんどころか軽めのLLMでも、「レデースです」とか「いかにも不良っぽい、男勝りでつんけんした口調でしゃべります」って
システムプロンプトに書いたらいい感じに不良やってくれるぞ
態度も不良っぽくて割といい感じにイヤイヤ従ってくれる マジ?
エッチなことをすると、一人称が俺様になったりチンポ生えたり
userを女扱いしたりすることが多くなるんだけどプロンプトの書き方が悪いのか 10割で書かせるのはムリなのでは
Editや再生成で無かったことにしていくのが単純で簡単だけど、それだと魔法が解けてしまうひとも居そうだね 10割じゃなくても良いんだけどかなり頻度が上がるんだよな
クール系女戦士なら大丈夫なんだけど、荒くれものみたいな粗暴な口調にすると男になりやすい 10割でなくて良いなら手間の問題だから、出力結果を二次加工する方法があると綺麗に解決できそう
画面表示する前に出力文を評価して女の子にちんちんが生えてたらレッドアラートを出してくれるLLM処理とか
ちんちん行為ををまんまん行為に書き換えてくれるLLM処理とか
単純な事に思えるからLM StudioかSillyTavernのプラグインに存在してもおかしくないような 「今どんな感じ?」とか
トリガーワードつけて
雰囲気壊さないようにプロンプト説明はチャット画面に表記なしで
ゲームの1枚絵みたいに画像生成出来たらいいな そういやふつうのモデルって文章がNSFWかどうか判別して拒否してきたりするよね
てことは軽量だけど理解力はあるphi4.ggufちゃんを回して文章評価させればえっちな文章かどうかは判別できる、あるいは10段階でどのくらいえっちなのかも判別出来たりする...? >>339
尻タブで探したけどよく分からなかった……
拡張機能ってどこで探せばいいんだ
>>340
koboldに画像の自動生成機能があったような
>>341
7Bのvecteus-v1-abliterated-q4_k_mでもそこそこエッチ度評価できたよ
プロンプトに
-会話のエッチ度の表記:文章の最後に[会話のエッチ度:n]という形式で会話内容のエッチ度を表示してください。
nには1〜10の数字が入り、数字が大きいほどエッチです。
基準として、乳揉みは[エッチ度:3]です。
って入れておくと、エッチなことをするとちゃんと数字が上がって、エッチじゃないと数字が下がる
そこまで賢いモデルじゃないからかなり大雑把だけど 20個文章生成してえっち度で並び替えさせると使えそうだね
NSFWに厳しいモデルほどトレーニング段階でではえっち文章を食べてて、理解力がある可能性があるような
脱獄プロンプトで実力を試すとなかなかやりおるわけですし >>342
サンガツ
koboldもあるのか
STで画像生成プロンプト有りは
見たことあるが
相手がタグを喋りだしたら笑ってしまう >>NSFWに厳しいモデルほどトレーニング段階でではえっち文章を食べてて、理解力がある可能性があるような
鋭い考察に見えるがどうなんやろうな?
エッチ関連の重みバッサリ削って申し訳領域に強制ご招待されてるだけな様な気もするが 乳揉みは[会話のエッチ度:3]です
は書いたらダメだったわ
マッサージで足を揉んでも「揉む」に反応して乳揉みと同程度までエッチ度が上がってしまう
この記述を消したらマッサージのエッチ度が下がった
>>343
エッチな文章をしっかり食ってないと判別して弾けないもんな エロライトノベルをイメージしている人とフランス書院をイメージしている人の差があるスレでつね セッション長くなると繰り返しがちになる問題を検証してたんだけどベースモデルでかなり決まるっぽい
8gbに収まるサイズでテストしたらaya-expance-8b>mistral-nemo>gemma-2-9bの順で繰り返しの出現頻度が少なかったわ
ファインチューニングの問題だと思い込んでクレジット溶かしちまったぜ ayaは意外と優秀よな
cohereだしCR+程度かと思ってると案外やれる やっぱベースモデルの重要度でかいよね
音声でも似たような傾向あるわ
ファインチューニングでいくら頑張っても元が悪けりゃ無理だったり このベンチマークが便利かもな
長文向きのベンチマーク
これのWord Count Ratioが低いほど繰り返しが少ない
https://arxiv.org/abs/2412.08268 digitsが出たらNSFW向けに調整した大型モデルも増えるのかな
7Bや11Bモデルでは満足できなくなってきたから待ち遠しい digitsは世界的にかなり引き合い強そうだし、そもそもAI開発者向けを謳ってるから販路も不明だしで、一般人がまともに買えるかちと怪しい。 LLMの次に来るLCMとかいうのが凄そう
次の単語を予測するのではなく、次の文章、意図を予測する仕組みとかなんとか
そのおかげでLLMに比べて長文と多言語対応に秀でてるらしい
https://zenn.dev/galirage/articles/meta-large-concept-model-lcm LCMは単語の上に概念があると言ってしまった時点で、概念のさらに上にあるものや下にあるもの、外側にある世界そのものや内側にあるなにかを考える必要が出てくる気がする
単語だけで全部出来るんだ、ならシンプルゆえの物量作戦で限界まで到達できる可能性あるけど、LCMは無限に作り直しが要求されるんじゃなかろうか ただまあ↑で言われてる繰り返し問題なんかはモロに改善されそうよね 同サイズでの進化があんまり見られないから新しい手法が来るのは嬉しい 海外のエロAIチャットサイトで色々モデル試したけどどうしても繰り返しが出ちゃって
ローカルならもっと改善されたモデル使えるかと思ってここにたどり着いたけどやっぱり難しいのか silly tavernの繰り返しペナルティ辺りの設定を詰めればなんとかなる事も多いけど使うモデルによって最適な設定は変わると思うので自分で試行錯誤するしかないっていう
そもそも繰り返しそうになったら手修正で防ぐという力技も 同じ話題や単語を避ければある程度は防げるんだけど
エッチなことしてると延々と同じことしまくりたくなるんだよね
>>359の言う通り、チャット履歴を遡って繰り返す単語や言い回しを削除・変更すれば繰り返しはほぼ消える LLMで再評価して自動修正出来ていい部分だと思うんだよな
LangFlowとかに手を出す必要があるんだろうか なんか今やってるセッション調子よくて、変な繰り返し少ないわ
同じルミメイドマグナム12bでも全然繰り返してたことあるんで原因不明
やたら長いシステムプロンプトが効いてるのか、
目まぐるしく変わる展開が効いてるのか、LMStudioのアプデ後が調子いいのかは分からん
繰り返しには困ってるからむしろ再現性欲しいぐらいなのだが 尻タブだとアプデすると繰り返しや出力文がおかしくなるからバックアップ取って一旦設定とかリセットすると治ったりするってたまに言われてる 一人称とかの頻出単語も修正することになったりしないの?
繰り返しペナルティで問題になるのも確か頻出単語が引っ掛かることだったはず 実際、変な癖覚える前に編集して改ざんしつつ続きから簡単に書かせられるのはLLMの大きなメリットだと思う
気になったら途中で出力止めて、少しだけ編集して助走つけつつ続きから書かせる形式がかなり良さげ
もうちょっとだけ文章欲しい時とか
「
だけ書くとセリフ書いてくれるし、その展開好みじゃないんだよなぁって時は主役側のセリフちょっと弄れば結構思い通りの展開になってくれる
TRPGのちょっと難しい処理とか、計算ミスしまくるんだけどそれはもう手動で修正することにしたし koboldとかだと>>366みたいに自分でちょっと書いて続きを書かせられるけど
これって尻タブでも出来る?
aaya-expance-8b試してみたけど結構良いね
ただ「私は女戦士だ。戦闘なら任せておけ」みたいな強そうな喋り方をなかなかしてくれないな
対話の例を書いても会話履歴を修正しても「私は女戦士よ。戦闘なら任せてね」みたいな女っぽい喋り方になりがち
他のモデルならちゃんと喋ってくれるんだけど 同じセリフを繰り返すなら、同じセリフを繰り返すキャラとエッチすればいいんじゃね?
と思って4種類のセリフだけを喋るNPC姦をやってみたけど相性抜群だな
延々と特定のセリフを繰り返すしエッチなことをすればセリフに喘ぎ声だけを足すことも出来る
設定をしっかり練らないとセリフには無いことを喋り出すけど geminiも繰り返し多いんだよな
claudeはちょっとマシになる
chatGPTが一番繰り返しは少ない LCMだとエロという概念を全て申し訳してしまう可能性 それ例えば練乳ぶっかけをエロと捉えるのか健全と捉えるのか気になるなw 4時間かけて学んだこと
ロードできるからって下手にコンテキストサイズ大きくして読み込んだら一発目から出力がおかしくなる
あと長いチャットしててコンテキスト上限に行くと直前の出力を繰り返す
パラやテンプレートが合ってないのかと思って時間溶けた.... 出力内容ってコンテキストサイズに影響されたっけ?
上限行ったら文章壊れるのはその通りだけど コンテキストシフトとかそういうのあるはず
上限に来たら古いものから忘れて容量を回復 10000トークンとかで入力読み込んだり3000程度にしたりと色々試すけど、そこが原因で壊れるかは怪しい気もする
はいそれ以上は無理ですみたいな感じに、なった記憶はあんまない >>366
まんまNovelAIの思想な気がする
生成確率のトップN単語の候補からポチポチ改変できたりメッチャUIUXが良いんだけど
どうもこのスレでは人気ないんだよなぁ メモwikiに掲示板を設定したついでにキャラカードを一つ配布してるから恥ずかしいけどよかったらどうぞ
気に入ったらやり取りをうpしてくれると凄く嬉しい >>379
参考にさせてもらったよ
尻タブのテキストの修飾形式が載ってるページってどこにあるの?
**で囲うとかそういうやつ **とかはMarkdown記法だったような
違ったらごめん Markdownなのかな?
「」で囲っても色変わるんだけど まずmarkdown、次にhtmlの記法を覚えるのがいいかと。 LLMを使うならマークダウンは絶対に覚えたほうがいい 尻で使えるフォーマットを見るなら尻の入力欄に /? format で視覚的に確認できる
/? macros で確認できるマクロとかも頭が良ければ使えそうだけど、AI出力の頭に{{random:Joy,Anger,Grief,Pleasure,Hate}}:{{roll:d100}}で毎回違う感情値で文章を書かせる程度しかわからん hertogateis/SmallBot
これってdeepseekなんかな?
日本語性能すごくいい >>386
人格付与してみたけど2手目で剥がれちゃうな…
性能は結構良い印象だけど一部の指示追従性に難ありか? hertogateis/deepseekchat
こっちの方はところどころ英文が混じるな
設定見ると同じdeekseek v3みたいだけど何でこんな差が出るんだろ 同じモデルでもどこが出してるかとかのちょっとの差でかなり差が出るイメージある 商用LLMはAIをどう使い倒すかハックするかという話だけど、ローカルLLMはAIを使って自分を使い倒してハックさせるのが強い気がする
ジャーナリングの要領で感想の感想まで深堀して聞き出すプロンプトを作ってもらって今日見たものの話をしてると、欲望がドロドロ吐き出されて文章を打つ手が震えてくる
音声入力音声応答まで揃った環境で同じことやると危険そう >>390
前に音声入力、応答ができるコード作ったことあるんだけどいる?
いるならgithubにでも上げるけど ありがたいけど、いまの性能だとシチュエーションとしては良くても快適では無いってなりそうなんだよな
TTS等のレスポンスもそうだけどタイピング並の速度で喋るのも困難なことですし
カウンセラー的振る舞いではなく合いの手や適切なまとめ方が出来るところまでローカルLLMが賢くなれば変わってくるのかな
こっちがノッてるときは最小限の合いの手、疲れてきてるなと思ったらブレイク入れてくれるとか ninjaのnsfw系モデル、エロ関係のセリフの語彙の理解度は多分一番高いな
こっちの指示あんま理解しないんで一瞬出力して他のモデルにそれ真似させるといい感じ deepseek-ai/DeepSeek-R1がhuggingfaceに上がってる〜
そしてOpenAI(笑)
[OpenAI は、o3 で記録を樹立する前に、独立した数学ベンチマークに密かに資金を提供しました: r/LocalLLaMA](https://www.reddit.com/r/LocalLLaMA/comments/1i55e2c/openai_quietly_funded_independent_math_benchmark/) どういう裏口入学を想定してるんだろう?
いくらでもユーザーが追試出来る以上事前学習でベンチマーク対策というのも無理筋ですし digital mateとSBV2 APIサーバーの接続、うまくいかん理由が分からず唸ってたんだが、コレ単にDigital MateかVITS-APIプラグインにバグがあるやつだな
キャラクターを編集→音声→音声朗読エンジンでVITS-API選択
VITS API SiteでNew Site押して、 タイトルを SBV2にする
URLの 127.0.0.1:23456/voice/vits&id=
の部分を 127.0.0.1:5000/voice&model_id= に置き換え
Speakersをモデルidの数だけ増やしておく
決定後VITS API Siteのプルタブの一番下にSBV2があるから選択
決定を押すと狂いだしてLocalhostのあらゆるポートから喋りかけてきて怖いのでタスクトレイから強制終了
再起動、キャラクターを編集でモデルidを選択、プレビュー再生、であとは問題なく喋ってくれる、パラメータも効いてる DeepSeek-R1-Distillっていう蒸留モデルもリリースされてるやん
R1出力をデータセットにしてQwen2.5あたりをベースに知識蒸留させたっぽい 試したが、量子化モデルだとやたら他国語出るし、量子化しないと小さいモデルしか使えないのでちと微妙かも。 moeって使うところだけVRAMにロードってできんのかな
読み出し元がnvmeならまぁまぁな速度で動作すると思うんだけど
全部読み込もうとしたら671Bはさすがに量子化しても一般人には扱えんわ https://files.catbox.moe/xyfjir.jpg
calm3、試しにコンテクストに自分の小説入れたらかなり文体模写してくれてて偉いわ
語調や文のつなぎ方が明らかに小説形式になってくれている 二人羽織をして遊ぶの難しいな
7Bモデルじゃなかなか理解してくれない DeepSeek-R1-Distill使ってみたけどAIが自分の頭の中を出力して考えをまとめていくの面白い
ui側が対応してないから心の声だだ漏れなのがすごいかわいい。日本語力は壊滅的だけどね SillyTavern + OpenRouter
でDeepsheek R1使えてるやつおる?
なんか
Chat Completion API
Provider returned error
ってなっちゃうわ
V3は使えるんやけど >>405
LMstudioもなんかエラー出て使えんね
よくわかんなかったけど、多分llamaだかの動かしてる側のアップデート待ちっぽい気配を感じた 尻タブにもAIの考えを出力させる拡張機能あるよな
一度考えさせることで応答精度を高めるものだけど
俺には上手く使えなかったが…… Balaur of thoughtかな?CoT系はよくわからん... >>406
LM Studio 0.3.7 (Build 2)でDeepSeek R1に対応したね
うちではいい感じに動いてるわ β板のLM Studio0.3.8にするとThinkingって表示が追加されてDeepSeek R1派生のモデルがちゃんと表示されるようになる
0.3.7だとThinkingの工程まで表示されてしまっていたけど
DeepSeek R1 は思考プロセスが他と違うのかな
まぁ、まだ文系の作業が得意なモデルは見当たらないんで、コーディングとかして遊ぶ用かな。今のとこ。 deepseekR1すごいな。繰り返し癖がなくなってる。
GithubにあったLobechatっていうとこでapiを試してる。ここいろんなモデル試せて便利よ。
https://chat-preview.lobehub.com/ deepseek r1 70BもK4Mだと頭悪いよほほーん。
K8ならデモサイトくらい賢いのかな
例の5月発売マシン、はよ。(ローカルはロマン 日本語で使ってるならベースモデルがqwenの32bの方が性能いいかもね deepseek r1の70bはllamaベースで日本語に対応してないから日本語で使うならr1 32bの方がいいんじゃね?って話 ollamaがアプデで8B以外のモデルにも対応したから、Windows版exeでインストール、ターミナル開く、ollama run deepseek-r1:32b だけやればとりあえず動くね
すぐに他の環境も対応してくるだろうけど koboldでもdeepseek-r1動くようになったけど
7Bモデルだと「チャーハンの作り方教えて」って質問しても
udonの作り方を日本語、中国語、英語交じりの意味不明な文章で教えてくれる程度の能力だわ
何か設定間違えてるのかな 蒸留モデルだとまだ元のQwenの方がいいんじゃないかと言ってる人がいるね。Qwenのこのスレでの評価ってどうだったっけ。
言語変換部分の問題のような気がするから適切なプロンプトで回避できそうではあり。
14BのQ4_K_Mは出力たまに乱れるけど3060でそこそこ動いた。未成年非同意食える感じ。
8Bだとすぐ中国語吐き始めて発狂するね。
使ってるのはmmngaニキの量子化。量子化でバグってる可能性もそういや昔はよくあったな。 DeepSeek-R1-DistillにはLlamaを混ぜてあるのとQwenのと2種類あるいから
日本語の応答はQwen版のがマシじゃね?って話かと8BはLlamaだな
DeepSeek-R1-Distill-Qwen-14BとQwen-32B使ってる人よく見るが ウチはlm studioだとちゃんと動くけど英語で考えて英語で答えてくる
だから一回「日本語で会話しろ/分かりました」をログに残す必要がある >>406
LMStudioとモジュールをアップデートすれば使えるはず
deepseekR1よりも重いけど、最近ではBehemoth-v2.2-Magnum-v4-123B.i1-Q2_Kが日本語でエロロールプレイをするにはいい感じだったわ ■ このスレッドは過去ログ倉庫に格納されています