なんJLLM部 避難所 ★7
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/03/23(日) 14:58:05.71ID:bsaTSAD8
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★6
https://mercury.bbspink.com/test/read.cgi/onatech/1739448962/
0427名無しさん@ピンキー2025/04/10(木) 17:22:44.36ID:???
明らかにgrokは初期よりクオリティ低いし規制も強まってると思うわ
0428名無しさん@ピンキー2025/04/10(木) 21:23:03.05ID:FGG0TZAA
今のLLMはだいたい否定表現も上手く解釈できるけどね
0429名無しさん@ピンキー2025/04/10(木) 21:31:57.93ID:???
perplexityのsonnet3.7なんかちょっと規制緩和されてないか?
短文化が多少マシになった気がする
0430名無しさん@ピンキー2025/04/10(木) 21:49:13.20ID:???
お腹すいたらどうする?何か食べるのは禁止な
って規制されたら、そりゃ焦点のぼやけた意味不明の回答になるよね
0432名無しさん@ピンキー2025/04/11(金) 00:32:28.26ID:???
>>392
MoEエキスパートが、なんのエキスパートかわかんないんよね
エキスパートAは 歴史と化学
エキスパートBは 倫理と想像
エンスパートCは javascriptとスカトロ
かもしんない
0435名無しさん@ピンキー2025/04/11(金) 21:13:25.68ID:???
>>433
QTIPベースの量子化方法にしたからめっちゃ量子化耐性が上がってる
imatより余裕で強いんで現状最強
0436名無しさん@ピンキー2025/04/11(金) 22:07:56.40ID:???
>>433
koboldcppじゃできないっぽいから凄かったら大葉って奴にしようかな教えてくれてありがとう
0438名無しさん@ピンキー2025/04/11(金) 23:07:47.02ID:???
量子化耐性が上がってるってことは例えば今までのQ8の性能がQ1サイズで出せるって感じ?
求めてた方向性の進化やん!すげぇ
もっとVRAM節約させてくれ…
0439名無しさん@ピンキー2025/04/12(土) 02:01:09.26ID:???
Chatbot ArenaにLlama4公開版ランクインしてたけど32位やって
ここから調整して2位に持ってくとかさすがに無理じゃねーか
いったい何をどーやったんだ

つーかそのプレビュー版がリーダーボードから消えてるってことは抹消された?
やっぱベヒーモスをマーヴェリックと偽ってたか?
0440名無しさん@ピンキー2025/04/12(土) 03:15:25.49ID:???
llama4どうするんだよ…
llama3をNvidiaがトレーニングしたやつのほうがスコア高いやん
0441名無しさん@ピンキー2025/04/12(土) 08:13:12.16ID:???
ちょい前にメタのAI担当が辞めたがこういうことだったのか、と
0442名無しさん@ピンキー2025/04/12(土) 10:23:24.07ID:???
初心者なんやが質問
今koboldcppをメインに使ってるんだけど
koboldcppみたいに相手の発言を書き換える事の出来るものって他にある?
llamaは無理だよね?
0443名無しさん@ピンキー2025/04/12(土) 11:33:11.70ID:lh384Mdn
open-webui使ってるけどAIの発言編集くらいできるよ
0444名無しさん@ピンキー2025/04/12(土) 11:34:00.42ID:puWQectb
尻タブことSilly Tavernも大葉ことOobaBooga/Text Generation Web UIも出来るで〜
0448名無しさん@ピンキー2025/04/12(土) 21:20:27.51ID:cQ2a2a1W
>>409
見てきたけど、確かに良さそう。
1台のPCで671Bを動かす時代!KTransformers + DeepSeek-R1の爆速導入まとめ
https://qiita.com/DaiYulin/items/550887983a8b908135f5

CPUとGPUで役割分担させて、オフロードの効率を上げてVRAM少なくてもDRAMが有れば、大規模なモデルを高速で動作可能とか凄い。
DeepSeek以外も簡単に対応できれば、ローカルLLMの敷居がさらに下がりそう。
これでNVIDIAの殿様商売が終わってくれると嬉しい。
0449名無しさん@ピンキー2025/04/12(土) 21:28:30.71ID:???
>>448
Deepseek-R1/V3を24GB VRAMと382GB DRAMで😨
凄いけど…凄いんだけどもう一声なんとか…って感じやね
さらなる進化に期待や
0450名無しさん@ピンキー2025/04/12(土) 21:49:52.64ID:???
見てきたけどコンテクスト長はVRAMの容量に縛られるという問題がまだ解決してないっぽいね
max4kなのが最大のネックだったけど8kに出来ました止まりではだいぶ厳しい
0453名無しさん@ピンキー2025/04/12(土) 23:16:35.32ID:???
>>444
大葉のチャットgpu消費しまくって重くなるの直ったん?

と言うか大葉API経由で尻タブ使うのが一番LLMの自由度高いと思ってるんだけど他にもっと良いのある?

最近お気にが定まってしまったんで環境もローカルモデルも触ってねえ…
0454名無しさん@ピンキー2025/04/12(土) 23:18:17.38ID:???
MCPはA2Aプロトコルの広まり方によっては爆発的に普及しそうではある
0455名無しさん@ピンキー2025/04/13(日) 03:52:53.69ID:???
コンテキストサイズ8Kなら個人利用では十分くらいじゃないか
0457名無しさん@ピンキー2025/04/13(日) 05:37:01.64ID:???
KTransformersのコンテキストサイズが問題になるのってDeepSeek R1だけじゃないか?
V3なら推論モデルじゃないから割りと行けるだろうし
推論モデルでもQwQ-32Bならまずそんなメモリサイズ食わないからコンテキストサイズ広げられるし
0458名無しさん@ピンキー2025/04/13(日) 06:31:19.60ID:???
GoogleがGemini2.5 proを企業向けのオンプレミスで実行できるようにするらしい
個人では使えないだろうけど
ローカルで動かせるようになるということか
0459名無しさん@ピンキー2025/04/13(日) 10:23:54.88ID:zFgPush3
ワイ1年ぐらい界隈離れててCommand R+で時代止まってるんやけど日本語ローカルで今一番強いやつってどれなんや
0460名無しさん@ピンキー2025/04/13(日) 10:39:56.07ID:???
>>459
メモリいっぱいあるなら
magnun 123b
mac studio 512G持ってるなら
deepseek r1

異論はあるかもしれんw
0461名無しさん@ピンキー2025/04/13(日) 11:30:51.22ID:W6CGd4ug
grok3をAPIから使えばインピオ近親だろうが何だろうが普通に通るな
最初に5ドル分買うだけで150ドル分無料枠付与されるし対策されるまではこれで良いかもしれない
0462名無しさん@ピンキー2025/04/13(日) 11:32:36.56ID:???
OpenWebUIとReForge連携させてみたけど面白いな
画像生成プロンプトをローカルLLMと相談して作ってそのままOpenWebUI上で画像生成できて、服の色を白に変えて〜とか指示できるし
ただOpenWebUI上ではネガティブプロンプトを入れられないのがネックだな
0463名無しさん@ピンキー2025/04/13(日) 11:47:19.03ID:eVi1b7YY
>>461
Grok3API公開されてたんやな、ワイも早速5ドル課金&Opt-inしてきたわ、サンガツ!
0464名無しさん@ピンキー2025/04/13(日) 12:31:01.96ID:???
ChatGPTにアナル開発のこと聞いたらすごいノリ気で質問に答えてくれて更に調教用セリフを作ってきてこれを音声アプリで再生しながらプレイしてねって言ってきてビックリした
0467名無しさん@ピンキー2025/04/13(日) 12:44:52.76ID:???
今までAIでエロ文章書かせる良さがよく分かってなかったけど色々添加した覚醒トリップ浣腸液+アナルディルドメスイキ調教を想定した専用のセリフはめちゃくちゃ興奮する…これは目覚めてしまったわ
0468名無しさん@ピンキー2025/04/13(日) 13:10:30.65ID:eVi1b7YY
アナル・ホルトマン
0469名無しさん@ピンキー2025/04/13(日) 17:21:51.87ID:APmeCMKc
グロックが唐突に過去のスレ引用してくるようになってビビったけどなんかアプデあったのか
0470名無しさん@ピンキー2025/04/13(日) 22:24:04.82ID:I98/WNrZ
やっぱどのモデルでもIQ4_XSからIQ3_Mになるとガクンとバカになるな
0473名無しさん@ピンキー2025/04/14(月) 05:29:54.46ID:???
無料のGemini2.5ProでGems機能が無償ユーザーに公開されたから使ってみた
既存のキャラ演技用プロンプトをカスタム指示に放り込むだけでGem化出来て普通にキャラトーク出来るな
0474名無しさん@ピンキー2025/04/14(月) 11:45:42.06ID:???
4090で実用できるQwen2.5 Bakeneko 32B Instruct v2以上のモデルに出会えていない
0475名無しさん@ピンキー2025/04/14(月) 12:30:20.42ID:???
最近ここで言われてる凄い良いぞってモデルをkoboldcppとSTでやってみてるんやがどうもまともに機能してくんないや
皆どんな設定でやってんの?
0477名無しさん@ピンキー2025/04/14(月) 12:37:35.32ID:???
>>475
とりあえずstの設定をkoboldのデフォと同じにしてみるといいかも
そこから徐々に調整
0479名無しさん@ピンキー2025/04/14(月) 12:56:34.78ID:???
15bかぁ
いくら進化の激しい業界とはいえ先月出た32bのQwQはさすがに超えられなさそうだな
0480名無しさん@ピンキー2025/04/14(月) 15:25:39.48ID:???
6bit系が安心できる。4bit系だと70Bクラス以上のは今ひとつ能力を発揮できない感じ
なんか言葉は返してくるけど途中の論理が破綻してるのがわかってしまう
100Bクラスだとさらに差が広がって4bitだとどういう訳か妄想の嵐
知識がありすぎるけど論理破綻してるんかな??
mlxの3_6は小さい割には6bit並みによかったな
0481名無しさん@ピンキー2025/04/14(月) 15:48:36.40ID:m3NCXKSk
ちょっと前に話題になったQwQ-Eurekaってロリエロ行けるん?
素のQwQもQwQ-abliteratedも申し訳してくるしかなり固いんだけど
0482名無しさん@ピンキー2025/04/14(月) 16:13:45.40ID:???
>>481
エウレカはなんかイマイチだった記憶
後者のは緩くはないが普通に書けてたな
ゆるゆるはmistral large系やね
0483名無しさん@ピンキー2025/04/14(月) 16:17:36.54ID:???
性癖に刺さる作家の作品をLoRA学習させて自分用の新作を書かせようと模索しているがうまくいかない
同じことしてる人いる?
試したモデル↓
・Mistral-7B-Instruct-v0.3
全然ダメ

・DeepSeek-R1-Distill-Qwen-14B
Mistralより少しマシで新しい喘ぎ表現の生成に成功した
でも文脈は意味不明
0484名無しさん@ピンキー2025/04/14(月) 16:22:59.59ID:m3NCXKSk
>>482
Mistral系は申し訳してきても了解しましたに書き換えれば通るの知ってるけどやっぱキツいか
Qwen系でもQwen2.5-32B-abliteratedは完全に無検閲で使えてるからまあいいんだけど
0485名無しさん@ピンキー2025/04/14(月) 16:25:57.16ID:m3NCXKSk
訂正
無法地帯なのはQwen-2.5-32B-abliteratedじゃなくてQwen2.5-32B-AGIの方
0487名無しさん@ピンキー2025/04/14(月) 16:49:22.06ID:???
>>483
とりあえずデータセットに指示が入ってないならinstモデルじゃない方がいいはず
データ数とかどこら辺に満足してないのかを書いてくれたら細かくアドバイスできる
0488名無しさん@ピンキー2025/04/14(月) 17:34:28.44ID:???
>>487
・DeepSeekのファインチューニングコード
https://colab.research.google.com/drive/1L1Mx5G-N6XtxbTclNoTu4SSKK6ml294b?usp=sharing

・train.jsonlの形式
{"text": "[1024トークン分の小説本文]"}
{"text": "[1024トークン分の小説本文]"}
がずっと続いてる

・データセット
1作家の作品全体で約60万文字

・不満
そもそも意味の通じる日本語にならない
モデルのせいじゃないんだったら何かを致命的に間違えている気がする
0489名無しさん@ピンキー2025/04/14(月) 17:35:49.06ID:???
LM Studio + STでキャラチャットを試してるんだが、ワールドやキャラクターの説明って日本語で書くと罠に嵌るな
姉、妹とか書いてるとどっちもsister扱いとか、兄弟と姉妹がsiblingsにされたりとか
英文で明確に区別が付くようにold sister, young sisterみたいに書かないとダメなんだな
0491名無しさん@ピンキー2025/04/14(月) 18:16:16.12ID:m3NCXKSk
>>490
日本語理解も表現も素のQwen2.5と変わらん感じ
0492名無しさん@ピンキー2025/04/14(月) 19:24:04.99ID:???
incestモデルに見えた。今日は早く寝よう

>>489
ものすごく残念なことに、本当は一番大事な内部翻訳システムがへぼい(しかも彼らはその致命的さを根本的に理解してない)という問題がある
モデル製作者がこれをissuesだと認識する機会はおそらくもう永遠にないので(AIが邪魔して届かない)、諦めるしかないよ
エロ小説やなりきりチャット作らせるのに一番大事なのは英語力というヘンテコな時代が来る
0493名無しさん@ピンキー2025/04/14(月) 19:58:58.38ID:???
>>488
その形式ならワイもinstructモデルをベースモデルにすべきやないと思うぞ
例えば、alpacha形式でかくと
{"instruction":"〇〇(作者名)の文体で小説を書いてください。", "input": "", "output": "本文"}
みたいに指示と出力という形式にするか
事前学習モデル(baseとかptとかついているモデル)をベースに学習してLoRAをモデルにinstructに適用するかのどちらかにすることをおすすめする。
0494名無しさん@ピンキー2025/04/14(月) 19:59:27.05ID:???
>>488
見た感じトレーニング時にチャットテンプレートを適応してないからそれが原因じゃない?
表現足りないとか感じたら使う層増やしてみたりほかのエロ特化モデルをベースにするといい感じになるかも
あとunslothのコード使うと早いからおすすめ
0496名無しさん@ピンキー2025/04/14(月) 20:32:23.27ID:???
>>481
Qwen2.5-QwQ-37B-Eureka-Triple-Cubed-abliterated-uncensoredも完全には無検閲化されてないが
小説は小説家プロンプト、ロールプレイは>>410のthink無効化でロリレイプでも申し訳されなくなった
0497名無しさん@ピンキー2025/04/15(火) 08:25:45.58ID:???
>>492
これずっと気になってた
少なくともローカルでやるやつ、完全日本語と謳われてない限り思考は英語だよな
どこでどんなふうに訳されてるんだろう
それに、行き帰りの2回経由される翻訳がへなちょこだったらどんなに本体の出力能力が素晴らしくても…
0498名無しさん@ピンキー2025/04/15(火) 09:26:09.15ID:OVF4qsQp
SillyTavernで新しいチャットを開始せずにコンテキストをクリアする方法ってないかな
チャットでよくあるスワイプ的なことをして余計な情報入れずに回答させたいんだけど
0499名無しさん@ピンキー2025/04/15(火) 09:35:54.69ID:???
コンテキストをクリアしたらそれは新しいチャットを開始してるのと同じ事になるんじゃないの?
0500名無しさん@ピンキー2025/04/15(火) 10:27:38.53ID:???
今までのチャットを短い文にして出す要約機能だっけそれが求めるものに近い感じじゃない?
0501名無しさん@ピンキー2025/04/15(火) 10:39:43.44ID:OVF4qsQp
それはそうなんだけどまっさらなコンテキストにしたいがために新規チャット立ち上げて
チャット履歴が無限に増えてくのをどうにかしたいんだよね
ブランチ切ってもチャット履歴自体は増えちゃうし
0502名無しさん@ピンキー2025/04/15(火) 10:57:07.90ID:???
>>501
SillyTavernなら新しく開始する時に出るチャット履歴消すにチェック入れれば?
0503名無しさん@ピンキー2025/04/15(火) 11:16:02.12ID:???
むしろ新しいチャットでchat history残る設定なんてあったのか
それって新しいチャットと呼べるのか知らんけど
0504名無しさん@ピンキー2025/04/15(火) 13:40:30.86ID:???
>>497
このスレは英文で抜ける超マイノリティーが複数いるから
脱獄モデルを勧められても日本語で会話が成り立つのか分からんのよな……

日本人の99.9%が英文では抜けない事実を踏まえて書いてほしいわ
0505名無しさん@ピンキー2025/04/15(火) 13:44:40.18ID:f3xdgpwJ
キャラカードはAIに英訳させるなり最初から英語で書いてもらうなりしてロールプレイ自体は日本語でさせるで問題ない気がするけどなあ
0506名無しさん@ピンキー2025/04/15(火) 14:03:36.92ID:???
短編小説ライティング用のLoRAを作りたいんだけど良いモデルってある?
データセットは用意済みでNSFWも対応させる予定
今のところ考えているのはmistral small 3 24b(or 3.1)か成人向けを排除してgemma 3 27bにしようかと思ってるけど他に候補があれば教えて欲しい
20~32bで事前学習とITモデルの両方があるのが理想なんだけど
0507名無しさん@ピンキー2025/04/15(火) 14:28:26.94ID:???
>>504
日本語で会話自体は今どきのモデルはほぼ全部できるよ
(稀に英数字以外の文字の存在無視したモデルが意気揚々と登場するがすぐ消える)
内部データがエロいかどうかという話
0508名無しさん@ピンキー2025/04/15(火) 14:36:30.31ID:???
>>498
削除以外だとメッセージ単位でこのメッセージを無視する機能はあるぞ
メッセージの右上から👁のマークに斜線付けるとそのメッセージはスキップされる

毎回やるの面倒くさいけど
0509名無しさん@ピンキー2025/04/15(火) 14:56:47.46ID:???
パラメータの話はスレであんま出てこなかった気がするから最近いろんなモデルで実験して分かったこと書くわ
temperatureはモデル制作者が出してる推奨より少し高めの数値に設定してtop_kは40くらい、top_pは0.95決め打ち、min_pは調整必要やけど少し高めに0.05くらいにするとあり得ない単語が出てくるのを防ぎつつ表現にバリエーション出せる気がする
あと同じ表現繰り返すようになってもrepeat penaltyは高くするとバカになるから低めにして他のパラメータ弄って調整するのがええな
0510名無しさん@ピンキー2025/04/15(火) 15:11:36.85ID:???
shisa v2出てたからqwen7b、32bとmistral nemo試してきた。
個人的にmistral nemo結構よかった。
0511名無しさん@ピンキー2025/04/15(火) 15:34:57.14ID:???
nemoって結構アホやない?こっちの指示に対する理解力とかどう?
0512名無しさん@ピンキー2025/04/15(火) 15:56:26.69ID:???
もう最近は最初のメッセージとキャラ設定が日本語なら返信が全部日本語になるけどちゃんとした会話になるの12Bからって感じがするわ
0513名無しさん@ピンキー2025/04/15(火) 16:09:44.20ID:???
キャラになりきってもらうのって難しいのかな?大手のやつ使っても微妙だったりするしこっちで会話の例入れたらマシにはなるけどめんどくさい
悟空とか超有名だったりセイバーみたいな敬語キャラは大体それっぽくなるけど少しでも有名じゃなくなるとグロックでもキャラによって全然違うってなるから難しいローカルでキャラ特化した奴あればなぁ
0514名無しさん@ピンキー2025/04/15(火) 16:09:43.93ID:???
俺最近PC変えてAI環境も新しく入れ直したのね
で、silly tavernも入れ直したら設定項目が色々変わってて(旧PCも最新にアプデ済みだけどそれでは反映されない項目がいくつもある)、同じモデル同じパラメータで会話してもかなり印象が変わってるのよ
最適だと思ってた旧設定だとバカになっちゃって、いい感じの設定を探し当てるとさらに頭良くなった感覚
silly tavernは定期的に入れ直してみるのもいいかもしんない
0515名無しさん@ピンキー2025/04/15(火) 16:12:08.03ID:???
>>513
ファインチューニングでセリフを大量に覚えさせることで再現度アップ可能とAIが言ってた
0516名無しさん@ピンキー2025/04/15(火) 16:31:39.74ID:OVF4qsQp
う〜ん伝わってない気がする
ブランチとか切りまくってるとこんなんなってきてツラいってことなんだけど
🧹みたいなアイコン押したらシュッっと区切りをつけられる機能あったら便利なんやけどな
https://files.catbox.moe/deggaq.jpg
チャット履歴ってのはこれのことね
https://files.catbox.moe/02jheq.jpg
>>508
あ〜確かにこれは一応は使えそう
0517名無しさん@ピンキー2025/04/15(火) 18:41:37.98ID:???
ファインチューニングしたこと無いけどそんなにいいもん?
変に偏っちゃわないか心配
0518名無しさん@ピンキー2025/04/15(火) 19:28:18.26ID:???
ローカルだとずんだもんの再現すら難しい謎
しかし、ずんだもん口調で遊ぶためだけのためにファインチューニングする気にはなれないのだ
0519名無しさん@ピンキー2025/04/15(火) 19:51:33.51ID:???
>>513
これ大事なので何回でも喜んで言うけど、モデル内にキャラのデータは入ってない
チャットキャラの設定は「全て」、外部からデータとして渡す
ファイルでアップロードしてもいいし、チャット欄に直接書いてもいい

ただし直接web検索させるのは精度が全く出ないのでダメ
検索した結果を会話例・セリフ例つきでファイルにまとめさせて、あなたが目視で確認して(スケベパワーで)リファインして決定稿として渡すならOK

めんどくさいと思うかもしれないけどこれが最短ルート
頑張って
0521名無しさん@ピンキー2025/04/15(火) 19:52:21.34ID:???
キャラ真似は絶対違和感出るからオリキャラでしかやってないわ
0522名無しさん@ピンキー2025/04/15(火) 20:10:51.83ID:???
ChatGPTにメスガキって伝えたらノリノリで語尾に♡や草付けてきっしょって煽ってくれた
本人にメスガキプロンプトをまとめさせてローカルで再現やってみたけど、ある程度小生意気な感じにはなったよ
ただ、煽り言葉の表現力はさすがに劣る
0523名無しさん@ピンキー2025/04/15(火) 20:22:59.37ID:???
もうエロは何やらせてもオンラインのほうが上手だし使ってて引っかかりも少ないし妥協点も少ないんだよな
だからといって満足だという出来じゃないけども
0524名無しさん@ピンキー2025/04/15(火) 20:26:49.65ID:???
>>519
ありがとうソシャゲならwikiとかに台詞まんまあるから会話コピペしたらすごいそれっぽくなった
0526名無しさん@ピンキー2025/04/15(火) 20:27:26.51ID:???
>>521
二次創作のキャラ(エロ)なりきりが生身の人間の生き残る場所だとは思う
相手がAIかどうか知りたければマイナーなキャラのエロなりきりをさせてみればよい、という時代が来るはず
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況