なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0798名無しさん@ピンキー (ワッチョイ c35b-/IBL)2026/01/19(月) 01:16:22.59ID:r6HfMQ9p0
半年ぐらい前にQwen-235B-A22B-Instruct-2507の性能に度肝を抜かれた以来なんですが
今アツいモデルあったら教えて欲しいです
環境はVRAM24GB、DRAM96GB
LMStudio愛用のローカルLLM初心者です
0799名無しさん@ピンキー (ワッチョイ 936a-viuJ)2026/01/19(月) 08:31:32.04ID:NDOT6mQm0
てめえ、初心者気取った熟練工だろ
0801名無しさん@ピンキー (ワッチョイ df88-mrDK)2026/01/20(火) 05:17:18.48ID:hwv83Gyg0
GLM 4.7 Flashが来た
30B-A3Bらしい
0803名無しさん@ピンキー (オッペケ Srdf-viuJ)2026/01/20(火) 12:54:03.23ID:JCxxLgksr
a3bはちょっと
0806名無しさん@ピンキー (ワッチョイ e7a9-0bv4)2026/01/20(火) 14:02:03.80ID:GvRoLOjd0
glm4.7flashはqwen3-30b-a3bとgpt-oss-20bに対して全領域で明確に上回っとるのか
後発だから当たり前ではあるんやけどこのサイズじゃこの2つが今まで長い間幅利かせとったから
ようやくいい感じの次世代がでてきたという感じやな
0808名無しさん@ピンキー (ワッチョイ 9b45-z33+)2026/01/22(木) 04:35:28.71ID:6p3S/hpS0
novelAIの小説補助UIがわけわからん作りしてるから評価不能なんよな
あれを使いこなせる人って作った開発者くらいじゃないのか
0809名無しさん@ピンキー (ワッチョイ bbd7-bPP2)2026/01/22(木) 21:49:08.56ID:9DiKRE2t0
俺の知ってる霧島じゃない
0810名無しさん@ピンキー (ワッチョイ 1f24-eZjg)2026/01/23(金) 02:09:51.50ID:8g1gaaJy0
AIにエロ画像作らせるのは簡単なのにエロ小説書かせるのが難しいのってなんでなんだろうな
エロ創作特化のモデルってなんかあったっけ
0812名無しさん@ピンキー (ワッチョイ 63ac-40sh)2026/01/23(金) 04:37:10.10ID:gdTzh9j+0
画像精製もLLMもデカいクリトリスだっつてんのに、すぐにチンチンにしてしまうのは一緒やで
0813名無しさん@ピンキー (ワッチョイ b732-J81O)2026/01/23(金) 05:51:52.16ID:D1QePr6y0
簡単と言ってもDeepDreamからSDリリースまで7年くらいかかってるぞ

画像生成は世界中で研究・開発されるのが大きいんだろうな
LLMは言語人口の影響があるからマイナー言語は難しい
あと、小規模で高性能で日本語もできる夢のモデルを誰も開発できてないから
既成モデルのエロチューニングもあまり期待できない
0815名無しさん@ピンキー (オッペケ Srdf-viuJ)2026/01/23(金) 09:39:32.37ID:F9WixtPnr
>>812
合ってるよな🤔
0816名無しさん@ピンキー (ワッチョイ ef32-qkVW)2026/01/23(金) 14:47:57.25ID:zfc5xOk30
エロ画像モデルは言語関係無しに世界中の人が楽しめるけど
エロLLMは言語が合ってないと一切楽しめない

今は音声付きエロ動画が始まってきているからLLMみたいに言語の壁にぶつかるようになるだろうな
0818名無しさん@ピンキー (ワッチョイ 0ae9-CeJs)2026/01/24(土) 13:10:17.52ID:mzXn1zQO0
画像も1枚物ならまだ見れるけど
連続物とか一本の漫画なんて破綻するからな
文章も同じで短いチャットはできても小説を破綻なく生成させようとしたら計算量が跳ね上がるってことよ
0820名無しさん@ピンキー (オッペケ Sra3-x9BH)2026/01/26(月) 10:46:57.82ID:uETGBTBIr
clawdbot、コレローカルLLMにローカルPCを好きに使わせるための物だよね
驚き屋はClaude Codeと接続してリモートでバイブコーディングが!とかキャラを付与できる!とか言い続けてて意味不明だったけど...
ローカルLLMを輝かせるものだというなら海外での盛り上がりも理解可能に思える

Discord経由なら英日翻訳Botを噛ませて英語で扱うことも楽にできるし、面白いことが出来そうだね
0821名無しさん@ピンキー (オッペケ Sra3-a+7q)2026/01/26(月) 11:54:04.34ID:W2El03lKr
翻訳くらいならllmでできそうだけど
0822名無しさん@ピンキー (ワッチョイ 23cd-x9BH)2026/01/26(月) 14:09:27.48ID:35fg7qjN0
画像を認識させてその内容に合ったセリフ等を生成するにはどうしたらいいでしょうか?
0823名無しさん@ピンキー (ワッチョイ 87d3-NPBA)2026/01/26(月) 22:39:15.11ID:+cVsP7eh0
glmの画像モデルが今huggingfaceのトレンドに上がっとる
2週間ぐらい前に公開されてたみたいやが知らんかったな
画像内のテキスト描写に特に力入れてるみたいやな
普通の内容の描写はベンチマークでzimageに負けとるな
0824名無しさん@ピンキー (ワッチョイ eb32-jbA7)2026/01/26(月) 23:29:01.25ID:moysdEcv0
kobold.cppをスマートアプリコントロールが阻止するようになったんだが、
オフにしたらwin11を再インストールするまでオンにならんとか脅迫めいたこと書いてあるし、どうすっぺ
0826名無しさん@ピンキー (ワッチョイ 637b-Qkxx)2026/01/27(火) 19:01:29.43ID:Jxr1JElV0
ltx-2にエロ動画作成指示のプロンプトの生成支援をさせたいんだがお勧めのモデルとなるとやっぱglm系やろか?一応ローカルかnanogpt経由で4.6は動かせる。geminiには申し訳された
0827名無しさん@ピンキー (ワッチョイ 46ed-CeJs)2026/01/28(水) 18:30:37.43ID:4FTfQaE60
プロンプト作成ぐらいならqwen3 nextとかGLM4.6Airでも十分じゃないか
どっちも規制緩めだし
それでも通らなければabliterated使えば良い
GLM4.6はプロンプト作成で使うにはオーバーな気がする
0828名無しさん@ピンキー (ワッチョイ 87bf-nPWr)2026/01/28(水) 22:03:08.33ID:NCDTP21x0
GLM4.6Vだな
画像認識特化してるらしいし、プロンプト作成にはもってこいじゃないかな
0829名無しさん@ピンキー (スッププ Sdaa-wXhp)2026/01/28(水) 22:27:58.46ID:nNxR1ybUd
中華AIは脱獄のガードは緩いがエロ系の画像やテキストを学習していないから用途が限られるんやないか
大型MoEモデルが主流になってからエロチューンもほとんど出ていないし
FTで何らかの突破口が必要やな
0830名無しさん@ピンキー (ワッチョイ 1af9-vRJ4)2026/01/28(水) 23:17:54.70ID:dZqq5VyI0
架空の男の娘人格作れてちゃんと会話が成り立つモデルある?
0831名無しさん@ピンキー (ワッチョイ 0a9a-v5Ab)2026/01/29(木) 06:43:33.98ID:pDXz5Kxh0
つい最近lumimaid-magnum-v4-12bを使い始めたんだけど
エロ目的だと結構規制されるけどそんなもんですか?詳しい人がいたら教えて欲しい
イラっとしたからheretic化して使ってます
0832名無しさん@ピンキー (ワッチョイ 6a11-jq1a)2026/01/29(木) 08:54:49.67ID:Xo7Hmt2N0
k2.5かなりいいな
脱獄も簡単だしコンテキストの保持性も悪くない
0833名無しさん@ピンキー (ワッチョイ d332-nnWO)2026/01/29(木) 10:10:31.10ID:vouCeCWf0
>>831
全く申し訳されないよ
プロンプトが悪いんじゃない?
0834名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 11:16:51.02ID:y80AVPBn0
k2.5をローカルで動かすにはどれくらいのスペックが必要なんや?
0836名無しさん@ピンキー (スップ Sdaa-Qkxx)2026/01/29(木) 12:27:45.00ID:iilnWksjd
>>831
フロントエンド何つこてる?
lm studioとkoboldcppで使った経験あるがあれで申し訳された経験はないな。おそらくシステムプロンプトに問題があるとは思うが
0837名無しさん@ピンキー (ワッチョイ 9ea9-jbA7)2026/01/29(木) 12:42:25.66ID:0vQW0f4i0
kimi k2はパラメータ数が1Tだからある程度妥協してQ4、KVキャッシュも含めたら768GBくらいはいる
劣化させたくないならQ8+KVキャッシュで1.5GBくらい、
フルならbf16+kvキャッシュで3TBくらいいるんとちゃう
0838名無しさん@ピンキー (ワッチョイ 9ea9-jbA7)2026/01/29(木) 12:54:20.47ID:0vQW0f4i0
今思うとgpt-oss-120bって公式でmxfp4で配ってて
当時であの精度出してるのは結構すごいことだったんだな

他の同等モデルたちがフルサイズでベンチマークかけられてるのに対して
gpt-ossは4bitで戦ってたわけだから
4bitってなんだかんだ言って結構劣化するもんなぁ
0839名無しさん@ピンキー (ワッチョイ 0a9a-v5Ab)2026/01/29(木) 13:01:52.60ID:pDXz5Kxh0
>>833, 836
返信ありがとう
みんなシステムプロンプトで回避してる感じなのかな
フロントエンドでollama使ったときとpythonで直にAPI叩いたとき両方でたまに申し訳された感じだった
heretic化前はRefusalsが96/100だったから不通に検閲されてるモデルなんだと思うけど
0840名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 14:02:53.73ID:y80AVPBn0
k2.5 unslothの1.8bit版ならVRAM24GBと256GBメモリで10 token/sで動くらしい
メモリ256GBなら個人でも持ってる人居そうやな…
0842名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 14:34:11.74ID:y80AVPBn0
1.8bitやし性能はお察しやろうな…
エロに限定すれば使い物になるのかも?
0843名無しさん@ピンキー (ワッチョイ 87dc-v5Ab)2026/01/29(木) 19:27:13.51ID:l5XAHaNA0
俺様スペックで
LM Studio-lumimaid-magnum-v4-12bはエロ最強だ
最近のがっかり
Mistral Small 3.2 24B Instruct 2506
zai-org/glm-4.6v-flash
0845名無しさん@ピンキー (ワッチョイ 07c6-Vxuf)2026/01/29(木) 23:18:06.05ID:yut66++a0
うへぇSillyTavernのRSS拡張機能がなんか動かない...
config.yamlからenableCorsProxyをtrueにして関数呼び出しはできているけどRSSフィードの取得に失敗する...
動かせている人居る?
レスを投稿する