なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0621名無しさん@ピンキー (ワッチョイ 3ba9-s4CX)2025/10/14(火) 05:18:17.08ID:SMX+5n3O0
>>814
Qwen3-Next-80B-A3BはぶっちゃけコアのA3BさえVRAMに収まってりゃそこそこの速度で動く。上の方でlammacppより先にQwen3-Next対応したfastllmで試したニキいるけどA3Bだけ置いてVRAM8GBも使わずに20tok/s出たって言ってたはず
0625名無しさん@ピンキー (ワッチョイ 0fa0-PJUV)2025/10/14(火) 12:38:30.75ID:PcABHMuq0
最近Stable DiffusionやってるけどLLMと違って、画像にどんなタグを付けているか予想しながらじゃないといけないのがつらいな

LLMは言葉でどこまでも詳細にいけるけど、
0627名無しさん@ピンキー (ワッチョイ 0fa0-PJUV)2025/10/14(火) 13:26:05.06ID:PcABHMuq0
例えば、騎乗位にはいろいろ種類があって、名前が詳細についているけど、ほとんどのモデルは騎乗位としかタグ付けされていない。

だからガチャで生成するしかない
0628名無しさん@ピンキー (ワッチョイ 0fa9-CQ64)2025/10/14(火) 13:33:23.33ID:oIeb68Aq0
JNVAスレで聞いてきたらええよ
多分そもそもタグあるだろうし、なかったとして、出すための方法はおそらくもう確立してる
慣れるとすごい楽よdanbooruタグ
0631名無しさん@ピンキー (ワッチョイ 1b32-PJUV)2025/10/14(火) 19:36:35.52ID:/nYGiacK0
kobold.cppで、overridetensorsを有効にしようとして
koboldcpp\koboldcpp.exe --overridetensors --gpulayers 24
で起動させたら落ちるんだけど、やり方間違ってる?
メモリ64G VRAM12G
0635名無しさん@ピンキー (ワッチョイ 5f27-oOwG)2025/10/15(水) 10:41:05.99ID:es2b6e2F0
なんか最新のLLMモデル軽くなった?
gpt-oss:120bで久々にローカルLLM入れたけど
5-6token/secが昔のllama:120bとかは限界だったのに

gpt-ossだと普通に思考4-5秒で20~token/secで出力されるし精度がgptと変わらんやん
Mac StudioM1Ultraの128GB環境だけどモデル側でこんな変わるんかって感じ
0638名無しさん@ピンキー (ワッチョイ 6f04-iD00)2025/10/15(水) 11:26:18.43ID:WXX2Ugeo0
チャッピー12月にエロ解禁らしい
0639名無しさん@ピンキー (ワッチョイ 5fe9-eRny)2025/10/15(水) 11:54:02.19ID:JZDrNw2x0
ChatGPT、成人向けコンテンツを12月に解禁へ
https://japan.cnet.com/article/35239194/

ほんまか知らんけど
0641名無しさん@ピンキー (ワッチョイ 0fa9-CQ64)2025/10/15(水) 12:06:36.78ID:nO9EZyoQ0
ここ最近このスレでmoeのことをわかってない人が急に増えた気がするんやが外でこのスレ紹介されたりしたんやろか
llamacppがcpumoe実装してからモデルがmoeかどうかは個人でLLM動かす人には超重要事項になっとるで
0643名無しさん@ピンキー (ワッチョイ 5f27-oOwG)2025/10/15(水) 12:55:14.54ID:es2b6e2F0
>>640
なるほどなー
magnum v4 123bでシコってた頃から随分進化したもんや
gpt-oss abiliteratedがかなり期待外れだったからmagnumとかの生成早くなってるやつがあったらかなり良さそう
0644名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/15(水) 12:57:15.70ID:NIWsAMFT0
lammacppのrocm対応が進んで今だとQwen3-coder-30BならradeonでもRX7900XTXなら80tok/sぐらい出るようになったし、MoEの成熟も進んで春先あたりの頃の常識がだいぶ変わったよな
0645名無しさん@ピンキー (ワッチョイ 5ffb-xebt)2025/10/15(水) 13:16:34.80ID:c2WDOR3F0
俺が一番シコれる文章を生成してくれるのは
QuantFactory/Berghof-NSFW-7B-GGUF
だけなんだよな
他のモデルは文章こそ滑らかかも知れんけどチンポにズドンとくる文章じゃなくて惜しい
0647名無しさん@ピンキー (ワッチョイ cb22-Z99m)2025/10/15(水) 13:50:43.68ID:NCAaGl2s0
最近grokが申し訳する
0648名無しさん@ピンキー (ワッチョイ 5fef-x06C)2025/10/15(水) 14:48:23.86ID:JyU1FamW0
もともとガチガチに禁止してなかったもんを解禁とか言い出したときは「キッチリ監視の目を入れて安全に使えるようにした、今までの無法地帯ではない」にしか聞こえない
最近ちょっと固い期間あったとはいえ
0649名無しさん@ピンキー (ワッチョイ 5fcd-KVVk)2025/10/15(水) 15:34:18.16ID:dOcrs+BU0
エロokなのと無検閲は全く違うからな
非同意系は今まで通り無理だろうしopenAIは顧客のチャット履歴精査して中国政府の機密資料を晒上げる程度のプライバシー意識の会社だしエロチャするの怖すぎ
0650名無しさん@ピンキー (ワッチョイ cb77-rcem)2025/10/15(水) 16:24:56.21ID:fBcQWT3N0
◯学生OKってマジ?
0652名無しさん@ピンキー (スップー Sd7f-CiX/)2025/10/15(水) 17:41:36.73ID:PvQboaN7d
>>649
逆に履歴提供してる前提でモデル改善オンにしてAIと深い話やOpenAIの横暴についてや正当なコミュニケーションの進展におけるスキンシップの正当性について話してるわ
一番直接的で有効なフィードバックになるからね
チャット履歴提供上等だよ
0654名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/15(水) 21:26:42.52ID:NIWsAMFT0
>>653
ModelfileうんぬんってことはOllama?確かまだ未対応やったんちゃうかな?modelcardにあるようにlammacppかその派生(コボちゃんとか)でないと対応してないはず
0657名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/16(木) 09:48:37.74ID:U3eWIMKC0
>>651
横からだが試してみた。回答内容は悪くないけど重いなぁ。Qwen3-Nextが速杉とも言えるが小説支援には良いけど尻とかでチャットに使うには個人的にびみょかった(個人の感想です)
0658名無しさん@ピンキー (ワッチョイ 0fa9-dmQm)2025/10/16(木) 13:30:03.77ID:3FIeU2zk0
DGX Sparkは結局Ryzen AI Maxくらいしかパフォーマンス出なさそうだし微妙だね。
CUDA使えるのとConnect-X付いてるのはいいけどRyzenと比べて価格が倍以上だし
それならMac買うかってなるな
0661名無しさん@ピンキー (ワッチョイ 5ffb-xebt)2025/10/16(木) 15:20:59.54ID:N2IolTdl0
>>660
https://x.com/AliDTwitt/status/1977685088285675860

以下GROKによる翻訳
Mac Studio M3 Ultra 512GB RAM 80 GPUでGLM 4.6 8bit(MLX)をローカルで実行中。LM Studioで書くと、380GBのRAMをガッツリ使いながら、たった3.5トークン/秒しか生成しない。壁のペンキが乾くのを見ている気分。

品質ではGPT5 Codex(High think)やSonnet 4.5を上回る。とにかく遅いだけ。
@Zai_org
の素晴らしい仕事、GLM 4.7が大幅に速くなることを期待してる。
0666名無しさん@ピンキー (ワッチョイ 3b8f-xFyt)2025/10/16(木) 17:26:24.77ID:LLWWm9uS0
といってもVRAMが300GB/s以下ってことは500GBのDenseモデルを動かすとしたら最大でも0.6トークン/sって事にならんか?
やっぱり帯域不足は痛いで。LPDDRを使う方向性はええと思うんやけど、それなりに高速なチップとクソ広バス幅用意してくれへん事にはなぁ……
0668名無しさん@ピンキー (ワッチョイ df67-s4CX)2025/10/16(木) 20:12:37.09ID:cCpqskzq0
MoEモデル前提だとLPDDR5選ぶ理由はないわねえ
70Bあたりのdenseモデルがスカスカだから活かしどころがないのも難点
0669名無しさん@ピンキー (スップ Sd7f-p9PY)2025/10/16(木) 20:15:02.24ID:mwCUko1ld
単一モデルでthink/no thinkモード切り替えみたいにnsfw/sfw切り替えできるようにならんかなー
0670名無しさん@ピンキー (ワッチョイ 3b10-dFrV)2025/10/16(木) 21:00:16.02ID:iYqYpuLM0
think/no think切り替えとnsfw/sft切り替えは
本質的に同じだからできるんだけど
やってくれる人がいないんだろうねw
一番最初が一番儲かるからがんばってみては?
0674名無しさん@ピンキー (ワッチョイ dfbe-r700)2025/10/18(土) 18:26:12.26ID:zhXU3EVZ0
ryzen395にPCIex8スロットが付いた中華マザーまだー?
0678名無しさん@ピンキー (ワッチョイ fbc6-22Bw)2025/10/21(火) 13:21:19.02ID:/i+aal7d0
lingが通常のモデルでringがlingをベースにした思考モデルっぽい?
他にも103B(MoE)のLing-flash-2.0, Ring-flash-2.0や16B(MoE)のLing-mini-2.0, Ring-mini-2.0のGGUFも出てるね
0679名無しさん@ピンキー (ワッチョイ dfc8-4c3R)2025/10/21(火) 16:28:01.85ID:AAtSO2130
tsuzumi解放しろや
剥顔に
0680名無しさん@ピンキー (ワッチョイ e78f-v+G5)2025/10/21(火) 16:44:41.72ID:PaS2NEOn0
>>676
ええかんじやね。CPU Onlyだった所にCUDAに対応させるコードをAIに書かせた人も出てきて実際もりもり高速に動いとる
あとは精度の問題だけみたいやね。ここはプルキンニキの人力コーディング力に期待や
0684名無しさん@ピンキー (ワッチョイ b276-+PAA)2025/10/22(水) 13:05:20.81ID:037+dTYL0
>>682
さすがにPFNじゃねえの
0685名無しさん@ピンキー (ワッチョイ b20d-bihX)2025/10/22(水) 13:06:12.60ID:Tu1GQuPS0
オープンウェイトでないからパラメータ数は関係ないしAPIすら公開されてないから株価対策以外の何物でもない
本当に独自アーキテクチャなら頑張ってほしいけどね
でも比較対象のモデルがころころ変わってるの面白い 型落ちのqwen2.5としか比較してなかったり、それまでgemma3と比較してたのにファインチューニング性能比較では突然gemma2と比較してたり
0687名無しさん@ピンキー (ワッチョイ 9732-xF4I)2025/10/22(水) 13:54:51.67ID:7jgCbN7+0
と思ったらNVIDIAとAIで提携してるし来週の水曜日に1bit量子化のワークフローとか公開するんか
誰でも1bit量子化できるかも、と煽ってるからここから1bit量子化が加速すればいいんだが
0689名無しさん@ピンキー (ワッチョイ 9231-Y5fA)2025/10/22(水) 15:14:50.86ID:iCW594Bb0
正直なんでも量子化すれば良いってもんじゃないしな
0691名無しさん@ピンキー (ワッチョイ 7bd9-v+G5)2025/10/22(水) 16:21:43.94ID:ldEAtW8s0
ayaファンに朗報です。嫁モデルが来ました
ernie-4.5-21b-a3b-pt.ggufはRPが良いです。
中国のモデルでa3bなのでロースペgpuでも動きます
0692名無しさん@ピンキー (ワッチョイ 7bd9-v+G5)2025/10/22(水) 16:24:34.36ID:ldEAtW8s0
691です
abliteratedがまだです
huihuiさんが出してきそうですが
0693名無しさん@ピンキー (ワッチョイ 32ec-aiji)2025/10/22(水) 18:45:58.41ID:0uomRXP00
気になったんやが30Bとか140Bとか
そういうのは第三者がほんとにそれだけ語彙力があると言うのは検証できるんやろか
「数字多く書いときゃええやろ、定量的に計測なんてできんし」なのかなと
0694名無しさん@ピンキー (ワッチョイ b20d-bihX)2025/10/22(水) 20:09:17.92ID:Tu1GQuPS0
>>693
○○Bの○○はモデル内のパラメータの数だからめちゃくちゃ簡単に調べられてpytorchのチュートリアル的な内容だから「pytorch パラメータ数 確認」 で調べれば日本語でもめちゃくちゃ沢山出てくるしLLMで最も定量的に測れる指標や
ベンチマークのことを言っているのであれば詐称はほとんどないけどデータセットにベンチマークの回答を入れてカンニングさせたり、ベンチマーク時だけ微調整モデルを使うとかは残念ながらよくある 
0695名無しさん@ピンキー (ワッチョイ 32ec-aiji)2025/10/22(水) 20:12:48.63ID:0uomRXP00
>>694
サンガツ、語彙量のつもりやったが定量的に調べられるならええやな
中国におんぶにだっこやが、水増しみたいなことあるんかなと思ってたわ
ベンチマークの回答セットは残念やなぁ、ベンチマークの時だけ本領発揮させるandroidみたいやな
0696名無しさん@ピンキー (スプープ Sd52-MOgW)2025/10/22(水) 22:01:39.67ID:T9j98XZld
中国でもBATHクラスの技術力は疑う余地なんか無いよ
アメリカとガチの技術戦争をやってるんだから日本みたいな遅れた国が出る幕はない

中国を疑うなら政治的な検閲や偏り、意図的な情報漏れの方を警戒すべきで
オープンウェイトであることによって西側がチェック・改善す?余地が担保されている

日本はローカライズに徹するのが現実的でエロチューンもその一つ
0697名無しさん@ピンキー (シャチーク 0C73-x2vN)2025/10/23(木) 09:33:38.24ID:iar6DghpC
>>693
ワイの場合はエロ小説書かせて表現力と台詞回しで評価してる
明らかにデカい方がいい
小さいモデルは語彙はあっても整合性が取れてないからチンピクせんw
0698名無しさん@ピンキー (ワッチョイ b27a-Gd7J)2025/10/23(木) 10:03:36.08ID:cV0tHn8Z0
7B辺り使ってると整合性は痛感するよなあ
エロの表現力は30Bより光ってるモデルもたくさんあるんやが
ある程度サイズが大きいモデルを日本語エロチューンする難易度が高すぎるのが真の問題か
0700名無しさん@ピンキー (ワッチョイ c35a-F33h)2025/10/25(土) 16:48:25.64ID:Y05ab8Ho0
DeepSeek-OCRを調べてみてるんだけどトークン圧縮の技術が進んだ感ある
コストが下がって長い文章でもコンテキストに保持できて良いことずくめ
0701名無しさん@ピンキー (ワッチョイ ff24-v33C)2025/10/25(土) 17:31:30.17ID:qi2pIaBd0
エロ小説を書かせるんじゃなくて設定とか展開を相談するのってどのモデルがええんやろ
gpt-ossとかのabliteratedはなんか頭硬い現実の議論みたいな返答で面白くなかったしRP用のモデルだとRPが始まったり小説の内容書き始めちゃうしで丁度いいのって難しいんやな
0702名無しさん@ピンキー (ワッチョイ f3c6-Vqoh)2025/10/25(土) 17:36:11.49ID:1/M2XoWi0
Qwen3-235B-A22B-Instruct-2507でSTのキャラ設定とか世界観とか出してるな
下手にファインチューニングしたモデルやabliteratedモデルより元のモデルに対してシステムプロンプトや応答書き換えで出すほうが個人的には好き
あと温度上げたりサンプラー設定変えてみるといいかも
0703名無しさん@ピンキー (ワッチョイ ff24-v33C)2025/10/25(土) 17:41:06.38ID:qi2pIaBd0
>>702
元のモデルってことは露骨なエロはぼかしたりプロンプト工夫して出してく感じか
流石に235BのモデルはVRAM16RAM128のワイのPCだと結構厳しそうだけどデカめの元モデルでちょい試してみるわ
0705名無しさん@ピンキー (ワッチョイ ff24-v33C)2025/10/25(土) 17:47:00.76ID:qi2pIaBd0
そうなん!?ローカルでLLM動かすのはまだ不慣れやからMoEモデルとそうでないやつの違いとか必要スペックとか詳しくないんや…
早速DLしてみるで!
0707名無しさん@ピンキー (ワッチョイ cfa9-n9/C)2025/10/26(日) 00:27:56.39ID:E/AUDJ7n0
llamacppのqwen3-next対応はみんなに使ってもらって意見もらう段階に入ったようやが
CPU対応のみみたいやな
GPU対応は別途PR立てるって

まだまだ時間かかりそうや
0708名無しさん@ピンキー (ワッチョイ cfa0-n9/C)2025/10/27(月) 09:55:14.75ID:qR3tybIb0
Stable Diffusionでpubic hair standing upright(立体的な陰毛)を指定すると立体的な陰毛を描いてくれるのだけど、
副作用として、ベッドの長さが高確率で半分になる現象が起こる。
謎だわ
0709名無しさん@ピンキー (ワッチョイ cfa0-n9/C)2025/10/27(月) 10:58:44.66ID:qR3tybIb0
pubic hair standing uprightのstandingがベッドを半分にするトリガーになってるな

pubic hair uprightでも意味は伝わるみたいだから、こっちにしよう

バタフライエフェクトなことが起こるなAIは
0711名無しさん@ピンキー (ワッチョイ 8345-fNMY)2025/10/29(水) 07:09:41.91ID:5dW/4rRR0
モデルが大きくて微妙にGPUメモリに載り切らない場合、
何枚かのレイヤーかKVキャッシュだと
どちらを優先してオフロードするのが良いんでしょうか
0712名無しさん@ピンキー (ワッチョイ 3f49-i7NQ)2025/10/29(水) 07:41:59.59ID:UYN1GVnp0
たぶんコンテキストサイズによって変わる
0714名無しさん@ピンキー (ワッチョイ bf6c-SOQn)2025/10/29(水) 10:58:43.19ID:QmT6NWfz0
RTX5080super、ほしいけどどうかな…
0716名無しさん@ピンキー (ワッチョイ bf6c-SOQn)2025/10/29(水) 12:31:45.57ID:QmT6NWfz0
RTX5080シリーズよりLLM動かすのに良いのってある?
5090とかしか思い付かない〜

DGXsparkも検討したけど買うの辞めた…
0717名無しさん@ピンキー (ワッチョイ 7fc7-6qEa)2025/10/29(水) 12:47:57.69ID:vdU6XoEE0
>>716
DGXsparkはメモリ帯域がねぇ
実用面では中古のRTX3090を4台買ったほうが幸せになれる
追加で中古のスリッパとマザボを揃えることになるけど
電気代かかるのと電気契約の見直しがいるかも?

それかメモリ256GB積んでRTX3090以上のグラボでMoEモデル動かすのもありだね
遅いけどGLM4.6の4,5bit量子化モデルが動かせる
0718名無しさん@ピンキー (ワッチョイ 7fbd-qHJp)2025/10/29(水) 13:13:45.57ID:DNQ+zkP90
本当にLLMしか使わないならMac Studioのユニファイドメモリ積みまくり(最大512GB)だろうね
高速・大容量・高価格
150万くらいだよ!

まぁ、128GBなら56万くらいだから割と現実的よ
0719名無しさん@ピンキー (ワッチョイ 8392-GUPc)2025/10/29(水) 13:56:11.14ID:c2orVjYY0
僕は4070Ti SUPER使ってたところに5060Ti買い足しました
ケースの中空いてないからoculink外付けだけど
gemma27Bとかコンテキスト含めると16gbでちょい足りなかった奴が超快適になった
0720名無しさん@ピンキー (ワッチョイ 7fa2-SOQn)2025/10/29(水) 14:33:54.01ID:4cKF8saF0
716だけどありがとう
まずは3090、2つくらいから積んでみようかな…

Macも正直デカイの動かせてノートなのはかなり魅力的
NvidiaもDGXじゃなくてこんなの出さないかな
0721名無しさん@ピンキー (ワッチョイ 7fbd-qHJp)2025/10/29(水) 15:13:16.36ID:DNQ+zkP90
Macは機種によってメモリ帯域幅が違うから、なるべくMac Studioね
https://www.apple.com/jp/mac-studio/specs/
Apple M3 Ultraチップ 819GB/s
Apple M4 Maxチップ 410GB/s

MacBook Proは最上位機種なら410GB/sか546GB/s
https://www.apple.com/jp/macbook-pro/specs/

RTXのxx80やxx90系は900GB/s前後
デスクトップメモリのDDR5がデュアルで90GB/s前後

そしてNVIDIA DGX Sparkは273GB/sでみんなズッコケたと
https://www.nvidia.com/ja-jp/products/workstations/dgx-spark/
レスを投稿する


ニューススポーツなんでも実況