なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0621名無しさん@ピンキー (ワッチョイ 3ba9-s4CX)2025/10/14(火) 05:18:17.08ID:SMX+5n3O0
>>814
Qwen3-Next-80B-A3BはぶっちゃけコアのA3BさえVRAMに収まってりゃそこそこの速度で動く。上の方でlammacppより先にQwen3-Next対応したfastllmで試したニキいるけどA3Bだけ置いてVRAM8GBも使わずに20tok/s出たって言ってたはず
0625名無しさん@ピンキー (ワッチョイ 0fa0-PJUV)2025/10/14(火) 12:38:30.75ID:PcABHMuq0
最近Stable DiffusionやってるけどLLMと違って、画像にどんなタグを付けているか予想しながらじゃないといけないのがつらいな

LLMは言葉でどこまでも詳細にいけるけど、
0627名無しさん@ピンキー (ワッチョイ 0fa0-PJUV)2025/10/14(火) 13:26:05.06ID:PcABHMuq0
例えば、騎乗位にはいろいろ種類があって、名前が詳細についているけど、ほとんどのモデルは騎乗位としかタグ付けされていない。

だからガチャで生成するしかない
0628名無しさん@ピンキー (ワッチョイ 0fa9-CQ64)2025/10/14(火) 13:33:23.33ID:oIeb68Aq0
JNVAスレで聞いてきたらええよ
多分そもそもタグあるだろうし、なかったとして、出すための方法はおそらくもう確立してる
慣れるとすごい楽よdanbooruタグ
0631名無しさん@ピンキー (ワッチョイ 1b32-PJUV)2025/10/14(火) 19:36:35.52ID:/nYGiacK0
kobold.cppで、overridetensorsを有効にしようとして
koboldcpp\koboldcpp.exe --overridetensors --gpulayers 24
で起動させたら落ちるんだけど、やり方間違ってる?
メモリ64G VRAM12G
0635名無しさん@ピンキー (ワッチョイ 5f27-oOwG)2025/10/15(水) 10:41:05.99ID:es2b6e2F0
なんか最新のLLMモデル軽くなった?
gpt-oss:120bで久々にローカルLLM入れたけど
5-6token/secが昔のllama:120bとかは限界だったのに

gpt-ossだと普通に思考4-5秒で20~token/secで出力されるし精度がgptと変わらんやん
Mac StudioM1Ultraの128GB環境だけどモデル側でこんな変わるんかって感じ
0638名無しさん@ピンキー (ワッチョイ 6f04-iD00)2025/10/15(水) 11:26:18.43ID:WXX2Ugeo0
チャッピー12月にエロ解禁らしい
0639名無しさん@ピンキー (ワッチョイ 5fe9-eRny)2025/10/15(水) 11:54:02.19ID:JZDrNw2x0
ChatGPT、成人向けコンテンツを12月に解禁へ
https://japan.cnet.com/article/35239194/

ほんまか知らんけど
0641名無しさん@ピンキー (ワッチョイ 0fa9-CQ64)2025/10/15(水) 12:06:36.78ID:nO9EZyoQ0
ここ最近このスレでmoeのことをわかってない人が急に増えた気がするんやが外でこのスレ紹介されたりしたんやろか
llamacppがcpumoe実装してからモデルがmoeかどうかは個人でLLM動かす人には超重要事項になっとるで
0643名無しさん@ピンキー (ワッチョイ 5f27-oOwG)2025/10/15(水) 12:55:14.54ID:es2b6e2F0
>>640
なるほどなー
magnum v4 123bでシコってた頃から随分進化したもんや
gpt-oss abiliteratedがかなり期待外れだったからmagnumとかの生成早くなってるやつがあったらかなり良さそう
0644名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/15(水) 12:57:15.70ID:NIWsAMFT0
lammacppのrocm対応が進んで今だとQwen3-coder-30BならradeonでもRX7900XTXなら80tok/sぐらい出るようになったし、MoEの成熟も進んで春先あたりの頃の常識がだいぶ変わったよな
0645名無しさん@ピンキー (ワッチョイ 5ffb-xebt)2025/10/15(水) 13:16:34.80ID:c2WDOR3F0
俺が一番シコれる文章を生成してくれるのは
QuantFactory/Berghof-NSFW-7B-GGUF
だけなんだよな
他のモデルは文章こそ滑らかかも知れんけどチンポにズドンとくる文章じゃなくて惜しい
レスを投稿する


ニューススポーツなんでも実況