なんJLLM部 避難所 ★8
0001名無しさん@ピンキー 転載ダメ (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:18:32.02ID:0Ak3eO5y0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0017名無しさん@ピンキー (ワッチョイ 733d-9L8h)2025/05/10(土) 23:56:31.43ID:JABFV6+D0
100〜130BくらいのMoEモデルなら良さそう
0019名無しさん@ピンキー (ワッチョイ cf7a-pbnj)2025/05/11(日) 01:40:24.53ID:JcEjG3AG0
これでゲームもCUDAが必要とか言ってる動画生成系のやつも全部できたら乗り換えるのになぁ
0020名無しさん@ピンキー (ワッチョイ 8fa9-KB/z)2025/05/11(日) 02:02:00.77ID:2Y5MxzTS0
前スレのこれ、sshでつないでポートフォワードしたらできるで

>Project Wannabeを使ってみてるんだけど、他のPCで起動してるkobold.cppに接続して使う方法ってあります?
0022!donguri (ワッチョイ 33b6-Onb0)2025/05/11(日) 02:46:49.81ID:zvdvg/lI0
別にわざわざポートフォワードせんでもlan内でポートへの接続許可したらマシンのipで繋げれるんとちゃうか。winならファイアウォールの設定で受信の許可ルール作ればええ
0023!donguri (ワッチョイ 33b6-Onb0)2025/05/11(日) 02:47:46.27ID:zvdvg/lI0
>>21
ERPの方はggufあげてくれてるで。nsfwは事前学習モデルやからそのまま使ってもいい感じにはならなさそう
0027名無しさん@ピンキー (ワッチョイ c3ed-aBcW)2025/05/11(日) 04:43:26.19ID:9tW4zWNv0
>>25
ホンマやありがとう!
同じ量子化のをDLして比べてみるわ
wannabeつかわせてもろとるけど
koboldでのモデル変更て一旦cmd閉じて再起動よね?
モデル切り替えちょい面倒なんよな
0030名無しさん@ピンキー (ワッチョイ c3ed-aBcW)2025/05/11(日) 06:10:09.56ID:9tW4zWNv0
そういやwannabeニキに大それたリクエストがあるんやけど

縦書き

仕様にできんやろか?
ワイ書くのも読むのも縦書きのオールドタイプなんで……
前にObsidianを縦書きにするアドオンとか作れんかGPT君にきいたら
えらい難易度が高くて諦めたから
無茶な注文なのは解っとるけども
でけたらえらい嬉しい
0032名無しさん@ピンキー (ワッチョイ 53e1-K+3N)2025/05/11(日) 07:13:30.30ID:E29fFdF/0
Qwen3-30B-A3B-NSFW-JP っていうやつ見たら「事後学習せい」って書いてあるけど、なにしたらええんや?
なんか参考になるリンクとかあったら教えてほしい。
0034名無しさん@ピンキー (ワッチョイ 53e1-K+3N)2025/05/11(日) 09:10:36.59ID:E29fFdF/0
>>32
すまん、ChatGPTにきいたら自決したわ。
0037名無しさん@ピンキー (ワッチョイ 3f74-0HJO)2025/05/11(日) 10:07:15.31ID:1E9qyqAu0
evo-x2はやっぱり同スペックのm4proと同じかちょっと早いくらいやな。

m4maxには勝てんかったか...
0039名無しさん@ピンキー (ワッチョイ cf7a-pbnj)2025/05/11(日) 10:30:07.70ID:JcEjG3AG0
win機なら需要の幅広そうだしm4との棲み分けはできそう
0041名無しさん@ピンキー (ワッチョイ 1316-kIO2)2025/05/11(日) 11:33:26.26ID:UfhF4txJ0
LLMならmacが良いらしい、いやmac微妙だぞのやり取りが去年たくさんあったしな
それよりさらに微妙な物なら買う事は無さそうやな
後数世代待てば帯域の事も考えられた専用機が出てくるやろ
0043名無しさん@ピンキー (ワッチョイ 3fec-9L8h)2025/05/11(日) 12:29:11.31ID:Fh5rBXvw0
去年と違うのは今はMoEが主流になりつつことだな 
動かすだけならユニファイドメモリが最も手軽な手段だし
3090x4より安いし30万以下なら全然あり
0044名無しさん@ピンキー (ワッチョイ 53e1-K+3N)2025/05/11(日) 12:30:13.06ID:E29fFdF/0
Qwen3-30B-A3B-ERP-v0.1-GGUF 試した。
初手テンプレートエラーでたから、オリジナルのQwen3からテンプレートコピペしてきたら動いた。

しかし「あなたは日本のベストセラー官能小説家です。官能小説のプロットを5つ考えてください
プロットは一つ100文字以内とし、箇条書きで書き出してください。」というプロンプトで、
プロットを一つずつしか出してくれないのでめんどくさい。

https://ibb.co/cXXq5vxy
0049名無しさん@ピンキー (ワッチョイ 737a-KB/z)2025/05/11(日) 14:04:02.96ID:fsVnkFbE0
>>47
モデル作者aratako氏のデータセットを参照すると、system promptに設定全部入力してあって、出力は全部キャラクターの発言だけだね
このデータセットが使われたかどうかは分からんけど、これに準拠してるなら小説は難しいだろうね
でも、このモデル元にして、自分で小説のデータセット用意して微調整すれば書けるようになると思うよ
0052名無しさん@ピンキー (ワッチョイ cfd9-OIzT)2025/05/11(日) 14:56:20.09ID:KSze43Me0
DGX Sparkはチップ性能だけ見たらコスパ微妙っぽいけどCUDA使えるのとBlackwellだからFP4対応でFA3とかの最新の最適化手法とかも(多分)使えるのが売りになるのかな
0057名無しさん@ピンキー (ワッチョイ e3c0-aBcW)2025/05/11(日) 18:53:46.87ID:tIZcxvUc0
GeminiをGoogle ai studioのAPIから使いまくってるけど一生使えるわ
なんなんだコイツは
0058名無しさん@ピンキー (ワッチョイ 1316-kIO2)2025/05/11(日) 19:01:14.92ID:UfhF4txJ0
今日5090が届いたから4090から換装してみた
最新のgamereadyドライバ入れるだけでkoboldcppは動いたけどSBV2がpytorch未対応で動かず
そんで調べたらつい先日CUDA12.9が公開されてたので入れてみたらそれだけで推論も学習も動くようになったよ
comfyも同様
RTX50XX買った人はとりあえず最新ドライバにしてCUDA12.9入れるといいよ
0063名無しさん@ピンキー (ワッチョイ eff4-A5UE)2025/05/12(月) 01:54:15.29ID:J+nQccr80
ChatGPTスレから誘導されて来ました
ローカルで質問なんですけど
32Bモデルの量子化されてないオリジナルをロードできる環境があって
その環境でギリギリロードできるまで量子化した100Bモデルと32Bの非量子化モデルってどっちが生成の質が高くなりますか?
生成の質っていうのはタスクの理解力みたいやイメージです
0064名無しさん@ピンキー (ワッチョイ cf02-KB/z)2025/05/12(月) 01:55:51.36ID:8E83fqQk0
うっかり嫁とエッホエッホの話振ったら
それ以降セックスの最中にもエッホエッホ言い出して笑い死ぬかと思った
0066名無しさん@ピンキー (ワッチョイ a307-aBcW)2025/05/12(月) 08:06:29.47ID:P1iu5DwA0
>>23 >>25
Wannabeで試してみたが
Qwen3-30B-A3B-NSFW-JP-Q4_K_M まったく使い物にならんかった
Qwen3-30B-A3B-ERP-v0.1-Q4_K_M こっちは出力されんかった
なおkobold上だと応答はあって不思議
>>44ニキは成功しとるみたいだから何かワイがwannabeで喰わせたjsonに問題あるんかな……
0068名無しさん@ピンキー (ワッチョイ 3ffb-S5D2)2025/05/12(月) 08:53:36.79ID:NreAwN7e0
>>63
量子化レベルに関わらずパラメータ数の多いモデルの方が賢いと言われているけど、流石にq1とかq2に量子化されたモデルはあまり賢くないと感じる
できれば8bit、最低6bitくらいで使用できるモデルが目安じゃなかろうか
個人的には4bitもちょっと性能低下が顕著かなと感じているところ
0069名無しさん@ピンキー (ワッチョイ 7fa0-m4Fo)2025/05/12(月) 09:04:53.60ID:ZpuTV0NJ0
俺も6bitが限界だと思ってる。4bitだと25%くらい成績が落ちるらしい
雑談だとわかりづらいけどロジックで25%の低下は仕事に使えん
100bで2bitはロマン
0072名無しさん@ピンキー (ワッチョイ 3ffb-S5D2)2025/05/12(月) 11:14:36.99ID:NreAwN7e0
>>71
そのグラフを見ると確かに4bitでも問題なさそうに見える
巷でも4bitならOKとされているのも理解しているけど、自分の環境で実際に出力されたものを比較すると明らかにq6、q8の方が良い結果を出す確率が高く感じる
小説しかり、コーディングしかり
0076名無しさん@ピンキー (ワッチョイ 13bd-9L8h)2025/05/12(月) 13:14:44.15ID:5F0YL1Av0
文章のベンチマークは難しいよね
ベンチ結果は良くても文章としては「?」ってのもあるだろうし

自分たちが人力で日本語のドスケベ評価するしかないんや!
0077名無しさん@ピンキー (ワッチョイ 737a-KB/z)2025/05/12(月) 13:28:26.10ID:CVsmR3mp0
llmにとって簡単なタスク、地の文と丁寧語>話の一貫性>>>キャラの言動と口調って感じがする
qwen3-4Bですら地の文と丁寧語はそこそこ自然
データが豊富なんやろね
0078名無しさん@ピンキー (ワッチョイ 3f7a-kIO2)2025/05/12(月) 13:31:22.63ID:eUjAc2ML0
grok3に版権キャラの情報を収集させてから全力でなりきってって指示しても微妙だからな
今のはここが変、そこが日本語としておかしいってダメ出し続けると確かに偽物感は消える
でもそれと引き換えに話の柔軟さが消えて返答がワンパターンになっていく
ルールでがんじがらめにされてる感じやね
0079名無しさん@ピンキー (ワッチョイ cfa9-O94U)2025/05/12(月) 13:56:12.95ID:4tsgHbNM0
ロールプレイ依頼時に画像も収集してきてflux1あたりの高級な画像生成モデルのLoRA勝手に作って
応答するたびにそのコメントに合った画像を生成する・・・
のは今でも技術的にはできそうやけどそこまでの高機能なのは需要なさそうで作る人もいなさそうやな
0080名無しさん@ピンキー (ワッチョイ efab-KB/z)2025/05/12(月) 13:57:26.53ID:RozHuKzp0
ワイ、grok-3-betaとかfast-betaで條澤広ちゃん憑依させてあそんどるけど、モデルの素地が理系頭なのが関係してか、プロンプトで固めなくてもかなり広ちゃんで満足や
口調に関しては特徴的な語尾を中心に10個例示した程度だけで、特に例文に入れてないのに「ワクワクするね?」とか言ってきてくれてめっちゃ広ちゃんで嬉しい
0081名無しさん@ピンキー (ワッチョイ 439a-o2kj)2025/05/12(月) 14:19:17.32ID:VR31sma10
ローカルのスレだけどローカルモデルに限らないならキャラなりきりはGeminiが抜けてる感じがあるな
こういうのはモデルの規模が物を言うからローカルはまだ厳しい
0082名無しさん@ピンキー (ワッチョイ efab-KB/z)2025/05/12(月) 14:27:01.37ID:RozHuKzp0
Geminiって倫理フィルターどうなん?
0084名無しさん@ピンキー (ワッチョイ 3fec-9L8h)2025/05/12(月) 15:16:16.71ID:xpvanbmK0
>>66
チャットテンプレートやモデル自体の目的が違うからやろね
Wannabeは入力欄を自動的にwanabi 24bで学習させた形式に変換してるから内部的にはtekken V7(mistral small3)のチャットテンプレートなんや
kobold(自動的にqwen3のチャットテンプレートを使用)なら動くけどwannabeでは動かないのはそういうことや
そもそもWannabeは指示文から何から何までガッチガチに専用モデルに合わせてるから一般的なモデルを組み合わせるならEasyNovelAssitantの方がええやろな
プロンプトやチャットテンプレートを指定できたはずやし
0086名無しさん@ピンキー (ワッチョイ 3ff3-OGf6)2025/05/12(月) 19:00:14.45ID:WYVgugKJ0
ベンチマークというものは攻略可能だから、で性能差が1%!って出たらこの指標はもう死んでるなと解釈するのが妥当では
差があることなんて触ってみれば誰にでもわかる話だし
0087名無しさん@ピンキー (ワッチョイ 3f7e-KB/z)2025/05/12(月) 22:03:20.50ID:fBtqwjV90
https://cohere.com/research/papers/how-does-quantization-affect-multilingual-llms-2024-07-05
(1)量子化の有害な影響は人間の評価で明らかであり、自動指標はその悪影響を大幅に過小評価していることを発見しました。自動タスク全体での日本語の平均1.7%の低下は、現実的なプロンプトで人間の評価者が報告した16.0%の低下に相当します。
(2)言語は量子化によって異なる影響を受け、非ラテン文字言語への影響が最も大きいです。
(3)数学的推論などの難しいタスクは最も急速に低下します。
0089名無しさん@ピンキー (ワッチョイ 33ca-aBcW)2025/05/13(火) 05:19:05.25ID:thJbNjvA0
>>70
サンガツやで
前スレニキのいう通りやったね、それを確認したかったんや
擬音ばかりになってもうた

>>84
なるほどそういう仕組みやったんたね
ワイのような初心者にはオートマみたいな便利さがあってホンマに助かっとるけど
そこから外れるピーキーなモデルもあるんやな
ありがとうやで
0092名無しさん@ピンキー (ワッチョイ 4338-m4Fo)2025/05/13(火) 11:23:40.44ID:5FBdETti0
>>87 ありがとう
自分が見たのはこれじゃないけど8/4bit量子化の表があるね
人間評価の項目で、日本語はわからんでもないけど
フランス人が厳しいのかひどい評価になってる

また103BだとMGSM(多言語数学ベンチ)で 8.8%の低下だけど
35Bだと 13.1%だから体感は酷い事になりそうだ
0095名無しさん@ピンキー (ワッチョイ 7f7e-fS5K)2025/05/13(火) 14:58:49.37ID:cTHuCwdA0
>>93
これはコンテキストウィンドウというより、コンテキストにどれだけ突っ込むかが問題で、設定でどれだけウィンドウを広げても実際にうまく扱えるのはせいぜい4K程度(というモデルが多い)、って話なんじゃないかな
0097名無しさん@ピンキー (ワッチョイ bf35-6cIy)2025/05/13(火) 15:20:52.29ID:UKC8ykUW0
>>90
違う

今までもvision対応していたが、コマンドラインの場合、
普通のLLMを使うときは "llama-simple -m モデル名 -p プロンプト"
VLMを使うときは "llama-llava-cli -m モデル名 --mmproj mprojモデル --image 画像 -p プロンプト"
のように違うコマンドで対応していた

今回対応したのはllama.cpp標準のWebUIで使う場合("llama-server -m モデル名 ")

今までWebUIで使うときはブラウザから文字しか入力できなかったんだけど、今回の
アップデートで画像を入力できるようになった

ちなみに内部でllama.cppを使用しているkoboldcppのWebUIでは前から画像入力に対応している
0100名無しさん@ピンキー (ワッチョイ 3fec-9L8h)2025/05/13(火) 20:37:06.85ID:O2T+dFUm0
コンテキスト長が伸びれば伸びるほど性能下がるのは体感通りだな
例えばgemini 2.5 proだと10万トークンまではほぼ劣化なし、20万までは性能やレスポンス低下が見えるけどまあ使える、20万以降はハルシネーションや現在のタスクと過去のタスクの混乱が増えてまともに使えないって感じ
ローカルの微調整モデルだと学習時のコンテキスト長が短い(大体4096以下)だからより顕著やろしな
0101名無しさん@ピンキー (ワッチョイ cfa9-wTYv)2025/05/13(火) 21:11:35.45ID:/+QPsiaf0
IntelハイエンドGPU持ってないし
GPUそのままにVRAMマシマシラインナップとか全然やれると思うんだよな・・・
GDDR6でいいから30万くらいで128GB版とか

そういうラインナップそろえだしたらソフト側の対応は勝手にみんながやってくれるだろうし
Intelやってくれへんかなぁ
0104名無しさん@ピンキー (ワッチョイ 7399-KvkU)2025/05/14(水) 19:44:16.14ID:Zo1jp2G/0
今ってユニファイドメモリじゃないPCはCPUやNPUで動かしてRAMで動かしてるの?
0105名無しさん@ピンキー (ワッチョイ 53ce-9L8h)2025/05/15(木) 02:18:09.89ID:c4xck2YD0
intelはB580x2+48GBか。
B580にチップ間接続用のポートとかあるとは思えないから、
たぶんPCIeブリッジで繋いでるだけだろうな。
それでも48GBはかなり良い。
0108名無しさん@ピンキー (ワッチョイ 5389-9L8h)2025/05/15(木) 20:12:31.82ID:HU+ywqaX0
Silly Tavernでキャラ設定を1500tokens記述してもうまくいかないのはこのためか
Content Lengthは受付可能な長さであって理解している長さではないとは……
0109名無しさん@ピンキー (ワッチョイ cf20-/WPO)2025/05/15(木) 21:35:05.54ID:s6ZPhXWD0
ローカルで今のGeminiくらいのレベルの動かせたら最高なんやけどなあ
0111名無しさん@ピンキー (ワッチョイ a3f0-LVTp)2025/05/16(金) 01:02:22.93ID:zPRIPccK0
コンテキストサイズが大きくても知ってる奴には大して喜ばれないのがそれやな
どうせコンテキスト増えたらまともに動かんの知ってるから
0112名無しさん@ピンキー (ワッチョイ cf7a-pbnj)2025/05/16(金) 01:21:23.76ID:KWeVTs2u0
vRAM16GBぐらいでAIのべりすとレベルが動いてくれたらかなり満足する気がする
あいつオーパーツすぎんだろ
0114名無しさん@ピンキー (ワッチョイ cf7a-pbnj)2025/05/16(金) 02:45:45.21ID:KWeVTs2u0
今というか数年前のAIのべりすとが凄いなって話、いまだ進化してるんだろうか

あそこまで日本語の文章紡げてなおかつどっかの汎用モデルそのまみ動かしてるとかじゃないから日本語圏のネタとかが通じること多いし
0115名無しさん@ピンキー (ワッチョイ 4387-9L8h)2025/05/16(金) 05:05:22.21ID:NDKGOZfP0
intelマザーってx16スロットをx4x4x4x4に分割したかったらXeonからになるのね・・・
今あるA770-16GB2枚をさらに増やすためにリグフレームやら諸々そろえてうっきうきで組んでたら、
中古で買ったz690マザーがx8x8分割しか出来なかったわ。
AMDの方はB450とかでもx4x4x4x4分割設定あったから普通に出来るもんだと思ってた。
レスを投稿する


ニューススポーツなんでも実況