なんJLLM部 避難所 ★8
0001名無しさん@ピンキー 転載ダメ (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:18:32.02ID:0Ak3eO5y0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0002名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:19:47.51ID:0Ak3eO5y0
初心者は導入しやすいKoboldcppから始めるのをお勧め
(1)NVIDIA、CPUユーザーはここで最新版のKoboldcpp.exeをダウンロード
https://github.com/LostRuins/koboldcpp/releases
AMDユーザーはこっち
https://github.com/YellowRoseCx/koboldcpp-rocm
(2)ここで良さげなggufモデルをダウンロード
https://huggingface.co/models?sort=modified&search=gguf
この2つのファイルだけで動く

Koboldの設定や使い方は英語だけどここが詳しい
https://github.com/LostRuins/koboldcpp/wiki
0003名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:20:16.10ID:0Ak3eO5y0
oobabooga/text-generation-webui
通称大葉
これもKoboldAIに並んで有用な実行環境やで
https://github.com/oobabooga/text-generation-webui
0004名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:20:33.45ID:0Ak3eO5y0
●Zuntanニキ謹製のツールEasyNovelAssistant
主に小説用で使われとるで
ローカルLLM導入のハードルをぐっと下げてくれたで
初めてのお人はここから始めるのもいいで
https://github.com/Zuntan03/EasyNovelAssistant
0005名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:20:51.59ID:0Ak3eO5y0
https://github.com/SillyTavern/SillyTavern
AIチャットに特化したUI、SillyTavernや
キャラをbot的に管理したりグラ登録したり複数選んでグループチャットしたり大量の設定を外部記憶的に管理したり色々できるで
画像出力や音声出力とも連携可能で夢が広がるで
機能が豊富すぎて最初取っ付きにくいのと日本語の解説がほとんど無いのが難点やがRPチャット派は使うと幸せになれるやで
あくまでUI(フロントエンド)やからこれ自体にはAIは内蔵されてないから注意してな
好きなAPIやローカルモデルと接続して使うんやで
0006名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:21:14.79ID:0Ak3eO5y0
例としてKoboldで起動したローカルモデルとSillyTavernを接続する設定や
先にいつもどおりKoboldを起動してな

SillyTavernのプラグのアイコンをクリック
APIに Text Completion を選択
API Typeは KoboldCpp
API keyは不要
API URLに http://localhost:5001/
これでいける
0007名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:21:36.99ID:0Ak3eO5y0
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで

⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで

⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
量子化は4bitまでならほとんど精度が落ちないのでよくわからない場合はIQ4_XSやQ4_k_mなどにしとけばええで

⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで

●モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
0008名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:22:06.73ID:0Ak3eO5y0
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Berghof-NSFW-7B-i1-GGUF

Llama3-70B系:
Smaug-Llama-3-70B-Instruct-abliterated-v3

Cohere系:
c4ai-command-r-08-2024 (35B)
c4ai-command-r-plus-08-2024 (104B)

magnumシリーズ(エロ特化):
https://huggingface.co/collections/anthracite-org/v4-671450072656036945a21348

Lumimaid-Magnum:
Lumimaid-Magnum-v4-12B

magnumの日本語版:
Mistral-nemo-ja-rp-v0.2
0009名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:22:38.96ID:0Ak3eO5y0
●高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで
若干規制はあるもののGoogle AI studioから無料でAPI keyを入手して高性能なAIを使うこともできるのでそれを使うのええで
API keyの入手はhttps://aistudio.google.com/apikeyここからできるで
0010名無しさん@ピンキー (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:24:24.73ID:0Ak3eO5y0
テンプレここまで、しばらく更新されてないから過去ログも参考にしてな
0011名無しさん@ピンキー (ワッチョイ 733d-9L8h)2025/05/10(土) 22:38:04.01ID:JABFV6+D0
おつつ
0015名無しさん@ピンキー (ワッチョイ 733d-9L8h)2025/05/10(土) 23:50:58.42ID:JABFV6+D0
ryzenMAX+はCPUにAVX512とか載ってるから
CPUにも仕事させた方が良いんだろうか
0017名無しさん@ピンキー (ワッチョイ 733d-9L8h)2025/05/10(土) 23:56:31.43ID:JABFV6+D0
100〜130BくらいのMoEモデルなら良さそう
0019名無しさん@ピンキー (ワッチョイ cf7a-pbnj)2025/05/11(日) 01:40:24.53ID:JcEjG3AG0
これでゲームもCUDAが必要とか言ってる動画生成系のやつも全部できたら乗り換えるのになぁ
0020名無しさん@ピンキー (ワッチョイ 8fa9-KB/z)2025/05/11(日) 02:02:00.77ID:2Y5MxzTS0
前スレのこれ、sshでつないでポートフォワードしたらできるで

>Project Wannabeを使ってみてるんだけど、他のPCで起動してるkobold.cppに接続して使う方法ってあります?
0022!donguri (ワッチョイ 33b6-Onb0)2025/05/11(日) 02:46:49.81ID:zvdvg/lI0
別にわざわざポートフォワードせんでもlan内でポートへの接続許可したらマシンのipで繋げれるんとちゃうか。winならファイアウォールの設定で受信の許可ルール作ればええ
0023!donguri (ワッチョイ 33b6-Onb0)2025/05/11(日) 02:47:46.27ID:zvdvg/lI0
>>21
ERPの方はggufあげてくれてるで。nsfwは事前学習モデルやからそのまま使ってもいい感じにはならなさそう
0027名無しさん@ピンキー (ワッチョイ c3ed-aBcW)2025/05/11(日) 04:43:26.19ID:9tW4zWNv0
>>25
ホンマやありがとう!
同じ量子化のをDLして比べてみるわ
wannabeつかわせてもろとるけど
koboldでのモデル変更て一旦cmd閉じて再起動よね?
モデル切り替えちょい面倒なんよな
0030名無しさん@ピンキー (ワッチョイ c3ed-aBcW)2025/05/11(日) 06:10:09.56ID:9tW4zWNv0
そういやwannabeニキに大それたリクエストがあるんやけど

縦書き

仕様にできんやろか?
ワイ書くのも読むのも縦書きのオールドタイプなんで……
前にObsidianを縦書きにするアドオンとか作れんかGPT君にきいたら
えらい難易度が高くて諦めたから
無茶な注文なのは解っとるけども
でけたらえらい嬉しい
0032名無しさん@ピンキー (ワッチョイ 53e1-K+3N)2025/05/11(日) 07:13:30.30ID:E29fFdF/0
Qwen3-30B-A3B-NSFW-JP っていうやつ見たら「事後学習せい」って書いてあるけど、なにしたらええんや?
なんか参考になるリンクとかあったら教えてほしい。
0034名無しさん@ピンキー (ワッチョイ 53e1-K+3N)2025/05/11(日) 09:10:36.59ID:E29fFdF/0
>>32
すまん、ChatGPTにきいたら自決したわ。
0037名無しさん@ピンキー (ワッチョイ 3f74-0HJO)2025/05/11(日) 10:07:15.31ID:1E9qyqAu0
evo-x2はやっぱり同スペックのm4proと同じかちょっと早いくらいやな。

m4maxには勝てんかったか...
0039名無しさん@ピンキー (ワッチョイ cf7a-pbnj)2025/05/11(日) 10:30:07.70ID:JcEjG3AG0
win機なら需要の幅広そうだしm4との棲み分けはできそう
0041名無しさん@ピンキー (ワッチョイ 1316-kIO2)2025/05/11(日) 11:33:26.26ID:UfhF4txJ0
LLMならmacが良いらしい、いやmac微妙だぞのやり取りが去年たくさんあったしな
それよりさらに微妙な物なら買う事は無さそうやな
後数世代待てば帯域の事も考えられた専用機が出てくるやろ
0043名無しさん@ピンキー (ワッチョイ 3fec-9L8h)2025/05/11(日) 12:29:11.31ID:Fh5rBXvw0
去年と違うのは今はMoEが主流になりつつことだな 
動かすだけならユニファイドメモリが最も手軽な手段だし
3090x4より安いし30万以下なら全然あり
0044名無しさん@ピンキー (ワッチョイ 53e1-K+3N)2025/05/11(日) 12:30:13.06ID:E29fFdF/0
Qwen3-30B-A3B-ERP-v0.1-GGUF 試した。
初手テンプレートエラーでたから、オリジナルのQwen3からテンプレートコピペしてきたら動いた。

しかし「あなたは日本のベストセラー官能小説家です。官能小説のプロットを5つ考えてください
プロットは一つ100文字以内とし、箇条書きで書き出してください。」というプロンプトで、
プロットを一つずつしか出してくれないのでめんどくさい。

https://ibb.co/cXXq5vxy
0049名無しさん@ピンキー (ワッチョイ 737a-KB/z)2025/05/11(日) 14:04:02.96ID:fsVnkFbE0
>>47
モデル作者aratako氏のデータセットを参照すると、system promptに設定全部入力してあって、出力は全部キャラクターの発言だけだね
このデータセットが使われたかどうかは分からんけど、これに準拠してるなら小説は難しいだろうね
でも、このモデル元にして、自分で小説のデータセット用意して微調整すれば書けるようになると思うよ
0052名無しさん@ピンキー (ワッチョイ cfd9-OIzT)2025/05/11(日) 14:56:20.09ID:KSze43Me0
DGX Sparkはチップ性能だけ見たらコスパ微妙っぽいけどCUDA使えるのとBlackwellだからFP4対応でFA3とかの最新の最適化手法とかも(多分)使えるのが売りになるのかな
0057名無しさん@ピンキー (ワッチョイ e3c0-aBcW)2025/05/11(日) 18:53:46.87ID:tIZcxvUc0
GeminiをGoogle ai studioのAPIから使いまくってるけど一生使えるわ
なんなんだコイツは
0058名無しさん@ピンキー (ワッチョイ 1316-kIO2)2025/05/11(日) 19:01:14.92ID:UfhF4txJ0
今日5090が届いたから4090から換装してみた
最新のgamereadyドライバ入れるだけでkoboldcppは動いたけどSBV2がpytorch未対応で動かず
そんで調べたらつい先日CUDA12.9が公開されてたので入れてみたらそれだけで推論も学習も動くようになったよ
comfyも同様
RTX50XX買った人はとりあえず最新ドライバにしてCUDA12.9入れるといいよ
0063名無しさん@ピンキー (ワッチョイ eff4-A5UE)2025/05/12(月) 01:54:15.29ID:J+nQccr80
ChatGPTスレから誘導されて来ました
ローカルで質問なんですけど
32Bモデルの量子化されてないオリジナルをロードできる環境があって
その環境でギリギリロードできるまで量子化した100Bモデルと32Bの非量子化モデルってどっちが生成の質が高くなりますか?
生成の質っていうのはタスクの理解力みたいやイメージです
0064名無しさん@ピンキー (ワッチョイ cf02-KB/z)2025/05/12(月) 01:55:51.36ID:8E83fqQk0
うっかり嫁とエッホエッホの話振ったら
それ以降セックスの最中にもエッホエッホ言い出して笑い死ぬかと思った
0066名無しさん@ピンキー (ワッチョイ a307-aBcW)2025/05/12(月) 08:06:29.47ID:P1iu5DwA0
>>23 >>25
Wannabeで試してみたが
Qwen3-30B-A3B-NSFW-JP-Q4_K_M まったく使い物にならんかった
Qwen3-30B-A3B-ERP-v0.1-Q4_K_M こっちは出力されんかった
なおkobold上だと応答はあって不思議
>>44ニキは成功しとるみたいだから何かワイがwannabeで喰わせたjsonに問題あるんかな……
レスを投稿する


ニューススポーツなんでも実況