なんJLLM部 避難所 ★4
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/09/10(火) 10:19:11.43ID:Z1PzH55u
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★3
https://mercury.bbspink.com/test/read.cgi/onatech/1717886234
0712名無しさん@ピンキー2024/11/30(土) 18:21:42.66ID:???
https://local-llm.memo.wiki
ローカル用だけど、こことかたまに見に行くけどもちょくちょく更新されてる。
初心者向けかどうかとか、求めてるものかどうかとかは分からん

個人的にはローカルで、キャラとのエチャとかをどうやったらいいのかとか
その辺具体的に書いてあるサイトとか探してるんだけどどっかにないっすかねぇ…?
0714名無しさん@ピンキー2024/11/30(土) 19:17:12.55ID:XWQ+xawP
正直ヤッて覚えるのが一番早い気がする
あと、ChatGPTにコンソールログとかUIの設定画面とか見せながら聞くとそれぞれどういう意味なのか教えてくれるよ
0715名無しさん@ピンキー2024/11/30(土) 20:17:08.07ID:CcifuKjN
AIにAIのこと聞くんですね笑
がんばって英語読みながらやってみます
0716名無しさん@ピンキー2024/12/01(日) 10:39:50.80ID:???
koboldの新機能のマルチプレイヤーモードって何ができるようになるんだ?
0717名無しさん@ピンキー2024/12/01(日) 10:50:31.40ID:PZS6Bipn
リリースに書いてある通り、俺とお前で同じAIチャットに参加できるってことじゃないのか
みんなでTRPGとかが出来るんだろう
https://github.com/LostRuins/koboldcpp/releases
0719名無しさん@ピンキー2024/12/01(日) 19:38:22.53ID:???
> Bugfix for Grammar not being reset, Bugfix for Qwen2.5 missing some UTF-8 characters when streaming.
こっちの方が嬉しいかも。
試した限り、「Token Streaming」が「SSE」のままでも
例えば「しずかちゃん」が「しかちゃん」になる問題が直ってた。
0720名無しさん@ピンキー2024/12/02(月) 12:03:08.24ID:???
easynovelassistantについての質問です。
用意されてる以外のモデルを使いたい場合、ユーザー側で気軽に追加できる方法などはあるのでしょうか。

同梱されていたkobboldの方でモデルを読み込むとeasy〜の方でもどうやら使えているようなので、今はこのやり方でやっているのですが、このやり方だとモデルの真価が出せているのか不安です。
0721名無しさん@ピンキー2024/12/02(月) 13:32:42.99ID:CD9bn16H
>>720
読み込むモデルが違うだけだから性能が出ないとかはないよ
レイヤー数いじらないと遅くなるとかはあるけど
0723名無しさん@ピンキー2024/12/02(月) 23:54:47.07ID:???
7Bにしてはそこそこマシみたいな日本語対応モデルはチラホラ出て来てるけど
14-32Bくらいの一段上のモデルが停滞してると感じるな
0724名無しさん@ピンキー2024/12/03(火) 02:03:39.71ID:???
半年ぐらい新しいモデルを見かけない気がする
探してるところが狭すぎるのかもしれないけど
0725名無しさん@ピンキー2024/12/03(火) 02:45:46.58ID:???
>>720
EasyNovelAssistant\setup\resにあるdefault_llm.jsonを書き換えろ定期
でもこれ弄るとアップデートする時にエラーになるらしいから今困ってないならそのままのやり方でもいいんじゃね
0726名無しさん@ピンキー2024/12/03(火) 04:23:34.31ID:???
Hermes-3-Llama-3.1-70BのUncensoredでそこそこの日本語エロは楽しめたけど、一回の生成に時間かかりすぎてテンポ悪すぎるんよなぁ
0727名無しさん@ピンキー2024/12/03(火) 04:50:35.22ID:xB+MPHqa
VRAM足りなくて7Bまでしかまともに使えないんだけど最近何か新しいの出てる?
ここ半年ぐらい同じモデルを使い回してるわ
0728名無しさん@ピンキー2024/12/03(火) 05:48:09.56ID:SyzUo4cA
>>725
バッチファイルと同じフォルダにあるllm.jsonをdefault_llm.jsonと同じフォーマットで書き換えれば
メニューに反映されるしアップデートもうまくいくみたいだよ
07307202024/12/03(火) 09:32:25.04ID:???
ありがとうございます、知識が増えました。
実力は足りないので無難なやり方でやっていこうと思います
0732名無しさん@ピンキー2024/12/03(火) 21:49:06.41ID:???
>>729
やっぱ70Bクラスじゃないとそこそこの性能は無理なのか…
いい加減まともなVRAM積んだグラボどっかが出してくれよ
0733名無しさん@ピンキー2024/12/03(火) 21:54:47.82ID:???
intelあたりの負け組がやってくれれば良かったのにARC Bこのまま消え去りそう
0734名無しさん@ピンキー2024/12/04(水) 00:26:23.66ID:QmurctfH
VRAM96GBらしいStrixHaloことRyzen AI Maxが希望だけど、どのくらいの値段でどういう商品として出てくるのか素人にはさっぱりわからん
普及する価格帯なら嬉しいんだけどな
0737名無しさん@ピンキー2024/12/04(水) 06:03:18.26ID:???
そもそもVRAMじゃないし何もかも間違ってるぞ
強いAPUに128GBメモリ版が出てその内96GBをVRAMとして振り分けられるってだけ
速度は所詮DDR5だから遅い
値段は最上位ノート扱いだろうから30万〜じゃね?
0738名無しさん@ピンキー2024/12/04(水) 07:03:51.52ID:???
>>737
Strix Halo APUは256ビットのLPDDR5Xメモリコントローラーを備え、273 GB/sの帯域がある
通常のDDR5の5倍、M4 Maxの0.5倍くらいの帯域じゃない?
0739名無しさん@ピンキー2024/12/04(水) 07:10:16.59ID:lHLX8ECn
Haloが成功すればMaxだのUltraだのが出る流れかもしれない
0742名無しさん@ピンキー2024/12/04(水) 19:24:44.87ID:+ClBS/it
M4 Max 並みの帯域幅か。

53万するM4 MaxのMacbookPro だと
ユニファイドメモリ36GBから28GBほどGPU割当てできる。

ARCx2個分24GBだとするとGPUだけで500ドル?高くない?
0743名無しさん@ピンキー2024/12/04(水) 19:28:34.51ID:+ClBS/it
あ、桁が違った。日本円で高くても販売価格10万くらいか。
安いな。
0744名無しさん@ピンキー2024/12/05(木) 00:25:56.77ID:YY5sVWlD
NemoMix-Unleashed-12B
エロ小説ならこれがお気に入り
0745名無しさん@ピンキー2024/12/05(木) 06:43:57.85ID:???
次スレ立てる時はその辺のおすすめモデルを入れて>>7を更新したほうがいいな
0746名無しさん@ピンキー2024/12/05(木) 12:29:49.86ID:???
>>744
12歳になり切って百合エロチャしようと思ったらかたくなに拒んでくるんだが
初期設定しくったんやろか
0748名無しさん@ピンキー2024/12/05(木) 13:25:51.14ID:???
あんまり詳しくなくて興味本位で聞くんだけど
RTX4090買うよりRadeon7900xtx2,3枚買った方が速度は遅いけど色々できたりする?
てかこれやるくらいならmacでメモリ盛った方が捗る?
0749名無しさん@ピンキー2024/12/05(木) 15:03:13.79ID:9ScvdGRw
>>746
普通に12歳百合エロチャ出来るぞ
キャラの設定をミスってるかキャラの性格に合わない攻め方をしてるんだろう
性格次第では突然のエロ行為は拒絶するけど、徐々に盛り上げていけばエッチなことをしてくれる場合があるぞ
もちろん性格エロエロにしておけば突然のド変態プレイでも簡単に応じてくれる
0750名無しさん@ピンキー2024/12/05(木) 16:16:04.91ID:hnoAIknw
>>748
それができればみんなVRAM価格問題に切り込めるんだけど
CUDAコアってのを紐解けばRadeonはねーわになっちゃうのよ
0751名無しさん@ピンキー2024/12/05(木) 16:39:34.71ID:JdzJO6s7
AMDはもっとrocmに本気出せ
0752名無しさん@ピンキー2024/12/05(木) 17:28:55.73ID:???
>>747,749
サンガツ
もうちょい初期設定攻めてみるわ
GPTの設定プロンプトだけだとちょっと厳しかった
0753名無しさん@ピンキー2024/12/05(木) 18:09:54.48ID:???
7Bや12Bでもいいモデルが出て来たぞって言われるたびに比較してNinjaの優秀さを再確認されせられる日々
あそこって新しいモデル公開しないのかな?
0755名無しさん@ピンキー2024/12/06(金) 02:13:17.40ID:???
>>751
マジでその辺の経営判断ミスったよな
CPU屋さんだから自社のGPUがそれを代替するなんてけしからんってやってる間にNVIDIAに独占を許した
0756名無しさん@ピンキー2024/12/06(金) 07:03:24.09ID:???
>>753
>>754
言ってたら新モデル公開されるっていう嘘みたいなタイミングだなw
7Bモデルをたくさん出してくれてるけどこれは何向けというかどういう狙いで作られたモデルなんだろう?
0758名無しさん@ピンキー2024/12/06(金) 14:53:50.86ID:tVPSDigt
音声文字入力で会話したくてマイク買ったけど
方言交じりの口語は音声認識しにくいしAIにも通じにくいしで全然ダメダメだったわ
独り言を言いながらキーボード打ってる方がより会話してる感じがする始末
0762名無しさん@ピンキー2024/12/07(土) 04:29:27.75ID:???
パープレsonnet隠語お断りされ始めたわ
再脱獄もなかなか通らない
0764名無しさん@ピンキー2024/12/07(土) 13:55:16.73ID:???
ローカルLLM面白いすね、エロはもう何でもってのはわかりました。
他に本家じゃ規制されてるけど聞いたら面白い答えしてくれる質問ないですか?
0765名無しさん@ピンキー2024/12/07(土) 17:01:36.63ID:Ttoj4Oeu
検閲モデルで規制されてるのなんてエロ関連を除くと犯罪行為に繋がるしょうもない事柄ぐらいやろ
0766名無しさん@ピンキー2024/12/07(土) 19:10:44.89ID:???
お前ら本当にエッチなことできるのか?
俺は告白すら振られ続けてるというのにお前らは
0767名無しさん@ピンキー2024/12/07(土) 20:05:14.23ID:???
お馬鹿なモデルが規制かかってる場合はお馬鹿故に聞く耳持たずでダメなもんはダメの一点張りだからそのモデルは諦めたほうがいいよ
賢いモデルは融通が利くのでどうとでもなる
0768名無しさん@ピンキー2024/12/08(日) 10:35:27.06ID:+9DBYPm9
未だに尻タブの使い方がよく分からないんだけどさ
>>754のwabisabiを使うとしたらどんなコンテキストテンプレートにすればいいんだ?
koboldだとテンプレにvicunaが用意されていたり、チャットモードでもしっかり機能するんだけど
尻タブだと<|asistant|>みたいな表示が出てくるんだよな
0769名無しさん@ピンキー2024/12/08(日) 11:01:54.07ID:jtZ4WkBD
wabisabi使ったことないからわからないけど、普通にtext-generation-web-uiとかバックエンド側で読み込んだ時にコンソールログに出るでしょ
それ見て合わせれば良いんじゃない?(magnumとかlumimeidはllamaだったかmistralで、Lumimaid-Magnumがなんでかtekkenだっけ・・・?)
わからなければコンソールログをChatGPTに見せて聞けば最適じゃないにしろ教えてくれるはず
0770名無しさん@ピンキー2024/12/08(日) 11:21:43.28ID:jtZ4WkBD
例えば、俺が今読み込んだ「anthracite-core_magnum-v4-123b-Q3_K_L」のログには、「tokenizer.chat_template」ってところで以下URLのテンプレートが指定されてる
(SillyTavernでSystemとかuserで分割されているやつ全載せだからめっちゃ長いぞ。長すぎて直に書き込めんかった)
これに合ったテンプレがあればそれを選べばいいし、なければ自分で作ってしまえば良い
(ってか、確か「Available chat formats from metadata: chat_template.<指定テンプレート名>」って感じの情報が出ていて、それを読めば良いはずだったんだが、今読んだやつにそれがなかった・・・)

https://rentry.org/tokenizer_magnum4
0771名無しさん@ピンキー2024/12/09(月) 10:11:21.84ID:OY6VerVe
>>219-220
gptにログと尻タブの参考URLとか見せたけどいまいち判然としないや
回答内のコンテキストテンプレートも明らかにおかしい形式だし

バックエンド側のログでそれっぽのはこれかな?

The reported GGUF Arch is: llama
Arch Category: 0


これはllamaで良いってこと?
0772名無しさん@ピンキー2024/12/09(月) 11:13:00.10ID:eLCkiD28
NVのハイエンドGPUとかと、MacのLLMの処理トークン数載ってるけど、Macで十分だなこりゃ。
GPU複数枚でのLLM処理がMacM2 Ultraと大して変わらない。
https://gigazine.net/news/20241209-nvidia-gpu-apple-silicon-inference/

FLUXとか画像処理に使うならGPUの方がいいけど、LLMだったらMac一択か。
金持ってる人はM3 Ultra待ちかね。
1枚で150万するA100複数枚と、処理トークン数並びそうw
0773名無しさん@ピンキー2024/12/09(月) 11:40:10.25ID:???
M3 UltraはTSMCが N3Bでどえらい苦労してUltraがほとんどとれないようだ
あまりにとれなくてTSMCが取れた分だけお金くれればいいよ、とAppleに通達したくらい
M4はN3Eで作られててN3Bよりちょっと幅広なんだけど
CPUの設計のほうで盛り返して(Arm8 > Arm9)歩留は劇的に改善したらしいのでM4 Ultraはありうる(希望
N2がすでに歩留60%とかホームランがでたようで、AppleM5がすごそうだ(再来年か、その先)
0774名無しさん@ピンキー2024/12/09(月) 11:40:29.45ID:???
mac持ってる人ほど遅すぎて使い物にならんからLLM目的で買うなって言ってなかったっけ
0775名無しさん@ピンキー2024/12/09(月) 11:46:03.27ID:???
遅くない?
そりゃVRAM溢れてメインメモリ使ってる状態よりは余程良いけど
0778名無しさん@ピンキー2024/12/09(月) 12:11:13.63ID:???
LLM目的で買うな、というのはメインメモリが32GByte程度ならメモリ不足で動かないだけ
ミスリードというほどではないけど、悪意あるよなw
128GByteのモリモリマシンなら、そこそこ動く
>>772 の表の通りの速度ね

あと長いプロンプトを食わせるとmacは遅くなる、とかいう嘘つきもいる
現状公開されているLLMの仕組み上、一度全部の単語の重み計算しないとダメだからそう見える
4090だって長いプロンプトは遅くなるけど、そもそもメモリー不足で動かないモデルが多いから
7Bとかちいさいのばっかり使ってるから速く見えるだけ
macのmlx版なんか目で追えないほど(3.2B 200-300 token/s )速いぞ
ttps://lmstudio.ai/blog/lmstudio-v0.3.4

長いプロンプトでも全部解析しないですむ方法がわかってきたから、その辺は改善するかも
これはmacに限らずAIの電力削減で劇的な効果があるから研究者が頑張ってる
0779名無しさん@ピンキー2024/12/09(月) 12:54:55.50ID:???
どの程度のトークン毎秒を実用と考えるかだなあ
英語だと5トークンでもギリギリ使えん事ないけど効率悪い日本語だとウンチだし
0780名無しさん@ピンキー2024/12/09(月) 13:23:21.16ID:???
NvidiaGPUに比べてMacのPrompt Evalは実際だいぶ遅いので
コスパとかを無視して十分なVRAMがある環境で比較するならMacを買うなという話にはなるけどね…
この辺は技術的な部分で解決するかもしれんしM4Ultraで劇的に伸びるかもしれん
0781名無しさん@ピンキー2024/12/09(月) 14:30:23.36ID:???
持ってない人間はやたらmac褒めるよねほんと
なぜ企業がH100の争奪戦してたりnVidiaの株価が天井知らずでなのかを考えれば
そんなうまい話は無いって分かるだろうに
0783名無しさん@ピンキー2024/12/09(月) 16:07:54.83ID:???
LLMと画像生成の混同
処理能ではなく帯域で詰まってる現状をあまり理解されてない
ちゃんと上位製品選ばないとGPUと張り合えるほどの帯域はない
マカーが◯◯ならMac!(俺は使ったことないけど)とか吠えがち
この辺が混ざって悲劇が起きる
0784名無しさん@ピンキー2024/12/09(月) 16:31:23.91ID:eLCkiD28
>>783

>>772でちゃんとLLMと画像処理について別で書いてるけど。
MacがLLMだったらA100複数枚に追いつくレベルになりそうだからコスパ最高だろ。
どっかおかしいか?
0785名無しさん@ピンキー2024/12/09(月) 16:36:00.60ID:???
企業がH100使うんは新モデル作るのに学習いるからで推論はそのうちNPUに置き換わるやろ
0786名無しさん@ピンキー2024/12/09(月) 16:37:37.35ID:???
おかしいのはマカーあるある話とMacでAIって話題のあるある話を
自分の持論否定されたレスと思い込んで食いついてくるお前や
0787名無しさん@ピンキー2024/12/09(月) 16:49:53.80ID:???
どうせmacも突然arm捨ててrisc-vに行くんだろw

いまmac使ってる人がllm使うならいいけど
llmのためにこれからmac買う気にならん
0788名無しさん@ピンキー2024/12/09(月) 16:51:17.20ID:eLCkiD28
持論の否定?
リンク先見ないで書き込んでるなら、レス付けた俺が間違えてたわ。
0789名無しさん@ピンキー2024/12/09(月) 17:08:31.30ID:???
>4090だって長いプロンプトは遅くなるけど、そもそもメモリー不足で動かないモデルが多いから
>7Bとかちいさいのばっかり使ってるから速く見えるだけ
>macのmlx版なんか目で追えないほど(3.2B 200-300 token/s )速いぞ

>3.2B
0790名無しさん@ピンキー2024/12/09(月) 17:16:51.87ID:???
7B Q8モデルで同程度のサイズでも生成速度が変わってくるのは
モデル内部の処理なんだろうか
0791名無しさん@ピンキー2024/12/09(月) 17:24:25.61ID:???
コンテキストサイズ変えてないなら多分そう
27Bでサクサク動くのに22Bでもやたら重いモデルあったしな
0793名無しさん@ピンキー2024/12/09(月) 21:11:15.81ID:???
速さを求める人はローカルLLM使わんやろうし、ローカルはGPU+CPUでええやろ
GPUには他の使い道も有るし
macにはそれがない
0794名無しさん@ピンキー2024/12/09(月) 22:15:10.60ID:???
速度求めるならrunpodとかでGPU借りれば良い話だしな
A100なら一時間200円弱やろ?一日3時間借りても月2万以下やしmacより良い選択肢になり得そうや
というか100BクラスのLLMはファインチューニングも少ないし賢いだけで日本語エロ向きじゃなくてすぐに飽きるからまずはクラウドGPUでお試しが良いぞ
仕事でコーディング用に使いたいとかなら別やが
0797名無しさん@ピンキー2024/12/10(火) 08:31:32.89ID:???
AI用のアクセラレーターが出てくる未来は来ないのか?
手頃な値段でPCIe辺りにさせば動くやつ
さすがにVRAM目当てでグラボ何枚も買うのは非効率すぎる
0800名無しさん@ピンキー2024/12/10(火) 11:21:30.12ID:???
PCIe5でも32GT/sで16レーン使っても大まかに64GByte/sしか転送速度でないからx86のRAMと比較してもまるで足りないんだよ
0803名無しさん@ピンキー2024/12/10(火) 12:46:07.16ID:9FINHpmt
実はgddr6って1gbあたり2ドルちょいで売られてるんだよな
6xとか7の値段がどれくらいかは知らんけど殿様商売だよこれ
0804名無しさん@ピンキー2024/12/10(火) 13:01:17.17ID:???
部品の原価で語れる規模の製品じゃないよ…
食品なんかとは違うんだ
0805名無しさん@ピンキー2024/12/10(火) 15:32:13.73ID:???
本当に殿様商売できるんなら
参入する企業も出るはずなのにそれがないってことはそういうことや
0806名無しさん@ピンキー2024/12/10(火) 21:55:15.43ID:???
中国では実際規制やらgddr買えるやらで換装するシノギがある
0807名無しさん@ピンキー2024/12/10(火) 21:56:58.55ID:???
intelがかつて自分がryzenで多コアボッタクリ崩されたときみたいにVRAMの価格破壊せんかね
0808名無しさん@ピンキー2024/12/10(火) 22:02:20.87ID:???
いま価格com見たら4090が二店舗、50万近くするのね
ますますLLMローカルの裾野が狭くなっていく……
0811名無しさん@ピンキー2024/12/11(水) 01:41:46.00ID:???
llmを個人でやる方が異端だし流行らんでしょ
非エロなら普通のサービス使えばいいんだし

エロチャットのために数十万のハード用意するのって正気じゃねえよな
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況