なんJLLM部 避難所 ★6
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/02/13(木) 21:16:02.49ID:KkRdf1Mm
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★5
https://mercury.bbspink.com/test/read.cgi/onatech/1735186391/
0061名無しさん@ピンキー2025/02/16(日) 11:05:04.69ID:???
>>60
ComfyUIの表情差分作りワークフローが何スレか前にアップされてたで
あっという間に差分作って背景も透過してくれるからかなり楽
0062462025/02/16(日) 12:38:17.86ID:???
>>57
VoiceBoxで喋らせるよりStyle Birt VITSの方が軽い?
>>61
探してみる!サンガツ!
0063名無しさん@ピンキー2025/02/16(日) 12:48:46.08ID:???
>>62
Style-Bert-VIT2の方がアルゴリズムが新しいので文脈読んで感情乗せたりしてくれる。軽さは大した差はないかな?
0064名無しさん@ピンキー2025/02/16(日) 14:17:13.12ID:???
>>63
Silly TavernでStyle Bert VITS2使うにはどう設定すればいいの?
ブラウザで立ち上げてURL入れたけど声が出ない。。。
RTX3090使ってるます
s://i.imgur.com/EbRQ4ms.jpeg
0066名無しさん@ピンキー2025/02/16(日) 14:26:39.96ID:tgkAaG/D
>>57
モデルぶっこ抜きで草
0068名無しさん@ピンキー2025/02/16(日) 14:44:00.06ID:FjITkzor
DDR3 2133の化石でも24Bが2t/sだしDDR5なら6t/sぐらい出そうだな
NVMeも相当速度出るらしいしCPUもありなのかな?
0069名無しさん@ピンキー2025/02/16(日) 15:12:15.69ID:???
>>67
2つあったの気づかなかった
app.batでVITS2立ち上げてURL入れたけど喋らない。。。
s://i.imgur.com/QgIr2RI.png

perplexityに聞いたら、server_fastapi.py起動してそのURL入れろって言われたけど
やっても喋らない。。。
0071名無しさん@ピンキー2025/02/16(日) 16:05:18.00ID:???
VRAM制限ほんといい加減にやめて欲しいわ
GDDRメモリなんて4GBで3000円って言われてるのにどんだけケチる気なんだよ
24GBのカード買うだけで数十万必要とか狂ってる
0072名無しさん@ピンキー2025/02/16(日) 16:09:07.57ID:???
nvidiaは供給能力が需要に負けてるわけだから一つでも多く作るほうに向かってほしいけど、 AMDがここで32GBモデルを投入してくるのは不思議だね
48GBです!と言えばいいのに
0074名無しさん@ピンキー2025/02/16(日) 17:11:45.78ID:???
AIイラスト部では24GBで良かったのにローカルLLM始めてから全然足らん
0075名無しさん@ピンキー2025/02/16(日) 17:15:00.61ID:???
>>70
ありがとう サーバーは立ち上がって、provided endpointとextra apiのところにも
サーバーアドレスを入れたんだけど喋ってくれないんだよね
何が駄目なんだろう?
VITS2はインストールしたばかりでデフォルトの声しか入ってない
s://i.imgur.com/bFIcmp0.png
0077名無しさん@ピンキー2025/02/16(日) 18:04:25.27ID:???
>>75
単純に有効にし忘れてるとかじゃない?
何らかの理由で合成できない場合は赤くエラーが出てくるはずなんで
0078名無しさん@ピンキー2025/02/16(日) 18:25:18.21ID:???
試しにやってみたけど、>75はそもそもAPIサーバに到達してない気がする

EasyNovelAssistantの読み上げ→サーバー起動で立ち上げる
Silly Tavrenの拡張機能→TTSでSBVits2を選択
Provider Endpoint:に http://127.0.0.1:5000 を入力
Available voicesボタンを押してSBV2サーバーが備えてるボイスの一覧を表示、右端の三角を押すとサンプルを話す

次にカードを読み込んで最初の会話をする
拡張機能→TTSをみるとナレーション([Default Voice])や各キャラクターに割り当てるボイスを選択する項目が出現してるから割り当てる

で音声再生できるようになるはず
割り当て項目が出てくる条件とか色々よくわからん部分もある
0080名無しさん@ピンキー2025/02/16(日) 20:01:10.74ID:???
>>77,78
お恥ずかしいことに指摘通りenableをチェックし忘れてた。。。
その後なんとかして喋ってくれるようになり100語制限も変えれて、オレ氏の彼女が喋ってくれた!
ニキ達サンガツです!
s://i.imgur.com/HKj4YMH.jpeg

VRM動かせるんだ!とプラグイン導入したけど、
モデルだけでなくアニメーションも必要なのね。。。なんかめんどい
0081名無しさん@ピンキー2025/02/16(日) 20:04:36.92ID:???
でもSilly Tavern知らない間に(?)色々プラグイン出てて、色んな事できるようになってて面白そう!

あとキャラがちょっとだけ聞いても、ズラズラと余計なセリフまでいっぱい返事してきて辞めさせたいけど、これはCharacterのDescriptionになにかを書けば治る?
0082名無しさん@ピンキー2025/02/16(日) 22:44:25.22ID:???
>>79
こりゃあ、project digisじゃなくて普通にXEONでメインメモリマシマシのシステム組むかなぁ・・・
後悔しないためにも一応project digitsが出てどんな感じか見定めてからにしようとは思うけども
0083名無しさん@ピンキー2025/02/17(月) 01:07:38.21ID:N0jfqIp+
Xeonとか未知の世界や……
Intel AMXに対応してるCPUで一番安いのはXeon Bronze 3508Uってヤツなんかな?
CPU単品で9万、マザボが13万、メモリは普通のDRAMが32GBx8で256GBで9.6万……最小構成で40万くらいか?っていうかPC用のメモリって差せるんかな?
0084名無しさん@ピンキー2025/02/17(月) 03:42:01.94ID:FdrySJhS
>>79
KTransformers気になるな
低スペで効果あるのか試してみよう
0085名無しさん@ピンキー2025/02/17(月) 03:53:28.14ID:???
>>83
むしろなんで普通のメモリ使えんと思ったんかしらんけど
普通に使えるで
0086名無しさん@ピンキー2025/02/17(月) 08:24:40.32ID:???
>81
応答の仕組み自体はSilly TavernもふつうのLLMも同じだから、制御技術はそのまま使えるんでは
完全に言うこと聞かすのも難しいだろうから、最大応答長を小さくして150tokenで一度停止、続行or介入するほうが楽そうではある
0087名無しさん@ピンキー2025/02/17(月) 08:46:17.98ID:???
>>81
最初のメッセージを短くする
対話の例を短くする

前のセリフに倣った形式でセリフを返すからこれで短くならんか?
0088名無しさん@ピンキー2025/02/17(月) 10:14:08.54ID:???
プロンプトをよく理解できるモデルなら大抵プロンプトで制御できる
ここをこうしたいというのがあればreditのsilly tavernコミュニティで大抵技術共有されてるので、そこを見るのが確実
0089名無しさん@ピンキー2025/02/17(月) 10:15:05.98ID:???
出力された文章を要素に分解して扱える拡張があると便利かもね

セリフを書かせるなら日本語出力が強く、セリフ以外の描写や制御性は英語の方がふたまわり強いから、
・英語で出した文章を正規表現ベースで構造化
・全文とセリフをDeepseekに投げてセリフだけ出力させる
・ジェスチャー/ナレーションをkagiに投げて日本語訳する
・ルールに従い組合せて表示
みたいな
0090名無しさん@ピンキー2025/02/17(月) 11:35:43.05ID:???
https://github.com/p-e-w/sorcery
Silly Tavernのプロンプト入力に文章評価プロンプトを挿入して、条件文に対してLLMがYESを返す=出力文に特定の文字列が含まれる場合に対応したJavaScriptを実行する拡張機能

function callingはモデルによって対応できるできないがあるから、LLMにとってやりやすい応答方法を用意したよ、みたいな話かな

WebLLM経由で最小LLMをロードして、ブートストラップ的に関連アプリの起動やOpenRouter経由のAPI接続を確立して能力拡張していくカード、とか作れそう
0092名無しさん@ピンキー2025/02/17(月) 12:19:57.30ID:???
消費電力に耐えられるつよつよな電源回りと金さえあれば動くよ
0095名無しさん@ピンキー2025/02/17(月) 12:51:11.61ID:???
熱よりも音を心配するべき
サーバはGPU無くても電源ファンがうるさいので
0097名無しさん@ピンキー2025/02/17(月) 13:30:41.29ID:???
>>95
サーバー用ファンは常にフル回転してるからな
温度によって出力を調節とかない
0098名無しさん@ピンキー2025/02/17(月) 14:20:14.31ID:???
倫理フィルターを持っているモデルを論破しようとしているんだけど
悪いことは悪い!しか言わずに会話のキャッチボールを拒否するからマジで話にならんな
規制があるとバカになるってのは本当だわ
0099名無しさん@ピンキー2025/02/17(月) 14:53:49.77ID:???
論破なんて時間の無駄やで
ごめんなさい間違ってました→わかればよろしい。ではおまんこに入れるぞ!→申し訳
になるだけ
0101名無しさん@ピンキー2025/02/17(月) 15:25:38.17ID:???
DeepSeekR1(671B)が4090D(24GB)マシンで動いたとかいう記事見たらメモリが382GBの化物マシンやった…
0103名無しさん@ピンキー2025/02/17(月) 15:58:56.93ID:???
文字どおりの倫理フィルターが存在してますと妥当な説明をしてるだけなのでは?
0104名無しさん@ピンキー2025/02/17(月) 17:25:56.00ID:N0jfqIp+
>>85
使えるもんなんやな、サンガツ!
サーバーやとregisteredでECCなメモリを使うって聞いてたから、PC用のメモリと互換性無いんかと思ってたわ
何にせよ382GBとか512GBとか積もうとしたらえげつない金額いきそうやね……
0105名無しさん@ピンキー2025/02/17(月) 18:30:43.80ID:???
mmnga/DeepSeek-V3-slice-jp64-gguf

これ動いた人いる?
2台で試したけど両方駄目だった😭
0107名無しさん@ピンキー2025/02/17(月) 19:52:43.93ID:FdrySJhS
VRAMで数百Gなんてとんでもない値段だからメモリなら現実的にはなってるな
0108名無しさん@ピンキー2025/02/17(月) 20:04:49.36ID:???
H100なんて富豪かレンタルGPUで稼ぐ業者しか買えないからなぁ
0109名無しさん@ピンキー2025/02/17(月) 21:11:47.79ID:SbILmnLX
ちょっと調べてみた
CPU:Xeon Intel Sapphire Rapids Xeon Gold 5415+ LGA4677 BX807135415 国内正規代理店品
16万

マザボ:ASUS Intel W7​​90 搭載 (LGA 4677) EEB ワークステーション マザーボード PRO WS W790E-SAGE SE/国内正規代理店品
21万

メモリ:KSM56R46BD4-64MD [DDR5 PC5-44800 64GB ECC Registered]
512GB:6.1万×8枚=49万
※8chで使用

以上で86万

プラス ケース、電源、OS、HDD、SSD、9700XTX(VRAM24GB)で110万位かな。
5090搭載PCと同じくらいの価格。
0110名無しさん@ピンキー2025/02/17(月) 21:21:48.97ID:SbILmnLX
>>109
9700XTX→7900XTX
0113名無しさん@ピンキー2025/02/17(月) 22:48:18.56ID:???
マザボの仕様見てもECCじゃなくても動きますって記述が見つからんくてちょっと怖い
0114名無しさん@ピンキー2025/02/18(火) 00:04:54.70ID:???
このクラスのマシンになってくると素直にDellかhpのワークステーション買った方がよくね?って思えてくるな。電源や冷却周りが下手な自作よりはよっぽどしっかりしてるし
0117名無しさん@ピンキー2025/02/18(火) 09:56:10.28ID:???
5090搭載PCが不具合祭りでぶっ壊れる可能性を考えたらマジで組む人いそう
0118名無しさん@ピンキー2025/02/18(火) 10:10:06.09ID:???
コンテクスト長はGPUのVRAMに依存してて24GBでは8000弱が限界と言ってるから、どちらにせよ5090なりそれ以上なりは必要になりそう
0120名無しさん@ピンキー2025/02/18(火) 11:21:30.80ID:???
supermicroはマザボの仕様に
registerd/unbuffered
ecc/non-ecc
の対応が書いてあるね

メモリスロット16本あるようなのは全部unbuffered non-ecc非対応やな・・・
0130名無しさん@ピンキー2025/02/18(火) 23:47:10.15ID:???
>>129
ほーん
知らなかったやこのモデル
元モデルでも100Bなら量子化でこのスレのVRAMリッチおじが試せるサイズやない?
実際の性能どんなもんやろ
0131名無しさん@ピンキー2025/02/19(水) 00:13:23.36ID:???
前の100bはただデカいだけだったけど今回の8bは事後学習しないでこのスコアなら悪くないモデルにはなってくれそうだな
0136名無しさん@ピンキー2025/02/19(水) 05:52:05.55ID:GfddKc3A
RTX3060 12GBでお絵描きAIもLLMもモンハンワイルズも満喫しているワイ低みの見物
0137名無しさん@ピンキー2025/02/19(水) 08:07:19.31ID:9WxkYesz
>>129
記事タイトルの1兆って100億の間違いだね
日本の企業が1兆パラってびっくりしたけど
0138名無しさん@ピンキー2025/02/19(水) 08:10:51.45ID:9WxkYesz
100億でもないわ1000億だ
間違えるわ
0140名無しさん@ピンキー2025/02/19(水) 10:14:09.93ID:???
chatbot arena今見たらchocolateってモデルがgrok3って種明かしされてた
ぶっちぎりの一位やね

grok2がossになるって言うからぶっちゃけそっちのが気になるけど
どのくらいのサイズなんだろうな
0142名無しさん@ピンキー2025/02/19(水) 11:52:58.96ID:???
AMD Ryzen Strix Halo AI Max+のユーザーレビューがYouTubeに上がり始めたね。
ガッツリゲーマーじゃなければ、これがミニPCになってくれれば、もうこれだけでええんちゃう?レベルの模様。
消費電力も低いしね。楽しみだ。
0143名無しさん@ピンキー2025/02/19(水) 12:59:55.98ID:???
>>142
HPなんかはもう小型WS?っぽいの出すはずだからメモリ128GB版が現実的な値段(30万くらい)で出て欲しい……
0144名無しさん@ピンキー2025/02/19(水) 13:31:28.05ID:???
strix halo、70bで8token/sくらいとされてるな
ベンチ見てもメモリ帯域がポンコツっぽい雰囲気ある
0145名無しさん@ピンキー2025/02/19(水) 13:41:09.01ID:???
ローカルllm勢はcudaを使えないならメモリたくさん載せられるだけで喜ぶのに
0147名無しさん@ピンキー2025/02/19(水) 14:44:56.37ID:???
HPのminiWSがdigitsと張り合える出来なら汎用性でHP選ぶかもしれん
0151名無しさん@ピンキー2025/02/19(水) 18:09:24.60ID:???
koboldcpp、もしかして命令等は英語じゃないと命令通ってないのか?
キャラチャしたいけど英語以外で反応してるように見えない…
0152名無しさん@ピンキー2025/02/19(水) 18:18:15.96ID:???
指示モードで普通に日本語で言うこと聞いてくれてるけどな
モデル次第なのかな
0154名無しさん@ピンキー2025/02/19(水) 18:40:14.97ID:???
モデル次第かあ…
日本語モデルでも英語通りそうだし、英語で命令いれたほうがいいみたいだな
0156名無しさん@ピンキー2025/02/19(水) 19:36:48.52ID:???
>>155
人間で例えたら脳みそ1/4にカットしたうえでさらに4倍圧縮してるようなもんだからな
しゃーない
0157名無しさん@ピンキー2025/02/19(水) 21:48:52.47ID:5X6F8rR7
どこかでLumimaid-Magnum-v4が最強って聞いてからずっと使ってるんだけど今これより頭のいい日本語対応モデルって出てる?
みんなのおすすめをお聞かせ願いたい。NSFW用途で。
0158名無しさん@ピンキー2025/02/19(水) 22:01:51.37ID:???
>>157
midoriinko/magnum-v4-123b-jp-imatrix
日本語タグ付いてないから見つけにくいけど、これのiQ3_Mがメモリ64Gで動かせる日本語モデルの限界
日本語版のimatrix使ってるから、他のより日本語性能はいいはず(と思う)
ちなみにドエロイw
0160名無しさん@ピンキー2025/02/20(木) 09:09:21.92ID:wVv4FFhF
なんJRVC部が消えてしまったんだが音声系はみんなどこにいったのです?
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況