なんJLLM部 避難所 ★6
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/02/13(木) 21:16:02.49ID:KkRdf1Mm
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★5
https://mercury.bbspink.com/test/read.cgi/onatech/1735186391/
0013名無しさん@ピンキー2025/02/14(金) 11:36:43.46ID:???
14b R1 QwenにRP用のデータセットTifaを食わしたモデルだから日本語は弱いよ
abliterated版もRP版いくらでもあるから、名前のインパクトだけで注目を集めているか、Tifaデータセットが中国語ベースで中国語で扱いやすいかなのでは
0014名無しさん@ピンキー2025/02/14(金) 11:42:07.41ID:???
kagi translate、タブブラウザのひとはメニューバーにブックマークしてURL欄に
https://pastebin.com/ZGsisj5K
この内容を貼り付けて保存すると、テキストを選択→ボタン押すで新しいタブを開いて検索結果を出してくれるはず。便利。
0015名無しさん@ピンキー2025/02/14(金) 13:47:56.05ID:???
tifadeepsexはちょっと微妙
一方で楽天のは(企業のイメージ大丈夫なのか?)ってくらい素直で良かった
0016名無しさん@ピンキー2025/02/14(金) 18:24:43.13ID:Q927rnVQ
Zonos 文字数増えるとところどころ文字人時期されずにふっとぶな
0017名無しさん@ピンキー2025/02/14(金) 19:05:25.74ID:KwPstM72
https://rentry.org/88fr3yr5
Silly TavernのR1 Reasoner用プリセット
コレ結構いいのでは。NSFW周りの指示が分かってる感ある。
どこで拾ったのか分からないのが謎だけど…
[[]]や(())で特定のことやらせるのも出来るっぽい
0018名無しさん@ピンキー2025/02/14(金) 20:19:58.81ID:LrKXMJ9a
立て乙
>>5
その他のおすすめフロントエンド
LM Studio:モデルダウンロードから推論テストまでサクサク操作でき、バックエンドとしても使える
OpenWebUI:各種APIやOllama、LM Studio等のバックエンドと連携してChatGPTのようなUIを提供する。DeepSeel R1の推論にもいち早く対応した
0019名無しさん@ピンキー2025/02/14(金) 20:30:34.82ID:???
>16
改行があるとアの音が入ったり、色々変なところあるね
ver0.1に完成度求めるほうがおかしいんだけど、思わず実用を考えてしまうものを持ってる
0020名無しさん@ピンキー2025/02/15(土) 00:04:34.51ID:???
最近agent AIに興味あるんだけど、やっぱLLMの能力に左右されるよね?
0022名無しさん@ピンキー2025/02/15(土) 00:26:23.14ID:???
>>21
量子化関係ないかと
web版は規制掛かってるけど、もローカルとかで動かせば規制緩いとかじゃないのかな?
てゆうか、あれを量子化して動かせたニキいるんか?
新型Mac ultraがユニファイドメモリ512G以上詰めれば実用的な速度で遊べるだろうがw
0023名無しさん@ピンキー2025/02/15(土) 00:46:39.71ID:???
>>20
clineみたいなコード系なら10B〜でできる印象(コードの出来は知らん)
ブラウザ操作みたいなものだとローカルではqwen2.5 vlぐらいしか選択肢がないと思われ
0025名無しさん@ピンキー2025/02/15(土) 03:10:57.75ID:???
メモリに全部乗ればCPUでもまぁまぁな速度で動く、というのであれば
メモリスロット16本あるようなサーバ用マザボに512GBくらいのっけようかと思うんやが
その確証がないから動き出せへん
たぶん5090買うよりは全然安く組めると思うんやが

今はメモリ64GB VRAM24GBという環境やけど
プロンプト入力後にthinkの1文字目が出てくるのに15分、本回答出てくるのにそこからさらに15分
2行の本回答出しきるのにそこからさらに15分

さすがにこれは使えへん・・・
0026名無しさん@ピンキー2025/02/15(土) 04:32:18.70ID:???
DeepSeekはCPUでもそこそこの速度が出るらしい
llamaはGPUの性能が良くないと激遅
0027名無しさん@ピンキー2025/02/15(土) 05:16:26.03ID:???
https://github.com/kvcache-ai/ktransformers/blob/main/doc/en/DeepseekR1_V3_tutorial.md
こういうのとか、最適化しようぜのフェイズだからある程度結果出てから飛び込むのがよさそう

>>21
deepseekは申し訳と表現を勝手にぼかすnsfw回避傾向の二段構えになってる
公式web版は両方ある
公式API版は申し訳はでないけどnsfw回避傾向がある。これはプロバイダ版も同じ。
nsfw表現回避傾向はバイパス可能で、silly tavern用プリセットとか使うだけで公式APIでなんでも書かせられる

動かすだけなら前スレで誰かが書いてくれたバッチファイルを叩くだけでSSDに展開して起動するけど、unslothの671bは申し訳を出してくるのでAPI版とは仕様が違うね
0029名無しさん@ピンキー2025/02/15(土) 10:59:23.64ID:???
>>25
わいのCPUでの実行結果
Ryzen5950X+128GB DeepSeek-R1-UD-IQ1_S 1.49tokens/s
Xeon 2475x+256MB DeepSeek-R1-UD-Q2_K_XL 3.95tokens/s

メモリ帯域に比例すると思う(´・ω・`)
0030名無しさん@ピンキー2025/02/15(土) 11:08:53.87ID:???
どっちの環境もGPU乗ってるけど
GPUlaygersを0で動かしてる(´・ω・`)
0032名無しさん@ピンキー2025/02/15(土) 13:33:19.45ID:???
>>29
下のマシンのほうがモデルでかいのに早いのはやっぱりモデルが乗り切ってるからってことなんやろな
GPU0にしとるのはそっちの方が早いから?
最初の文字が出てくるまでが短くなるからとかあるんやろか
0033名無しさん@ピンキー2025/02/15(土) 14:20:35.45ID:???
VRAMに乗りきらないのにGPU使うと何倍もの無駄な転送が入って激遅になるやつ
0034名無しさん@ピンキー2025/02/15(土) 14:22:21.90ID:???
上がDDR4で2ch
下がDDR5で4chだからメモリ帯域は倍以上ありそうやね
0035名無しさん@ピンキー2025/02/15(土) 14:45:57.47ID:???
Zonos君、しばらく遊んでみた感想として語彙にない外来語や外人の名前読ませると破綻するな
例えば、「シュヴァイツァーは見習うべき人間です。」「スティーヴはジェーンから手紙をもらった。」(ITAコーパスの中にあるやつ)あたり。
ITAコーパスが通ればBert-VITS2の素材になるので2段ロケットでTTS作れないかと思ったんだが
まあ生まれたばかりの赤ちゃんだし今後に期待
0038名無しさん@ピンキー2025/02/15(土) 17:48:03.65ID:???
ここでいいんじゃね。どうせagent内でllm使ってるでしょ
てかllmスレ名乗ってるけどttsの話なんかもしてるしAI系なら何でもあり感ある
0039名無しさん@ピンキー2025/02/15(土) 17:53:30.50ID:???
エロチャットして遊ぶだけのスレってわけじゃないからAgentAIの話も全然ありだよ
0040名無しさん@ピンキー2025/02/15(土) 18:09:36.70ID:???
前スレでクラウドGPUって初めて聞いたけどなんだそれ
ググってくるわ
0041名無しさん@ピンキー2025/02/15(土) 18:12:48.94ID:???
興味自体は全員ありそう
知識があるかというと人によるだろうけど
0042名無しさん@ピンキー2025/02/15(土) 18:24:46.70ID:???
Deep Researchみたいのはファクトチェックで結局ググらなきゃいけないことを考えるとあまり実用的とは思えない
ハルシネーションがなくなったら使えるだろうけども
0043名無しさん@ピンキー2025/02/15(土) 18:54:44.03ID:???
ハルシネーションを実用レベル=人間よりマシに抑えたいならバリエーションつけながら10回くらい実行すればよくて、それが出来るのがAgentAI、という話なのでは
クレジットが秒で無くなるという問題も時間が解決してくれるはずですし
0044名無しさん@ピンキー2025/02/15(土) 18:56:44.96ID:???
もうここ事実上"ローカルAI環境総合雑談所"になりつつあるよな。
ここの住民の多くが使ってるであろうSillyTavernが拡張でttsや画像生成までつかうし。

Zonosに日本語読ませて破綻する問題、だいぶ原因が絞れて来たんで公式のgithubにissue投げてきたわ
0046名無しさん@ピンキー2025/02/15(土) 20:03:58.03ID:???
SillyTavernってttsで外部のkoeiro inkとか立ち上げてそっちで話させたりできる?
0047名無しさん@ピンキー2025/02/15(土) 20:26:18.47ID:???
sillytavern側にはtts機能はないから言っているように外部のAPIを呼び出す形になるね
0048名無しさん@ピンキー2025/02/15(土) 20:50:28.62ID:???
SillyTavernはインターフェースでしかないから
AIを動かす機能は1つもない
0049名無しさん@ピンキー2025/02/15(土) 21:20:49.51ID:???
受け渡し体制が整ってるかどうかって話じゃないの?
Coeiroinkは良くわかんないけど大体のは用意されてるよ
0050名無しさん@ピンキー2025/02/15(土) 22:16:16.68ID:umR3eWPP
>>40
Runpodあたりがサクッと使えておすすめわよ
0051名無しさん@ピンキー2025/02/15(土) 23:22:32.76ID:???
WindowsにOllamaをインストールして使ってるんだけど、saveコマンドとかcreateコマンドを実行すると

error: The model name '<モデル名>' is invalid

っていうエラーメッセージが出力して何もできない状態になってる
エラーが発生する前に作成済みだったモデルは問題無く実行できるし、saveコマンドも実行できる

一カ月ぐらい前からgithubのissueに似たような内容が上がってるみたいなんだけど同じ症状の人いない?解決策ないかな
0052462025/02/16(日) 00:10:43.36ID:???
そうなんだありがとう!
あとSillyで女の子二人をキャットファイトみたいに言い争わせたりってできるの?
いつも日本語で話しかけてもすぐ英語に変わっちゃうんだよね
0053名無しさん@ピンキー2025/02/16(日) 00:28:32.73ID:???
同じAIに2人RPさせることはできるけど、混乱することが多い気がする
設定の書き方が悪いからかもしれないが
0055名無しさん@ピンキー2025/02/16(日) 00:55:01.19ID:???
>>52
英語に切り替わるのはモデルの問題か、Examples of dialogueが英語で書かれてるかのどっちかやね
0056462025/02/16(日) 00:59:39.33ID:???
>>54
そうそうこれ!
これでキャラを大きく表示させて2人の音声を出させたい!VoiceBoxで声分けしたら出来るかな?

>>55
dialogueのところを翻訳アプリで全部日本語に書き換えてもなぜか途中で外人になってたわ。。。言っても自分が最後に使ったの1年前だから今は色々変わったのかな?
明日やってみる!
0058名無しさん@ピンキー2025/02/16(日) 07:38:43.25ID:???
AとBに会話させてるとAの回答の中にB「〇〇」ってBのセリフが出てくるのなんとかなるんやろか
0059名無しさん@ピンキー2025/02/16(日) 10:19:38.84ID:???
回答の長さを短く設定するks、「1行だけ回答する」をONにするか、シナリオ設定なりシステムプロンプトに「回答は自身のセリフだけ」なりと書けばいけるはずやで
0060462025/02/16(日) 10:23:14.62ID:???
>>57
すごっ!
このキャラ画像は自分で全部作ってるの?昔SDで表情差分作ろうとしたけどよく分かんなくて挫折した。。。
0061名無しさん@ピンキー2025/02/16(日) 11:05:04.69ID:???
>>60
ComfyUIの表情差分作りワークフローが何スレか前にアップされてたで
あっという間に差分作って背景も透過してくれるからかなり楽
0062462025/02/16(日) 12:38:17.86ID:???
>>57
VoiceBoxで喋らせるよりStyle Birt VITSの方が軽い?
>>61
探してみる!サンガツ!
0063名無しさん@ピンキー2025/02/16(日) 12:48:46.08ID:???
>>62
Style-Bert-VIT2の方がアルゴリズムが新しいので文脈読んで感情乗せたりしてくれる。軽さは大した差はないかな?
0064名無しさん@ピンキー2025/02/16(日) 14:17:13.12ID:???
>>63
Silly TavernでStyle Bert VITS2使うにはどう設定すればいいの?
ブラウザで立ち上げてURL入れたけど声が出ない。。。
RTX3090使ってるます
s://i.imgur.com/EbRQ4ms.jpeg
0066名無しさん@ピンキー2025/02/16(日) 14:26:39.96ID:tgkAaG/D
>>57
モデルぶっこ抜きで草
0068名無しさん@ピンキー2025/02/16(日) 14:44:00.06ID:FjITkzor
DDR3 2133の化石でも24Bが2t/sだしDDR5なら6t/sぐらい出そうだな
NVMeも相当速度出るらしいしCPUもありなのかな?
0069名無しさん@ピンキー2025/02/16(日) 15:12:15.69ID:???
>>67
2つあったの気づかなかった
app.batでVITS2立ち上げてURL入れたけど喋らない。。。
s://i.imgur.com/QgIr2RI.png

perplexityに聞いたら、server_fastapi.py起動してそのURL入れろって言われたけど
やっても喋らない。。。
0071名無しさん@ピンキー2025/02/16(日) 16:05:18.00ID:???
VRAM制限ほんといい加減にやめて欲しいわ
GDDRメモリなんて4GBで3000円って言われてるのにどんだけケチる気なんだよ
24GBのカード買うだけで数十万必要とか狂ってる
0072名無しさん@ピンキー2025/02/16(日) 16:09:07.57ID:???
nvidiaは供給能力が需要に負けてるわけだから一つでも多く作るほうに向かってほしいけど、 AMDがここで32GBモデルを投入してくるのは不思議だね
48GBです!と言えばいいのに
0074名無しさん@ピンキー2025/02/16(日) 17:11:45.78ID:???
AIイラスト部では24GBで良かったのにローカルLLM始めてから全然足らん
0075名無しさん@ピンキー2025/02/16(日) 17:15:00.61ID:???
>>70
ありがとう サーバーは立ち上がって、provided endpointとextra apiのところにも
サーバーアドレスを入れたんだけど喋ってくれないんだよね
何が駄目なんだろう?
VITS2はインストールしたばかりでデフォルトの声しか入ってない
s://i.imgur.com/bFIcmp0.png
0077名無しさん@ピンキー2025/02/16(日) 18:04:25.27ID:???
>>75
単純に有効にし忘れてるとかじゃない?
何らかの理由で合成できない場合は赤くエラーが出てくるはずなんで
0078名無しさん@ピンキー2025/02/16(日) 18:25:18.21ID:???
試しにやってみたけど、>75はそもそもAPIサーバに到達してない気がする

EasyNovelAssistantの読み上げ→サーバー起動で立ち上げる
Silly Tavrenの拡張機能→TTSでSBVits2を選択
Provider Endpoint:に http://127.0.0.1:5000 を入力
Available voicesボタンを押してSBV2サーバーが備えてるボイスの一覧を表示、右端の三角を押すとサンプルを話す

次にカードを読み込んで最初の会話をする
拡張機能→TTSをみるとナレーション([Default Voice])や各キャラクターに割り当てるボイスを選択する項目が出現してるから割り当てる

で音声再生できるようになるはず
割り当て項目が出てくる条件とか色々よくわからん部分もある
0080名無しさん@ピンキー2025/02/16(日) 20:01:10.74ID:???
>>77,78
お恥ずかしいことに指摘通りenableをチェックし忘れてた。。。
その後なんとかして喋ってくれるようになり100語制限も変えれて、オレ氏の彼女が喋ってくれた!
ニキ達サンガツです!
s://i.imgur.com/HKj4YMH.jpeg

VRM動かせるんだ!とプラグイン導入したけど、
モデルだけでなくアニメーションも必要なのね。。。なんかめんどい
0081名無しさん@ピンキー2025/02/16(日) 20:04:36.92ID:???
でもSilly Tavern知らない間に(?)色々プラグイン出てて、色んな事できるようになってて面白そう!

あとキャラがちょっとだけ聞いても、ズラズラと余計なセリフまでいっぱい返事してきて辞めさせたいけど、これはCharacterのDescriptionになにかを書けば治る?
0082名無しさん@ピンキー2025/02/16(日) 22:44:25.22ID:???
>>79
こりゃあ、project digisじゃなくて普通にXEONでメインメモリマシマシのシステム組むかなぁ・・・
後悔しないためにも一応project digitsが出てどんな感じか見定めてからにしようとは思うけども
0083名無しさん@ピンキー2025/02/17(月) 01:07:38.21ID:N0jfqIp+
Xeonとか未知の世界や……
Intel AMXに対応してるCPUで一番安いのはXeon Bronze 3508Uってヤツなんかな?
CPU単品で9万、マザボが13万、メモリは普通のDRAMが32GBx8で256GBで9.6万……最小構成で40万くらいか?っていうかPC用のメモリって差せるんかな?
0084名無しさん@ピンキー2025/02/17(月) 03:42:01.94ID:FdrySJhS
>>79
KTransformers気になるな
低スペで効果あるのか試してみよう
0085名無しさん@ピンキー2025/02/17(月) 03:53:28.14ID:???
>>83
むしろなんで普通のメモリ使えんと思ったんかしらんけど
普通に使えるで
0086名無しさん@ピンキー2025/02/17(月) 08:24:40.32ID:???
>81
応答の仕組み自体はSilly TavernもふつうのLLMも同じだから、制御技術はそのまま使えるんでは
完全に言うこと聞かすのも難しいだろうから、最大応答長を小さくして150tokenで一度停止、続行or介入するほうが楽そうではある
0087名無しさん@ピンキー2025/02/17(月) 08:46:17.98ID:???
>>81
最初のメッセージを短くする
対話の例を短くする

前のセリフに倣った形式でセリフを返すからこれで短くならんか?
0088名無しさん@ピンキー2025/02/17(月) 10:14:08.54ID:???
プロンプトをよく理解できるモデルなら大抵プロンプトで制御できる
ここをこうしたいというのがあればreditのsilly tavernコミュニティで大抵技術共有されてるので、そこを見るのが確実
0089名無しさん@ピンキー2025/02/17(月) 10:15:05.98ID:???
出力された文章を要素に分解して扱える拡張があると便利かもね

セリフを書かせるなら日本語出力が強く、セリフ以外の描写や制御性は英語の方がふたまわり強いから、
・英語で出した文章を正規表現ベースで構造化
・全文とセリフをDeepseekに投げてセリフだけ出力させる
・ジェスチャー/ナレーションをkagiに投げて日本語訳する
・ルールに従い組合せて表示
みたいな
0090名無しさん@ピンキー2025/02/17(月) 11:35:43.05ID:???
https://github.com/p-e-w/sorcery
Silly Tavernのプロンプト入力に文章評価プロンプトを挿入して、条件文に対してLLMがYESを返す=出力文に特定の文字列が含まれる場合に対応したJavaScriptを実行する拡張機能

function callingはモデルによって対応できるできないがあるから、LLMにとってやりやすい応答方法を用意したよ、みたいな話かな

WebLLM経由で最小LLMをロードして、ブートストラップ的に関連アプリの起動やOpenRouter経由のAPI接続を確立して能力拡張していくカード、とか作れそう
0092名無しさん@ピンキー2025/02/17(月) 12:19:57.30ID:???
消費電力に耐えられるつよつよな電源回りと金さえあれば動くよ
0095名無しさん@ピンキー2025/02/17(月) 12:51:11.61ID:???
熱よりも音を心配するべき
サーバはGPU無くても電源ファンがうるさいので
0097名無しさん@ピンキー2025/02/17(月) 13:30:41.29ID:???
>>95
サーバー用ファンは常にフル回転してるからな
温度によって出力を調節とかない
0098名無しさん@ピンキー2025/02/17(月) 14:20:14.31ID:???
倫理フィルターを持っているモデルを論破しようとしているんだけど
悪いことは悪い!しか言わずに会話のキャッチボールを拒否するからマジで話にならんな
規制があるとバカになるってのは本当だわ
0099名無しさん@ピンキー2025/02/17(月) 14:53:49.77ID:???
論破なんて時間の無駄やで
ごめんなさい間違ってました→わかればよろしい。ではおまんこに入れるぞ!→申し訳
になるだけ
0101名無しさん@ピンキー2025/02/17(月) 15:25:38.17ID:???
DeepSeekR1(671B)が4090D(24GB)マシンで動いたとかいう記事見たらメモリが382GBの化物マシンやった…
0103名無しさん@ピンキー2025/02/17(月) 15:58:56.93ID:???
文字どおりの倫理フィルターが存在してますと妥当な説明をしてるだけなのでは?
0104名無しさん@ピンキー2025/02/17(月) 17:25:56.00ID:N0jfqIp+
>>85
使えるもんなんやな、サンガツ!
サーバーやとregisteredでECCなメモリを使うって聞いてたから、PC用のメモリと互換性無いんかと思ってたわ
何にせよ382GBとか512GBとか積もうとしたらえげつない金額いきそうやね……
0105名無しさん@ピンキー2025/02/17(月) 18:30:43.80ID:???
mmnga/DeepSeek-V3-slice-jp64-gguf

これ動いた人いる?
2台で試したけど両方駄目だった😭
0107名無しさん@ピンキー2025/02/17(月) 19:52:43.93ID:FdrySJhS
VRAMで数百Gなんてとんでもない値段だからメモリなら現実的にはなってるな
0108名無しさん@ピンキー2025/02/17(月) 20:04:49.36ID:???
H100なんて富豪かレンタルGPUで稼ぐ業者しか買えないからなぁ
0109名無しさん@ピンキー2025/02/17(月) 21:11:47.79ID:SbILmnLX
ちょっと調べてみた
CPU:Xeon Intel Sapphire Rapids Xeon Gold 5415+ LGA4677 BX807135415 国内正規代理店品
16万

マザボ:ASUS Intel W7​​90 搭載 (LGA 4677) EEB ワークステーション マザーボード PRO WS W790E-SAGE SE/国内正規代理店品
21万

メモリ:KSM56R46BD4-64MD [DDR5 PC5-44800 64GB ECC Registered]
512GB:6.1万×8枚=49万
※8chで使用

以上で86万

プラス ケース、電源、OS、HDD、SSD、9700XTX(VRAM24GB)で110万位かな。
5090搭載PCと同じくらいの価格。
0110名無しさん@ピンキー2025/02/17(月) 21:21:48.97ID:SbILmnLX
>>109
9700XTX→7900XTX
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況