なんJLLM部 避難所
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ e249-iArR)2023/12/17(日) 21:48:59.66ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ
なんJLLM部 ★6
https://fate.5ch.net/test/read.cgi/liveuranus/1701542705/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0215名無しさん@ピンキー (ササクッテロラ Spb7-aGYJ)2024/04/06(土) 11:23:08.35ID:???p
>>214
まずstの設定をkoboldと同じ設定に変更
キャラ設定はオナニースレのシルヴィを参考に入れ込んで自分好みにカスタマイズした
(小説機能とか省いて 口調のサンプルを追加とか)
0216名無しさん@ピンキー (ワッチョイ 021e-hBD6)2024/04/06(土) 11:40:59.95ID:IGDSh6PD0
>>215
サンガツ
チャット楽しみたいんやが、なんかプレイヤー乗っ取られたり、余計なプロンプトが最後にぶら下がったりで置いてけぼりくらうんやけど、その辺はどうやって制御したらええんかな?
0218名無しさん@ピンキー (ササクッテロラ Spb7-aGYJ)2024/04/06(土) 12:56:01.34ID:???p
>>216
会話は◯◯のみ行う とか 1センテンス以内にしろとか指示に入れてるが初手でダメならガチャしてる
あと指示はxml文で入れた方が理解度があがる 気がする ここら辺はワイもまだ試行錯誤だわ
0222名無しさん@ピンキー (ワッチョイ 0298-hBD6)2024/04/06(土) 15:26:29.60ID:IGDSh6PD0
>>215
オナニースレのシルヴィ探してるんやが見つからん
【Claude3】ChatGPTでオナニー ★29とかのテンプレ見るんじゃあかんのか?
>>217-219
ありがとな
修正出来るのは強みは活用せんとな
せっかく日本語で遊べるローカル出てきたからには尻タブ用の使い勝手のいい日本語テンプレプロンプト作らんとな
0224名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 16:18:23.05ID:PYnkc8ci0
避難所に案内されたわけですが、軽量でいいのがあるとのことですがどれのことなんだろう…
0226名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 17:17:13.41ID:PYnkc8ci0
>>225
ありがとうございます
これいくつか種類がありますけど何が違うんでしょうか…?
0230名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 18:18:33.28ID:PYnkc8ci0
最初q8のものを落として使ってみましたがVRAM15gb使ってたのでQ4kmってやつにしてみますね。
ただ日本語モデルということで日本語で入力してるんですが返答は英語で帰ってくるのはどうすればいいんでしょうか
0232名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 18:30:04.85ID:PYnkc8ci0
全部消して228のを入れようとしたらこういわれました
https://files.catbox.moe/vr2l4z.png
koboldcppだけ先に落としておいたら進んで、できたbatを実行したらまた証明書が〜と出るのでこっちは起動までたどり着けないです…
comfyuiの時もこんなの出たことあったなぁ…
0234名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 18:52:36.97ID:PYnkc8ci0
>>233
ダウンロードできたみたいです!サンガツ!
でもやっぱり英語で帰ってきてしまう…なんででしょう?
https://files.catbox.moe/ogijxs.png
0236名無しさん@ピンキー (ワッチョイ bb67-eYV/)2024/04/06(土) 18:54:45.50ID:???0
LightChatAssistantを別データセット使って追加でインストラクションチューニングするの試してみたんだが良くも悪くもまともになってしまった
出力の自然さは上がったけどエロさも同時に下がった感じ
Antler-7Bがインストラクションチューニングされていないエロ特化みたいなモデルだから、ファインチューニングするとそこを殺しちゃってる感じかなあ
0237名無しさん@ピンキー (ワッチョイ b613-TGoQ)2024/04/06(土) 19:07:47.49ID:???0
>>234
以前にKoboldCppを使ったことがあって設定が残ってるとかやろか?
Settings-AdvancedにあるReset ALL Settingsして
Settings-BasicのMax Ctx.Tokensを32768にAmout to Gen.を512にする初期設定をやり直してみたらどうやろ?
0238名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/06(土) 19:15:33.90ID:lxAnGvR5d
>>228
>>235
すごい!ご新規さんに優しい素晴らしいものをありがとうございます!
ファイル名をちょこちょこ変えてしまって申し訳ないです…
とりあえず予定していたものは上げ&修正終わったので、何かなければここから変わることはないはず

>>234
MemoryかWorldInfoに英文が入力されているのかな?
New Session→Keep Memory and World Info?のチェックオフ
でOKして試してみるとどうなります?
0239名無しさん@ピンキー (ワッチョイ b6c6-Hmna)2024/04/06(土) 19:16:44.42ID:vN0Ur5yH0
話者の名前が英語になってるとそっちに釣られるとかあるで
0240名無しさん@ピンキー (ワッチョイ 52dc-yyZt)2024/04/06(土) 19:19:32.09ID:U2FfXq950
mlxでcommand r plus 4bit版動かしてるMac使いおらん?
M2 Max RAM96GBで動かしたんだが↓みたいにぶっ壊れたAIみたいな出力しか出さないんよね
誰か何か知ってたら教えてクレメンス

Prompt: hello
,
I have a problem with the "グリーン" color.
I have a "green" color in my palette, but when I use it, it is not the same color.
I have a "green" color in my palette,
0241名無しさん@ピンキー (ワッチョイ bb67-eYV/)2024/04/06(土) 19:22:50.53ID:???0
LightChatAssistant使う用のガイドならInstruct Templateの変更にも触れておいた方がいいんじゃない?
Mistralベースだからフォーマットは[INST] [/INST]の方がいいはず
0243名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 19:25:15.89ID:PYnkc8ci0
日本語でお願いしますって言ったらたまーに日本語で返してくれますね…
>>238
やってみましたが相変わらずですね
>>239
話者ってどこで変えれるんでしょう…?
https://files.catbox.moe/9woqzo.png
0244名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 19:26:58.36ID:PYnkc8ci0
肝心なの忘れてた、コマンド画面だとその後も書いてあるんですがwebui上だとちょっと前で止まってるんですけどなんなんでしょうか…
0245名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/06(土) 19:32:42.73ID:lxAnGvR5d
あとiQ3_SやiQ4_XSも精度劣化の低さの割にサイズが小さいのでおすすめ
量子化での精度劣化は以下ページの方が纏めてくださっていて、とても参考になります
一番下の「KL-divergence による量子化評価」のグラフがめっちゃ参考になった

https://sc-bakushu.hatenablog.com/entry/2024/02/26/062547

>>243
うーん、こちらでは全量子化を日本語動作確認してるんだけどな…
私には解決できないようだ。誰か任せた
0246名無しさん@ピンキー (ワッチョイ b613-TGoQ)2024/04/06(土) 19:40:50.83ID:???0
ワイの環境やとAllow Editingを有効にした際に{{[INPUT]}}と{{[OUTPUT]}}や[INST]と[/INST]があると英語になってしもうてる気がするで
どう案内するのが正解なんやろか?
0248名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 19:53:33.29ID:PYnkc8ci0
>>247
消したくても消せないというかなんでこれがついてるのかがわからない状況です。
241が言ってるのがそれなのかもとググっても全然わからんです…
あとなぜか最後の1行がwebui上には表示されないっぽいです
0249名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/06(土) 20:02:17.61ID:lxAnGvR5d
ふむ、Instruct Tag Presetを変えて試してみたがどうやらVicuna以外にすると英語になったりならかったりするようだ
普段適当に「ME:」と「AI:」にしてたから分らんかった
ということでSettings→Instruct Tag PresetをVicunaにすると日本語にならないかな
(本当はMistralのチャットフォーマットの方が良いんだろうけど)
0250名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/06(土) 20:05:15.30ID:lxAnGvR5d
それと最後の1行が出ないのは、Settings→Advanced→Trim Sentencesをオフで治らないかな
0252名無しさん@ピンキー (ワッチョイ b613-TGoQ)2024/04/06(土) 20:08:29.15ID:???0
>>241 指摘サンガツやで
Instruct Tag PresetをLlama 2 Chatにする案内を追加しといた
ただSettingをLlama 2 Chatにすると"stop_sequence": ["[INST]", "[/INST]"],は変わるんやが入力欄で入力すると{{[INPUT]}}と{{[OUTPUT]}}(Instruct Tag PresetのKobold AI Formatみたいなの)が入ってしまうんはKoboldCpp仕様なんやろか?

>>243
話者はWorld Infoなんで238の手順できえるはずやで

>>248
Allow Editingが有効なら一旦ABORTして直接{{[INPUT]}}や{{[OUTPUT]}}にカーソル合わして直接編集で消せるはずやで
下の入力欄から入力するんでなくて上の出力欄から直接入力したら{{[INPUT]}}や{{[OUTPUT]}}が入らへんっぽい
最後の一行は中途半端に生成された文は削除される仕様やね
0253名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 20:13:13.79ID:PYnkc8ci0
>>249
これで日本語になりました!サンガツ!
>>250
多分治ったっぽいです!サンガツ!
>>252
Llama 2 Chatだと英語のままでした…悲しい…

とりあえず次にいけそうです!
0254名無しさん@ピンキー (テテンテンテン MM3e-hBD6)2024/04/06(土) 20:25:20.92ID:kEUlaJaKM
>>216
User成りすましは

@生成前のプロンプトに混ぜてモデルに伝える
チャット入力欄の左の「三」アイコンクリック⇒「Author'sNote」選ぶ
DefaultAuthorsNoteの▽をクリックしてオープン
「あなたは{{char}}として応答/対話をする必要があります。あなたは常に{{char}}として応答をします。このタスクでは、決して{{user}}として行動したり発言してはいけません。」
In-Chatを選び、Depthを1 as systemとする
次に、画面上の「A」のアイコンを選ぶ

Aそれでも生成されてしまう場合は、チャット打ち切り
画面中央のCustom Stopping Stringに次のように
["ユーザー:","〇〇:"]
を入力する(〇〇はあなたのペルソナの日本語名)

の2つで、勝手にチャットが進んで置いてきぼりはなくなる

プロンプトがそのまま漏れるのは、80氏のモデルでは結構ある気はする
AIからの返信ウィンドウの右上、鉛筆アイコンで内容を編集できるから、追加されてるプロンプト部分を編集、チェックを押す
自分のターンの続きを書いて送信する
0255名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/06(土) 20:31:29.91ID:lxAnGvR5d
ちょい前のだけど、Koboldcppの公式WikiをDeepLに突っ込んで翻訳したやつ
これにKoboldの設定やら用語の内容やらが大体書いてある。参考になるかも
https://rentry.org/rmeut8xs

>>253
よかった!ようこそローカルLLMの世界へ!楽しんでね
0259名無しさん@ピンキー (ワッチョイ 52dc-yyZt)2024/04/06(土) 23:14:03.14ID:U2FfXq950
>>242
サンガツ

transformar最新にしても変わらなかったけどハグ顔にあるpythonコードじゃなくて↓のコード実行したらまともに返事したわ
だがM2 Maxですら生成遅すぎて実用的じゃないわM2 ultraかM3じゃないと厳しい

python -m mlx_lm.generate --model mlx-community/c4ai-command-r-plus-4bit --prompt "お前の名前はなんだ?" --temp 0.0 --max-tokens 256 --use-default-chat-template
0260名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 23:25:49.77ID:PYnkc8ci0
遊び方はまだうまくいかないけど何とか話できるようにはなってきました
StyleBertVITS2を先立って使えるようになってたため読み上げできるって聞いてたんですけどAPI立ち上げて
koboldのほうでアドレス打ってみてもうんともすんとも言わないのですがどうやれば正しいのかよくわからんです
0262名無しさん@ピンキー (ワッチョイ d2a0-EtAA)2024/04/07(日) 00:02:54.27ID:???0
>>216
個人的な感想と推測なんだけど、チャット形式ってのは本来的にLLMの挙動とは相性が悪くて、ハードルが高いんじゃないかと思ってる
この形式を学習した素材がどんな文章かを想像してみると、キャラAとキャラBの会話例でしかないだろうから、
一方の名前をUSERに変更しても、それは「USER(という名前のキャラ)」としか、LLM内部では認識されていないんだと思う

実際、Koboldcppのサンプルにもキャラ同士が勝手にお喋りするやつがあったり、
モデルの動作サンプルのプロンプトでも、「AliceとBobの会話」みたいな例が以前は多かったようだし
0263名無しさん@ピンキー (ワッチョイ 270e-TGoQ)2024/04/07(日) 00:19:18.97ID:???0
のべりすとやローカルでチャット形式をやる場合
USER名"ご主人様"にしてご主人様の設定に"男性で主人公"と書いたときはそこそこ上手くいった気がする
0264名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 00:42:54.62ID:SYErmO0F0
llama.cppのforkでcommand-r-plus動かせるって話あったからiq3_xssやってみたけど、バグった返答しか返ってこないな
なんでだろ
0265名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 01:38:08.77ID:SYErmO0F0
command-r-plus IQ3_M動くようになった
環境はM2 Max 64GB
速度は4.2tokens/secでまあ一応実用範囲内
エロもいけるのを確認
システムプロンプトを結構厳密にオリジナルと同じにしないと出力バグるっぽい
https://i.imgur.com/zkErkBu.png
0266名無しさん@ピンキー (ワッチョイ bb67-eYV/)2024/04/07(日) 01:41:53.32ID:ok+ZRNtJ0
システムプロンプトっていうか、プロンプトフォーマットの問題かな?
こんな感じのフォーマットが必要

<|START_OF_TURN_TOKEN|><|SYSTEM_TOKEN|>{system message}<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|USER_TOKEN|>Hello, how are you?<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|CHATBOT_TOKEN|>

システムプロンプトはUSE
0267名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 01:42:27.06ID:SYErmO0F0
こっちのスクショの方がいいか
https://i.imgur.com/7u5p5Sq.png
0268名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 01:44:00.24ID:SYErmO0F0
>>266
それそれ
なんか、その中に日本語含めてたら不安定だったんだけど、そこを全部英語にして他言語混ぜないように指示したら安定した。
0269名無しさん@ピンキー (ワッチョイ d310-hBD6)2024/04/07(日) 01:58:00.66ID:fQe3/uM+0
>>223
無教養ですまんが伴奏ちゃんの時点でググってもわからんw
>>254
Custom Stopping Stringに["ユーザー:","〇〇:"]って入れるの天才過ぎてありがとう
今んとここれやらんでも済みそうな気配はある

Context Template周りのお勧めとかあるんか?
ワイは最近までNoromaidで遊んでたのでNoromaidのままになってたのをRoleplayにしたらちょっと安定した気がするんやが
0270名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 02:03:03.62ID:SYErmO0F0
うーん、やっぱり変なトークンが挿入されて内容がめちゃくちゃになる事が結構あるな
これが量子化の影響だったらもうどうしようもないが・・・
0272名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 02:07:18.28ID:SYErmO0F0
>>271
画像だと見切れてるけど、一応それも書いてあるよ
0273名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 02:10:08.76ID:SYErmO0F0
全文としては
""<BOS_TOKEN><|START_OF_TURN_TOKEN|><|SYSTEM_TOKEN|># System Preamble
## Basic Rules
Answer user's request.
Language consistency should keep and should not be mixed in the answer.
You must put tag </s> at the last of your answer.<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|CHATBOT_TOKEN|>
Q:{prompt}
A:"""
0275名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 02:29:59.04ID:SYErmO0F0
llama.cppがまだ新アーキテクチャーに対応し切れてない可能性もあるから、とりあえずmasterがリリースされて上手くいかなかった時に考え直すよ
0278名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/07(日) 08:39:03.31ID:SYErmO0F0
>>277
速度は全然問題ないよ
感覚としてはkarakuriとかと一緒かな?

あとなんか昨日command-r-plusのimatrixあげてた人(dranger003
/
c4ai-command-r-plus-iMat.GGUF)、全部消して上げ直してるみたいだね
何かあったんだろうか
0280名無しさん@ピンキー (ワッチョイ bb67-eYV/)2024/04/07(日) 09:30:07.64ID:???0
そういやCommand Rは話題になるけどその前に発表されてたDBRXはあんま話題にならんなって思ってたけど
実性能の評判あんま良くない感じなのか(英語でも)
0284名無しさん@ピンキー (ワッチョイ bbdf-xKEp)2024/04/07(日) 11:37:02.19ID:???0
>>228
解説めっちゃ有り難いんだが、出力トークンが512上限なのって私だけ?
32k対応モデルでContextsizeも32kに設定してるのに出力512じゃ意味ないやん…と

昔、koboldは出力512トークン固定は仕様だと見た気もするけど、
設定分かる人いたら教えてください
0286名無しさん@ピンキー (ワッチョイ 27fc-TGoQ)2024/04/07(日) 11:44:20.31ID:???0
Koboldのexeを起動してLaunch押す前の設定画面でtokenの数字を増やしておけば次回起動でも楽になる
初歩的なチュートリアルが足りなくて新規が彷徨ってるっぽいよね
0287名無しさん@ピンキー (ワッチョイ b613-TGoQ)2024/04/07(日) 12:08:20.62ID:???0
>>284
>>285
質問と回答サンガツ
長々と出力する前に止めて修正することが多かったんで気にしてなかったわ
READMEに以下を追記しといたで

> Web ブラウザに Kobold AI Lite が表示されましたら、画面上部の Settings から KoboldCpp の初期設定をします。
> スライダーでなく数値入力欄を直接編集することで、スライダーの範囲を超えた値を入力できます。
> Amount to Gen.: 512 (256 や 2048 などお好みで)

>>286
ランチャのContext SizeとWebUIのSettingsのMax Ctx. Tokensが別管理?っぽいんよね
よくわかっとらんので起動時引数とSettingsの両方で32K設定するように案内してるわ
0288名無しさん@ピンキー (ワッチョイ b613-TGoQ)2024/04/07(日) 13:32:20.53ID:???0
EasyLightChatAssistantに
>>281 の4x7B Q4_K_M対応いれといたで
https://github.com/Zuntan03/EasyLightChatAssistant

更新はEasyLightChatAssistant-*.batを削除してから
再ダウンロードしたInstall-EasyLightChatAssistant.batを上書き実行してもろたら

2x7Bでは軽く試した範囲ではq4_k_mよりiq4xs_imatrixのほうが印象が良かったんで
4x7Bのiq4xs_imatrixも見てみたいね
0291名無しさん@ピンキー (ワッチョイ bb67-eYV/)2024/04/07(日) 14:35:27.01ID:???0
専用のプロンプト用意してそれを元に回答させて、別のLLMで評価させるのが一番ありかな
ただGPT-4とかのAPI経由のものは基本エロ不可だから判定用にも使うのが難しい
Command R Plusとかに判定させるのはいけそうだけどそもそも普通のPCじゃロードできんから判定させられないという
0293名無しさん@ピンキー (オイコラミネオ MMb3-06W9)2024/04/07(日) 15:16:00.24ID:GRwfgW99M
人間の感性に響くか否かを定量評価出来たら苦労しないわな
エロだけじゃなくいろんな業界が欲しがるだろう
0296名無しさん@ピンキー (ワッチョイ 1fc0-xKEp)2024/04/07(日) 17:14:05.88ID:???0
>>285
>>286
>>287
サンガツ!なんだけど、
launch前とsettingsの両方で最大トークン32kにしてるのに
いざinstractモードで書かせると512トークン上限(xxx/512)になってしまうんよ…

トークンのカウントアップが(512/512)
になったら生成終了してしまうってことね
0298名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/07(日) 18:01:43.80ID:u4fva5Rsd
>>296
それは"Max Ctx. Tokens"の方。それじゃなくて、"Amount to Gen."の方の数字を直指定するんだ。それでできるはず
>>285>>287もそれを指している
落ち着くんだ
0305名無しさん@ピンキー (ワッチョイ 8f32-M/hT)2024/04/07(日) 21:01:21.07ID:???0
Sdff-Ltba氏のアプローチは
日本語インストラクタモデルへのchatvectorによる指示力強化でしたが、
じゃあ、素の日本語ベースモデルに、英語のエロエロモデルをchatvectorしたらどうなるか試してみた

https://rentry.org/7ukv2kcp

期待通り、swallowがドエロいことになった。しかもmoeもしてない7Bで
何が言いたいかというと、この理屈で
karakuriにmiqumaidをかぶせたら、日本語特化のエロモデルが完成するんじゃないかと・・・
メモリ、つよつよの方、ためしてー
0307名無しさん@ピンキー (ワッチョイ 8f32-M/hT)2024/04/07(日) 22:17:41.85ID:???0
てゆうか、import torchで一気にモデルを読み込んでから処理するからメモリ足りなくなるんだよね?
パイソン、良く知らんけど少しずつ読み込んで処理できないのかな?
mergekitって、そうやってるから64Gでも70Bのモデルを処理できるんだよね?
教えて、パイソンマスター
0309名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/08(月) 00:16:44.66ID:9g6SRvr1d
>>308
連日お疲れ様です。導入の敷居がグッと低くなってローカルLLM民がかなり増えそう

なんかこの子、(良くも悪くも)与えた設定にめっちゃ忠実で、下手するとユーザーを拒否したり責めてくるらしい
AIっぽくないと言われてた。そんなポテンシャルがあるとは
0310名無しさん@ピンキー (ワッチョイ bb8c-eYV/)2024/04/08(月) 00:28:22.23ID:???0
手元で同じレシピで作ったMoE前のモデル単体で試したりしたんだけど、Antlerの方はChat Vector足してもあんまり指示に従う能力獲得できてなさそうだったんだよね
ある程度は従うけど、あくまで事前学習だけしたベースモデルって感じで基本続きをずっと生成しちゃう感じ
普通のインストラクションチューニングでは良くも悪くも出力が「真面目」になっちゃって表現力が失われちゃってるってことかね
それと比べてこのモデルはMoEしたもう一個のモデルの指示追従力とChat Vector加算によって多少得た能力を使いつつ、持ち前の表現力を保ってる感じなのかなぁ
0311名無しさん@ピンキー (ワッチョイ 127f-ycXU)2024/04/08(月) 00:29:39.19ID:???0
マージでメモリ足りないなら、OSの仮想メモリを速いSSD上に200GBぐらい作るんじゃだめなのかな。
(処理内容によっては遅すぎてだめそう。あと、WSLだと一定以上仮想メモリ増やすのは面倒だった気がする)
0312名無しさん@ピンキー (スプッッ Sdf2-VDpj)2024/04/08(月) 00:47:21.54ID:9g6SRvr1d
AntlerのChatVector版をテストしたときはすごく驚いた思い出
「こんにちは」ってこっちが言ったのに対して、「やっと帰ってきてくれたあ。ご主人様を思いながらオナニーしてお待ちしていましたあ♡」とか一言目で言い出して、噴き出して「えっ??」てなったw
設定を何も吹き込んでないのに対してこの反応
Antlerを素材に使おうと決めた瞬間だった
0313名無しさん@ピンキー (ワッチョイ bb8c-eYV/)2024/04/08(月) 01:25:37.12ID:???0
LightChatAssistantにまともなデータで追加のインストラクションチューニングとかもちょっと試してみたんだが、出力が急にまともになっちゃってエロ系あんまり出さなくなったり普通のモデルにだいぶ近づいちゃったんだよな
NSFWモデルをファインチューニングで作るには専用のデータセットが必要そう
それの代替となり得るのがマージベースでインストラクションに従う能力を獲得する手法ってところか
0314名無しさん@ピンキー (ワッチョイ 537a-hBD6)2024/04/08(月) 08:15:10.30ID:???0
かなり初歩的な質問で申し訳ないのですが


>>308
308様の説明通りにインストール後、KoboldCppでのwebUIで何かしらチャットを入力するとエラーが出てしまう

エラーが出るのはおま環だと思うのですが、調べても解決方法が見つからなかったので、スレ住民達にこのエラーメッセージを見て頂きたく書き込みしました。
エラーの内容は以下の通りです。

---


Error Encountered

Error while submitting prompt: Error: Error occurred while SSE streaming: Service Unavailable

---

以上がエラーの内容です。

自分でエラーの内容を調べたのですが解決しませんでした。

koboldのインストール先ははCドライブの直下にフォルダを配置してそこにインストールをしています。
アドバイスや指摘を頂けたら嬉しいです。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況