なんJLLM部 避難所 ★3
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★2
https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/
-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>142
oobaboogaかSillyTavernしか使ってないけどちゃんとしたLLM用UIならモデルごとにええ感じにしてくれるプリセットが用意されてるからそれを選ぶ
詳しく言うとCommand rとかInstructionモードじゃないと正しく返答できないモデルがあるからそれをちゃんと設定する(停止シーケンス:<|END_OF_TURN_TOKEN|>みたいみたいなやつ)
回答が乱れて意味不明になっていくのはモデルが対応してるコンテキスト長を超えてやりとりしたときに起きるやつかもしれない。モデルにもよると思う
Llama2とかコンテキスト長超えてくるとぶっ壊れてくるとかよく報告あったし
https://i.imgur.com/91T4SuK.jpeg ChatモデルのLLMは自分の発言もinputに含めて、尚かつuser以外からのinputだと変な挙動しはじめるっぽい
STでLLM同士会話させるとすぐ崩壊するし
適当な長さでセッション変えるしかない LLMの入力全体は
[System]←普通のシステムプロンプト、ロールプレイを交互にしましょうとか
[Charcter]←キャラクターの設定
[Message History]←直近nターンの会話履歴
{Post System}←末尾に入るので影響力の強いシステムプロンプト
<<START>>←会話ターン開始のトークン(モデルによる)
User: [User Query]
Assistant:
みたいな感じになってる
で、[Message History]を要約するとかの工夫を加えたシステムを作ればいろいろ改善すると思う
chubとかは確かやってるのかな? 前半に要約入ると、でかいモデルで履歴が伸びたときeval timeがヤバい >>145
これ使ったらEasyNovelAssistantでより自分好みに色々できますかね >>148
テンプレートはモデルごとに違うから適当にコピペしても上手く動かんよ >>150
迅速な返信ありがとうございます
作成された方が多分引くくらいEasyNAを使わせていただいてるんですが
暴れ馬なんで言うことを聞いてくれなくて質問させていただきました
知識がないので「しないで」って言ったことをし続けてしまいます >>135
silky tavernでstop wordsの設定ってAI応答の構成タブにあるログのバイアスって項目でいいのかな?
\nUser:って入れて、禁止または強化ってことだから右の数値は-1にしてみたんだけど合ってる?
何か少し効いてるような気もするけど
でもやっぱりしばらくチャットしてるとAIがUserのセリフを言い始めてしまう >>152
SillyTavernではCustom Stopping Stringsって呼ばれてる設定で
["\n{{user}}", "\nUser:", "</s>", "<|", "\n\n\n"]
例えばこんなの入れてみたらどうだろう >>151
大半のLLMモデルは「〜しない」という指示に追従するのは不得意
サイズのデカい推論能力の高いモデルでも、「〜しない」より「〜しなさい」の方が追従しやすい
なので、可能であれば「あなたはAが好きではない」ではなく「あなたはAが嫌いだ」の方が与えるプロンプトとしては好ましいとされることが多い
>>152
全然違うと思う。Advanced Formatting(Aの文字のアイコン)の右下の方にあるCustom Stopping Stringsに入れる。
Silly Tavernの機能とLLMのメッセージとレスポンスが152の頭の中でごっちゃになってる気がする
Advanced Formattingで設定する各種プロンプト(のように見えるもの)はユーザーの入力(キャラカのプロンプトを含む)や設定を利用しているLLMのモデルに応じて整形して渡したり、
逆にLLMからのレスポンスをメッセージとして表示する前に、適切に整形するためのもの。
ここで{{user}}と表記されている部分にはユーザーの名前に入れ替わる
なので、Stopping Stringsに"\n{{User}}"と入れると、改行コードの次にユーザーの名前が表示される文章を受け取ったばあい、強制的に改行コードの前でUIへの出力を取りやめる、って機能。 karakuri-ai/karakuri-lm-8x7b-instruct-v0.1
きたか! >>152
ありがとうございます
ご指示通り禁止や否定的な指示表現ではなく明確な選好表現で
指示を記述してみます モデルにより差異はあるんやろうけどuserとassistant以外の人名が混乱する要素になってると感じる よくAIは否定形が苦手とか言われるけど
AIはこちらがインプットした言葉に影響を受けるし、いくら後ろに「〜しない」と付けても単語を分解されたら否定形も肯定形も無くなるわけで
つまり使ってほしくない言葉は否定形だろうとできるだけインプットしないに尽きる
というのがワイの解釈 というかそういう話だと思ってたが
いくら周辺で否定しようとその単語を投入した時点で関連性が発生するから出現する方向に向かうってヤツ Ninja-v2で長い文章を書かせるにはパラメーター何いじればいい?
ローダーがllamaだとよくわからない アテンションで否定形もちゃんと処理されるでは?原理的には LLMにネガティブプロンプトを入力しないっていうのはもう原則みたいなものだから
LLMの挙動の基本は行う事だから回避ささせる指示をすると逆に行うようになる
させたくない行動を指示するのではなく、させたい行動だけをしてもらう指示に言い換える必要がある 尻タブのヘルプを読んでると例文として否定形が出てくるからもうよく分かんねえや >>154
https://i.imgur.com/spFCY1r.png
ええ?そんな項目ないけどどういうこと…?って混乱したけど思い出した
silly tavern を最初に起動した時にまずはシンプル表示から機能に慣れていきましょう的なメッセージが出て、それに従ってたの忘れてた
これ罠だな…
高度モードにしたらちゃんと色んな項目が出てきたよ vecteus2はパラメータ指定して毒素とか上げれば普通にvecteus1並みのエロモデルになるけど、調整がムズイな 早くAIちゃんと疑似同棲したいよ
初音ミクと結婚した男の気持ちに時代が追いつく 下手にシステムプロンプトを充実させるより、LLM出力の冒頭部分を強制的にこっちで指定するようにした方が試行回数減ってストレスレスな気がしてきた ttps://tech.algomatic.jp/entry/prompts/auto-prompt-optimization
プロンプトハックをLLM自身にやらせる手法、なんだけどこれの例で出てくるプロンプトめっちゃ参考になりそう 初心者ですみませんが、ローカルでCR+使ってる人に質問です
Koboldで使おうと思ってるんだけど設定とかどうしてます?
Formatはinstract modeでInstruct Tag Preset はcommand rを使ってますが日本語で会話しようとしても英語やローマ字読みで返ってくることが多いですし、日本語で返ってきても言葉があやしい(例こんにちわ→こにちわ)、異常な長文等で返ってくる。
根本的になにか間違ってるのか知りたい
環境はWindows11で3090x2と3060x1で c4ai-command-r-plus-IQ3_M.ggufを使ってて理想としてはCR+のデモみたいになればいいかなと思ってます。 >>171
どの量子化モデル使ってる?
llama.cppの対応が5月くらいまでいろいろあったから、古いのは使わないほうがいいかも(あるいは自分で量子化する)
dranger003/c4ai-command-r-plus-iMat.GGUF
ここのは比較的新しい。iQ4_xsがおすすめ >>171
これはかなり環境依存だと思うが、うちのmacOS環境だとVRAMに乗り切らないのにn_gpu_layersを-1にしてたとき出力がバグってた
その環境だとVRAM 60GB相当だから多分ないと思うが、他にモデルが並走しててVRAM圧迫してる可能性はない?
あとは>>172の言う通り、GGUF/Kobold.cppのバージョンが古いとか
どうしてもダメなら、llama.cppでも試して見たらいいかも >>170
可能ならQ6_K_M頼むー
このレベルになるとiQだと性能なのか劣化なのか判断つきにくいー >>172
>>173
助言ありがとうございます
最新版koboldでdranger003/c4ai-command-r-plus-iMat.GGUF を試したところ少し賢くなった気がしますが、すぐに崩壊してしまいます
PC再起動しての確認なので他のモデルが並走してはないはずです。
おま環かもしれないので一度llama.cppをインストールして試してみます >>0176
Q6_K上げました
後はQ5_K_MとQ4_K_Mあたりも作るかな silly tavernのチャットをStyle-Bert-VITS2を使ってAIの発言だけ読み上げって出来ないのかな Qwen2-72B日本語いい感じだから、Qwen2ベースのdolphin試してみた
まあある程度無修正化されてて日本語も悪くないけど、NSFWだとちょっと繰り返し多くなったり表現力少なかったりで物足りないなぁ
一般用途なら全然アリだとは思うが
まだCommand R Plus一強状態は変わらないか >>180
できるやろ
Only narrate "quotes" これでセリフのみ読み上げ
Ignore *text, even "quotes", inside asterisks* こいつは太字内のセリフを無視
ただし、日本語の「」は尻タブ的には意味を持たないテキストなので、場合によってはキャラカードのプロンプトを尻タブ基準に直さんとあかん
日本語キャラでもセリフを"こんにちは!"ってフォーマットやな >>182
おお、出来るんだ
それってsilly tavernの拡張機能のところ?
一覧にはStyle Bert VITS2が無いんだけどひと工夫が必要って感じ? 対応拡張を上げてくれた人がいたよ
このスレだったか、別のスレだったか
動作はするけどデフォルト音声だとイマイチだった >>183
せや、最新版の尻タブならたぶんインストール時に一緒に入るんじゃないかとおもうが、はいってないなら、このスレたどってスクリプト手に入れてや
あと、尻タブ本体(App.bat)とサーバー(Server.bat)両方走らせとく必要あると思うで 前スレの最後の方に神を発見しました
このsbvits2.jsってファイルを上書きってこと?
957 名無しさん@ピンキー (ワッチョイ 2209-hJA7) 2024/06/07(金) 00:40:02.54 ID:L+384jCL0
>>927
auto_splitはデフォで有効になってて,これはレスポンス改善への効果はないよ.
API側にstreamingのサポートがあれば短くなるが...
一応,全オプション対応しておいたので,
https://github.com/Risenafis/SillyTavern/tree/sbvits2/public/scripts/extensions/tts
からsbvits2.jsを入手してください. >>186
既にsbvit2.jsがttsの中にあるなら、上書きしなくてもええとおもで
こっちがオリジナルの投稿なので、こっちのzipが残っている様なら、中見てみるとえーかも
確かsbvit2.js以外のファイルもいくつかは言ってた気がするので尻にsbvit2.jsを認識させるための設定ファイルとかあるんかもしれん。
0867名無しさん@ピンキー (ワッチョイ 2209-hJA7)
2024/06/03(月) 22:19:03.38ID:???0
>>851
SillyTevernのttsは自分用に改造していたので良ければどうぞ.
public\scripts\extensions\tts に上書きでOK.
適当に書いてあるので,誰かきれいにしてPR出してほしい...
http://nkgpgc.sx3.jp/uploader51/upload.cgi?get=00413 >>187
そのレスも読んだんだけどリンク先が切れてもう落とせないっぽ🥹
やっぱそれも無いと駄目なんですか… >>189
他にも同じ形でSBVit2使えん、って人いるようなら尻タブのGitにIssueあげとけばすぐ修正入るとおもうで?
ワイの手元に当時のZIP残っとるけど、こーいった場合作者さんの許可なくアップしてええもんなんか、世間に疎いワイには分からん 最新のSillyTavernに上のリンクにあるSBVit2をマージして全く問題なく動作するけど?
SillyTavern自体のバグでユーザー名やキャラクター名に全角入ってると
voiceのリストが2人目以降ぶっ壊れるからそこだけローマ字で妥協した あーSVits2拡張のバグ見つけたわ
デリミタが-だからデフォで入ってる音声名の-で分割しちゃってバグるな
もっと特殊な文字に変えるか Silly tavernのsummarize機能って神機能やんけ
使い方分かれば分かるほど痒いところに手が届くツールやわほんま 現状ERPにお勧めの組み合わせは
SillyTavern, koboldcpp, Style-Bert-VITS2
だね
LLMはここら辺から適当に
Berghof-ERP-7B, Vecteus-v1, Ninja-v1-RP, Ninja-V2, Vecteus-V2 sbvits2.js等の作者です.zipの再配布は何の問題もないですが,公式のdevブランチに最新がマージ済みなので,そこから取ってもらうのが良いかと思います.
全角やデリミタの件はすみません.ここ数日はちょっと時間が取れないので,そのうちになりますが確認します. vitsで個人的にはその読み違う!ということがあるので設定方法
vitsのeditorを立ち上げてユーザー辞書を作って保存した後server起動
しんたいではなくからだ、ちゅうだしじゃなくなかだし、というような。 Silly tavernのmessage exampleが機能してる人いる?
メッセージカードみても記法が人によってマジで違うし
いまいち機能してるのかもよくわからん‥ message exampleってExamples of dialogueとは違うものなの? >>201
example of dialogueだったわ
〈START〉から初めて{{char}}:に発言例を入れるだけやと思うんやが
historyの方の発言の方に影響されていってあんま維持できてる気せんわ SillyTavernは立ち上がったターミナルの画面見ると実際にどんなプロンプトで送られてるかが見えるから、それを元に調整してくのが良い >>202
User Settingsの右上あたりにあるExample Messages Behaviorを
Always include examplesにしたら維持されるんじゃなかったっけ?
違ったらごめん STで話を進める時の
書き方の決まり事だが
(発言や呼びかけは{{user}}。“で囲む。地の文は二人称で表現。*で囲む)など
キャラ情報と一緒に書く?ワールド情報に書く? >>204
CR+使っててcontext templateやらinstruct modeの設定を外人が上げてたjsonファイル弄って使ってたんやが
example separateの設定がされてなかったみたいやわ
もうめんどくさいからcharacter noteに発言形式指定したプロンプトぶちこんで、depth設定して5回に1回参照させるようにした >>207 Oumuamuaの新作か!
GGUFも用意してくれて助かる STは要約を自動でぶちこんでくれる機能あるなら
world loreを自動で追加してくれる機能とかないかな Sillyのsbvits2ってグループチャットでキャラに合わせて話者の切り替えとか出来ないんやろか?
追加キャラのとこにデフォルトとdisabledしかないんやが
ワイが何か間違えてるんやろか… アキヨドでmicrosoftの人にCopilot+ PC何ができるのか聞いたらまだ何もできないと言われてしまった
っていうかLLMの部分ローカルなのかと思ったらまだクラウドなのね
NPUの使えるメモリは8GBだか16GBだかで、将来的にどれくらいのモデル動かすつもりなんだろ >>210
日本語キャラ名はバグで機能しないと上で見たが
ただ、そもそもSTでのマルチチャット自体がキャラごとの思想がどんどん混ざるので意味ないかも
大概は私も!となったりAキャラの戻しにBキャラの返答も含まれたりでカオスに >>198
俺も試しにユーザー辞書登録してみたんやが、editorでは頑なにしんたい、って言い張る…なんだこれ? ああ、優先度のとこを最高まで上げてみたらやっとからだって言ってくれた
その代わりに身体測定もからだそくていになっちゃった…
上手くいかんもんだな 今まで音声AIしかやっとらんかったけど、SillyTavern導入してみてSBV2と連携させてちょっとおしゃべりしただけで楽しいな
ローカルLLM入れていろいろ試してみるわ
SBV2関連の要望あったら遠慮なく言ってな >>215
SBV2のAppで立ち上がるWhisperもServerからAPIにアクセスできるようにして貰えんだろうか? sillytavernはキャラチャットに特化しすぎてて小説用途には使いにくいんだよなあ
オナニースレの有志UIみたいなもっとシンプルなUIでいいんだよなあ
あれにsbv2を連携させてほしいわ Oumuamua-7b-RP、今までのロールプレイ用モデルより圧倒的にロールプレイが安定するわ
前まであった勝手にAIがこっち側の発言書き出す現象がほぼなくて快適 勝手にこっち側の発言してくる現象やキャラ混乱は直接書き直してるが
どう直すのが一番ええんやろな テンプレートがガチガチに定まってるCommand Rでもたまにあるし、モデルの限界と割り切ってる >>219
使った事あるけど、プロンプト入力欄とシステムプロンプト入力欄にパラメータの項目があるくらいでしょ?
STでも同じように入力すればいいだけじゃないの‥? >>212
どんどんキャラが入れ替わるって感じだよね
多分グループ設定の互いのキャラクターカードを交換するってとこが関係してるんだろうけど
それじゃないやつは何してどうなるのか分からん >>223
あとprefillね
あれに慣れるともうあれ無しじゃやってられなくなる キャラカードの「最初のメッセージ」がprefillに該当するもんだと思ってたけど違うの? SillyTavernはAssistant Prefillって項目がそれ Oumuamua-7b-RPのプロンプトフォーマットの項目に
「以下のようなchat templateを使ってくれ」って書いてあるけど、STの場合はどうやればいいの?
https://huggingface.co/Aratako/Oumuamua-7b-RP
とりあえずモデルを使ってみてるけどキャラの応答がおかしいから
たぶんこのchat templateってのをちゃんと適用させないのが原因だと思ってるんだけど >>193
スタイル名に-が入ってるケースで動作しないことを確認し,修正しました.
stagingにマージされましたので,よければ更新ください. 私は使ってないけどインストラクトモードというのがあるよ
モデルは見てないので適当かもしれない
おそらく添付されてると思われるjsonテンプレートファイルをSTのフォルダにコピーするのかと
st/data/default-user/instruct/
STの設定からインストラクトモードをオンにする
プリセットを添付のものにするか、エラーが出るならアルパカのテンプレートを選ぶ、んじゃないかなぁ >>192
確かにTTS全体のバグだね.簡単に直せたので,直しておいた.stagingにマージ済み.
# 光の速さでマージされてビビった. >>231
ありがとうございます!ありがとうございます! >>228
カスタムテンプレートで自作する感じだね
ターミナルにどんな入力されてるか出るからそれ見つつ弄ると良い LLMの出力を特定の形式に強制するGrammarって機能、食わず嫌いしてたけど使いこなせたらだいぶ強い気がする
ひらがなだけで喋るの強制させたりするのをモデル問わずできるのは可能性を感じる イライザ 8bでたね
ggufもあるから誰か試して
今出先で試せん。。 僕の考えた最強クリーチャーを文章で書いて絵にしてほしいのだけど、そういうので今一番使えるのはなに? それ多分絵にするとこの限界のほうがロコツに出ると思うなあ
絵のモデルのほうで模索してガチャ繰り返したほうがいいんじゃね 今時は文章で指示だしたら3Dモデルまで作ってくれるんじゃないの? そういうのもある
なおクオリティはまだ二次と比べて発展途上
どうせLLM触るなら他のも実際に触ってみなよ ■ このスレッドは過去ログ倉庫に格納されています