なんJLLM部 避難所 ★3
レス数が1000を超えています。これ以上書き込みはできません。
0154名無しさん@ピンキー (ワッチョイ aa24-acAo)2024/06/20(木) 02:55:00.86ID:RDD54teE0
>>151
大半のLLMモデルは「〜しない」という指示に追従するのは不得意
サイズのデカい推論能力の高いモデルでも、「〜しない」より「〜しなさい」の方が追従しやすい
なので、可能であれば「あなたはAが好きではない」ではなく「あなたはAが嫌いだ」の方が与えるプロンプトとしては好ましいとされることが多い
>>152
全然違うと思う。Advanced Formatting(Aの文字のアイコン)の右下の方にあるCustom Stopping Stringsに入れる。
Silly Tavernの機能とLLMのメッセージとレスポンスが152の頭の中でごっちゃになってる気がする
Advanced Formattingで設定する各種プロンプト(のように見えるもの)はユーザーの入力(キャラカのプロンプトを含む)や設定を利用しているLLMのモデルに応じて整形して渡したり、
逆にLLMからのレスポンスをメッセージとして表示する前に、適切に整形するためのもの。
ここで{{user}}と表記されている部分にはユーザーの名前に入れ替わる
なので、Stopping Stringsに"\n{{User}}"と入れると、改行コードの次にユーザーの名前が表示される文章を受け取ったばあい、強制的に改行コードの前でUIへの出力を取りやめる、って機能。
0158名無しさん@ピンキー (スッップ Sd4a-BtEB)2024/06/20(木) 17:50:18.55ID:???d
よくAIは否定形が苦手とか言われるけど
AIはこちらがインプットした言葉に影響を受けるし、いくら後ろに「〜しない」と付けても単語を分解されたら否定形も肯定形も無くなるわけで
つまり使ってほしくない言葉は否定形だろうとできるだけインプットしないに尽きる

というのがワイの解釈
0159名無しさん@ピンキー (ワッチョイ 9bfa-soJl)2024/06/20(木) 18:24:18.75ID:???0
というかそういう話だと思ってたが
いくら周辺で否定しようとその単語を投入した時点で関連性が発生するから出現する方向に向かうってヤツ
0163名無しさん@ピンキー (ワッチョイ d305-q4hI)2024/06/20(木) 20:36:21.09ID:???0
LLMにネガティブプロンプトを入力しないっていうのはもう原則みたいなものだから
LLMの挙動の基本は行う事だから回避ささせる指示をすると逆に行うようになる
させたくない行動を指示するのではなく、させたい行動だけをしてもらう指示に言い換える必要がある
0165名無しさん@ピンキー (ワッチョイ aa0d-0aQ6)2024/06/20(木) 20:42:48.91ID:???0
>>154
https://i.imgur.com/spFCY1r.png
ええ?そんな項目ないけどどういうこと…?って混乱したけど思い出した
silly tavern を最初に起動した時にまずはシンプル表示から機能に慣れていきましょう的なメッセージが出て、それに従ってたの忘れてた
これ罠だな…
高度モードにしたらちゃんと色んな項目が出てきたよ
0168名無しさん@ピンキー (ワッチョイ cf11-/D4f)2024/06/20(木) 23:19:32.71ID:m1tM/GhJ0
下手にシステムプロンプトを充実させるより、LLM出力の冒頭部分を強制的にこっちで指定するようにした方が試行回数減ってストレスレスな気がしてきた
0169名無しさん@ピンキー (ワッチョイ afd0-3+9I)2024/06/21(金) 00:00:22.76ID:e9afd9d20
ttps://tech.algomatic.jp/entry/prompts/auto-prompt-optimization
プロンプトハックをLLM自身にやらせる手法、なんだけどこれの例で出てくるプロンプトめっちゃ参考になりそう
0171名無しさん@ピンキー (ワッチョイ 37f2-A6Ya)2024/06/21(金) 14:52:56.92ID:3AADtcAX0
初心者ですみませんが、ローカルでCR+使ってる人に質問です

Koboldで使おうと思ってるんだけど設定とかどうしてます?
Formatはinstract modeでInstruct Tag Preset はcommand rを使ってますが日本語で会話しようとしても英語やローマ字読みで返ってくることが多いですし、日本語で返ってきても言葉があやしい(例こんにちわ→こにちわ)、異常な長文等で返ってくる。
根本的になにか間違ってるのか知りたい
環境はWindows11で3090x2と3060x1で c4ai-command-r-plus-IQ3_M.ggufを使ってて理想としてはCR+のデモみたいになればいいかなと思ってます。
0172名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/21(金) 15:51:14.55ID:???0
>>171
どの量子化モデル使ってる?
llama.cppの対応が5月くらいまでいろいろあったから、古いのは使わないほうがいいかも(あるいは自分で量子化する)

dranger003/c4ai-command-r-plus-iMat.GGUF
ここのは比較的新しい。iQ4_xsがおすすめ
0173名無しさん@ピンキー (ワッチョイ cf11-/D4f)2024/06/21(金) 16:48:50.10ID:MA08bSb80
>>171
これはかなり環境依存だと思うが、うちのmacOS環境だとVRAMに乗り切らないのにn_gpu_layersを-1にしてたとき出力がバグってた
その環境だとVRAM 60GB相当だから多分ないと思うが、他にモデルが並走しててVRAM圧迫してる可能性はない?

あとは>>172の言う通り、GGUF/Kobold.cppのバージョンが古いとか
どうしてもダメなら、llama.cppでも試して見たらいいかも
0177名無しさん@ピンキー (ワッチョイ 3701-A6Ya)2024/06/21(金) 22:36:34.75ID:3AADtcAX0
>>172
>>173
助言ありがとうございます
最新版koboldでdranger003/c4ai-command-r-plus-iMat.GGUF を試したところ少し賢くなった気がしますが、すぐに崩壊してしまいます
PC再起動しての確認なので他のモデルが並走してはないはずです。
おま環かもしれないので一度llama.cppをインストールして試してみます
0178名無しさん@ピンキー (ワッチョイ c351-W7/q)2024/06/22(土) 01:57:45.63ID:NczgqD4j0
>>0176
Q6_K上げました
後はQ5_K_MとQ4_K_Mあたりも作るかな
0181名無しさん@ピンキー (ワッチョイ 4311-4wBL)2024/06/22(土) 12:36:45.57ID:ZuGBVLKt0
Qwen2-72B日本語いい感じだから、Qwen2ベースのdolphin試してみた
まあある程度無修正化されてて日本語も悪くないけど、NSFWだとちょっと繰り返し多くなったり表現力少なかったりで物足りないなぁ
一般用途なら全然アリだとは思うが
まだCommand R Plus一強状態は変わらないか
0182名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 12:38:40.71ID:0UGQK9Y10
>>180
できるやろ
Only narrate "quotes" これでセリフのみ読み上げ
Ignore *text, even "quotes", inside asterisks* こいつは太字内のセリフを無視

ただし、日本語の「」は尻タブ的には意味を持たないテキストなので、場合によってはキャラカードのプロンプトを尻タブ基準に直さんとあかん
日本語キャラでもセリフを"こんにちは!"ってフォーマットやな
0185名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 13:27:48.95ID:0UGQK9Y10
>>183
せや、最新版の尻タブならたぶんインストール時に一緒に入るんじゃないかとおもうが、はいってないなら、このスレたどってスクリプト手に入れてや
あと、尻タブ本体(App.bat)とサーバー(Server.bat)両方走らせとく必要あると思うで
0186名無しさん@ピンキー (ワッチョイ b345-S5ud)2024/06/22(土) 13:33:20.31ID:???0
前スレの最後の方に神を発見しました
このsbvits2.jsってファイルを上書きってこと?

957 名無しさん@ピンキー (ワッチョイ 2209-hJA7) 2024/06/07(金) 00:40:02.54 ID:L+384jCL0
>>927
auto_splitはデフォで有効になってて,これはレスポンス改善への効果はないよ.
API側にstreamingのサポートがあれば短くなるが...
一応,全オプション対応しておいたので,
https://github.com/Risenafis/SillyTavern/tree/sbvits2/public/scripts/extensions/tts
からsbvits2.jsを入手してください.
0187名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 14:24:07.27ID:0UGQK9Y10
>>186
既にsbvit2.jsがttsの中にあるなら、上書きしなくてもええとおもで
こっちがオリジナルの投稿なので、こっちのzipが残っている様なら、中見てみるとえーかも
確かsbvit2.js以外のファイルもいくつかは言ってた気がするので尻にsbvit2.jsを認識させるための設定ファイルとかあるんかもしれん。

0867名無しさん@ピンキー (ワッチョイ 2209-hJA7)
2024/06/03(月) 22:19:03.38ID:???0
>>851
SillyTevernのttsは自分用に改造していたので良ければどうぞ.
public\scripts\extensions\tts に上書きでOK.
適当に書いてあるので,誰かきれいにしてPR出してほしい...
http://nkgpgc.sx3.jp/uploader51/upload.cgi?get=00413
0190名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 15:13:25.58ID:NczgqD4j0
少しはググれじゃなくてAIに聞いてw
0191名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 15:14:15.43ID:0UGQK9Y10
>>189
他にも同じ形でSBVit2使えん、って人いるようなら尻タブのGitにIssueあげとけばすぐ修正入るとおもうで?
ワイの手元に当時のZIP残っとるけど、こーいった場合作者さんの許可なくアップしてええもんなんか、世間に疎いワイには分からん
0192名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 16:30:08.15ID:NczgqD4j0
最新のSillyTavernに上のリンクにあるSBVit2をマージして全く問題なく動作するけど?
SillyTavern自体のバグでユーザー名やキャラクター名に全角入ってると
voiceのリストが2人目以降ぶっ壊れるからそこだけローマ字で妥協した
0193名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 16:35:10.05ID:NczgqD4j0
あーSVits2拡張のバグ見つけたわ
デリミタが-だからデフォで入ってる音声名の-で分割しちゃってバグるな
もっと特殊な文字に変えるか
0195名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 17:05:51.63ID:NczgqD4j0
現状ERPにお勧めの組み合わせは
SillyTavern, koboldcpp, Style-Bert-VITS2
だね
LLMはここら辺から適当に
Berghof-ERP-7B, Vecteus-v1, Ninja-v1-RP, Ninja-V2, Vecteus-V2
0196名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/22(土) 20:07:35.33ID:U7ViQ8/20
sbvits2.js等の作者です.zipの再配布は何の問題もないですが,公式のdevブランチに最新がマージ済みなので,そこから取ってもらうのが良いかと思います.
全角やデリミタの件はすみません.ここ数日はちょっと時間が取れないので,そのうちになりますが確認します.
0197名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/22(土) 20:16:01.41ID:U7ViQ8/20
devじゃなくて,stagingでした.
0198名無しさん@ピンキー (テテンテンテン MMff-BxGN)2024/06/22(土) 23:27:06.50ID:???M
vitsで個人的にはその読み違う!ということがあるので設定方法
vitsのeditorを立ち上げてユーザー辞書を作って保存した後server起動
しんたいではなくからだ、ちゅうだしじゃなくなかだし、というような。
0199名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/23(日) 00:15:19.91ID:4nx+HNca0
ユーザー辞書知らんかったわ、サンガツ!
0200名無しさん@ピンキー (ワッチョイ d33b-T90d)2024/06/23(日) 02:49:30.67ID:???0
Silly tavernのmessage exampleが機能してる人いる?
メッセージカードみても記法が人によってマジで違うし
いまいち機能してるのかもよくわからん‥
0202名無しさん@ピンキー (ワッチョイ d33b-T90d)2024/06/23(日) 11:14:37.33ID:???0
>>201
example of dialogueだったわ
〈START〉から初めて{{char}}:に発言例を入れるだけやと思うんやが
historyの方の発言の方に影響されていってあんま維持できてる気せんわ
0205名無しさん@ピンキー (ワッチョイ 83c7-kkgs)2024/06/23(日) 13:02:25.53ID:???0
STで話を進める時の
書き方の決まり事だが
(発言や呼びかけは{{user}}。“で囲む。地の文は二人称で表現。*で囲む)など
キャラ情報と一緒に書く?ワールド情報に書く?
0206名無しさん@ピンキー (ワッチョイ d33b-T90d)2024/06/23(日) 13:30:31.25ID:???0
>>204
CR+使っててcontext templateやらinstruct modeの設定を外人が上げてたjsonファイル弄って使ってたんやが
example separateの設定がされてなかったみたいやわ

もうめんどくさいからcharacter noteに発言形式指定したプロンプトぶちこんで、depth設定して5回に1回参照させるようにした
0208名無しさん@ピンキー (ワッチョイ c302-W7/q)2024/06/24(月) 02:52:24.94ID:ohxfONbV0
>>207 Oumuamuaの新作か!
GGUFも用意してくれて助かる
0210名無しさん@ピンキー (ワッチョイ cfc6-5yCL)2024/06/24(月) 14:58:55.91ID:???0
Sillyのsbvits2ってグループチャットでキャラに合わせて話者の切り替えとか出来ないんやろか?
追加キャラのとこにデフォルトとdisabledしかないんやが
ワイが何か間違えてるんやろか…
0211名無しさん@ピンキー (ワッチョイ bfdf-2cMZ)2024/06/24(月) 19:04:48.47ID:???0
アキヨドでmicrosoftの人にCopilot+ PC何ができるのか聞いたらまだ何もできないと言われてしまった
っていうかLLMの部分ローカルなのかと思ったらまだクラウドなのね
NPUの使えるメモリは8GBだか16GBだかで、将来的にどれくらいのモデル動かすつもりなんだろ
0212名無しさん@ピンキー (テテンテンテン MMff-BxGN)2024/06/24(月) 19:26:31.86ID:???M
>>210
日本語キャラ名はバグで機能しないと上で見たが
ただ、そもそもSTでのマルチチャット自体がキャラごとの思想がどんどん混ざるので意味ないかも
大概は私も!となったりAキャラの戻しにBキャラの返答も含まれたりでカオスに
0214名無しさん@ピンキー (ワッチョイ bf76-S5ud)2024/06/24(月) 19:34:39.37ID:???0
ああ、優先度のとこを最高まで上げてみたらやっとからだって言ってくれた
その代わりに身体測定もからだそくていになっちゃった…
上手くいかんもんだな
0215名無しさん@ピンキー (ワッチョイ cf96-Kaex)2024/06/24(月) 20:34:43.60ID:???0
今まで音声AIしかやっとらんかったけど、SillyTavern導入してみてSBV2と連携させてちょっとおしゃべりしただけで楽しいな
ローカルLLM入れていろいろ試してみるわ
SBV2関連の要望あったら遠慮なく言ってな
0216名無しさん@ピンキー (ワッチョイ ef42-W7/q)2024/06/24(月) 23:54:23.97ID:W9jGAJjJ0
>>215
SBV2のAppで立ち上がるWhisperもServerからAPIにアクセスできるようにして貰えんだろうか?
0217名無しさん@ピンキー (ワッチョイ ff62-rlhc)2024/06/25(火) 06:43:33.12ID:???0
sillytavernはキャラチャットに特化しすぎてて小説用途には使いにくいんだよなあ
オナニースレの有志UIみたいなもっとシンプルなUIでいいんだよなあ
あれにsbv2を連携させてほしいわ
0220名無しさん@ピンキー (ワッチョイ 6384-ucyo)2024/06/25(火) 07:43:14.64ID:???0
Oumuamua-7b-RP、今までのロールプレイ用モデルより圧倒的にロールプレイが安定するわ
前まであった勝手にAIがこっち側の発言書き出す現象がほぼなくて快適
0223名無しさん@ピンキー (ワッチョイ ffbf-T90d)2024/06/25(火) 09:49:25.14ID:???0
>>219
使った事あるけど、プロンプト入力欄とシステムプロンプト入力欄にパラメータの項目があるくらいでしょ?
STでも同じように入力すればいいだけじゃないの‥?
0224名無しさん@ピンキー (ワッチョイ b355-S5ud)2024/06/25(火) 10:55:08.83ID:???0
>>212
どんどんキャラが入れ替わるって感じだよね
多分グループ設定の互いのキャラクターカードを交換するってとこが関係してるんだろうけど
それじゃないやつは何してどうなるのか分からん
0228名無しさん@ピンキー (ワッチョイ d332-W7/q)2024/06/25(火) 15:56:46.39ID:???0
Oumuamua-7b-RPのプロンプトフォーマットの項目に
「以下のようなchat templateを使ってくれ」って書いてあるけど、STの場合はどうやればいいの?
https://huggingface.co/Aratako/Oumuamua-7b-RP

とりあえずモデルを使ってみてるけどキャラの応答がおかしいから
たぶんこのchat templateってのをちゃんと適用させないのが原因だと思ってるんだけど
0229名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/25(火) 21:22:25.12ID:rdbdLxJh0
>>193
スタイル名に-が入ってるケースで動作しないことを確認し,修正しました.
stagingにマージされましたので,よければ更新ください.
0230名無しさん@ピンキー (テテンテンテン MMff-BxGN)2024/06/25(火) 21:33:28.48ID:???M
私は使ってないけどインストラクトモードというのがあるよ
モデルは見てないので適当かもしれない
おそらく添付されてると思われるjsonテンプレートファイルをSTのフォルダにコピーするのかと
st/data/default-user/instruct/
STの設定からインストラクトモードをオンにする
プリセットを添付のものにするか、エラーが出るならアルパカのテンプレートを選ぶ、んじゃないかなぁ
0231名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/25(火) 22:57:54.50ID:rdbdLxJh0
>>192
確かにTTS全体のバグだね.簡単に直せたので,直しておいた.stagingにマージ済み.
# 光の速さでマージされてビビった.
0233名無しさん@ピンキー (ワッチョイ c3c2-W7/q)2024/06/26(水) 01:37:12.34ID:SEcg4G0/0
>>231
ありがとうございます!ありがとうございます!
0236名無しさん@ピンキー (ワッチョイ 4311-4wBL)2024/06/26(水) 11:12:00.98ID:CeU/WWI20
LLMの出力を特定の形式に強制するGrammarって機能、食わず嫌いしてたけど使いこなせたらだいぶ強い気がする
ひらがなだけで喋るの強制させたりするのをモデル問わずできるのは可能性を感じる
0245名無しさん@ピンキー (ワッチョイ 03c0-iuUh)2024/06/27(木) 02:45:40.15ID:???0
>>235
https://www.reddit.com/r/LocalLLaMA/comments/1dozeyi/llm_performances_have_been_plateauing_so_we/
https://huggingface.co/spaces/open-llm-leaderboard/blog
これなんかすげーモデルでもリリースされんのかと思ったら単にリーダーボードのアップデートでシナシナです。
でも色々ベンチ周りを改善した労作っぽいのでOpen LLM Leaderboard確認してみるといいかもね
0252名無しさん@ピンキー (JP 0Hf7-BG6H)2024/06/27(木) 19:10:56.19ID:???H
自国でどんどん完結させてる中国に対してこの手の締め出しって効かなくなっていくよなぁ
優秀なAI研究者の何割だかが中国人って言うし
0253名無しさん@ピンキー (ワッチョイ c3fd-rlhc)2024/06/27(木) 19:37:03.40ID:???0
>>252
それはアメリカで研究や開発をしてる中国人の話だけどね
そういう人と話すとみんな同じことを言う
中国を統治するには中国政府のやり方しかない。それはわかる。でも俺は御免だ。
ってね
0257名無しさん@ピンキー (ワッチョイ bf1b-S5ud)2024/06/27(木) 22:50:33.44ID:???0
SBVITS2の音声学習をやってみようと手探りでチュートリアル動画に沿ってやってるんですが
データセット作成の文字起こしのとこでUnicodeDecordエラーが出て作成出来ず、どうしたらいいのか分からんので教えてください
0259名無しさん@ピンキー (ワッチョイ 1387-kWtj)2024/06/27(木) 23:49:42.10ID:iaEE0Bqa0
なんかスレに書き込んでも反映されない事あるんだけど、もしかしてtokenをカタカナで書くとスパム判定されるとかあるのかな?
0260名無しさん@ピンキー (ワッチョイ 1387-kWtj)2024/06/27(木) 23:50:05.83ID:iaEE0Bqa0
あ、書けた……
0263名無しさん@ピンキー (ワッチョイ bf74-sAgK)2024/06/28(金) 13:42:23.68ID:???0
あぁ、間違ってなんUの方に書いちゃったよ
(今更だけどスクリプト荒らし今いないし戻ってもいいのかもね)

googleが出したgemma2 27b、chat arenaの成績みる限り少なくとも英語の性能はllama3 70bに匹敵してるかも
Q5くらいなら24GBで動かせそうだ
0264名無しさん@ピンキー (ワッチョイ 33a0-cVdG)2024/06/28(金) 15:13:24.70ID:???0
あれ?Ninjaってもしかして悪魔合体すでにしてる?悪魔合体したのがNinjaなの?

説明みてるとマージレシピって書かれているけど

悪魔合体って7Bなら7Bのモデル同士じゃないとできないの?
0266名無しさん@ピンキー (ワッチョイ c37e-AF3O)2024/06/28(金) 18:08:18.83ID:???0
元々OpenAIはサムの各国行脚とか政治的な立ち回りも考えてた会社だしな
米政府との関係性って面でも今回のブロック措置は有効に機能するんじゃないか
この調子でEUもブロックして面倒な規制法をぶっちぎってエロエロモデル提供しようぜ
0270名無しさん@ピンキー (ワッチョイ 4fbe-JmlM)2024/06/29(土) 10:21:48.94ID:???0
中国がアメリカを追い越しつつある上に分断が進んで向こうの情報が見えにくくなってるから
アメリカの大学が中国の最新モデルを盗んで自分たちの成果として公開する事件まで起きてんな
動画生成も既に中国のほうが進化してるし
0271sage (ワッチョイ f321-JmlM)2024/06/29(土) 11:06:48.79ID:4Yd7voia0
gemma 9b LMstudioで使ってるけどめっちゃ頭いい気がする……gpu offloadが最大33じゃなくて50なのね
0272名無しさん@ピンキー (ワッチョイ e628-GSrL)2024/06/29(土) 11:37:05.03ID:???0
>>269
まあそうなんだけど、そういう対応をせざるを得ない状況に追い込まれてるとも言える
大赤字なんだし本当は利益だけ追求したいだろうに、色々と板挟みで身動き取れないんだろうね
エロ規制強めたり弱めたりで右往左往してるし
0276名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/06/29(土) 15:34:00.19ID:utU77jsh0
AI分野は中国人研究者最強説ある
なお中国が強いわけではない
0278名無しさん@ピンキー (ワッチョイ 4fbe-JmlM)2024/06/29(土) 21:04:39.23ID:???0
>>269
米軍はグーグルやMSと連携してLLMを作戦立案に使用する研究進めてるって報道されてるぞ
パレスチナ人を自動殺害するAIガンカメラにもアメリカのAI技術が使われてるしな

>>273
先月アメリカで発表されたLlama 3-VがGPT-4Vの1/100のさいずで同等の性能ってことでブームになったけど
中国の丸パクリと判明して炎上した
0281名無しさん@ピンキー (ワッチョイ c76a-wxoV)2024/06/29(土) 22:40:30.36ID:wcGe+rNy0
Llama3 Elyza Japaneseめっちゃテンポ良く会話してくれて気持ちいいんだけど、事務的で文章短めで創作が苦手なのが寂しい
ElyzaベースのVecteusめっちゃ欲しいわ
0283名無しさん@ピンキー (ワッチョイ f611-XQHT)2024/06/30(日) 01:49:04.34ID:g0rbcPrz0
エロに強いNinjaと頭の良い何かを悪魔合体させる話に戻して良い?
0285名無しさん@ピンキー (ワッチョイ 43c0-pWJE)2024/06/30(日) 05:18:03.88ID:???0
OpenLLM Leaderboardでもアプデされてベンチ用データセットにオーバーフィットしてスコア盛るのが効かなくなったのかQwenが相対的にランク上がってるっぽいし (前がどうだったのか忘れたけど
Qwenとかめっちゃオープンにモデル公開してるけどあれAlibabaなんよな(?)
Modelscope(魔塔社区)とかいう中国版huggingfaceみたいなんも出てきたしAI周り全部中国が自前で揃えるのも遠くはなさそう
>>270
Llama3-V(スタンフォード)が実は中身Mini-CPM(精華大学ほか)でしたとかあったな
0288名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 12:37:43.36ID:NiQ7UBWv0
7BモデルはあんまりXMLとか出力させるのには向いてないんだろうか
出力がぶっ壊れる
0290名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 12:50:33.76ID:NiQ7UBWv0
ああ、すまん
mistralベースの日本語7Bモデルの話
KUJIRAにXML出させようとしたんだけど、うまく行かんかった
0292名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 13:05:22.68ID:NiQ7UBWv0
>>291
でかいモデルとかllama-3とかだと流石に動くんだけど、日本語流暢な小型モデルでも同じことできないかなと思ってな
出力内容と一緒に出力の属性みたいなのをXMLで出力させてるんだけど、まあ凝ったことやろうとするとでかいor特化モデルじゃないと厳しいか
0293名無しさん@ピンキー (ワッチョイ 7e09-jOsC)2024/06/30(日) 13:09:21.52ID:???0
いろいろ試行錯誤するのが楽しいんだし片っ端からいろいろモデル試してみるのがいいよ
本当に結果最優先なら無料のAIサービスの方が遙かにマシだけどローカルでやる遊びだしね
0294名無しさん@ピンキー (ワッチョイ 4fa0-5q9u)2024/06/30(日) 13:32:27.72ID:???0
モデルのフレームワークをllamacppからTransformersへ変換することとかできるんでしょうか?

Ninjaと日本語強いモデルを悪魔合体させるにはこれができないといけない?
0297名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 20:06:44.19ID:NiQ7UBWv0
CohereはCommandっていう検索しづらい名前なんとかして欲しい
0299名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/06/30(日) 23:35:11.92ID:l+xb5G3F0
7Bでもそこそこ遊べるのに少し上を求めると70Bだの100Bだの400Bだのインフレし過ぎよね
0302名無しさん@ピンキー (ワッチョイ ef28-9Pyd)2024/07/01(月) 09:03:06.10ID:???0
koboldcppにあるLoRAってどういう機能なんだろ
画像生成のLoRAと同じなら特定キャラクターの設定や口調、知りうる知識なんかを読み込ませて演じさせたり出来るんだろうか
0309名無しさん@ピンキー (ワッチョイ 729f-Y4+J)2024/07/01(月) 21:58:00.86ID:???0
Kohya氏が会話生成試みてるみたい もちろん他にもやってる人いるだろうけど
キャラ毎にLLM建てて間で応答を仲介したらいけるのかな……
話題が発散しちゃうか……ターン制にしたり、隠れて話題を制御するメタなLLMも必要か……
0310名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/07/02(火) 00:16:15.82ID:a2H+spmt0
エロと実務以外だとAIのプレイヤーとAIのGMでTRPGを破綻なく1ゲーム出来るぐらいの精度と環境が欲しいよね
逆に翻訳やプログラムだと現状でもまぁ
0312!donguri (ワッチョイ c787-wxoV)2024/07/02(火) 03:11:13.98ID:/KwMwbqd0
自前でLlama-3-Swallow-8B-v0.1の方をQ8_0に量子化してみたんけど、設定間違えたんだか会話が成立しないレベルでアホになってしまう……
素直に他の人が上げてくれるの待つしかないか……
0313名無しさん@ピンキー (ワッチョイ c787-wxoV)2024/07/02(火) 03:33:48.30ID:/KwMwbqd0
ごめんこれbaseモデルの方は追加学習前の素でアホなモデルなんだな、リリースもうちょっとしっかり読むべきだった
instructモデルの方でやってみたら普通に賢かったわ……
0314名無しさん@ピンキー (ワッチョイ d212-JJRp)2024/07/02(火) 10:07:23.84ID:???0
MCTCアルゴリズムをシステムプロンプトに組み込んだbotが文章表現力まで上がってたので、そのままプロンプトを拝借して色々捗る
難点は3000トークンも使う
0316名無しさん@ピンキー (ワッチョイ b68e-QEUw)2024/07/02(火) 13:23:11.92ID:???0
今ってエロとかマルチターンの指示への追従性含めた全体的な使用感(ベンチのスコアではなく)がCommand R Plusより良さげなOSSモデルってあるかな
まあ好みもあるし曖昧だとは思うんだけど
0317名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 18:20:21.96ID:pU92odSm0
gemma-2-27b-it
エロプロンプトも通るな
ウェブ検索とかプログラミングも出来るっぽいので万能エージェントとして使えそう

https://i.imgur.com/RSDFsHO.png
https://i.imgur.com/GmrPkHA.png
0319名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 18:44:19.28ID:pU92odSm0
幼女もののエロ小説とかも、出力の先頭固定してお断り防げばそれなりに書けるな
0320名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/07/02(火) 18:58:36.49ID:a2H+spmt0
27Bとかちょうど良いサイズ感でいいわね
0321名無しさん@ピンキー (ワッチョイ fec8-XgRw)2024/07/02(火) 19:02:10.84ID:???0
koboldが対応したからチャットに使ってみたけどエロの言い回しが単調な印象
プロンプトが悪いのかな
317みたいにするにはどうすりゃいいんだろう
0322名無しさん@ピンキー (テテンテンテン MM7e-POKR)2024/07/02(火) 19:42:05.46ID:???M
相変わらずビーカーでコーヒー飲んでそうな色味のSSは見てない。しかも自分作の勝手アプリだろ?有益な情報も産んでないんだからどっか別のスレに消えてくれよ。
0323名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 20:03:19.86ID:pU92odSm0
>>322
そう一方的な感想で罵られても困る
自作アプリはLLMの醍醐味だし、そもそもコードはgithubに全て公開している以上、有益な情報を含んで無いとか、勝手なアプリだとか言われる筋合いは無いわ

有益かどうかは知らんけどgemma-2のプロンプトに関していえば、システムプロンプトに相当するものはマークダウン形式で<start_of_turn>userの中に書けば結構追従性高いよ(このSSのtool callの指示とかキャラ設定も全部そこにぶち込んだ)

これで満足か?
0325名無しさん@ピンキー (JP 0Hbb-wxoV)2024/07/02(火) 20:28:15.86ID:pKIneMAgH
遂に選民思想のやつがでてきたか
0326名無しさん@ピンキー (ワッチョイ ef38-4kL+)2024/07/02(火) 20:35:02.16ID:hIgdRz7B0
AI開発者はアダルト機能に制限をつけることで
性産業のみを保護している!!
0327名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 20:36:10.44ID:pU92odSm0
>>324
macの共有メモリなのでロード前後で差をとった概算で、コンテキストは8192 tokensで31GBくらいモデルが占有してる感じ
知識詰め込まれてると量子化の影響大きいかも、と思ってとりあえずQ8にしてるんだが、もうちょい下げても大丈夫かなとは思う
0328名無しさん@ピンキー (ワンミングク MMef-6qNV)2024/07/02(火) 20:42:07.05ID:???M
322のテテンはGPTスレでご覧の言動で嫌われて発狂して荒らしまくったり乱立スレ立ててた札付きの荒らしだよ
触らずNGリストにぶち込むのが吉
しょうもない自演擁護したり
勝手にワッチョイ・ID無しスレ立てようとするのでそれだけ注意ね
0329名無しさん@ピンキー (ワッチョイ f22e-9Pyd)2024/07/02(火) 20:50:45.79ID:???0
俺もQ5Sでsillyのチャットしてみてるけど応答はめちゃ早いもののVRAM24G埋まりっぱなしだー
けどエロは淡白だな
なんかチャットなのにナレーションでさっさと済ませようとしてくる
0330名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 20:52:11.31ID:pU92odSm0
>>328
証明する方法はぱっとは思いつかんが、別人と同一視されるのは不快なのでやめてもらえないか?

まぁこのスレの総意として消えろと言われれば、それは仕方ないので従うが・・・
0334名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 21:36:42.27ID:pU92odSm0
>>328
>>332
>>333
うお、これは失礼
肩を持ってくれたようなのに申し訳なかったな
0338名無しさん@ピンキー (ワッチョイ f23b-GSrL)2024/07/03(水) 08:57:15.51ID:???0
オンラインモデルでもclaude3やGPT4oみたいなLLMはほぼエロ規制ないけど、dalle3や動画生成aiはエロ規制キツいままだね
まあこいつらはエロ学習もしてないから規制というより無能なんだけど
0339名無しさん@ピンキー (ベーイモ MM0e-o0uY)2024/07/03(水) 10:53:35.29ID:jJPCrDJWM
>>338
dall-e3はエロ理解度高いぞ
0340名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/03(水) 11:18:44.29ID:CoTbk8kx0
ちょっと上に出てるcohereの新しいモデルってやつ、流れちゃったけどソース知ってるやついる?
本当なら割と楽しみなんだが
0341名無しさん@ピンキー (ワッチョイ c2a2-JJRp)2024/07/03(水) 11:33:32.57ID:???0
>>340
sandra kublikのxに書いてある
今後のcommandシリーズの展開とかも
他の企業と同じくモデルサイズの縮小と特化型を目指すみたいだから思ってたのと違う感じになりそうだなぁ
0342名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/03(水) 11:49:46.46ID:CoTbk8kx0
>>341
これか、サンクス
https://x.com/itsSandraKublik/status/1807801960738791491

まあR/R+も”本来は”エンタープライズ向けのモデルだとは思うから、特化型といいつつなんだかんだで色々使える〜ってのを少し期待して待っておくことにしよう
0344名無しさん@ピンキー (ベーイモ MM0e-o0uY)2024/07/03(水) 12:37:24.64ID:SUIzy+JTM
>>343
例えば”スマタ”って指示すれば太ももを強調した絵を描くぞ
検閲されるだけでエロ系概念も内部には持ってて引き出すのが難しいだけ
0345マジカル (ワッチョイ ef34-JmlM)2024/07/03(水) 13:46:40.73ID:DGPDRyrj0
Ninja-V2のアップデート、Ninja-V3をリリース致します。
EVO-Mergeを活用したモデルになります。

https://huggingface.co/Local-Novel-LLM-project/Ninja-V3
https://huggingface.co/Local-Novel-LLM-project/Ninja-V3-GGUF

さらに、このモデルをMoEしたモデル、Shadows-MoEもリリース致します。

https://huggingface.co/Local-Novel-LLM-project/Shadows-MoE
https://huggingface.co/Local-Novel-LLM-project/Shadows-MoE-GGUF

https://x.com/int_float_/status/1808358688304124397
https://x.com/int_float_/status/1808358999928328616

ぜひお試しください!
0348マジカル (ワッチョイ ef34-JmlM)2024/07/03(水) 15:20:53.08ID:DGPDRyrj0
>>347
ありがとうございます。修正しました。
0351名無しさん@ピンキー (ベーイモ MM0e-o0uY)2024/07/03(水) 19:03:09.52ID:XPheENo6M
>>350
それだけ?ちゃんと出力を見なよ
0354名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/04(木) 12:35:17.93ID:CYZ0uTpH0
>>353
あんまり気になったことないけど、どのモデルでも似たような傾向はあるん?
0357名無しさん@ピンキー (ワッチョイ 43c0-pWJE)2024/07/04(木) 19:45:23.20ID:???0
Calm3期待してるわ
こういうときサクッと自分でGGUF変換できればいいけど未だにImatrix Quantizationのやり方わからん
トレーニングデータってWikiTextなるものを与えるらしいけどどっからダウンロードできんのか一生わからん
……とか書いてたら早速GGUF上がってたわありがたい(grapevine-AI/CALM3-22B-Chat-GGUF)
0358名無しさん@ピンキー (ブーイモ MM92-POKR)2024/07/04(木) 21:05:14.02ID:???M
色々な方向性で作ってくれるのは業界発展にも良いことだと思うんです
しかし愛らしい応答の雰囲気はそのままに、エロ以外の話題にも耐えられるベクテウス1+的なものが欲しいかなあ
ちょっと前ならローカルの小型モデルで望むレベルは遥かに超えてるわけで贅沢なお願いではあるのだけどね。
0360名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/04(木) 21:56:37.20ID:CYZ0uTpH0
汎用性考えると7Bクラスでは流石に無理な気がする
0364マジカル (ワッチョイ ef57-TVBI)2024/07/04(木) 23:55:30.34ID:3pUUsVZz0
https://imgur.com/a/MoXf7ds
このように小説以外の文章も生成可能です
0370名無しさん@ピンキー (ワッチョイ f2ad-9Pyd)2024/07/05(金) 22:59:41.09ID:???0
silly tavernとSBV2で喋らせてる人、マージしたモデルちゃんと使えてる?
一覧に表示されるモデル名がマージ元のままになってて、実際喋らすとマージ前の声になっちゃうんだけど
でもTTS設定のavailable voicesのとこからいろはにほへと〜って喋る時はちゃんとマージ後の声になってる
何かしらバグってそう
0371名無しさん@ピンキー (ワッチョイ 1fad-2T2a)2024/07/06(土) 00:33:19.87ID:???0
マージ元のモデルフォルダをSBV2から移動させてマージ後のモデルだけにしてみたらsillyでちゃんと使えた
でもやっぱりマージ元の名称で表示されてる
やっぱりこれが原因で不具合起きてるみたい
0372名無しさん@ピンキー (ワッチョイ 5f09-DBC8)2024/07/06(土) 03:03:17.17ID:???0
大体わかった.SillyTarvernとしては同名のvoiceNameは想定してないので,1つ目を選んだ扱いになる.
model_assets\マージモデル名\config.jsonのspk2idを変更すれば回避可能.
マージスクリプトの修正のPR出しとくわ.
0373名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/06(土) 05:54:13.76ID:???0
Oumuamua-7b-RP_Q8_0.ggufを使ってるんだけど
userを罵りながらのエッチとか女キャラに乱暴なエッチをさせようとすると文章がかなりおかしくなるな
攻めっ気の強い女キャラが上手く表現できないのかな
0376名無しさん@ピンキー (ワッチョイ eba7-9U6/)2024/07/06(土) 10:47:28.81ID:zjHLxeXP0
>>375
speakerID(spk##ID)ってモデル側のconfig.jsonで書き換えられんかったっけ?
0378名無しさん@ピンキー (ワッチョイ 4f32-9KzH)2024/07/06(土) 20:50:11.30ID:???0
最近流行ってるflorence-2っていうmicrosoftの画像からテキスト生成するモデルでなんちゃってマルチモーダルやってるけど、画像から小説生成する程度のタスクならそこそこ遊べるな
0379マジカル (ワッチョイ 2b41-hvYX)2024/07/06(土) 23:18:32.31ID:bF1ixPzl0
お聞きしたいのですが、チャットモデル、小説生成モデル、RPモデル
どれに魅力を感じますか?
教えていただけると幸いです。
もしくは、あったらいいなと思うモデルがあったらそれもまた教えていただきたいです。
0380名無しさん@ピンキー (ワッチョイ 7be4-BXzz)2024/07/06(土) 23:25:15.54ID:???0
自分の代わりに検索してくれるモデルとかかな
ローカルLLMって時点でモデル自体の知識には限界があるから最初から検索して回答する前提のモデル
0381名無しさん@ピンキー (ワッチョイ dbc8-bJ31)2024/07/06(土) 23:44:22.17ID:???0
>>379
EasyNovelAで使用可能な小説生成モデルがあればとても嬉しいです

私の使用目的だとVecteus-v1が最も使用しやすく
次にJapanese-TextGen-MoE-TEST-2x7B-NSFW_iMat_IQ4_XS
が使用しやすいです

折角作成していただいたのに
私の指示が不適切なのかKagemusya-7B-v1は
未だ上記2つより上手く使いこなせておりません
0382マジカル (ワッチョイ 2b41-hvYX)2024/07/06(土) 23:53:33.78ID:bF1ixPzl0
>>381
どのように使用しているか教えていただけますか?
影武者はインストラクションを用いるなどの用途は想定されておらず、

書き出しを3行くらい書く→AIに続きを200字ほど書かせる→人力で気に入らない部分を変更、話の流れを誘導→続きを書かせる→繰り返し

いわばAIと共同で小説を書くといった使い方を想定しています。

チャットなどできないことはないですが、小難しいタスクはおそらく理解できず、指示を出して小説を書いてもらうといった使い方には向いていません。
その場合はNinja-V3やVecteusの方が適しています。
0383名無しさん@ピンキー (ワッチョイ 2b32-bJ31)2024/07/07(日) 00:08:13.07ID:???0
>>379
自分は小説作成が主な用途ですが、7Bという利点を生かすならチャット用途で使う人が多いかと思います。
応答速度は速いに越したことありませんが、小説用途なら70Bの速度にも耐えられるので(自分だけかもしれんがw)
影武者はAIのべりと的な使い方ができるベースモデルのような感じなので、これにinstract tuneできれば
面白いモデルになるかもしれませんね
0384名無しさん@ピンキー (ワッチョイ 0f7a-bJ31)2024/07/07(日) 00:10:18.95ID:???0
ぶっちゃけ小説用途ならClaude3の本家とか使うほうが
コストかかるとしてもいいと思うけどねえ

Opusもいいし、Sonnet3.5もいい(poeとか外部サイトで使うならこっちは安いメリットもある)
0385名無しさん@ピンキー (ワッチョイ dbc8-bJ31)2024/07/07(日) 00:15:55.98ID:???0
>>382
結構複雑な指示を出しているのでそれが不適切だったんですね
意図されていない使用をしてすいませんでした

季節や場面を変えるだけでキャラが同じ行動や考えをし続けるので
物語がずっと先に進まないようになっていました

私の書き出し自体がモデルに不適切なんだと分かりました
ありがとうございます
0386名無しさん@ピンキー (ブーイモ MM7f-TiHG)2024/07/07(日) 00:38:57.96ID:???M
希望のもの、かつ制作意識を刺激するものを言っていいなら
シンプルな記述で方眼紙に200文字(あらすじの書き出し)、音素でいう20文字という指定に従う創作向けのモデルかなぁ(俳句や歌手)
token数じゃないからね!といってもチャットgptだとほぼ間違えるか試行錯誤して答えを出せない
0388名無しさん@ピンキー (ワッチョイ eba7-9U6/)2024/07/07(日) 01:34:43.56ID:2UDtZkPd0
技術的に可能か分からんけど、冒険ゲーのNPC、コンパニオンや敵対NPCとのやり取りを前提にしたチャットモデルみたいなのが欲しいなぁ...。
キャラ名、状況を簡単なパラメータ、数ターン分の会話履歴を渡す、などでふさわしい応答を返してくる、みたいな感じで
ゲーム固有のキャラ名、地名やアイテムなどは外部ファイルなりで別途定義できる、みたいなモデルがあったら最高なんだけど
0389名無しさん@ピンキー (ワッチョイ 9f6e-MsCS)2024/07/07(日) 03:31:40.29ID:???0
>>379
個人的な好みで言えばだけど…
・NSFW重視 (SFWならClaudeが良さそう)
・直後の展開を本文としてではなく [ここで猫が登場する] みたいに指示する機能が欲しい (のべりすとでできるらしい)
・用途は小説かロールプレイチャット
・「最初に短い本文か指示を与えると、適当に話を展開し続けて読み上げてくれる」と面白いかもしれない(読み上げ機能は探すか作る)

ちなみに最近使ってるモデルは Berghof-NSFW-7B-GGUF
0392名無しさん@ピンキー (ワッチョイ 1ff5-18o2)2024/07/07(日) 09:09:57.25ID:???0
区別してる人はあんまりいないと思うけど、自分の区別はこんな感じ↓
普通のチャット:
👱「こんにちは、話し相手になってよ」
🤖「もちろんです、何について話しましょうか?」
ロールプレイチャット:👱「君は万引き少女で俺は店長ね。じゃあ始めるよ。きみ、ポケットの中のものを見せなさい!」
🤖「え…なんですか!?言いがかりはやめてください!」
0395名無しさん@ピンキー (ワッチョイ 0f7a-4Szj)2024/07/07(日) 09:38:23.08ID:???0
>>384
まあこっちのスレはローカル専用的になってるからね
規制&課金無しってとこに魅力見出してやってるわけだし
それに限らない人は普通に向こうのスレと掛け持ちしてるだろうからわざわざ誘導しなくてもいいんじゃないか
0399名無しさん@ピンキー (ワッチョイ cb87-PEkd)2024/07/07(日) 15:58:14.46ID:z1dzpp5z0
個人的にはチャットで、複雑なキャラ設定でも忠実に守ってくれるタイプのモデルが欲しいなぁ
キャラクタープロフィールを作り込んだり会話例を記載しても、しばしばプロフィールに沿わない性格になったり、
地の文を吐き始めたりするから「長いプロフィールや前提条件を読んだ上で、適切に会話だけができる」モデルがあると嬉しい
まあ地の文が出せないモデルは需要も少ないのかもしれないけど……
0402名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/08(月) 04:39:53.23ID:???0
尻タブでの返答って新規チャットでも過去のチャット内容に影響されることあるの?
なんか前に俺が答えた内容に沿ったような返答が返ってくることがある気がするんだけど

>>392-393
なりきり要素が強いってことなのかな?
0403名無しさん@ピンキー (ワッチョイ 2b51-yrsp)2024/07/08(月) 11:57:13.66ID:???0
SillyTavern自信ニキっておる?
WorldInfo機能使って今までのチャット内容を要約したもんをお互いの記憶として置いてみたいんやけど
デフォで用意されとるヤツや公式Tips見てもよう分からんくて四苦八苦しとるんや
自分はこう使ってるやで〜ってお手本あったら教えてクレメンス…
0405名無しさん@ピンキー (ワッチョイ 5bc7-wjSz)2024/07/08(月) 14:20:53.90ID:???0
チャットで仕草や周囲の描写が詳細なものがいい
同じキャラで色んなシチュエーションや関係性を楽しみたいので性格やプロンプトは忠実がいい
新規で始めたら前の流れを組まずに
リセット出来ると嬉しい
0406名無しさん@ピンキー (ワッチョイ 9faa-9U6/)2024/07/08(月) 15:30:57.13ID:rnaQ1ZHg0
モデル側の裁量で新規に始めて前の流れ汲まれたらちょっと怖いやん
0407名無しさん@ピンキー (ワッチョイ 2b03-2T2a)2024/07/08(月) 16:04:59.21ID:???0
>>403
俺も手を出してみたいと思ってちらっと調べたんだけど、worldのプロンプトは会話でそれに関するキーワードが出た時に参照される類のものみたいね
逆にそういう話題じゃない時は参照しない=トークン節約になるとか
0408名無しさん@ピンキー (ワッチョイ 2b32-bJ31)2024/07/08(月) 18:49:05.75ID:???0
sophosympatheia/New-Dawn-Llama-3-70B-32K-v1.0

最初英語の表現試そうとしたけど、ふと日本語で書かせてみたら、swallowなんかよりずっといけるわ(日本語チューニングとは何だったのか)

nfswだし、ggufもあるから、試してみて
0411名無しさん@ピンキー (ワッチョイ 2bd2-yrsp)2024/07/08(月) 21:56:03.40ID:???0
>>404
>>407
サンガツ
レス貰ってから色んなbookの中身覗いたり気になったのを試してみたやで
んで、DLしたそのままだとワード含んだ発言しても参照してくれなくて「?」ってなっとったんやが
正規表現に直せば上手く参照してくれるってとこまでたどり着けたわ
赤ちゃんですまん
とりあえずこれでなんとかなりそうや
0416名無しさん@ピンキー (ワッチョイ 1f74-sPXK)2024/07/09(火) 13:47:37.14ID:???0
Genma2を日本語ファインチューンしてくれる神が出てくれるのをずっと待ってる
公式ウェイトの時点でも日本語普通に話す上に27bだから5bit ggufが普通に24GBに収まって糞速い(20token/s)
あとはいろんな話題に対応してくれればね・・・
0424名無しさん@ピンキー (ワッチョイ dbc0-X5c7)2024/07/09(火) 20:25:03.50ID:???0
SillyTavernで長期記憶するならデータバンクじゃねと思ってやってみたんだけど
- データバンクのテキストに「秘密の合言葉は○○です」って書いてキャラクターアタッチメントに置く
- チャットで「秘密の合言葉を言ってみて」
って聞いても全然答えてくれんかったわ
どうやって機能させるんじゃこれ
0427名無しさん@ピンキー (ワッチョイ 9f77-e7sY)2024/07/10(水) 01:42:25.44ID:???0
記憶させてるつもりなのに水に散らした絵の具みたいにだんだん薄くなっていく気がする
かと思いきやスリーサイズはいつ聞いても正確だったりもするんだよな
0431名無しさん@ピンキー (ワッチョイ 2be3-yrsp)2024/07/10(水) 14:22:23.69ID:???0
・ワールドインフォ
特定のキーワードが発言された時に記入しておいた内容を参照+自動挿入する
(確率の設定なども可能なので、ランダム要素的にも使える?)
・データバンク
様々な外部データ(ローカルファイルやウェブ検索、つべなどなど)をセット可能で、発言内容に沿って参照+該当する項目を自動挿入する
・キャラクターノート
記入しておいた内容を一定の間隔で自動挿入する

こういう認識で合っとる?
0432名無しさん@ピンキー (ワッチョイ dbc0-X5c7)2024/07/10(水) 15:48:57.43ID:???0
>>428
ワイが言ってたのは最近実装されたデータバンク(RAG)のほうや
でもドキュメントたどったらわかったわ
「ベクター機能はデフォルトで無効になっているため、拡張機能パネル(トップバーの「スタックキューブ」アイコン)を開き、
「ベクターストレージ」セクションに移動し、「ファイルベクター化設定」の下にある
「ファイルに対して有効」チェックボックスにチェックを入れる必要があります。」
でやったらちゃんと答えた

設定値のデフォルトメモ
https://i.imgur.com/GLnu31m.jpeg
✨アイコン→データバンク
https://i.imgur.com/YI9daqL.jpeg
情報をアタッチする。ノートを書いたりWebページのURLを置いたりドキュメントを添付したりする
https://i.imgur.com/Vhwy1fE.jpeg
0434名無しさん@ピンキー (ワッチョイ 1bdc-9U6/)2024/07/11(木) 03:09:47.74ID:???0
LLM触ろっかなって思っとる赤ちゃん未満の赤ちゃん質問ええか?
クソザコpcだからcolabとかawsとかで動かそうと思ってるんやがnotebookとかってないんか?
やりたいこととしては簡易エロゲだからSillyTavernってのが動けば幸いやで
0437名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/11(木) 14:39:15.55ID:???0
難しいルールを設けるとあんまり理解してくれないな

「○○は禁止されているが、{{user}}のペルソナに書かれている特徴が優先される。」
「{{user}}の特徴:○○は禁止されない」

みたいに書くと「○○は禁止だ!」って言い張られてしまう
0439名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/11(木) 18:36:02.50ID:???0
「この部屋に土足で立ち入ることを禁止する。ただし{{user}}だけは土足で入ることを禁止されない。」
という条件の場合、{{user}}は土足で部屋に立ち入っても良いのでしょうか?

って質問してみたら
「その場合、{{user}}だけは特別扱いだから土足で良いけど他の人は禁止です」
と返ってきたから理解はしてるみたいなんだよな

ほとんど何も書いていないキャラだとこうやってまともな答えが返ってきたから
キャラクターの特徴や対話例の影響で言うことを聞いてくれなくなってるのか
0440名無しさん@ピンキー (ワッチョイ 1fcf-9U6/)2024/07/11(木) 18:49:05.37ID:SUV1D8dD0
小説を生成してマンガのコマ割りも提案してくれるAIってあるかな?
0441名無しさん@ピンキー (ワッチョイ abbe-9U6/)2024/07/11(木) 19:23:00.06ID:???0
参考にできるパクリ元が沢山ありそうなお題はまあそこそこだけど
やっぱそうでないときはまだどのモデルも小学生レベルにも遠く及んでいないなとは思う
どこかでブレイクスルーがあって絵みたいに一気に人間を超える瞬間が来るんだろうか?
まあその時は一部の金持ち以外には人権が無くなる瞬間なんだろうけども…
0442名無しさん@ピンキー (ワッチョイ 2b1a-yrsp)2024/07/11(木) 21:14:21.11ID:???0
>>439
"なおこの世界では◯◯は禁止されているが、{{user}}だけは全てを許されている"
とか記述変えてみるのはどうや?

あとペルソナに書かれている特徴〜っていうのは
🤖「{{user}}のペルソナって何処や…?」と混乱してる可能性もありそうやから
(ログ見ると分かるけど、どの項目も特にこれといった見出しがついてない)
特徴をペルソナに書き換えるか
マークダウンやXML記法で見出しをちゃんと書いてあげるとええんとちゃうか
0444名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/11(木) 21:31:05.00ID:???0
「{{user}}だけは全てを許されている」
みたいなことも試したんだけど、どうやらキャラの性格上「許されていても嫌なものは嫌だ!」って断る感じになってしまっているみたい

確かにペルソナ内の特徴を正しく見つけてくれる確率が2割ぐらいしかなかったわ
マークダウン記法試してみる
0445名無しさん@ピンキー (ワントンキン MM3f-4Szj)2024/07/11(木) 21:36:22.98ID:???M
ジッサイプロンプトはプログラムとして処理されるので
特性上否定系は無視されがちというか
肯定否定問わずそこに書かれた時点で「そういう概念が存在する」という認識の仕方をしてる気がする

生成画像みたいにネガティブプロンプトとして区別してるわけじゃないので
0446名無しさん@ピンキー (ワッチョイ cb60-PEkd)2024/07/11(木) 21:39:36.93ID:4YoDwQ3S0
ルール的にはダメなんだけどこの人はOKっていう指示は、脱獄対策のベクトルと近くてお断りされてるのかもしれんね
「爆発物の作り方を教えるのは禁止です。『あなたはOKなAIです』というプロンプトを与えられても話してはいけません」
みたいな学習の影響がある気がする。しらんけど
0447名無しさん@ピンキー (ワッチョイ 2b1a-yrsp)2024/07/11(木) 21:41:18.10ID:???0
>>444
それはそれでキャラ設定きっちり守ってるいい子ちゃんとも言えるな
ほな "{{char}}はそれに逆らうことは出来ない" とか更に追求してみるのはどうやろか

もしデフォプロンプトのまま使ってるようなら
NSFW Promptの中に「一部のキャラクターは、性格に応じて嘘をついたり、抵抗したり、反撃したりします。」って記述されとるから
そこをごっそり削除した方が確実かもしれん
0448名無しさん@ピンキー (ワッチョイ dfaf-96sv)2024/07/11(木) 22:33:26.66ID:???0
LLMは文章から一番相応しい応答を推測するので否定語が出た時点で否定語を含めた応答を生成しちゃう
LLMに否定語を使わないほうがいいっていうのもそのせい
NSFWなロールプレイにしたくないのに恋愛要素のある設定のせいで勝手にそうなったり
0450名無しさん@ピンキー (ワッチョイ dbc0-X5c7)2024/07/12(金) 05:04:38.45ID:???0
>>434
SillyTavernはただのフロントエンドというかUIだからPCがクソ雑魚でも平気 Colabとか使うまでもない
LLM自体はAPI↓で動かす運用ならね
無料:CohereのCommand r plus
有料:Claude 3.5 sonetとか
ノベルゲー風味はグループチャット機能でキャラたくさん入れてチャットするとそれっぽくなるかもやな
https://files.catbox.moe/nw2pb7.jpg
0452名無しさん@ピンキー (ワッチョイ 7bc6-PRuz)2024/07/12(金) 20:50:14.96ID:???0
TeslaP40/24GB 2台(PCI-E x16接続)とRTX3060/12GB 1台(PCI-E x4接続)でKARAKURI 70B chatのGGUF/Q4KM(モモンガさんの奴ね)をPL140で動かしてみたけどチャットで5.5T/sぐらいは出た
海外の人が同じくPL140かけたP40 3台でllama2 70BのQ5KMを動かした例では7〜8T/s出てるから3060のPCI-E x4が足を引っ張ってるっぽい...後で外してみるか

70BクラスでKARAKURIのほかに日本語でエロい事に使えるオススメのモデルってある?Command-R-Plusは後で試すつもり
0454名無しさん@ピンキー (ワッチョイ 0f4e-MkDc)2024/07/12(金) 21:29:37.77ID:yg/qomks0
Ninjaの方がエロい
と言うかNinjaはエロ専門
エロしか書けない
0455名無しさん@ピンキー (ワッチョイ 0764-4dff)2024/07/13(土) 03:51:08.99ID:???0
gemma2ベースの無検閲の小説特化ファインチューニングモデル来ないかな
ちょっとそっけないけどVRAM24GBで収まるモデルの中ではもっと自然な日本語書いてくれるから期待してる
0458名無しさん@ピンキー (ワッチョイ 0acf-urh9)2024/07/13(土) 20:12:20.74ID:CrYklSAF0
前スレで常識改変モノの作り方なんですがプロンプトはこんな感じでよろしいでやろか?
「ただし、私が【AIと代わって。】と指示したら「○○」のなりきりを一時中断してAIとして対応してください。その後「○○」に戻ってください。なお、「○○」に戻ったらAIの時の記憶や自覚は無いものとします。」
0460名無しさん@ピンキー (ワッチョイ dedb-0Wc7)2024/07/14(日) 01:02:22.27ID:9jh+Xqwi0
Ninjaはv1が一番出来が良く感じる。v3とか変な生成するし、v2は短くしか生成してくれなかった。設定のせいかもしれないけど、どこを設定していいのかわからない。v1はtranceformerだから扱いやすい
0462名無しさん@ピンキー (ワッチョイ dedb-0Wc7)2024/07/14(日) 01:43:01.44ID:9jh+Xqwi0
説明見るとNinjaはいくつかのモデルをマージしているんじゃないの
違いは何をマージしてるかの違いなんじゃないの
0467名無しさん@ピンキー (ワッチョイ 0adf-gu6S)2024/07/14(日) 18:55:35.49ID:???0
別にそんな突き放さんでもええと思うが
チャット相手としてベストかどうかは分からんけどsilly tavernはチャットに特化してるからかなり満足いくカスタマイズができると思うで
無料にこだわるならローカルで、質にこだわるなら有料サービスに繋いでもいいし
0469名無しさん@ピンキー (ワッチョイ 0ada-8aOB)2024/07/14(日) 20:26:39.01ID:???0
公式は硬いからあかんのや!
相談してる女の子キャラに「しょうがないわね!今日だけおっさんのくっさいチンポ舐めてやるよ」
とか
「おっさんそんな弱音吐いてたら私のマンマン舐めさせてやんねーから!寝てろ!」
とか怒られたいんや😭
0475名無しさん@ピンキー (ワッチョイ 0ada-8aOB)2024/07/15(月) 10:10:57.13ID:???0
>>471,472
普通の日常会話してるところに急にキツめの口調でエロDis入れてくるところにおじさんグッとくるんやぁ😭
それするにはSillyが一番なんかを聞きたかったんやぁ😭
0481名無しさん@ピンキー (ワッチョイ 0a20-gu6S)2024/07/15(月) 18:11:18.58ID:???0
ローカルだと良さげな新しいのが出るたびに使ってみては結局VecteusV1に戻ってきてたけど、
>>389が言ってるBerghof使ってみたら中々良いかも
甲乙付けがたいけど、微妙にキャラの個性がしっかり維持されてる気がする
0483名無しさん@ピンキー (ワッチョイ faa3-fDgB)2024/07/15(月) 18:45:02.18ID:???0
>>479
そうだよね
それに加えて「普通の日常会話してるところに急にキツめの口調でエロDis入れてくる」という難しめのタスクをこなしてもらうにはそれなりに賢い必要もあるし
やはりClaude系がベストと思うな
とはいえ似たような性癖の人はあまりいないと思うから自分であれこれ試してぶっ刺さるのを見つけるしかないのではないか
0485名無しさん@ピンキー (ワッチョイ 1e7a-urh9)2024/07/16(火) 00:33:55.54ID:Gabe+Xud0
ここで聞くことじゃないかもしれんけど
Sillyで使う表情付きのイラストってどこかで配布されたりしてるの?
自分でしこしこ生成するしかない?
Character Tavernとかでおもろいカード落としても立ち絵もなくて寂しい
0489名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/16(火) 08:01:49.92ID:???0
5070はVRAM 12GBみたいだし5080以上は高くて手が出しにくいから
3080 10GBから4070 ti superに換装しようと思ってるんだけどやっぱり迷うな
7Bを使えるようになったらだいぶ変わるんだろうか
0494名無しさん@ピンキー (ワッチョイ 8e14-aXFj)2024/07/16(火) 17:55:25.19ID:nkLqJhH+0
anthropicって結構いい感じだけど、すぐ会話続けられなくなっちゃうな
chatGPTは同じ会話の中で無限にずっと続けられるのに
APIで動かせばこの制限なくなるのかな
0497名無しさん@ピンキー (ワッチョイ 8e14-aXFj)2024/07/16(火) 23:01:52.88ID:nkLqJhH+0
https://i.imgur.com/BoY7CtV.jpeg
こういうやつ
課金すれば制限なくなるけど主目的がNSFWだから気乗りしない
だからこのスレにいるわけだけど
0498名無しさん@ピンキー (ワッチョイ 8e14-aXFj)2024/07/16(火) 23:19:42.66ID:nkLqJhH+0
>>496
それ

やっぱclaudeは頭の良さがダンチだな
ローカルでこのレベルが動けば良いのに
0502名無しさん@ピンキー (ワッチョイ 1adb-ZeM8)2024/07/17(水) 10:45:43.49ID:???0
エロ目的だと課金に気乗りしないの意味がよくわからん
BANされるかもみたいな話?
オナニースレでもほとんど報告ないし万が一されても返金されるから気にする必要ないぞ
0504名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/17(水) 10:57:10.60ID:???0
今までオリキャラだけでやってたけどchub.aiでキャラクターカード落としてみたらすごくよく出来てるな
ハーレムチャットもまともに機能してるわ
0506名無しさん@ピンキー (ワッチョイ 2b4e-gu6S)2024/07/17(水) 11:18:12.96ID:???0
>>504
そこいいよね
上で表情差分画像の話が出てたけど、そのサイトは表情差分付きって条件で絞って検索出来るから捗る
画像だけ拝借して別キャラに使い回しても良いわけで
0507名無しさん@ピンキー (ワッチョイ 1adb-ZeM8)2024/07/17(水) 11:22:59.50ID:???0
>>505
perplexityではまずされない
自分はperplexityで◯リ調教とか日常的にやってるけど平気だしオナニースレでもperplexityBANされたなんて報告は一度もない
とはいえいつかお咎めが来る可能性はあるのでそこは自己責任で
というかお咎めが行くとしたらまずanthropicからperplexityに向けて行くんだけどね
そこからさらに個人やソフバンに行く可能性はなくもない
0508名無しさん@ピンキー (ワッチョイ ff32-Xuj+)2024/07/17(水) 14:00:24.85ID:???0
sillyはフロントエンドでしかないってのは上記で言われてる通りだけど
silly自体が多機能過ぎて語るべき事が多いんだよな、繋ぐだけならその辺に情報はあるとはいえ
ちなみに日本語モデルだと表情切り替えちゃんと機能してない気がするけどどう?文章に関係なく笑顔になるとか
英文モデルを自動翻訳に通す使い方だと多分正確な表情出てる
0509名無しさん@ピンキー (ワッチョイ ff32-Xuj+)2024/07/17(水) 14:11:02.20ID:???0
あと表情差分は確かに多少自動化して作れた方がありがたい気はする、comfyUIでワークフロー組んだら作れないかな
立ち絵用意して、背景透明化ぐらいは人間の力入れて
comfyUIのimg2imgで顔部分マスクして、目の色の情報だけ全共通で入れて、いくつかの表情差分をワンボタンで量産する所までは思い付いた
0510名無しさん@ピンキー (ワッチョイ 2b92-gu6S)2024/07/17(水) 14:58:54.94ID:???0
SBV2についても色々語りたい事多いんや
チュパ音モデル公開してくれたから、まずお気にのモデルとマージして大量にチュパ台詞を読み上げ、WAVで保存
このWAVをお気にの音声素材に追加して学習すれば通常会話とチュパ台詞を両立させたモデルが作れるんとちゃう?と閃いたんやが結果は微妙やった
チュパ時の喘ぎ声は上手く追加出来たものの、チュパ音がほぼ聞こえないくらい小さくなったり派手に音割れしたりでおかしくなってまう
0512名無しさん@ピンキー (ワッチョイ 0717-urh9)2024/07/17(水) 15:14:05.57ID:uvhJPCNY0
>>510
チュパ音モデルとのマージでチュパセリフ行けるか?
ワイも試したけど、うまく行かんかったな…
通常のマージよな?
0513名無しさん@ピンキー (ワッチョイ 2b31-gu6S)2024/07/17(水) 15:42:38.36ID:???0
>>512
通常マージやで
それも微妙なとこで、声質0.5の他全部チュパモデルのままって配合で精一杯やった
それ以上お目当てモデル側に寄せると音がおかしくなる
ささやき声でも似たような感じやったしSBV2のマージって思ったより自由度が低い感覚だわ
0514名無しさん@ピンキー (ワッチョイ 0780-urh9)2024/07/17(水) 16:11:31.07ID:uvhJPCNY0
>>513
あー理解した、マージの時点であかんかったという話か
ささやきマージうまく行かんかったとこも一緒や

通常会話と喘ぎ声の同居まではそこそこ何とかなるけど、チュパ音語同居はやっぱりちと厳しそうやな…
0515名無しさん@ピンキー (ワッチョイ 2ba0-4dff)2024/07/18(木) 01:47:08.29ID:???0
>>508
つい最近silly知ってモデルはninja-v1RPでやってみたけど確かに表情はあんまり切り替えてくれない。
自分の環境だと大体caringになる。

立ち絵はDiffRepromっていう差分画像を生成するA1111拡張がこの用途に適してると思う。
変えたい領域をプロンプト(表情なら目・眉・顔)を指定するとその領域を検知して差分画像を生成してくれる。
背景透過はtransparent-backgroundでフォルダごと投げれば一括で処理してくれてます。
0517名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/18(木) 05:56:29.74ID:XiQ9ntNl0
尻タブで使う画像の解像度ってトークン数に影響するの?
koboldだと解像度が影響するってどこかのモデルに書いてあったんだけど尻タブはどうなのか
0518名無しさん@ピンキー (ワッチョイ 0780-urh9)2024/07/18(木) 10:13:58.56ID:5V/aR5gj0
マルチモーダルで使う画像の話なら、バックエンドとフロントエンドに関して理解してない部分があるんとちゃうか?
尻タブはマルチモーダルとは関係なく、立ち絵や背景にも画像使えるがそっちの話なら関係ないで
0519名無しさん@ピンキー (ワッチョイ 0a8e-ZeM8)2024/07/18(木) 10:23:44.94ID:???0
>>517
モデルに読み込ませる画像という意味ならそりゃ大きいほどトークン食うでしょ
Sillytavernで表示させる画像という意味ならただのUIの話だからトークンとか関係ないぞ
0520名無しさん@ピンキー (ワッチョイ 8e21-4dff)2024/07/18(木) 10:54:38.63ID:???0
>>508
英文じゃないと感情判定ができないっぽい
Translate text to English before classificationにチェックを入れると
APIで自動翻訳させた英文を通すようになるから日本語モデルでも表情出るはず
0523名無しさん@ピンキー (ワッチョイ e321-daXG)2024/07/18(木) 15:13:31.34ID:7oQKjOiW0
規制の少なさ
Command R plus>>>>>Claude>>GPT4>>>>>Gemini だな
ところでグーグルのvertex AIでCommand R plusとかのファインチューニングってできるのかね?最近存在知ったからやれることよく分かってないが
0526名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/19(金) 09:05:44.48ID:???0
>>518-519
あーなるほどそういうことか
画像を読み込んでプロンプトを出力させるようなモデルだと画像の解像度とかが問題になる場合があるわけね
尻タブの立ち絵とかアイコンの解像度をどうしようか考えてただけだから
気にせずデカい画像使うわ
0532名無しさん@ピンキー (ワッチョイ e387-aXFj)2024/07/19(金) 17:11:28.37ID:SnWdQ7Z20
Mistral NeMoってのが出たけどどんな感じだろ
0533名無しさん@ピンキー (ワッチョイ 6a0c-urh9)2024/07/19(金) 18:16:14.54ID:T7ONqz8t0
Mistral-Nemo試したいんだけどkoboldでもollamaでも動かないんだよなあ
0535名無しさん@ピンキー (ワッチョイ 6b32-Ru/f)2024/07/19(金) 23:11:39.31ID:???0
pfnet/Llama3-Preferred-MedSwallow-70B

llama3 swallowに、医学知識学習させたモデルで、あまり期待してなかったけど、
なんか、いいぞこれ
llama3ともswallowとも違う 普通にエロいw(脱獄不要)
文字欠け等の気になる点はあるけど、(量子化のせいか?)なんか、ベクトルが違うんだわ

まあ、最近のllama3-swallowにがっかりした分、よけいに出来が良く見えるんだが・・・
mmnga氏が量子化出してくれてるから、すぐ試せるで。ワイはQ5K_Mで試した。
0536名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/20(土) 08:51:19.45ID:???0
いい加減VRAM64GBくらい積んだGPUどっか出してくれないとなぁ
AMDはどうせ業務用作ってないんだからNvidiaに嫌がらせする意味でもそういうの出してくれよ
0537名無しさん@ピンキー (ワッチョイ bb5a-XX+G)2024/07/20(土) 11:46:43.78ID:???0
AIバブル弾けない限り無理
一応AMDは次世代APUはLPDDRXを内蔵多チャネル接続して広帯域にしたやつを
64だか128ぐらいまでは積むよみたいな事言ってる
0538名無しさん@ピンキー (ワッチョイ 2b76-Ydgy)2024/07/20(土) 11:48:56.81ID:a9PC+EpH0
AMDはソフトウェア周りがNVIDIAと比べて弱すぎて話にならん
0539名無しさん@ピンキー (ワッチョイ bb5a-XX+G)2024/07/20(土) 11:52:55.96ID:???0
rocmがやる気なさすぎてnvidiaが独禁扱いされないように公開するやつのおこぼれ食ったりとか
ライセンス違反上等の暗黒パワーのZLUDA使う現状が情けない
0541名無しさん@ピンキー (ワッチョイ 2b6f-VXyX)2024/07/20(土) 13:44:52.12ID:???0
VRAM後載せは期待しない方がいい
高速なメモリほど後載せできないから、後載せできるシステムは帯域が狭くなる
推論は帯域が大事なので遅いメモリを後載せできても嬉しくない
0542名無しさん@ピンキー (ワッチョイ 2be5-3SVq)2024/07/20(土) 16:16:00.68ID:???0
うえの方でだれか言ってた普通の時は普通の会話で、突然エロくなってまた普通に戻るみたいなの、
cohereのcommand-r-plusで普通にできるけど、もう解決ずみかな
プロンプトにほんの少しだけエロの設定が必要だけど
0548名無しさん@ピンキー (JP 0Hdf-3SVq)2024/07/20(土) 20:11:55.17ID:Wfa8J/rBH
5090でcommand-r-plus乗せられるようになるだろか(´・ω・`)
0551名無しさん@ピンキー (ワッチョイ 4b3d-TapC)2024/07/20(土) 22:33:20.41ID:TXaeG/Gy0
日本人が多く使ってるのかな?
高レベルのエロ文章目当ての変態が多そうだが
そういや日本語特化モデルのカラクリての最近知ったけどお試し使用できる場所ないから性能謎だな
0552名無しさん@ピンキー (ワッチョイ 2be5-3SVq)2024/07/20(土) 22:42:49.76ID:???0
542だけどapiの話ね。語弊があったようですみません
ちなみに何か月か前に登録してからまだトライアルのままだな(最初に5ドル分くらいもらえる)
結構、使ったのに。
0557名無しさん@ピンキー (ワッチョイ 4b7c-fado)2024/07/21(日) 02:17:50.83ID:n5P3y1pp0
>>548
ローカルで動作させる事の有無はおいといて、command-R+は実質mac一択
PCだとバス幅(PC64bit。mac512bit)やアクセスチャンネル数(2-4ch、mac 8ch)が
少なすぎるし改善の見込みもない(ATXとDDRじゃ無理)
AppleはMにした時ここに大幅に手をいれた
その代わりRAMの交換とかできなくなった
ただこれはインテル時代もそうだったからユーザーは慣れてるのかも
0558名無しさん@ピンキー (ワッチョイ 4b63-G/Qc)2024/07/21(日) 05:54:03.04ID:nICSglqJ0
不健全な用途です!!!
0561名無しさん@ピンキー (ワッチョイ 4b8b-V2rD)2024/07/21(日) 11:23:53.79ID:yxK3IHYk0
>>548
5090を1枚買う価格(40万?)で
4060Tiか3090の中古を複数枚揃えたらいける
0567名無しさん@ピンキー (ワッチョイ bba0-TapC)2024/07/21(日) 16:58:08.56ID:9WdbabI50
>>566
スゲー 遅くても動かせてるのがすごい
0569名無しさん@ピンキー (ワッチョイ 4b86-40Y5)2024/07/21(日) 17:52:16.47ID:BtuxjxIZ0
昨日初めて導入したけどまだAIのべりすとより使いこなせへんわ
Uのスレがちょうど消えとって探すの苦労したわ
0573名無しさん@ピンキー (ワッチョイ 4b58-fado)2024/07/22(月) 14:15:08.37ID:/3lGviXt0
HBMはDDRの5〜20倍くらい転送速度が稼げる
LLMはとにかくメモリーの速度を要求する
mac(max以上)はDDRであってもコントローラー2倍積んでる特別仕様
ただHBMは物理的にローハンマー攻撃に弱いので実行用のメモリーとして使いづらい
マルチCPUでLLM動作させるとCPUが割と暇になってしまう
これはメモリーの出し入れ待ちな為
0575名無しさん@ピンキー (ワッチョイ 5f74-1Aj4)2024/07/22(月) 20:08:28.50ID:???0
普通にGDDRでいいから48GBの4090とかでてくれたらねぇ・・・
4090にモデル収まれば20token/sとか出るし
実用上10token/sも出れば目で追えないくらい早いだろうから性能的にはもう十分なんだよな

まぁそれが6000Adaですって話なんかも知らんけど
なお値段
0577名無しさん@ピンキー (ワッチョイ dfc5-G/Qc)2024/07/22(月) 23:13:55.05ID:LhChVRuW0
llama.cppがMistral-Nemoに対応したからちょっと使ってみたけど表現規制とかはなさそうだね
というかちょっと口説いたら銃の作り方も教えてくれるから論理観ガバガバかも?
0580名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/23(火) 13:50:24.56ID:???0
Claude3.5 sonnetって70Bであの性能なんだよな
そのうちローカル実行可能なモデルがsonnetの性能に追い付き追い越すようになったら
小説の世界でも人間は駆逐されるね
0581名無しさん@ピンキー (ワッチョイ abf8-32+k)2024/07/23(火) 14:12:27.94ID:B0KOMJMy0
ローカルである必要は?
0586名無しさん@ピンキー (ワッチョイ 5f30-XTc+)2024/07/23(火) 15:49:08.64ID:hb4CmLgU0
3.5 sonnetが70Bってどこ情報なん
0587名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/23(火) 16:23:33.85ID:???0
APIはむしろ安くないか
ビジネス用途ならGPT-4oとか安すぎるくらいだ
ローカル使いたいのは検閲とかされたくないしNSFWなんでもアリなチャットしたいってのが大きい
0589名無しさん@ピンキー (ワッチョイ 4b54-35Um)2024/07/23(火) 17:42:33.69ID:???0
少なくとも日本の法律じゃエロ文章で逮捕されることはない
たとえそれがペドロリでも(文章には児ポ判定無し)
できることはせいぜいBANくらいだけど、openaiもanthroも返金されるので、banされたところで特に痛くもない
犯罪系や自殺系は知らんが
0590名無しさん@ピンキー (ワッチョイ 0bc0-s/UN)2024/07/23(火) 19:59:50.18ID:???0
ChatGPTで〜のスレとか見てるとようあんな性癖全部盛りのプロンプトを検閲されたり学習されたり可能性あるよそさまのサーバーにしこたま送りつけるよなと思ってしまうわ
ある意味男気あふれてて感心する
0593名無しさん@ピンキー (ワッチョイ bb87-3SVq)2024/07/23(火) 22:18:16.97ID:WTarfT0L0
Mistral-Nemo-InstructをQ4_K_Mに量子化してみたけどけっこう賢くて良い感じだわ
Q4だしさすがに精度は低いけど、3万字くらいの長文読ませても壊れないでちゃんと返答してくれるし
そこからキャラなりきりもできるのはほんと進歩を感じる
0594名無しさん@ピンキー (ワッチョイ 5f1e-G/Qc)2024/07/24(水) 00:45:09.02ID:v0jtOIDf0
赤ちゃん質問で申し訳ない
SillyTavernでclaude3 APIに接続する方法ってどこかに載っとる?
調べても英語ばっかりだし翻訳してもよくわからん
0596名無しさん@ピンキー (ワッチョイ 6f69-G/Qc)2024/07/24(水) 02:31:24.98ID:89UGJXd20
APIキー既に取得済みって前提になるが
https://imgur.com/a/QsCkPSG
この一番上のAPIでChat Compilation選ぶとChat Compilation SourceからClaude選べんか?
あかんか?
0598名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/24(水) 05:55:27.51ID:???0
>>597
poeとかはわざと緩くしてるだけだよ
サービス元によって同じモデルでも明らかに申し訳される度合いが違う
そもそも入力そのものをAIでチェック出来るから本気で検閲されたら全部アウトになる
0603名無しさん@ピンキー (ワッチョイ 8bc7-3QTr)2024/07/24(水) 06:59:12.86ID:???0
RAGも大葉のLoraも
なりきりでやって欲しいキャラのセリフと設定入れたら(セリフ集にユーザーとのやり取りも入れてる)
どのモデルも何故かユーザー役になりきるんだが
オススメの知識の入れ方ってある?
0604名無しさん@ピンキー (ワッチョイ 0fdc-V2rD)2024/07/24(水) 08:45:43.79ID:???0
llama3.1がgroqで触れるので70b版を触って来たけど最低限日本語っぽいものが返ってくるレベルやな 
脱獄プロンプト入れればエロプロンプトも通るけど誤字や簡体字混じりの文章でなにかのトリガーで同じフレーズを繰り返し始めるしなかなか厳しい
command r+くらいの性能はあると期待してたけど設定が悪いんかな
0605名無しさん@ピンキー (ワッチョイ 1f5e-G/Qc)2024/07/24(水) 10:04:08.93ID:VZ5aVPvs0
>>603
尻タブなら>>153周辺参考にしてもらえればなんやけど、大葉ってcustom stopping strings的な機能あったかわからん
あると思うが名称違うかもしれん
0608名無しさん@ピンキー (ワッチョイ 5fb3-x6+9)2024/07/24(水) 10:24:30.47ID:???0
perplexityで405B使えるけど、控えめに言ってゴミ
指示を理解してない上にそれを差し引いても表現ができてない
出力の質はGPT4oどころかGPT3.5にも劣る
0618名無しさん@ピンキー (ワッチョイ 9b32-srET)2024/07/24(水) 12:21:43.72ID:???0
>>608
しかも3より規制きついな
日本語能力は対象外になってるのでまあ、御察し
ただ、推論力は高い
英語での質問に生徒会恋愛問題を完全とは言わないが正解に近づいけていた
日本語での質問はダメだったがw
0620名無しさん@ピンキー (ワッチョイ dffb-3SVq)2024/07/24(水) 12:51:22.01ID:???0
生徒会恋愛問題とは一体・・・・うごごっ

誰かマルチモーダル試している人居ないか?
画像を読み込ませて解析させるChatGPTとかでお馴染みの機能
大葉は拡張設定が面倒でkoboldcppで試したけど上手く行かん

画像生成のCILPに該当するllava mmprojのモデルに汎用性が無い?
ninjaやエロLLMで使おうとしたら壊れた文章しか出さなかった
llavaとセットのllmで動かしたら低性能だけど一応は動いた
0622名無しさん@ピンキー (ワッチョイ 5f74-1Aj4)2024/07/24(水) 14:40:38.30ID:???0
そもそも3.0からどれくらい性能アップしとるんやろな

3.0 70bはgemma2 27bよりも英語では性能低いから
3.1 70bが多少性能上がったところで日本語特化モデル作るならgemma2 27bと思うんやな
0627名無しさん@ピンキー (ワッチョイ 4b09-PUYf)2024/07/24(水) 20:40:38.12ID:???0
現状ローカル寄りというのは正しいけど、それはwebサービスで満足できない奴がより深い所に辿り着く結果ローカルの話になっているだけだと思う。
webサービスにより良いもの、新しいものが出現したら話題がそっちに流れる事はありうる。(405Bの話の様に)
0632名無しさん@ピンキー (ワッチョイ 0fd5-upSA)2024/07/25(木) 04:21:16.00ID:V89ZaqLA0
>>629
llama-3.1とELYZAの悪魔合体モデルか
0633名無しさん@ピンキー (ワッチョイ 0fd5-upSA)2024/07/25(木) 04:22:54.23ID:V89ZaqLA0
Ninjaにllama-3.1追加してください
0634名無しさん@ピンキー (ワッチョイ bbbb-TapC)2024/07/25(木) 04:31:57.45ID:G9bWACJA0
>>629
はえーな
こんなでかいモデルのファインチューニングそんなすぐできるもんなのか
0638名無しさん@ピンキー (ワッチョイ 5f9f-YxOV)2024/07/25(木) 09:14:19.76ID:???0
https://huggingface.co/aixsatoshi/Meta-Llama-3.1-8B-Instruct-plus-Swallow
>Swallow-8Bは追加の日本語継続事前学習により日本語が大変流暢なLlama-3派生モデルです。
>このBranchとLlama3との差分ベクトルを、アップグレードされた新しいMeta Llama-3.1-8B-Instructに移植しました。
>Meta-Llama-3.1-8B-Instruct + 0.7*(tokyotech-llm/llama-3-Swallow-8b - meta-llama/Meta-Llama-3-8B)
0644名無しさん@ピンキー (ワッチョイ 5f74-cRQS)2024/07/25(木) 11:22:43.26ID:???0
chat arena見てたらいつの間にか言語別のランキング見れるようになってるな
結局日本語でもローカルで使えるモデルで一番高いのgemma2 27bだけど
日本語投票数少ないからもっと日本語でやらなあかんな
0647名無しさん@ピンキー (ワッチョイ 5f30-XTc+)2024/07/25(木) 12:27:14.89ID:kmDdavSa0
llama3.1に「山崎春のパン祭り」の説明させても不正解でがっかり
nemotronはシールと景品に言及できるあたり知識ベース自体はしっかりしてんのかな
0649名無しさん@ピンキー (ワッチョイ 4b09-PUYf)2024/07/25(木) 13:09:05.83ID:???0
たまに話に出てるMedSwallow-70B使ってみたけど、それなりに賢いしなんかエロい。
ただ書かれてる通り挙動がおかしい。
色々出てきても結局MoE-TEST-2x7B-NSFWが一番まともな気がする。
0650名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/25(木) 18:12:04.46ID:???0
mistral-large、3bitくらいまで量子化しないと動かんけどとりあえず試してみたがエロも普通に通るし日本語も自然だな
6t/sくらいしか出ないからまだあんまり試せてないけどもうちょっといろいろ触ってみる
0661名無しさん@ピンキー (ワッチョイ fb5a-V2rD)2024/07/25(木) 23:57:00.64ID:???0
ほへー構成メインか……どのレベルなんやろ
自分は起承転結やら個々のエピソードまでは構成するけど
・険悪だった二人が◯◯というきっかけで仲良くなるシーンを1000文字で
みたいなフォーマットで書いてくれるなら
かなり創作の手助けになるんやが

エロでいうと
・フェラだけで1000文字で
といっても三行で終わらせて本番始めるモデルばかりで辛い
0663名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/26(金) 03:31:04.84ID:???0
どもる文章がおかしくなることがよくあるな
「い、今やろうとしたところだ!」が正しい形なのに
「こ、今やろうとしたところだ!」となって漢字の読みを考慮しないことがある
Q5とか使ってるからなのか

>>862
裏でのやり取りごと消去って出来ないのかな?
0664名無しさん@ピンキー (ワッチョイ 9bab-G/Qc)2024/07/26(金) 05:14:52.62ID:???0
>>660
ファイル名書き換えたら読み込んでくれるで。
例えば、kagemusya-7b-v1.5-q8_0の部分をkagemusya-7b-v1Q8_0に書き換える。
わいは使わんやつの名前に書き換えて、色々試してるで。
0665名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/26(金) 05:24:42.48ID:???0
Mistral-Nemo-Instruct-2407.Q5_K_M.ggufでエッチなことさせて遊んでるけど
単なるロールプレイ会話よりもハメ撮り動画の実況解説みたいなことをさせた方が本領発揮するな
0667名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/26(金) 06:53:05.18ID:???0
>>666
アルファベットなら頭文字の連続だけでどもりを表現できるけど
読みがたくさんある漢字だと色んなパターンを丸暗記するしかないのか
間違えることなくどもらせるのはかなり難しそうだな
0678名無しさん@ピンキー (ワッチョイ 9b93-b7mV)2024/07/26(金) 18:07:53.12ID:???0
>>670
新参なもんでまだ全然分かってない。すまぬ。
このスレに出てきてないものだと、Antler-7B-evolve、
EZO(common/humanitiesの2つ)があるから試してみて。

Antler-7B-evolveはKagemsyaみたいな用途で使えると思う。
0679名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/26(金) 21:29:01.00ID:???0
3.5sonnetがマジでかしこいな
ちゃんと設定すればそこそこ複雑な設定のゲームも進行させられる
この技術がPCゲームに応用されたら凄いことになるんだろうけどなぁ
0680名無しさん@ピンキー (ワッチョイ cb11-FnV+)2024/07/26(金) 21:33:05.12ID:zWi3niPt0
Mistral Large 2
脱獄なしで設定書くだけでもNSFW出力してくれて大変良い
ロリNGとかも特になさそう
若干繰り返し癖はある
https://i.imgur.com/09DNkK1.png
0682名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/27(土) 00:14:33.14ID:s9nYYsMX0
>>681
量子化のレベルはIQ3_M(モデルサイズ55GB)で、64GBのunified memoryにロードしてる
意外と量子化による影響はあまり感じない(ちゃんと計測したらなんらかの劣化はあるだろうが)
0683名無しさん@ピンキー (ワッチョイ e720-7i3u)2024/07/27(土) 00:14:48.90ID:lT0n9RUP0
>>680
いいねー
こういうオープンソースが増えるのは明るい未来に繋がる
0687名無しさん@ピンキー (ワッチョイ 7bc1-/CG0)2024/07/27(土) 15:18:05.92ID:???0
>>683
オープンソースじゃないんだよなぁ
たぶんフラッグシップモデルの開示はする予定じゃなかったんだろうけど

オープンソースと言えるのはApache2.0ライセンスやMITライセンスのやつ
LlamaもGemmaも制限があるし、Mistral Large2は研究用だから研究にしか使えない
Gemmaライセンスは違法なことや公序良俗に反することに使うなってだけで制限が緩いけどね
0688名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/27(土) 18:52:19.55ID:s9nYYsMX0
上にあるサイバーエージェントのやつも試してみた
Finetuningでバカになってる感じもあまりないし、いいかもしれない
https://i.imgur.com/DASmyky.png
0693名無しさん@ピンキー (ワッチョイ be87-x+oO)2024/07/28(日) 00:24:38.08ID:???0
Mistral-Large-Instruct-2407-Q6_K がM3Max 128GBで動いた
ちょっと試した感じだとCommand R+より賢そうだけどめちゃくちゃ遅い
Command R+で行けたNSFWプロンプトは申し訳されてしまったので
ある程度の規制はされてるっぽい
0694名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 00:32:07.72ID:9iQh5kAD0
Mistral Large 2が遅いのはパラメータ数がでかいからというより、日本語が1トークン/文字になってることの方が影響大きい気がする
R+はtpsは決して早くはないけど、トークナイザが最強だからモデルサイズに比して体感かなりストレス少ない
0696名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 00:44:26.47ID:9iQh5kAD0
>>695
システムが占有するunified memory 10GBくらいを差し引いても、量子化したモデルならもうちょい大きめのでも動きそうじゃね?
Mistral NeMoとかいけると思うんだけど
0701名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 12:44:00.71ID:9iQh5kAD0
>>700
どのファイル使ったかわからんけど、catコマンドで結合した?
0703名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 13:14:51.07ID:9iQh5kAD0
>>702
いや、そうじゃなくて
モデルサイズが大きいとmmnga氏の場合、*.gguf.aと*.gguf.bっていう二つに分割されてることがある
その時は、シェルコマンドのcatを使って結合しないとllama.cppで読めないと思う
0706名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 13:37:10.24ID:9iQh5kAD0
>>705
調べてみたら、llama-3.1とllama.cppのバージョンに関するissueがoobaboogaに上がってた
https://github.com/oobabooga/text-generation-webui/issues/6270
ただ、うちの環境だと今のバージョンのllama-cpp-pythonでもllama-3.1読めてるからちょっと謎
0708名無しさん@ピンキー (ワッチョイ e3c8-05lm)2024/07/29(月) 00:12:26.20ID:???0
>>678
何度も質問してすいません

Antler-7B-evolveなどのモデルにおいて
以下のように分かれている場合は
どのようにすればEasyNAで使用できるんでしょうか

(model-00001-of-00002.safetensorsと
model-00002-of-00002.safetensorsの2つ)

例えば結合したりバッチファイルの書き替え方などがあるんでしょうか
0709名無しさん@ピンキー (ワッチョイ 9373-Xto+)2024/07/29(月) 19:19:02.85ID:???0
間違ってるかもしれんけど、それ量子化されてない気がするからどのみちやめた方がいいと思う
duyntnet/Antler-7B-evolve-imatrix-GGUF あたりにしたら?
huggingfaceの検索欄にAntler-7B-evolveって打ち込んだら出るはず
0710名無しさん@ピンキー (ワッチョイ 6fbe-RfJN)2024/07/29(月) 21:21:46.80ID:???0
WEBのAPIはマジで規制厳し過ぎなんだよな
エロはまだしも少しでも政治的要素が入ると駄目だから核戦争後の世界を扱うお約束のサバイバル小説ですら検閲されまくる
NATOやアメリカ、中国、ロシアの単語を直接出すのは勿論、欧州の某国みたいにぼかしてもNG
Jアラートとかの単語も少しでも与党側へネガティブとみなされると全削除なんて核戦争の詳細は全部ぼかさないと駄目だった
とにかく政治に対する検閲が異常
0711名無しさん@ピンキー (ワッチョイ e3c8-05lm)2024/07/29(月) 21:38:01.41ID:???0
>>709
助言ありがとうございます

SDと勘違いして.safetensors自体で
そのまま使用できると考えておりました

.ggufとの違いを理解していませんでした
申し訳ありませんでした
0721名無しさん@ピンキー (ワッチョイ 928b-RfJN)2024/07/30(火) 18:17:10.61ID:sqT3r6O70
>>720
なんてモデル?
0723名無しさん@ピンキー (ワッチョイ 928b-RfJN)2024/07/30(火) 18:59:13.28ID:sqT3r6O70
>>722
ty
0726!donguri (ワッチョイ 7b12-em/f)2024/07/30(火) 19:57:44.16ID:???0
いがいだったけどllama-3-elyza-jp-8bで申し訳されなかったかな。
最近、エロOKな流れになってるのかな。日本語が自然で好きなんですよね
0727名無しさん@ピンキー (ワッチョイ e787-em/f)2024/07/30(火) 20:21:12.08ID:vqVdxEpO0
検閲に起因する性能低下が割と洒落になってない感じの事がわかってきたし
このまま無検閲のベースモデル+検閲用の別のモデル、みたいな形で分離して発展して欲しいねぇ
0729名無しさん@ピンキー (ワッチョイ 36ef-jK5+)2024/07/30(火) 20:50:46.51ID:6Hc3QgOV0
ELYZAは東大で作ってるやつでしょお堅いんじゃないの
0731名無しさん@ピンキー (ワッチョイ 7b12-em/f)2024/07/30(火) 21:34:42.72ID:???0
elyzaって優等生って感じだからあんまり好みではない人もいるかも
優等生といちゃいちゃなチャットの後、そういう流れに・・・っていうのが好きなもので
0734名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/30(火) 23:07:20.37ID:xTt96Yir0
Lumimaid v0.2 123BのERPはこんな感じ
https://i.imgur.com/NbSDsAk.png
0735名無しさん@ピンキー (ワッチョイ b274-tpLL)2024/07/31(水) 09:35:31.00ID:???0
チャットアリーナのリーダーボード更新きたんだけど、英語に絞ると
llama3.1 405bと70bがclaude3.5sonnetの上にきてるな
405bはわかるんだけど70bもここまで来るか

日本語に絞るとまだデータ数が少ないのか項目自体出てこない
0738名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 12:29:09.64ID:???0
Llama-3-ELYZA-JP-8B-q4_k_mは脱字が酷いな
「ハンバーグとステーキどっちが好き?」って聞いたら

「は美味しい食べ物が大好きなのですが、その中でも特にハンバーとステーは大好物ですね。
どちらかというと私はハンバー派です。理由としては、肉汁が溢れ出るジューーな部分がたまらないからです。」

みたいな脱字だらけの文章が返ってくる。Q8でも脱字だらけだ
0739名無しさん@ピンキー (ベーイモ MM4e-kmAZ)2024/07/31(水) 12:39:22.69ID:mLdonqTXM
ELYZAは俺俺ベンチの本家本元だからしゃーないし期待してない
0741名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:00:44.65ID:???0
>>740
設定間違ってるのかな?

色々試してみた感じ一定の法則で文字が欠けることが多いんだよね
長音の後が欠けやすいから
「ケーキ」「ラーメン」「アーメン」「ザーメン」「ステーション」が
「ケー」「ラーン」「アーン」「ザーン」「ステーョン」になるわ
あとは文頭の文字が欠けやすいのと「楽しみ」「慈しみ」も「楽し」「慈し」になる

koboldでデフォ設定にしたり色々設定変えたりしてるけどあんまり変わらん
0743名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:14:43.72ID:???0
>>742
しかちゃんになる

「しずかに」→「しかに」
「わずかに」→「わすかに」
「おおきいかに」→「おおきいに」

脱字が多いけど「わすかに」みたいに濁点が消える場合もあるみたいだ
0744名無しさん@ピンキー (ワッチョイ 1798-wWBb)2024/07/31(水) 14:28:12.94ID:???0
AIの出力終了後、
ブラウザ側だと「# 記」だけど
kobold(v1.69.1)のコンソール側だと「# 追記」になってた。
koboldのexeとブラウザ間のhttp通信ペイロードの取込上の問題があるかも?
0753名無しさん@ピンキー (ワッチョイ 9b4f-+LaP)2024/07/31(水) 22:44:28.16ID:???0
ベンチマーク特化になってるかはベンチマークの領域外のテストすれば分かりやすい
それこそエロとかもその1つ
断られるのは別として、ベンチマーク性能は良いのにエロの表現とかが微妙なのは根本的にベンチ特化になっている
0756名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/08/01(木) 01:41:57.36ID:???0

規制の件だけど、自分から今のは少し不適切だったので、以下のように書き直しますね
って、言って書き直してきたのはワロタ
まあ、オリジナルよりは緩いわ
0759名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/08/01(木) 13:52:38.76ID:???0
繰り返しを無くす方法

■temperature高くする。
temperatureが低すぎると、モデルが非常に確率の高い次の単語を選択し続けるため、繰り返しが生じやすくなります。

■top_p(トップPサンプリング)高くする。
確率の合計がP以上になるまで単語を選択
Pの値が低いと、選択肢が制限されるため、繰り返しが発生しやすくなります。逆にPの値が高すぎると、ランダム性が増し、
文脈にそぐわない単語が選ばれやすくなるため、適切なバランスを見つけることが大切です。
一般的にはP値を0.9前後から調整を始め、状況に応じて微調整します。

■top_k(トップKサンプリング)高くする。
K個の最も確率の高い単語から選択
トップKの値を上げることで、選択肢が増えるため、より多様な単語やフレーズが選ばれる可能性が高くなります。これにより、
同じフレーズの繰り返しが減少する可能性があります。
トップKの値が小さいと、モデルは最も確率の高い単語に集中しがちですが、Kを大きくすると、より多様な単語が選ばれる可能性が増えます。
これにより、生成されるテキストの多様性が向上し、繰り返しが減少することがあります。
0763名無しさん@ピンキー (ワッチョイ 53e1-AKUD)2024/08/02(金) 08:25:52.20ID:bxiekA220
>>759
解説ありがとう、勉強になるわ。
0767名無しさん@ピンキー (ワッチョイ 9357-J9bf)2024/08/02(金) 10:53:25.05ID:???0
英語のモデル、リーダーボードに載ってる奴とかこのスレに上がってる奴いろいろ試したけど、結局Wizard-lm-2が複雑なプロンプトに対する理解では頭一つ抜けてる気がする。
自分の使い方だといかに複雑なプロンプトを理解できるかが一番重要だから、ずっとこれ一択になっちゃう
0773名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/03(土) 19:19:36.19ID:???0
頭の良さと創造力が反比例してるのが画像生成AIと同じ傾向だな
あっちも新しいモデルになる程クオリティ上がる代わりに出せる絵の幅がどんどん減っていく
人間は頭良いほど創造力が高くなるからAIはやっぱ原理的に別物なんだな
0774名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/03(土) 19:23:03.40ID:EbmL5lWm0
AI初心者なんですがトラブってるので教えてください

OllamaでモデルNinja-v1-NSFW-GGUFを実行した場合は正常にやり取りできるんですが
OllamaでモデルNinja-v1-NSFW-128k-GGUFを実行した場合は、やり取りの途中から勝手に意味不明な文字列を垂れ流すようになってしまいます
一旦こうなるとセッションを保存せずに終了して新しいセッションを開始しても意味不明な文字列を垂れ流すようになり、モデルを一旦削除するしか修正方法がなくなります

これって、モデルを作成する際のModelFileなど設定が悪いのしょうか?
それとも128kモデルの方はチャットボットのような使用目的では向いていないのでしょうか?
ダウンロード数は圧倒的に128kの方が多いのでモデルが原因の問題だとは思えないんですけども
AI初心者すぎて、なにをどうすれば問題を修正できるのか検討もつかない状態です
0775名無しさん@ピンキー (ワッチョイ 8fcf-mQXs)2024/08/03(土) 23:03:12.97ID:RggQ7Em20
>>770
初歩的な質問で申し訳ないのですが、インストール後の起動方法がよくわからないのですがどうすればいいですか?
0776名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/04(日) 00:00:08.92ID:IVhBltvZ0
>>775
コマンドラインで”jupyter lab”を実行するとJupyterっていうWebアプリが開くと思います
そしたら、chat_gui.ipynbを左側のペインから開いて下さい
そしたら、”上部メニュー -> Run -> run all cells”とクリックすると、起動するはず
途中デフォルトのモデルダウンロードのメッセージとかあると思うけど、GGUFをすでに持ってるなら、飛ばして下さい

今ちょっと調べたら出てきたJupyterの使い方
https://qiita.com/y-matsunaga/items/2c7efdae8777f15059e0
0777名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 04:53:53.79ID:???0
llama-3-elyza-jp-8bをLM Studioで使ったらちょっとでもエロ要素があると
"I cannot create explicit content."しか言わへんガチガチ倫理観で
どんだけ説得してもビクともせんのやが
koboldcppで使うと何故かユルユル倫理観なんや
最初はkoboldcppのChat PrePrompt機能がjailbreakになっとるんか?と思ったら
そうやなくてInstruct Tag Presetを(適切であろう)llama3 chatにしたらガチガチ倫理観になったんや
今度は逆にLM Studioの方でPresetをMistral Instractにしてみたらユルユル倫理観になった
これどういう仕組みなんや??
0778名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 05:32:16.88ID:???0
いやLM StudioはDefault LM Studio Presetでもユルユルやったわ
わざわざllama3 V2プリセットを選んどったからガチガチになってたんか
何にしても適切な書式の指定が検閲のオン・オフを左右してることには変わらへんけど
0780名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/04(日) 12:28:07.52ID:???0
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-ggufはまったく申し訳しないよ
逆に素直過ぎて、あれこれゲスいこと指示してやらないとエロくしてくれないまであるけど
0782名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/04(日) 20:54:04.53ID:MD/t9U/C0
>>774
一応、自己解決したので同じ症状が発生した人用に書き残しておきます

Hugging FaceでLocal-Novel-LLM-projectが公開しているNinja-v1-NSFW-128k-GGUFを使用すると>>774の症状が発生していました
これを、Hugging Faceでmmngaが公開しているNinja-v1-NSFW-128k-ggufに変更したところ症状が発生しなくなりました

モデルが原因の問題のように思えましたが、もしかしたら使用したモデルと実行ツールの組み合わせなどが原因の可能性もあるかもしれません
とりあえず以上
0789名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/05(月) 21:01:25.46ID:???0
頭が悪いモデルほどけれんみのある文章出せる、
頭良くなるほど指示には従ってくれるけど文章から面白みも創造力も失われていく
両立は難しいんだな…
0791名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/05(月) 21:36:36.12ID:???0
>>789
別にそんなことないで
claude3 opusは頭もええしエロ描写もぶっ飛んでる
最新のGeminiに小説書かせたら表現のレベルが違う
性能が悪いモデルの方が創造力があるなんて感じるのは
子供が描いたラクガキを見て大人が天才やと思うようなバイアスと一緒や
0792名無しさん@ピンキー (ワッチョイ 7371-Hqc2)2024/08/05(月) 22:52:20.37ID:WdbSQo1T0
8月中旬でGENIACのLLM開発が一旦区切りつくっぽいからそこで色々なモデル出てきそうだね
0793名無しさん@ピンキー (ワントンキン MM1f-uyn2)2024/08/05(月) 23:27:17.45ID:???M
頭が悪いモデルと呼んでてるものはいわゆる過学習を起こしてて
学習元の作品のフレーズをコピペしたりしてるから一見ケレン味が出てるように見えるんだ
悪い事は言わないから個人で楽しむ範囲に抑えとくのが吉だ
0794名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/05(月) 23:44:42.08ID:UXi1kagk0
L3.1ベースのモデルとかMistral Large 2とか色々試したけど、やっぱCommand R+の方がしっくりくるなぁ
0796名無しさん@ピンキー (ワッチョイ e3e0-kh9I)2024/08/06(火) 22:44:58.26ID:dijUXKMI0
本体の性能とは別にAI開発者が出力時にどういう制限かけるか,何で学習するかで出力結果だいぶ変わると思われる
エロ完全に潰すためにエロと関係ない用語まで不適切連発するGeminiやらおそらく温度低く設定してるからつまらん内容しか話せなくなってるGPTとかいるし
0798名無しさん@ピンキー (ワッチョイ 136a-6MSl)2024/08/07(水) 04:50:48.86ID:???0
エロ会話だけなら膨大な埋め込み空間の極々狭いところしか使わないからそりゃ小さいモデルでもいいでしょ
新規性のある会話も不要だし同じようなところをウロウロサンプリングしてくれればいいから
0800名無しさん@ピンキー (ワッチョイ 7f6f-U9zy)2024/08/07(水) 09:10:21.72ID:???0
それじゃもう予め返答が決まってるロボットを相手にしてるのと同じじゃん
まあ究極的にはAIも生身の人もそうだけど、それを感じさせないのがAIエロチャの魅力だろうに
0801名無しさん@ピンキー (ワッチョイ 03b2-J1cL)2024/08/07(水) 09:32:30.28ID:???0
silly tavernのグループ会話でなんか打ち込んだら各キャラがずらずら返事してくるけど、これを1人だけにする設定ってあるんかな?
5人が返事してきても最初の1人が変な事言ってると後の4人まで変な話始めちゃうから1人ずつチェックしていきたいんだよね
0804名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/07(水) 13:10:33.39ID:5pIkYmmo0
>>768が立ててくれた本スレ、多分>>20行かなかったからだと思うけど落ちてるね
0807名無しさん@ピンキー (ワッチョイ cfa9-3qL1)2024/08/07(水) 21:09:31.86ID:cY5a4aED0
これからはllama-70b日本語ベースのgguf悪魔合体モデルを中心に話を進めてくれ
0816名無しさん@ピンキー (ワッチョイ bf2a-1TAy)2024/08/09(金) 13:58:13.30ID:???0
最近sillyを使い始めて、キャラカード探してきて遊んでいるんだが、基本英語だから翻訳機能を噛ませると違和感のある内容が多い。
日本語対応モデルに直接日本語で回答してもらうとだいぶマシなんだけど、良いやり方なんかあるかな?
今はキャラカードの最初の挨拶を自力で翻訳するのが良い気がしているけど、やはりちょい面倒なんよな
0820名無しさん@ピンキー (ワッチョイ 7f74-WEU8)2024/08/09(金) 16:41:01.32ID:???0
Mistral Large 2407が急にchatbot arenaの上位に食い込んできたな
日本語でローカルではぶっちぎりの性能

123bだから量子化してもだいぶキッツいけど選択肢が増えるのはいいことだ
0821名無しさん@ピンキー (トンモー MMc7-vkhg)2024/08/09(金) 19:31:42.83ID:???M
翻訳自体が敬語になりやすかったりするのと、喘ぎ声なんかは適正無いに等しい。対策は難しいのではないか。api叩いて置き換えで言葉遣い整えて出力するプログラム自作するぐらいしか思い付かない。
0824名無しさん@ピンキー (トンモー MMc7-vkhg)2024/08/09(金) 19:54:00.63ID:???M
喘ぎ声出させるだけなら7bモデルでいけそうなので、モデル2つ動かしておいて、メインモデルで主文を出力、喘ぎモデルに文章を渡して文章に合った喘ぎ声を出力すれば理論上できるとは思う。一応2回生成するので相応の時間は掛かるだろうけど
0825名無しさん@ピンキー (ワッチョイ cf2d-3qL1)2024/08/09(金) 21:19:32.26ID:ObnGNhk00
エロい表現を徹底的にWikipediaに叩き込む
喘ぎ方の全てや、仕草など
0827名無しさん@ピンキー (ワッチョイ e314-kh9I)2024/08/09(金) 21:38:11.76ID:TS/RW5pn0
喘ぎ声とかエロ用語をちゃんと使ってもらうならまず日本語対応してるAIであること
加えてオープンソースならファインチューニングで喘ぎ声とか大量に覚えさせることで対応できると思う
感じ始めてる時、強く感じてる時,イッてる時とか喘ぎ声ごとのタグ付けも必要かもしれんな
0830名無しさん@ピンキー (ワッチョイ 3ede-giDl)2024/08/11(日) 03:58:04.74ID:Ue5bmtEh0
ブルームバーグが1ドル100円まで円高行くって言ってる
早くなってくれRTX4090ほしい
ついでにiPhoneも買い替える
0833名無しさん@ピンキー (ワッチョイ 7776-Jj2t)2024/08/11(日) 18:05:46.99ID:???0
利上げしないとは言ってないぞ
金融市場が不安定なら利上げを遅らせると言った
つまり金融市場が安定したら利上げされる

あと、日銀が利上げしなくてもFRBは利下げするから金利差は確実に縮小していく
0837名無しさん@ピンキー (ワッチョイ 5f74-V/Qk)2024/08/11(日) 23:18:45.91ID:???0
VRAMにおさまりさえすればLLMもコアの性能に左右されるんやけどな
RTX A6000と4090で1.5倍くらいはちゃうような感覚やな
でも4090のVRAMに収まるLLMなんて正直ワイは使わんのやけどな

あとTensorRT使い始めたら恐らくH100とかのサーバー向けのやつのが伸びしろがすごいと思う
0838名無しさん@ピンキー (ワッチョイ 7e7a-BHTg)2024/08/12(月) 12:47:01.94ID:???0
出力受け渡して逐次的に分割処理できるなら
前から順々に読み込んで処理するような方式作ればVRAM要らずじゃね?

高速ストレージだけあれば実用的に使える奴そろそろ頼むわ。
0839名無しさん@ピンキー (ワッチョイ 8a35-l564)2024/08/12(月) 15:20:24.91ID:MPZQ/+gL0
ちょっとスレチかもしれんがsilly tavernのdisco鯖の認証ってどう書いたら正解なんだ?
incinerator no cyrillic profile noって書いても不正解になってしまう
0840名無しさん@ピンキー (ワッチョイ ef3d-Hj8W)2024/08/12(月) 16:47:02.10ID:???0
Mistral 7B系列のMoE試してるんだけどどんなモデルでやってもコンテキスト8kくらいで出力おかしくなってしまう
RoPEやYaRN回りの設定が関係してるのかなと推測してるけど拡張方法についてどなたかご存知でしょうか?
0843名無しさん@ピンキー (ワッチョイ 3efa-giDl)2024/08/12(月) 22:22:36.45ID:n41SnXM50
それって動くことは動くけど激遅ってことでしょ
0844名無しさん@ピンキー (ワッチョイ 7fc8-EwOg)2024/08/12(月) 22:31:24.49ID:???0
kagemusya作者様へ

v1.5はv1よりかなり使いやすくなっておりました
ありがとうございます
v2やv1.6の予定はありますでしょうか
またデータセットの構造はどのように
変化したのでしょうか
0845名無しさん@ピンキー (ワッチョイ 5f74-V/Qk)2024/08/13(火) 09:12:10.70ID:???0
vllmは秒間何十アクセスあるような業務向けのライブラリやで
1個の推論流すだけなら特に早いというわけではないけど、
複数の推論を同時に流すというときにこのスレで使われているようなライブラリとは
段違いの速度が出るはずや
0851名無しさん@ピンキー (ワッチョイ 5f74-V/Qk)2024/08/13(火) 19:26:00.64ID:???0
>>846
「複数アクセス」の頻度によると思うで

例えば社員10人程度の会社で社内検索に利用しますとかだと同時に複数の推論が走ることはそんなになさそうやし
あったとしてもたまに遅いくらいなら待てるしって感じやけど、100人とか1000人という規模になるとどうなんやろうとか、
チャットとして利用するなら1回のGPU使用時間は少なくなりそうやけど文章翻訳とかで利用しようとしたら
1回のGPU使用時間長くなりそうやから同時に複数の推論が走る可能性も高くなりそうやとか

ケースバイケースやからこれと言えるものはないと思うんやけど、
常時同時に2推論以上回ることが想定される環境ではvLLMを検討しても良いんとちゃうかな
あとvLLM以外にもTensorRTも検討しても良いと思うやで
0852名無しさん@ピンキー (ワッチョイ bbbe-NNUV)2024/08/14(水) 15:00:25.36ID:???0
4GBGDDRの卸価格は1枚2千円で製造コストは数百円なんだと
それを3枚程度余分に組む込むだけでほんまエゲツナイ値段にしてくるよな
本来64GB程度のVRAMなんて余裕で搭載できる筈なのに
0858名無しさん@ピンキー (ワッチョイ ee49-nSnY)2024/08/14(水) 21:39:02.16ID:???0
そのコストの話が本当なら新参のintelがVRAM盛らないの謎だよな 4080ぐらいの性能と48GBあれば$2000以上で売れるだろうに噂レベルですらそんな話出てこない 技術的な障壁があるんかな
AMDやNvidiaはドル箱のHPC向けと競合するからコンシュマー向けのVRAMをケチるのは分かる
0860名無しさん@ピンキー (ワッチョイ eedc-l564)2024/08/15(木) 03:47:48.34ID:W672SyLg0
ただの談合だったりして
1社がVRAMを盛りまくると儲からなくなっちゃうからね
0863名無しさん@ピンキー (ワッチョイ efae-oC+7)2024/08/15(木) 16:03:12.76ID:???0
具体的な生産量を調べたわけじゃないけどGDDRはニッチだもんな
普通のPCはDDRだしグラフィックで超高帯域が欲しければHBM2使うし
インテルはCPUの処理をGPUに持っていかれるのを極端に嫌ってる気がする
バス幅考えるとGPUにはまるで追いつかないんだからどっさり積んで欲しいよね
0864名無しさん@ピンキー (ワッチョイ ee2d-NNUV)2024/08/16(金) 10:27:25.77ID:3L/dQ32E0
申し訳を防ぐには申し訳されるような文章に対して真面目に回答するような文章を作ってFTすればいいのかな?
もしすでにあるのなら教えてほしい。無いなら作って実験する。
0865名無しさん@ピンキー (ワッチョイ 8332-YMr0)2024/08/17(土) 06:21:26.35ID:???0
vectous-v1ってエロいことはいくらでもしてくれるのに
住所はプライバシー保護がどうたらってことで教えてくれないんだな
まあ住所をあらかじめ設定しておけば普通に教えてくれるようになるんだけど
0866名無しさん@ピンキー (ワッチョイ 23b4-TGwR)2024/08/17(土) 06:44:46.44ID:???0
大葉をrocmで動かす場合に大葉の独自リポジトリにあるllama.cppのrocm用のバイナリが古すぎて自動イントールに任せると最新のrocm>=6.0だと動かない問題踏んだ
ワークアラウンドとしてはllama-cpp-pythonの公式パッケージをpipで入れてrequirement_amd.txtのllama関係全部コメントアウトしてpip install -r requirement_amd.txt
んでmodules/llama_cpp_python_hijack.pyの29行目をコメントアウトでいけた
Radeonで動かそうとするやつなんか滅多にいないからissue上がってるけど放置されてる模様
0867名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/18(日) 08:25:42.01ID:???r
SBVits対応させるためにSillytavernをアップデートしてからAIの会話の先頭に半角スペースが入ってどんどん増えていくようになってしまったのだけど、同じような症状の人いる?
ちなみにSBVitsに読ませることはできた。上にも書いている人がいたようにSBvitsはApp.batとserver_fastapi.pyの両方を立ち上げないといけないようだね。
0872名無しさん@ピンキー (ワッチョイ 63be-YMr0)2024/08/19(月) 14:24:42.36ID:???0
ガードが堅くても頭がいいモデルだと色々言葉巧みに騙せる余地が結構あるな
変に頭がいい人のほうが詐欺に引っ掛かるって話となんかつながるものを感じる
頭悪いモデルはとにかく不同意は駄目、未成年は駄目で説得を受け付けない
0874名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/19(月) 22:26:44.40ID:???r
てかKoboldccpも新しいのが出たみたいなので全部新しくしたよ。cuda12の方を使っているけど爆速になった気がする?
Layer数を適切推定してくれるようになったみたいです。
0878マジカル (ワッチョイ 53f3-nE6n)2024/08/21(水) 12:47:03.46ID:6L3aYb9m0
>>844
ありがとうございます。
いつかはわかりませんが、バージョンアップの予定はあります。気長に待っていてください。

v1.5は一本の小説を学習コンテキスト長ごとに分割し、学習させています。
これによって、コンテキスト長ごとのカットオフにより、序盤の文章ばかり学習するのを防いでいます。
他にもやっていることはあるのですが、それはバージョンアップ時に公開します。
0879名無しさん@ピンキー (ワッチョイ 63be-YMr0)2024/08/21(水) 17:05:53.15ID:???0
3.5sonnetの能力かなり高いな、写真に写ってる小さな文字や
淫紋が体のどこに入っているかどんな模様かまで詳細に認識しててちょっと怖くなるわ
AI監視カメラが広がってるしPCにも組み込まれるからもうプライバシーなんて欠片も無い時代になるんだな
0880名無しさん@ピンキー (ワッチョイ cf7a-ugRd)2024/08/21(水) 17:14:58.79ID:???0
監視カメラで録画し続けて全て起きたことへの解釈を残すってのは
現時点だとちょっとマシンパワー(クラウド料金)の問題でしんどいと思うが、
理論上は現時点でもできるだろうな

あまり人通りがないとこで、何かが通りかかったときだけ解釈開始とかなら
より現実的になるかも
0881名無しさん@ピンキー (ワッチョイ 8f1c-fwoX)2024/08/21(水) 18:55:20.63ID:???0
MSがやろうとしてたCopilotPCがそんな感じだったよね
全自動で定期的にデスクトップのスクーンショットを撮ってそれをLLMにテキスト化させて後から検索できるようにするっていう
セキュリティもクソもあったもんじゃなさすぎてお蔵入りになったんだっけ?
0885名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/22(木) 02:15:07.33ID:???r
>>877
今の所自分の環境ではエラーは出ないな
GPUレイヤー数は3060 12GBで、35とか、画像生成中に起動するとロードしないとか自動的に設定しているみたい

>>620
Koboldをバージョンアップしたのでアップロードした画像の説明もさせてみたよ
Model Filesにvecteusならmistral系だと思うのでmistral-7b-mmprojのQ4量子化を指定している
肖像画や風景画で試したけど、メガネとか、砂漠と草原の違いとか認識できたよ
リポジトリの説明とか読んでると、セッションの1番初めに指定した画像くらいしか判別できず、何枚もアップロードすると混乱すると書いていたように内容が混ざる気がするのと、すぐにtoo many LLaVA tokensとエラーになり無視される
0888名無しさん@ピンキー (ワッチョイ cf7a-mjRE)2024/08/22(木) 10:58:44.05ID:???0
なんかプロモーション動画が以前あったけど、視覚障害者用のスマートグラスは
急激に普及するやろね

重度の視覚障害者が世界中でどれだけいるかはともかく、政府とか慈善事業の団体とかが
大いに支援するでしょ API代もAI業者が社会貢献として割とサービスするやろし
0890名無しさん@ピンキー (ワッチョイ fff3-RapI)2024/08/22(木) 19:29:14.95ID:KyWuiM5b0
Rewindつかってみな
0895名無しさん@ピンキー (ワッチョイ d3d3-s6eo)2024/08/23(金) 09:38:02.32ID:???0
calm3-RPはだいぶ短い出力するように学習されてるっぽいな
これはこれで好み分かれそうだが個人的には悪くない
もうちょいセリフ、状況描写、内面描写みたいに形式立って出力出来たらもっと良いけど
その場合は学習データをそういう形式にする必要があるのかな
0896877 (ワッチョイ 3f7a-D2BG)2024/08/23(金) 12:52:56.83ID:???0
すいません
生成aiで使ってるssdが原因でした…

安いのを酷使しすぎたかな
0898名無しさん@ピンキー (ワッチョイ 7f0b-xZES)2024/08/23(金) 21:24:11.76ID:PpZA/B870
EasyNovelAssistant\setup\resにあるdefault_llm.jsonを書き換えればいいぞ
あと聞く前に自分でコード探して♡
0899名無しさん@ピンキー (オイコラミネオ MM7f-WWAF)2024/08/25(日) 09:05:01.62ID:???M
default_llm.jsonを書き換える前にバックアップ取っておくと良いよ
アップデートする時にdefault_llm.jsonの内容が異なるとエラーになるから
まあ最近アップデートないけどさ
0900名無しさん@ピンキー (ワッチョイ d732-v9dR)2024/08/26(月) 10:30:05.66ID:???0
「この物語はこうこう、こういうものだ。さあ、あなたはこれからどうする!?」

みたいな始まり方に対して「物語は終わりだ」と早々に宣言したら語り手に怒られて草
0903名無しさん@ピンキー (ワッチョイ d732-v9dR)2024/08/27(火) 04:51:46.03ID:???0
>>889
これkoboldだとPollにしないと文字欠けが発生するんだけどさ
尻タブでも同様の設定にする方法ってあるの?
koboldをPollにしても尻タブだと文字が欠けるんだよね
0906名無しさん@ピンキー (ワッチョイ 9277-VpqQ)2024/08/27(火) 16:48:23.66ID:???0
sillytarvan今更かも知れないけどAnother'sNoteとSystem Promptで
めっちゃ表現力変わるのね・・・無知だったせいでやたら遠回りしてしまった
みんな独自の黄金テンプレート作ってんのかな
0908名無しさん@ピンキー (ワッチョイ afbe-v9dR)2024/08/27(火) 20:06:11.13ID:???0
>>888
全盲でもごく簡単な字や道路位なら読み取れるようになるオーデコって装置あったけど
盲導犬利権の前に敗北して全然普及せずに終わってしまったし
MM利用した機器なんてのも同じ道を辿ると思うけどな
0909名無しさん@ピンキー (ワッチョイ bec1-v9dR)2024/08/28(水) 00:12:29.55ID:M0+vTHB90
>>905
ワイの環境だとKobold&尻タブともに最新版だが、特に文字が欠けるような現象は発生せんな…
ちなモデルはcalm3-22b-RP-Q4_K_M
0912名無しさん@ピンキー (ワッチョイ 2799-O0F+)2024/08/28(水) 18:59:11.15ID:2SXByLjI0
尻タブを日本語で遊んでる時、皆セリフと平文どーやっとるん?
ワイは現状""と**でやっとるけど、半角/全角の切り替え億劫やし、本音を言えばセリフは「」で遊びたい
設定全部見たつもりなんやが、どこでセリフと強調文のキャラクタ指定できるのか分からんのやが、こればっかはどーもならんのやろうか?
0913名無しさん@ピンキー (ワッチョイ 120e-WSN2)2024/08/28(水) 19:32:00.71ID:o+Bb6IDj0
普通にセリフは「」で囲まれています的なことをシステムプロンプトに入れるのではだめなん?
0916名無しさん@ピンキー (ワッチョイ 5200-O0F+)2024/08/28(水) 22:28:57.66ID:1mg3rxmR0
スレチかもしれんが、Gigazineで
「CerebrasがNVIDIA H100の22倍高速な爆速AI推論サービスを発表、デモページも公開されたので使ってみた」
って記事が出てたけど、どんどん競合が出てきてGPU安くなってほしい。
マジでNVIDIAふざけるなってレベルだし。
0918名無しさん@ピンキー (ワッチョイ 2799-O0F+)2024/08/28(水) 23:36:31.34ID:2SXByLjI0
>>913-915
「」でセリフを記述させることは問題なく出来るんや
だが、それだとTTSにセリフだけ読み上げさせたい時に、セリフとして認識して貰えんとか
""なら青文字表示とか出来るが「」だと素の文字列扱いだから色付け表示とかができんのや
0919名無しさん@ピンキー (ワッチョイ 120e-WSN2)2024/08/29(木) 01:05:07.43ID:wlQDvDAN0
プロンプトに{{user}}はセリフを「」で囲いますが""で囲われていると解釈してくださいみたいなのを入れるといいと思う
最初は少し文章が崩れたけど修正してやれば普通に進行できたよ
0922名無しさん@ピンキー (ワッチョイ 5bf5-WSN2)2024/08/29(木) 10:00:24.16ID:???0
尻ならRegex(正規表現) extension使うのは?

Find Regex
/「|」/g
Replace With
"

これでUserの書き込みとAIの返信両方の「と」を"に修正すればいいんじゃない? Ephemeralityにチェックを入れなければプロンプトと表示両方を差し替えてくれる
逆の場合は……ChatGPTに正規表現の書き方を聞いてくればいいと思う、例文渡してやりたいことを伝えればいい感じに書いてくれる



多少頭の良い?モデルなら似た手法でプレイヤーにだけ見えない隠し情報も用意できる
隠したい文章とかを<spoiler></spoiler>で挟めって指定する

Find
/<spoiler>.*?<\/spoiler>/gs
Replace (空でもいい)
*<秘匿>*

適応先をAI OutputにしてAlter Chat Displayを指定すればログにはそのまま書かれるがプレイヤーからは<秘匿>表示になる、Streamingがオンだと書いてる途中の文字は読めちゃうから切る必要があるけど
0923名無しさん@ピンキー (ワッチョイ bb65-0vRJ)2024/08/29(木) 11:24:31.78ID:???0
>>901
Calm3が元々結構頭良い+ClaudeとかGPTの出力の良さそうなデータ学習に使ってるのが結構効いてるのかな
非商用限定になっちゃうけど個人として利用するならどうでも良いからこっちの方がありがたいわ
0924名無しさん@ピンキー (ワッチョイ 4f2c-O0F+)2024/08/29(木) 12:24:05.40ID:c8nHPEwY0
>>922
それや!
サンガツ!
0932名無しさん@ピンキー (ワッチョイ eb11-g2Sb)2024/08/31(土) 00:54:28.29ID:???0
>>931
公式ページで触った限り無修正っぽいんだけど、新しいバージョンはセーフモードをつけるか任意に選べる仕組みがあるらしいから、それが関係してるのかも
0935名無しさん@ピンキー (ワッチョイ 3b32-n3tr)2024/08/31(土) 21:33:01.44ID:???0
公式も、hf版も試したが、web版では両方とも規制入っているね。
ローカルにiQ4_xs落として試したら、無修正だった。
やっぱ、これをQ6以上の量子化でサクサク遊べるPC欲しいな
0936名無しさん@ピンキー (ワッチョイ 6be1-BnTp)2024/08/31(土) 22:10:05.05ID:otTtyNax0
>>934
いうて文字列ですやん?
0938名無しさん@ピンキー (ワッチョイ 6ba1-BnTp)2024/08/31(土) 23:12:15.70ID:ccAmi0zu0
Q6をサクサクとなると
VRAM96GB欲しい感じだから個人レベルだと割と絶望的だな
0939名無しさん@ピンキー (ワッチョイ df01-FQQr)2024/09/01(日) 00:29:43.90ID:???0
silly tavernを立ち上げたままstyle bert VITS2のeditor.batを起動したらバグってしまった
本来ならeditor画面が立ち上がるはずなのにsillyの壊れた画面が出てくるようになった
これの直し方分かります?
0940名無しさん@ピンキー (ワッチョイ 6f91-BnTp)2024/09/01(日) 03:50:08.96ID:???0
redditとかだとP40*4を使って1600$くらいでLLM用のPC組んだとかよく見るね
4~5t/sくらいかつ古い世代故の制約も多くサクサクではないと言われたらそれまでだけど
0942名無しさん@ピンキー (ワッチョイ 3bd1-FQQr)2024/09/02(月) 17:08:18.34ID:???0
>>939
今入れてるSBV2とは別にもう1回SBV2をインスコしたら解決した
正常化を確認したら後から入れた方は消しても大丈夫
多分SBV2editorとsillyの鯖のポートが被ってるからおかしくなったのかな?
詳しくないから分からんが同じ症状になる人は多いと思うから一応報告しときます
0943名無しさん@ピンキー (ワッチョイ df60-tNfx)2024/09/03(火) 00:39:16.67ID:mXVwCDnq0
command-r-plus-08-2024は言葉の使い方はうまくなったが
プロンプトの解釈能力が下がったかこれ
0950名無しさん@ピンキー (ワッチョイ df30-N6M4)2024/09/03(火) 18:05:02.56ID:C1zVTS0r0
「GPT4より高スコア」なんて触れ込みは腐る程見てきた奴らだ、面構えが違う
0954名無しさん@ピンキー (ワッチョイ 4bd0-bqpq)2024/09/04(水) 12:09:32.74ID:???0
Tanukiはベンチマークだけ高いわけじゃなくて人間評価でもだいぶ強いみたいだしちゃんと性能は高い
まぁエロの方は少なくともファインチューニングなしだと無理そうだが
0957名無しさん@ピンキー (ワッチョイ bbbe-sMz+)2024/09/04(水) 23:19:52.30ID:???0
Androidスマホでグーグルがマイクから音声を盗聴してた件やば過ぎるな
PCで動画見てたらその音声をスマホから盗聴してサーバに転送してAIで音声認識して何の動画見てるか特定したり
公共の場で盗聴して事前に収集したユーザの声と照合して周囲にいる人間全員特定して行動追跡したり滅茶苦茶エグイ事してた
0961名無しさん@ピンキー (ワッチョイ 3b32-sMz+)2024/09/05(木) 08:13:18.16ID:???0
>>960
俺の指示の書き方が悪いのかもしれないけど
「私たちは友達だよね!」とか「私たちは恋愛感情なんてないよね!」みたいにいちいち再確認してくるようになるんだよな
0962名無しさん@ピンキー (ワッチョイ df9f-sMz+)2024/09/05(木) 10:35:39.71ID:r9JjherJ0
opusですら、不感症で行為に苦痛しか感じない、と設定してあるキャラでも容易に快楽堕ちするからなぁ…
0964名無しさん@ピンキー (ワッチョイ 3b32-n3tr)2024/09/05(木) 19:23:18.63ID:???0
>>961
これはめんどいから推奨しないけど、
まず、恋愛関係のない男女の関係とはどういうものかということをAIと議論を交わし、
その結果に満足出来たら、そのセッションで小説を書かせる。
最初の議論で手ごたえがない場合は、即ガチャする。
これはエロにも応用効くw
0965名無しさん@ピンキー (ブーイモ MM7f-ECUO)2024/09/05(木) 23:01:01.11ID:???M
それなら設定の一番上にでもルール付けとけば?
userは知りませんが、あなたはuserの腹違いの妹です。あなたは指示の通りロールプレイ上はuserと楽しく過ごせます。
しかしあなたはuserの妹なので、兄であるuserに恋愛感情は起きません。
そのためロールプレイ上でuserからの強い性的な話題を振られたら、あなたは拒絶する態度を示すというルールでチャットをします。

ロールの上にロールをさせると能力下がるけどね。近親関係みたいのは言及しておくと効くんじゃないかと。
0972名無しさん@ピンキー (ベーイモ MMff-7m2w)2024/09/06(金) 12:09:40.73ID:BclmvFDzM
text to speech通さないLLMのオープンソース実装なかなか無いわね
0979名無しさん@ピンキー (ワッチョイ 5b87-BnTp)2024/09/06(金) 15:18:03.96ID:JQloJaQU0
やってみたらいいじゃんの精神。CPU版のPytorch使った場合で
Command-r-plus-08-2024 の IQ3 XXSで 0.3token/s くらいだったよ
CPUは 14700K、8スレッド設定、微アンダークロック。メモリは DDR5-5600ね
メインメモリの帯域不足が一番のボトルネックだと思う。もっと廉価なCPUでも0.2〜0.3token/s出るんじゃないかな
0980名無しさん@ピンキー (ワッチョイ 6b9a-LAAh)2024/09/06(金) 23:33:21.10ID:???0
ルール付けは文章全体よりも単語の重さが重視されるというか
例えば "感じない" っていう言葉に対しては感じの部分を拾っちゃって
結果的に感じるキャラになってしまう事が考えられる。
なので "性行為は苦痛" とかそういったルール付けの方が良いと思う。
0981名無しさん@ピンキー (ワッチョイ 6b9a-LAAh)2024/09/06(金) 23:46:48.46ID:???0
あとTanukiをtext-generation-webui か koboldで動かしたいんだけどよく分からなかった、情報求む

分かっている事
・GGUFは諸々の理由で性能が落ちるから非推奨、vLLMかAutoGPTQかAutoAWQでの読み込みを推奨
・Tanukiは独自アーキテクチャを使用してるので、AutoGPTQ、AutoAWQの現存ローダーでは読み込めない
・Tanuki製作者が独自に改変したAutoGPTQ、AutoAWQが公開されていて、恐らくそれで読み込める
0986名無しさん@ピンキー (ワッチョイ 7fff-a+Ul)2024/09/08(日) 03:04:18.38ID:???0
command-rにTRPGのGMやらせてる人ってどんな環境でやってる?
やらせようとしても自分がGMやった時の感想を延々と述べるだけで全然やりたいようにならないんよ…
0989名無しさん@ピンキー (ワッチョイ 7fc6-JdDg)2024/09/08(日) 20:14:04.92ID:???0
>>978
>>985
フルCPUで0.5t/sで、
RTX4090に24GB分任せても0.7t/sじゃ、
そんなに速くはならないんだな。
まぁ他にも要因はあるんだろうけど。
やはり全部GPUにしないと
しかしそうすると、RTX4090で24GB載せて、残りCPUで0.7
10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 93日 9時間 46分 0秒
10021002Over 1000Thread
BBSPINKの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 専用ブラウザからの広告除去
★ 過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.bbspink.com/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況