なんJLLM部 避難所
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512 !extend::vvvvv:1000:512 AIに色々なことをしゃべってもらうんやで そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 自薦・他薦のモデルやツールは>>2 以降 本スレ なんJLLM部 ★6 https://fate.5ch.net/test/read.cgi/liveuranus/1701542705/ VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>153 33Bくらいのモデルなら必要メモリ量が20GB前後なので、それだとちょうど4090にフルロードできて恩恵を実感できると思うが… 実際に話題になるモデルの多くは70Bクラスが中心なので、それだと4090といえどもフルロードはできない 溢れた分はCPU+RAMで動かすことになるので、そこが速度上のボトルネックになって、正直1070だろうが3060だろうが4090だろうがそれほど速度は変わらない(多少は変わるが劇遅→爆速で快適!とはならない) 勘違いしないで欲しいのは「4090程度じゃダメ」と否定しているのではなく、十分遊べるしそれなりの恩恵もある ただ画像生成のような劇的な恩恵は無く、下位グラボじゃできなくて4090ならできるという場面はあまり無いよということ 現状はCPUとRAM側が重要 >>150 >>80 のモデルを普通にQ6とかで量子化したけどダメだった >>149 gitで過去バージョンに戻して再ビルドすれば良さそうだね 流石にエロ小説をいきなり出すのは厳しいか…… 何らかのキャラクターになり切って応答させる とかの方が敷居は低い感じで良い? すごいなこいつ うちのMac 64GBだと相当縮めないとダメだろうが・・・ そもそも小さい方のやつもめちゃくちゃ性能いいけど、日本語だけ学習させるより、多言語で学習させた方が能力落ちにくいとかあるのかな 全般の能力に関しては納得できるんだけど、日本語単体の能力でみても日本語特化モデルより能力高い感じしない? ああ、でもそもそも世の中の日本語モデルは事前学習自体はほぼ英語ってのも影響してるか くそっ、2年前の俺。 なぜあのとき3060tiの8Gを買ってしまったのか! 12Gのモデル買っておけば…悔やんでも悔やみきれないw 7Bモデルなら別にCPUで動かしてもそれまでちゃうかな 全然速度的に不満ないし command-r+はまだllama.cppに完全対応してないっぽいね 通常の量子化もだけど、imatrixにしたいから、こっちの問題も解決してほしい(command-rでもまだ無理だったし) そういえばデータセットはcommand r+とかに出力してもらえばいいのか。 動かせる環境がある奴ならな・・・ M2Macの奴がバンバン動かしてくれたらデータセットすごい速度でできるかも? 4bqのCMDR+がこのスピード、M2 Ultra欲しくなりますなぁ……。 https://twitter.com/awnihannun/status/1776081238467768493 しかし唐突なグリーンってのは何なんだw 3bqならうちのmacでもギリギリ動かせそうだが、劣化が気になる >>162 WEB UIのキャラクター設定に学校の委員長入れたら頑なにエロ拒絶された 学校の部分消したらうまくいったので設定にもよるみたい そういや>>80 の手法、0.8掛けて重み足してるけどそのままでいいのかな 直感的には1.8で割って元の分布に近づけたほうが良さそうな気がするんだが >>80 のモデルの名前が長い、というのをいくつか見かけたのでもっと短い名前を付けようと思います LightChatAssistant(LCA)って変更したので、今後huggingfaceを見る方は以下のリポジトリをご参照ください Sdff-Ltba/LightChatAssistant-2x7B Sdff-Ltba/LightChatAssistant-2x7B-GGUF それと量子化版にもっと大きいbit数のものを随時上げていく予定です 手始めにQ6_K版を上げました。非iMatrixです もっと精度劣化してないの欲しい!という方はこちらをどうぞー >>179 乙です 時に、そちらの環境では70Bの差分マージは可能でしょうか? karakuri=miqumaid-llama を試しましたが、64Gでは無理でした メインメモリ128GB自体はまだ現実的 問題はその時の速度 Mac最強かな >>180 ChatVectorですかね?やってみた…らブルースクリーンになったw久しぶりに見たw メモリ96GBでは到底足りないようだ 1モデルだけで128GBあるからやはりきついみたい >>184 やはり、無理ですかー mergekitだと、70Bモデルのマージも64Gで余裕だから、そこらへん上手く処理してくれるのかな Task Arithmeticを使ってできないだろうか やるとしたらRunpodとかのサービスでクソデカサーバ借りてマージするとかかな ダウンロードとかアップロードの時は小さいインスタンスにするようにすれば5ドルくらいでいけそう >>179 久々にローカルやってみようと思い、oobaでq6_kを試してみた メインメモリ32Gの3060環境だけど、この精度でサクサクなのは、とても進化を感じたよ 避難所これどこの板なんやろ防弾とかなんかな?と思ったらPINKで hentaiスレ一覧の中にポツンとあんの笑う 女になりきってオナニーするスレ ★2 なんJLLM部 避難所 男の射精見て興奮する奴 6 しかもこのスレが一番勢いあるという もう終わりだよこの板 本スレの方はどうすんだ? スクリプトが埋めると思うけど次スレはなしかね 誰か立てたら残る そうじゃなきゃこのまま 今の5ch/pinkbbsは割と成り行き任せよ このスレが日本のLLM知見の最先端になってもそれはそれで・・・ >>178 64GだとQ3までしか無理だなぁ IQ3なら劣化も少なくすむのに Aratako/c4ai-command-r-v01-japanese-instruct こっちは、前モデルにファインチューンしたバージョン スコア見る限り、かなり期待できそう ダウンロード終わったら、Q6_kに量子化してkoboldで試してみるわ。 しかし、自前でファインチューンできる時代になったんだな エロ特化にできんかな?w light chat assistantでいつもの嫁を設定。エロ可能嫁完成。 >RunpodでGPUサーバを借り、A6000x4で学習を行いました。 RunpodのOn-Demandで$4.56/hrか… データセットさえあればワンチャンありそう >>195 iq2上げてる人見つけたから、iq3お願いしてみた >>195 まともなデータセットで追加でファインチューニングすると逆にエロ悪化したりするからなぁ、どうだろう 試してみないと分からんが >>199 俺もRAM64GB勢だからIQ3楽しみ Aratako/c4ai-command-r-v01-japanese-instruct だめだ。エラーが解消できん。元のcommand-rは上手くできたのに とりあえず作者様に量子化をお願いしてみた >>199 見たら上がってた 早速落としてみる 残念 command-rが動いた自前ビルドのkoboldでもplusは動かんかった ああ、ていうかアーキテクチャが違うのか llama.cppが落ち着くまで待つか・・・ llama.cpp server叩いたけどunknown architectureだね Add Command R Plus supportっていうPRが進行中だからもう少し待ちだね latest releaseが1時間前とかだからいけるかと思ったけどダメという お預けですな >>80 長文(1万トークンぐらい)の最初と真ん中に書いた事を質問したら、ちゃんと答えてきた。なんかすごい。 KoboldcppのビルドがWindowsで上手くいかん makeでやってもcmakeでやってもエラーになるわ もっと頻繁にビルド済みの配ってくれねえかな OPENBLASならビルドできたからこれで一旦満足するか… LLMじゃなくて画像生成(SD)のほうだけどRunpodでA100 80gb使ったことある 24時間ぐらい回すぐらいなら5000円くらいで使えるので個人でもわりとイケる が、ワイ的な問題としてはSDは実質的にsd-scriptsというリポジトリのが学習環境の定番になってるんだがLLMの定番がわからん点や karakuriはmegatoron deepspeedなるものを使ったということはわかる >>149 これはどうやら↓の変更が原因みたい https://github.com/ggerganov/llama.cpp/pull/6387 ↓のコマンドでその手前に戻したら直ったわ git reset —hard 52604860f93063ef98863921da697576af1c7665 >>80 めっちゃ楽しんでます、サンガツ! chatntq_chatvector-MoE-Antler_chatvector-2x7B-GGUF+Kobold.cpp+SillyTavernで遊びたいんやが、SillyTavernの方の設定&キャラカードのプロンプトがイマイチわからん この組み合わせで遊んでる民、どんな風に設定してるかおしえて >>214 まずstの設定をkoboldと同じ設定に変更 キャラ設定はオナニースレのシルヴィを参考に入れ込んで自分好みにカスタマイズした (小説機能とか省いて 口調のサンプルを追加とか) >>215 サンガツ チャット楽しみたいんやが、なんかプレイヤー乗っ取られたり、余計なプロンプトが最後にぶら下がったりで置いてけぼりくらうんやけど、その辺はどうやって制御したらええんかな? 2x7Bだからその辺りはある程度割り切るしかない気がする ガッツリ設定入れ込んでちゃんとしたロールプレイするにはモデルサイズ的に厳しい >>216 会話は◯◯のみ行う とか 1センテンス以内にしろとか指示に入れてるが初手でダメならガチャしてる あと指示はxml文で入れた方が理解度があがる 気がする ここら辺はワイもまだ試行錯誤だわ ローカルの最大の強みは返信を書き換えられることや どんどん書き換えていけ >>208 なんかkoboldの人は4/7まで休暇みたい もうすぐビッグウェーブが来るでw >>215 オナニースレのシルヴィ探してるんやが見つからん 【Claude3】ChatGPTでオナニー ★29とかのテンプレ見るんじゃあかんのか? >>217-219 ありがとな 修正出来るのは強みは活用せんとな せっかく日本語で遊べるローカル出てきたからには尻タブ用の使い勝手のいい日本語テンプレプロンプト作らんとな 避難所に案内されたわけですが、軽量でいいのがあるとのことですがどれのことなんだろう… >>225 ありがとうございます これいくつか種類がありますけど何が違うんでしょうか…? ここのニキらには不要っぽくはあるんやが LightChatAssistantをKoboldCppで簡単にお試しする環境と解説を用意してみたで https://github.com/Zuntan03/EasyLightChatAssistant >>228 ooba以外での動かし方も知りたかったので助かりますぜ…! 最初q8のものを落として使ってみましたがVRAM15gb使ってたのでQ4kmってやつにしてみますね。 ただ日本語モデルということで日本語で入力してるんですが返答は英語で帰ってくるのはどうすればいいんでしょうか >>230 まずは >>228 を試してみるとええかもしらんで 全部消して228のを入れようとしたらこういわれました https://files.catbox.moe/vr2l4z.png koboldcppだけ先に落としておいたら進んで、できたbatを実行したらまた証明書が〜と出るのでこっちは起動までたどり着けないです… comfyuiの時もこんなの出たことあったなぁ… >>233 ダウンロードできたみたいです!サンガツ! でもやっぱり英語で帰ってきてしまう…なんででしょう? https://files.catbox.moe/ogijxs.png >>233 ファイル名が変わっていたのに今対応したで iq3xxs_imatrixと_imatrixが付いとったら正常なはずや LightChatAssistantを別データセット使って追加でインストラクションチューニングするの試してみたんだが良くも悪くもまともになってしまった 出力の自然さは上がったけどエロさも同時に下がった感じ Antler-7Bがインストラクションチューニングされていないエロ特化みたいなモデルだから、ファインチューニングするとそこを殺しちゃってる感じかなあ >>234 以前にKoboldCppを使ったことがあって設定が残ってるとかやろか? Settings-AdvancedにあるReset ALL Settingsして Settings-BasicのMax Ctx.Tokensを32768にAmout to Gen.を512にする初期設定をやり直してみたらどうやろ? >>228 >>235 すごい!ご新規さんに優しい素晴らしいものをありがとうございます! ファイル名をちょこちょこ変えてしまって申し訳ないです… とりあえず予定していたものは上げ&修正終わったので、何かなければここから変わることはないはず >>234 MemoryかWorldInfoに英文が入力されているのかな? New Session→Keep Memory and World Info?のチェックオフ でOKして試してみるとどうなります? 話者の名前が英語になってるとそっちに釣られるとかあるで mlxでcommand r plus 4bit版動かしてるMac使いおらん? M2 Max RAM96GBで動かしたんだが↓みたいにぶっ壊れたAIみたいな出力しか出さないんよね 誰か何か知ってたら教えてクレメンス Prompt: hello , I have a problem with the "グリーン" color. I have a "green" color in my palette, but when I use it, it is not the same color. I have a "green" color in my palette, LightChatAssistant使う用のガイドならInstruct Templateの変更にも触れておいた方がいいんじゃない? Mistralベースだからフォーマットは[INST] [/INST]の方がいいはず 日本語でお願いしますって言ったらたまーに日本語で返してくれますね… >>238 やってみましたが相変わらずですね >>239 話者ってどこで変えれるんでしょう…? https://files.catbox.moe/9woqzo.png 肝心なの忘れてた、コマンド画面だとその後も書いてあるんですがwebui上だとちょっと前で止まってるんですけどなんなんでしょうか… あとiQ3_SやiQ4_XSも精度劣化の低さの割にサイズが小さいのでおすすめ 量子化での精度劣化は以下ページの方が纏めてくださっていて、とても参考になります 一番下の「KL-divergence による量子化評価」のグラフがめっちゃ参考になった https://sc-bakushu.hatenablog.com/entry/2024/02/26/062547 >>243 うーん、こちらでは全量子化を日本語動作確認してるんだけどな… 私には解決できないようだ。誰か任せた ワイの環境やとAllow Editingを有効にした際に{{[INPUT]}}と{{[OUTPUT]}}や[INST]と[/INST]があると英語になってしもうてる気がするで どう案内するのが正解なんやろか? >>243 ということで{{[INPUT]}}と{{[OUTPUT]}}を削除して生成したら日本語にならへんやろか? >>247 消したくても消せないというかなんでこれがついてるのかがわからない状況です。 241が言ってるのがそれなのかもとググっても全然わからんです… あとなぜか最後の1行がwebui上には表示されないっぽいです ふむ、Instruct Tag Presetを変えて試してみたがどうやらVicuna以外にすると英語になったりならかったりするようだ 普段適当に「ME:」と「AI:」にしてたから分らんかった ということでSettings→Instruct Tag PresetをVicunaにすると日本語にならないかな (本当はMistralのチャットフォーマットの方が良いんだろうけど) それと最後の1行が出ないのは、Settings→Advanced→Trim Sentencesをオフで治らないかな 訳わからんカット編集せずウィンドウ全体を貼ってくれw >>241 指摘サンガツやで Instruct Tag PresetをLlama 2 Chatにする案内を追加しといた ただSettingをLlama 2 Chatにすると"stop_sequence": ["[INST]", "[/INST]"],は変わるんやが入力欄で入力すると{{[INPUT]}}と{{[OUTPUT]}}(Instruct Tag PresetのKobold AI Formatみたいなの)が入ってしまうんはKoboldCpp仕様なんやろか? >>243 話者はWorld Infoなんで238の手順できえるはずやで >>248 Allow Editingが有効なら一旦ABORTして直接{{[INPUT]}}や{{[OUTPUT]}}にカーソル合わして直接編集で消せるはずやで 下の入力欄から入力するんでなくて上の出力欄から直接入力したら{{[INPUT]}}や{{[OUTPUT]}}が入らへんっぽい 最後の一行は中途半端に生成された文は削除される仕様やね >>249 これで日本語になりました!サンガツ! >>250 多分治ったっぽいです!サンガツ! >>252 Llama 2 Chatだと英語のままでした…悲しい… とりあえず次にいけそうです! >>216 User成りすましは @生成前のプロンプトに混ぜてモデルに伝える チャット入力欄の左の「三」アイコンクリック⇒「Author'sNote」選ぶ DefaultAuthorsNoteの▽をクリックしてオープン 「あなたは{{char}}として応答/対話をする必要があります。あなたは常に{{char}}として応答をします。このタスクでは、決して{{user}}として行動したり発言してはいけません。」 In-Chatを選び、Depthを1 as systemとする 次に、画面上の「A」のアイコンを選ぶ Aそれでも生成されてしまう場合は、チャット打ち切り 画面中央のCustom Stopping Stringに次のように ["ユーザー:","〇〇:"] を入力する(〇〇はあなたのペルソナの日本語名) の2つで、勝手にチャットが進んで置いてきぼりはなくなる プロンプトがそのまま漏れるのは、80氏のモデルでは結構ある気はする AIからの返信ウィンドウの右上、鉛筆アイコンで内容を編集できるから、追加されてるプロンプト部分を編集、チェックを押す 自分のターンの続きを書いて送信する ちょい前のだけど、Koboldcppの公式WikiをDeepLに突っ込んで翻訳したやつ これにKoboldの設定やら用語の内容やらが大体書いてある。参考になるかも https://rentry.org/rmeut8xs >>253 よかった!ようこそローカルLLMの世界へ!楽しんでね >>254 横からだが、すっげー助かった。 ST初心者のワイには、まだまだ知らない設定が多いわ ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 08.1h [pink] - 2023/09/20 Walang Kapalit ★ | uplift ★ 5ちゃんねる