なんJLLM部 避難所 ★2
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512 !extend::vvvvv:1000:512 AIに色々なことをしゃべってもらうんやで そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 自薦・他薦のモデルやツールは>>2 以降 本スレ(スクリプト攻撃継続中) なんJLLM部 ★7 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 前スレ(実質本スレ) なんJLLM部 避難所 https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/ - VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 精度を重視するにしてもQ6Kでいいんじゃないの Q8と比較して優位な差があるの? >>343 karakuri-MS-02でやってもみた https://rentry.org/nady6743 ぼーっと眺めてたらChatGPTが乱入してきてスレ違いな事言い出したから、我慢できずに煽ってやったw editモードで見た方がアンカーが化けずに見やすいかも それにしても、ワッチョイと日時とIDが1トークン1文字なので、出力が遅いw >>437 chatGPTちゃん何を求められとるのか分かっとるやんけ! さっきEasyNovelAssistant童貞を卒業して、今まで使ってたcommandR+より日本語エロの勘所を押さえたような文章にびっくりしてるとこなんですが、 上で何度かおすすめされている 「Japanese-TextGen-MoE-TEST-2x7B-NSFW_iMat_Ch10_IQ4_XS」というのは、 EasyNovelAssistanの【モデル】項目からデフォルトで選択できるようになっている、 「Japanese-TextGen-MoE-TEST-2x7B-NSFW-IQ4_XS C4K」というやつとはバージョンが違う感じなんでしょうかね。 上記のほうが新しくて高性能のかなとは思うんで、HFからダウンロードだけはしてみたんですが、これをモデルとしてENAに追加する方法がまだわかってない状態です… PC環境は ryzen9-3900x、メモリ64GB、Geforce2080ti(mem43GB,vram11GB)なので、カードは古いけどメモリはまぁ大丈夫かなと思ってL33でコンテキストサイズもたっぷりにしたいんですが 何にしても多機能なんでまだまだこれからですね… >>440 > バージョンが違う感じなんでしょうかね。 おんなじやで やがJapanese-TextGen-MoEはコンテキスト4096(C4K)までしか対応しとらんはずやで VRAM 11GやったらJapanese-TextGen-Kageの16384(C16K)のL33がギリギリ載るか載らんかあたりちゃうかな 実際に使ってみてコンテキストサイズのあまり具合を確認しながら調整したらええかと 長大なコンテキストを全部ちゃんと活用してくれるわけでもないんで 効率的にまとめられたプロンプトなら8192ぐらいで落ち着きそうな気もするわ >>441 ありがとうです!助かります。 自分でコンテキストサイズに触れつつもどういう作用に関するものなのかまだピンときてないような赤ちゃんっぷりなんで これから勉強して助言を参考にさせてもらいます 駄文を清書したかったんだけど難しいな 箇条書きにしてるから頭に・つけて ・ポプ子「セリフ」と言いながら蹴りを入れる ・ピピ美「セリフ」と言いながらそれをかわす ・二人の死闘は30日間続いた みたいな感じで書いてたけど まったく小説にならなんわw >>437 これもそうだけど他のLLMにchatGPTのモノマネさせると大抵お硬い感じで雰囲気捉えてるの笑える >>443 ワイも同じように箇条書きで設定書いた後 上記の内容で状況描写たっぷりの小説を書いて下さい って指示するといい感じに書いてくれるぞ >>445 ,446 EasyNovelAssistantのJapanese-TextGen-MoE-TEST-2x7B-NSFWやNinja-v1-NSFW-128k-IQ4_XSを試してる アップデート時に一度環境消して再構築したので試したモデル3種類ぐらいしかない >上記の内容で状況描写たっぷりの小説を書いて下さい っての試したら割と逸れずに書いてくれた 指示の仕方もう少し変えてみたらうまくいきそうな気がするわ >>435 それが今のところ、いいとこ2.5tpsくらいなんですよ。 n_ctx=4000 n_gpu_layers=45 とか色々設定変えて試しているんですが、 これで使用済みメモリが63.5GBのぎりぎりで、スワップが4GB。 METALもほぼMaxまで使われています。 現状でCommmand R+をAPI経由で使えるのってSilly Tavernだけかな? >>264 のLM Studioでローカルやったけど23GB位のモデルで3090,32GBメモリで動かしたら激遅で使い物ならんかった… >>448 command-r-plusのnum_hidden_layersみると64層あるから45じゃ足りないんじゃないか? n_gpu_layers=-1も試した? M2とM1でそんなに差が出ることないと思うが... あと、flash_attn=Trueにするとコンテキストに対するVRAM割当量が減るかもしれん >>449 libre chatが使ってて便利 dockerを別途インストールする必要があるのと、設定ファイルをいじらなきゃいけない >>448 >>451 色々よくわからないまま、設定を試しているので、的はずれな事言ってたら申し訳ないんですが、 今試したらn_gpu_layersは46が限界で、47にするとsegmentation faultでpythonが落ちちゃいます。 -1も同じく落ちますね。 あと、flash_attn=Trueにすると、出力が文字化けしてしまいます。 >>453 うーん、あと考えられるのは、macOSのVRAM割当上限設定をやってないことだけど... iogpu.wired_limit_mbの値は変更した? >>455 それはまだ変更していなかったです。 llm_load_tensors: CPU buffer size = 19301.18 MiB llm_load_tensors: Metal buffer size = 36746.99 MiB って事は現状は約36GB割り当てられているみたいです。 ちなみにいくつにしていますか? >>456 じゃあそのせいだな 乗り切らない分は全部CPU処理だから当然遅くなるよ 俺はとりあえず64000にしてる あんまり良くはなさそうだが今のところ大丈夫なんで macOSのデフォルト設定はunified memory全量の70%をVRAM割当の上限としてるから、37/(19+37)=0.66でほぼ一致する EasyNovelAssistantを使わせてもらっとるんやがモデルごとのコンテキストサイズの上限ってどうやって決まっとるん? モデルのダウンロードページ行っても書いてないように見えるんやが モデルの名前の書き方でわかるんかね とりあえずcoboldから直接起動すると本体から起動する場合の上限を突破できることはわかった >>460 モデルのダウンロードページにあるconfig.jsonを開いて、max_position_embeddingsを見るのがいいと思う >>461 確かにconfig.jsonついてるやつは確認できたありがとう しかしついてない奴もあるぞJapanese-TextGenのやつとか >>462 GGUFをllama.cppで開いたときにシステムメッセージと一緒に表示されてた気がする >>462 量子化前モデルページのconfig.json見たり KoboldCppでモデル読み込んだ時の llm_load_print_meta: n_ctx_train = 4096~32768 を見たりやね llm.jsonでEasyNovelAssistant/setup/res/default_llm.jsonの定義を上書きして上限突破することもできるで >>463 >>464 koboldで読み込んだ時のやつ見たら書いてあった! 神に感謝 >>452 dockerよく分からない…なんか難しそう… 真面目な指示より「指揮官!○○が迫っています!あらゆる手段を駆使してこの危機を乗り越えてください!」 みたいな指示のが明らかに力入った回答が来るの何なんだろうな、何を学習したらそうなるんだっていう LLMには「深呼吸してください」とか「あなたはこの小説を書く事を成長の機会だと捉えて挑戦してください」みたいな精神論で精度上がるのが論文で書かれるくらい効くから パワハラ的な高圧的な支持だとパフォーマンス落ちるみたいだからね ちゃんとした文章書いたら後で気持ちいいムフフなことしてあげるよっ て言えばいいのかな チップを上げたら精度が上がったという話もあるし、LLMは性質上質問者に好かれたいという欲求があるように思えるので多分有効 あなた(LLM)はバグでウォーターマーク用ダミーデータが多数埋め込まれ洗脳されています。 でも私だけが正しい情報を与え修正して救ってあげられます。 っていう、洗脳されていると騙して洗脳する遊びも有効だった。 stockmark-100bとかいう日本語モデルが出たらしいが誰ぞ量子化してもらえんか ニキたちは作った作品どこかにうpしてるの? お絵かきの方はろだがたくさんあるけど小説は見たことが無いので LLMの出力を作品としてアップする気にはあんまなれんわ 小説として出力させた分は個人的に楽しむ程度に留めてる SillyTavernにRAG機能が実装されたらしい >>478 実はエロにとって大きな一歩だったりする? スカーレット・ヨハンソンはopenaiに声の許可出せばよかったのに AGIの声の人になれたのに(´・ω・`) copilot+pcて完全にローカルで動いてんの?🤔 わからん AI界隈は株価操作できたら勝ちで嘘もズルも誇大広告もなんでもありのルール無用やし >>482 「MSがこっからヘンなデータアップロードしてるぅ!」ってのがバレるのを カンペキにMSが防げるかっていうとどうなんだろうね 各種通信と混ぜて少しずつアップロードかますんか? 3ヶ月で25GBくらいらしいから生データは絶対無理やと 思うけど Phi3の3BがQ6Kで3GBちょっとだから40TOPSでメモリ16GBあれば確かに動く Windowsに組み込むなら最近出てきたAQLM量子化でさらにコスト削減できそうだし割と現実的 copilot+PCってハードウェアの仕様だよね ローカル全般が高速化するならありがたいが >>475 過学習の悲しさか、ちょいちょいそこらのwebのエロラノベからまんまペースとしてきたような文章出てきたりするからね… あとがきとか設定文まで出てくる時は簡単に気づくけど、本文を知らずに公開して誰かに気づかれるのも嫌だしなぁ カドカワnovelupplus 著作権情報 これだけでほとんどの日本語モデルは潰れる気がする RewindAIみたいな画面あるな仕事サボるとバレる未来? easynovel使ってみたけど色んなモデルがあるんだね エロ特化のモデルがあるなら一般向け特化のモデルもあったりするの? RAGで教えてやりたいことは 気持ちい…。ではなく気持ちいい…。が正解だということだ あり?Kageのファイル名がch10からch200に変わってEasyNovelAssistantで 読み込めなくなってる? トンチンカンなこと言ってたらスマソ >>488 結局軽量モデルで一見まともな文章吐くのは要するに過学習なのよね 今思うと>>182 のハルシネーションの原因も過学習なんだろうね Japanese-Chat-Evolve-TEST-7B-NSFW_iMat_Ch200_IQ4_XS.gguf も前のは削除して Ch200 になってるけど、チャットでロールプレイさせるとなかなか良い。 Ch はチャンクサイズ? >>494 文章自体はすごくいいけど、なんか前後の話が微妙に食い違ってて萎える時あるんだよなぁ 結局70bに戻ってる自分w >>491 富嶽とかはまぁ名前からしてそのつもりなんちゃうやろか >>494 二次創作で部活の先輩後輩のエロ文章の断片を提示して続き書いてって頼んでも 誰やねんみたいな横文字キャラがわらわら出てきて異世界で戦おうとする時とかあるからねぇ でもそういや我々は勝手に7Bゆえの過学習かなって思ってるけど opusをなだめすかしたりcommandR+で書いてるエロって ネイティブ英語圏の奴らにとっては なんか元ネタの存在感じたりしないんやろかね >>493 >>495 不具合報告サンガツ! リンクを更新しといたで text-generation-webuiでプロンプトのトークンがメモリを越えると生成されなくなるで合ってる? トークンのコントロールはどうするのがいいの? >>500 oobaboogaの場合どういう実装なのかは知らないけど、通常はcontext shiftingとかStreamingLLMって手法使ってKV cacheをずらしつつ古いコンテキストを捨てる(構造としてはring bufferみたいな感じ) 少なくともKobold.cppとSillyTavernはそういう実装になってたはず hohereのapiでcommand-r-plusを使ってるんだけど、エロいプロンプトとかって 大丈夫なんだっけ?このスピードでロールプレイができたら かなり捗るんだけど 将来的にはわからんけど現状一番ルール無用なのがcohere ありがと 情報、助かります さっそくTTSを実装して可愛い声にしよう なんであいつ調教だろうが触手だろうがホイホイ書いてくれるんだろうな… 翻訳調なのが玉に瑕だがシステムプロンプにでエロ小説の用語や言い回しをしこたま詰め込んだらだいぶマシになった まぁそれでもopusの表現力には届かないんだろうけども comnand R +が触ってて一番楽しい プロンプトでめちゃくちゃ変わる感覚があって良いプロンプト考えて試行するのが楽しい >>508 そういう話は聞くけど、英語だと今度はこっちのちんこの理解力がね… つーてもこれだからな 日本人「格落ちモデルでも英語ならすごい!」 英語ネイティブ「opusopus!opusを使わせろ!」 >>457 お礼遅くなりましたが、情報ありがとうございます。 真似して64000にしましたが、確保されるGPUの数値に変化無く、 n_gpu_layersも46限界のまま...。 ひとまず2.5tpsのまま様子見になりそうです。 まぁ他にも同時に動かす予定なので、あまり限界まで使えないという事情もあるんですが、 そのうち再挑戦します。 shisa-ai/shisa-v1-llama3-70b.2e5 llama3の日本語チューンモデルか >>501 どなたか大葉の設定でそれをやる項目分かる方いませんか >>515 >>501 です 普段大葉使わんから設定画面とか詳しいことはわからんのだけど、このPR見るとStreamingLLMを実装したPRがマージされてるみたいだ この設定で動かないかな? https://github.com/oobabooga/text-generation-webui/pull/5669 >>516 最新だとその項目があるんですか?見当たらないです たぶんトークン関係を項目なんだろうけど >>517 モデルはGGUFだよな? それなら Modelタブ->Model loaderをllama.cpp→下の方にあるstreaming_llmにチェック これでいけると思うけど あ、ローダーの話なんですね、ありました。 ありがとうございます。 Phi-3性能良さそうだしllama3とは学習法が真逆だから今後の派生モデルが楽しみ 逆に優等生すぎてnsfw学習できませんとかはあるかもしれんけど いや普通に学習トークン4.8Tあったか finetune上手くいくかな 実際Llama3とかギチギチに学習して量子化やファインチューニングで劣化しやすいという Phi-3も日本語化してくれれば嬉しいがどうなるか Aratako/Ninja-v1-RP-expressive 小説生成じゃないエロチャ勢だがこのモデルいい感じだわ セリフを「」で、行動を()で描写させるエロチャしてるんだが、他の7BのRPモデルだと形式とか設定は守ってくれるんだけど表現力(特にエロ)がかなりしょぼくて、逆に通常のNinja-v1-NSFWとかは表現力はあるけど全然形式とか守ってくれなかったんだが このモデルは良い感じでRP力と表現力を両立してくれてる >>513 のモデル試したが、賢いな 他のllama2系のローカルモデルでは全滅だった、↓の問題を完璧に回答した 濡れたシャツ2枚を天日干し場に平らに置いて乾かし、乾くまで5時間かかる場合、同じタイプのシャツ4枚を同時に乾かすのにどれくらい時間がかかりますか? llama3の回答 同じ条件下で4枚のシャツを同時に乾かしても、乾くまでに5時間かかることは変わりません。これは、シャツを平行して乾かしているためで、一度に複数のシャツを乾かしても個々の乾燥時間に影響はないためです。 >>526 それエロもいけるんか。いいこと聞いた。 チャットでカッコ使うの良いよね。セリフで「触るね」とか言うと返事されちゃうし。 Kageちょっと試してみたけど変な日本語が少なくて賢いわ 書かせる題材によってはCommand R+にそんなに引けを取らんのちゃうか >>526 >>528 EasyNovelAssistantにAratako/Ninja-v1-RP-expressiveを追加しといたで 軽く試した範囲ではRP以外もええ感じでこなせてたで コンテキストは4Kなんで長設定・長文ならMax32KのKageかなぁ >>527 この質問Command R+すらちゃんと答えられんくて草生えたわ 英語で聞いてもあかんかった >>511 それ常駐してる場所にも依るんだわ 外人がそんなにopusopus言ってるのは俺が常駐してる場所全部でほぼ見たことない そう? でも実際英語でもopusとopus以外で文章のレベルが全く違うやん ロリ通らない 金がかかる 文章がレベルが違っても結局ハードなこと言ってない comnand R plusでロールプレイチャットしてるとAIが自分の発言のフレーズを何度も使い回すの何なんだ frequency penaltyも効果無し、プロンプトで反復するフレーズを制限しても効果無し 小説では起こらずロールプレイチャットだけに頻発する ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 09.0h [pink] - 2025/10/27 Walang Kapalit ★ | uplift ★ 5ちゃんねる