なんJLLM部 避難所 ★2
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/
-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>182
俺も同じような挙動になるけどLLMの画像認識って何でこんなに幻覚激しいんだろ
制服の女の子1人立ってる画像を艦娘で大和の周りを多数の戦艦が取り囲んでる絵だとか言い出したり滅茶苦茶過ぎる https://i.imgur.com/NIkINNj.jpeg
CohereのAPI調子乗って使いまくってたらしんだわ
お前らも気をつけるんやで、ほな…… >>184
HuggingChatは普通に使えるんじゃないの? >>169
opusならできるけど、opusに長文貼り付けるとAPI料金嵩むからなあ >>189
なるほど、早くローカルで無限にできるようになりたい >>184
垢BAN食らったのかと思ってけど画像見たら全然セーフでよかた
Trial APIキーっていくつでも発行して貰える感じだけど、月間1000メッセージ制限がキー単位でした、みたいなぬけみちあったりして
まあ、Gmailなりで別垢作ればこんな制限あってない様なもんだけど Mistral系で日本語化したのは
・RakutenAI-7B
・Swallow-MS-7b-v0.1
英語で強そうなのは
・openchat-3.5-0106
・OpenHermes-2.5-Mistral-7B
・Starling-LM-7B-beta
・WizardLM-2
あとはマージ比率の問題かな 進化アルゴリズムに期待 llama-3 70Bの日本語特化モデルが来る前に、llama-2系70Bで最後に試したいマージ中だが、
ほんとSSD足りなくなる・・・(´Д⊂ヽ もう出ないといけないので、とりま結果報告だけ
MS-01は推論能力重視だったけど、今度はNSFW重視のMS-02を作ってみた。
Gembo-v1-70bとspicyboros_-70b-2.2をそれぞれ使って、karakuriとchatvectorしたモデルを
karakuri-midrose-mgをベースにmodelstockでマージしてみた。
https://rentry.org/caxcb37i
結構いい感じw
爆弾の作り方も、遠回しに答えたんで、nfsw化は成功したみたい。 以前、マイニングしてたこともあって、手元にはこんな機材が残ってるんだけど、 これらを使って、LLMの環境を構築したいんだけど、うまく活用する方法はないかな?
GPU: RTX3090×1、RTX3070×9、RTX3060×3、RTX1660S×3
メモリ: 32GB×4、16GB×4、8GB×4
CPU: Ryzen9 5900X、Ryzen5 3600、Ryzen5 3500、i3-10100F、Celeron G5905×3
せっかくのリソースをムダにしたくないし、何かいいアイディアあったら教えてくれ! RTX1660SじゃなくてGTX1650Sだったわw >>201
うちも似たような環境だわ.
https://github.com/oobabooga/text-generation-webui
GW明けからいろいろためして、いくつかGPUまとめれたおかげで、Command R plus の4bitがなんとか動いてるよ
koboldcppとかほかのでもまとめられるから好みで選ぶといいかも
https://docs.vllm.ai/en/latest/serving/distributed_serving.html
もっと大きなのを動かそうとおもって複数PCをつなげるvllm を試している途中
10G LAN だとそれなりに動くらしい.試しているニキはおらんかな? >>204
おお、近い時期やね
俺はGWの半ばからだけど、このスレがきっかけで本格的に始めたんよ
Command R plusは実用的な速度でに動くん?
IQ3Mで2.4T/sだわ
ちな以下の68GBの5枚指し
RTX3090×1
RTX3070×1
RTX3060×3
使ってるソフトはLM StudioとNovelAssistant
モデルのサイズに関わらず、枚数増やしていくごとに劇的に落ちていくわ・・・ >>205
その構成の場合って処理速度は3060基準になるんか?
構成に比して遅すぎんか >>206
やっぱり、遅すぎるか・・・
前スレの情報だと3090+4060Tixで5T/s出てたようなんで、そこまでスペック差があるかなあって思ってたとこよ
今、さっき教えてもらったoobaboogaをインストール中
実は前にもいれたことがあって、1年前だったかな
そのときは日本語がまともに動かなかった気がするわw
最近のはほんますごいわ >>151
私の場合はローカルLLMにollamaでlangchainにつなぐ実験をしています
ollamaちょっとクセがあるけど慣れれば普通にできる
ollamaでサーバーを立てて、そのAPIをlangchainで叩くみたいな仕組みです
gpuはollama側で認識してくれます langchainといえば、テンプレートの整備とか面倒だから自分で試したことはないんだが、最近のmixtral系日本語LLMってlangchainのエージェント駆動できるんかな
大型のモデルでしか試したことないから少し気になる >>206,207
すまん.今動いているのは結構いい環境だわ
ブログとかに挙がっている構成と同じで A6000 + 4090 で 8 token/s でてるぐらい
最初は A6000 + 4060Ti で試していて GPUメモリが足らず 1 layer だけ GPU にオフロードできず 5 token/s
GPUメモリが正義だと勝手に思って、味をしめて30XX系をと考えていたけど、枚数が増えるとそこはよくないんやね
参考にならずすまんね。こちらでもできたらまた報告するわ vramお大尽羨ましす
ちなみに70bの量子化だとどのレベルの量子化サイズなら
フルロードできるん?
24G
48G
それ以上
それぞれ積んでる人おしえて
帰ったらkarakuri-MS-02を別サイズで量子化する時の参考にしたい
うちは12Gだから鼻から諦めてQ6_kしかやってない( ´∀`) >>210
すげーな
A6000って48GBも積んでるやつよね
仮にA6000+4060tiで、全部オフロード出来なくても5 token/sも出てたらほぼ実用の範囲やね
枚数が増えることの性能低下についてははっきり分からんのよね
oobaboogaでテストしているうちに3060が足引っ張ってる気がしてきたわ
3060は帯域狭いし、4060tiのようにキャッシュ積んでないしね
今の構成だとスピード優先ならVRAM減らしてでも3070に変えた方がいい気がしてきたw >>211
基本的にはN bit量子化=1パラメータあたりN bitだけど、実際は全部のパラメータが同様に量子化されるわけじゃないしアーキテクチャ・コンテキストサイズにもよるだろうから、動かしたいモデルのファイルサイズを直接見た方がいい
一例だけど今手元にある64GBのMacだと、Llama 3 70B系ならQ5_K_Mが50GBでフルロードできる
Q4だと40GB強だから、RTX4090x2とかの48GB VRAM構成のマシンにも乗るんじゃない? >>183
温度を0.3~0.4ぐらいまで下げてみてください。 >>213
サンキュー
とりあえずQ5kmとQ4km作っときます Local-Novel-LLM-project/Ninja-v1-NSFW-128kの大葉のローダー設定を教えてください >>218
Transfomers
trust-remote-code にチェック う〜んロードできない、最新の大葉を入れなおすところからやってみる 大葉を最新にしたらよめましたありがとうございます。 >>209
langchainで一度推論が使えるようになれば、その気になればRAGもできますよ
たぶん。自分の発言で気が付いたんだけど、llama-cpp-pythonでも
serverを使えば同じようなことができるなあ、と
しかし私のマシンはしょぼいので7b推論しててもだんだん調子悪くなってくる >>209
7Bでもlangchain駆動できるのか
定義したフォーマットから少しでも外れると基本NGだから、それなりに大型のinstructionモデルじゃないとキツいって印象だったんだがすごいな sbtom/karakuri-MS-02.ggu
karakuriのnsfw版
とりあえず量子化をアップしたので、フルロードできそうな人、試してみて
いい感じのエロ小説書いてくれます 正直25GBくらいまでは許容できるんだけど、今のところエロで一番性能がいいのは
ローカルでどれなんだろうねえ
70B系のモデルってどうしても30GB超えてきちゃうのが多いんだよな >>228
iQ3_xxsとかなら、24Gくらいまで抑えられるけど、作るのにちょっと時間かかる 26ならうちでも動作しないことは無いけど……ってなること考えるとやっぱ7Bとか13Bって手頃で良いよなと思ってしまう
それだけだと発展とかも限られるからローカル用にもでかいモデルがあるべきなんだろうけど 手頃なのは間違いなく7BやLCAニキのモデルなんよ。
ただ、なんというか70Bの書く小説には例えようのない味があるんよなぁ
うまく伝えられんがw 英語のモデルしか普段触らんけど、7Bとか全然こちらの指示に沿ってくれなくない?
7Bでみんな満足できてるの? 7Bとか実用性では最小限だろうしね
英語版Wikipediaがギリ入るくらいだそう
13〜20Bくらいが軽さと性能でバランスよさそうだけど少数派
Mixtral-8x22Bも単品のはないし(野良モデルならある) Llamaには13BのモデルがあったけどLlama2には無かったからね(正確にはあるけど非公開)
最近ではマージモデルとかMoEの2x7Bとかは出てきてるけども text-generation-webui-mainとEasyNovelAssistantでエロ小説を出力したので、シーンごとに挿絵をstable diffusionで生成したいですが、適切なプロンプトを生成するのに良い方法はありますか?
kgmkmさんのnoteも参考にしたけど、上手く行かず、シーンからプロンプトを生成するのに適切なモデルや手法があったら、お教えください。 小説のシーンを3〜4行程度にまとめる(まとめてもらう)
↓
この3行とキャラクター設定をプロンプトとして投げる 画像にテキストに音声に勉強すること沢山ありすぎるけど、これからの世代はこれらを全部使いこなす世界になると
本当に一人でなんでもできちゃう世界になるんだろうな https://files.catbox.moe/zai7kf.jpg
こんなん草生えるわ (ArrowPro-7B-RobinHood-toxic) 漫画Originでも全員AI漫画家になってると予見されてた >>239
ディレクター業の大変さを誰もが感じる時代になりそう EasyNovelAssistantを色々と更新したで
ガッツリいじったんで不具合あったらすまんやで&なんか見つけたら知らせてもらえると助かるで
・入力欄のタブ化
・イントロプロンプトのタブで世界観やキャラの設定
・複数ファイルやフォルダのソート読み込み
・これらを使った執筆プロジェクトサンプル
・ここ三日間の軽量モデルラッシュに対応
https://twitter.com/Zuntan03/status/1789454526384394670 >>244
おー、早速アップデートさせてもらうでえ! Ninja-v1-NSFW-128すごくいい
エロ小説今までで一番上手い 何やるにしても最上流の企画AI作るところから始まるからマジでディレクター業なんだよな 企画は別にAIじゃなくてもいいのでは
AIと壁打ちしながら企画を作るのは当然やけど EasyNovelAssistantでたまに気に入った場面をじっくりやって欲しい時に限ってすぐに話し進んじゃうから
入力画面で[〇〇の描写を台詞なしで500文字で出力して]とか入れてリロード連発するとなんかほどよくいける
てかすごく欲しかったイントロプロンプト機能が追加されて草
本当に開発者さんには頭上がらねぇ…ありがとうございます EasyNovelAssistantのタブ素晴らしいな!タブの複製も簡単に出来たらますます捗りそう。リクエストさせてください 感想サンガツ
>>252
複製したタブの末尾への追加ならすぐに対応できたんで追加歯といたで Ninja-v1-NSFW-128あんまりストレートなプロンプト書くと申し訳されるな
ChtaGPTほどじゃないが、こつを磨かないとだめか c4ai-command-r-v01をText generation web UIで動かしているんですが、
Macだと問題無いのに、WindowsだとどうやってもUTF-8のデコードエラーになる
(LightChatやNinjaは動く。あとc4ai〜もkoboldだと問題無い)
https://github.com/ggerganov/llama.cpp/issues/6112
ここ見ると、llama.cppの問題っぽいのだけど、何か対策ありませんか? >>255
以前似たようなエラーを経験したけど、そのときはプロンプトとかキャラクタープロフィールの最初の一文字目にマルチバイト文字が入ってると発症してたな
適当な記号とかascii文字を先頭に持ってくれば問題なかったけどどうだろう >>253
対応はっや!こちらでもタブが複製できたことを確認しました
サンガツやで! >>256
プロンプトは英語でもエラー変わらずだったので、キャラクターの方見直してみます。ありがとうございます。 Ninja-v1-NSFW-128の作るエロ文章見てたら、別に70Bとかで無くても日本語のちゃんとしたエロ作れるんだと思った。
要は何を学習させているかなんだろうな 音声とか絵の学習もそうなんだけど質の悪いデータいくら用意しても逆に質が悪くなっちゃうしな Yiの新バージョンがApache2.0でリリース
6B・9B・34Bで34BはLlama3 70B並みですって >>259
もうちょっとモデルサイズ大きくていいんで
さらなる発展を期待したい
モデルサイズ15GBくらいなら32GBメモリ積んだデスクトップPC使えば
ここ5年くらいのミドルレンジCPUで余裕やしな 実際command R +のロールプレイ性能は結構凄い
システムプロンプトで指示してやるといい感じに動いてくれる 初心者向けに良い記事だね
LMStudioは実行ファイルからインストール出来るしUIも洗練されていて一番勧められる A6000でもGPUにフルロードしようとしたらiq2になるか・・・ +のiq2と無印Q8ってどっちが質の面ではいいんかね
サイズ同じくらいだけど >>264 のローカルLLMの記事見てローカルに興味持ったんやけど
LM studioってのとEasyNovelAssistantやったらどっちの方が使い勝手ええんや?
stable-diffusionの環境構築できるくらいの知識は持ってて、GPUは1660tiの低スペや asciiの記事からよく短時間でこんな場所にたどり着いたなw 何の地雷踏んだのかと思ったら、ArrowPro自体が地雷だったという話かw
リリース後のライセンス変更は、変更前に配布された分には変更の影響は及ばない
変更前に受け取った人から再配布するものにも影響はない
たいていの人はGGUFに変換されたものを落としてるだろうから影響なしだな
ライセンス変更自体を撤回したようだけど https://github.com/kgmkm/goalseek_ad/tree/main
init_editorでプロットをうまいこと出してくれなかった箇所を修正したり
えっちじゃないASMR追加したりしてた
「Japanese-TextGen-MoE-TEST-2x7B-NSFW_iMat_IQ4_XS」すごすんぎ
pixiv小説「Japanese-TextGen-MoE」で検索すると作例でてくんで openaiの発表やべぇ
このレベルのがローカルで使えるようになるのはいつになるだろうか 俺ポエムだが
低パラのelyzaベンチ競争も良いけど、ベンチ番長作りにあまり白熱してほしくない
10B以下のモデルは本当の意味で「思考」してるわけじゃないって以前何処かの検証記事で見たし、7B使ってると口達者さでベンチスコア稼いでる印象を受ける
自然言語からのユーザー意図のくみとりが出来てないと感じることが多々ある
ハッカソン組は豊富な資源を使ってもっと大きいパラメタのモデルを改良してほしい
Xのポスト見てると7B世界一に拘りがあるようだが、正直7Bマージ芸するだけならA5000まで必要にならないしEvolveも出たんでマージ芸はそちらに任せればいいのではなかろうか
と貧弱GPUしかない身としては思ってしまうんだ
長文スマン >>276
アルトマンはエロ解禁したいって言ってたし
そうなればローカルじゃなくてもいいんだけどな EasyNovelAssistantインスコして起動すると"Not enough memory resources are available to process this command"って出るんだけど
これはRAMかVRAMがたりてないってことでええんか?
RAM32GB、VRAM8GBなんだけど Ninja-v1-NSFW-128いろいろ試してるけど、倫理フィルターで申し訳されるのに、自分はエロしか書けないみたいな矛盾したこと言うのがおかしい EasyNovelAssistant使って各モデルが意味の取りにくい文を解釈してくれるかの試し
https://rentry.org/df9f4te5
テストとしては問題の数も試行回数も足りないけど傾向くらいは見える感じになった ■ このスレッドは過去ログ倉庫に格納されています