なんJLLM部 避難所 ★2
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 63c0-joKd)2024/05/02(木) 18:27:25.10ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0183名無しさん@ピンキー (ワッチョイ 6fbe-YO5+)2024/05/10(金) 19:19:09.60ID:???0
>>182
俺も同じような挙動になるけどLLMの画像認識って何でこんなに幻覚激しいんだろ
制服の女の子1人立ってる画像を艦娘で大和の周りを多数の戦艦が取り囲んでる絵だとか言い出したり滅茶苦茶過ぎる
0186名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/10(金) 19:59:26.04ID:B8lRoLSZ0
>>184
HuggingChatは普通に使えるんじゃないの?
0188名無しさん@ピンキー (ワッチョイ 267f-LjJG)2024/05/10(金) 20:34:18.08ID:3lHnPK1F0
>>182
全然違って草
0190名無しさん@ピンキー (ワッチョイ 267f-LjJG)2024/05/10(金) 20:57:44.80ID:3lHnPK1F0
>>189
なるほど、早くローカルで無限にできるようになりたい
0195名無しさん@ピンキー (ワッチョイ 7b3e-YO5+)2024/05/10(金) 23:30:43.84ID:tFM2/wmS0
>>184
垢BAN食らったのかと思ってけど画像見たら全然セーフでよかた
Trial APIキーっていくつでも発行して貰える感じだけど、月間1000メッセージ制限がキー単位でした、みたいなぬけみちあったりして
まあ、Gmailなりで別垢作ればこんな制限あってない様なもんだけど
0196名無しさん@ピンキー (ワッチョイ cb13-l/GH)2024/05/11(土) 00:07:20.29ID:???0
Mistral系で日本語化したのは
・RakutenAI-7B
・Swallow-MS-7b-v0.1
英語で強そうなのは
・openchat-3.5-0106
・OpenHermes-2.5-Mistral-7B
・Starling-LM-7B-beta
・WizardLM-2
あとはマージ比率の問題かな 進化アルゴリズムに期待
0198197 (ワッチョイ 9b32-vfni)2024/05/11(土) 07:27:36.21ID:???0
もう出ないといけないので、とりま結果報告だけ

MS-01は推論能力重視だったけど、今度はNSFW重視のMS-02を作ってみた。
Gembo-v1-70bとspicyboros_-70b-2.2をそれぞれ使って、karakuriとchatvectorしたモデルを
karakuri-midrose-mgをベースにmodelstockでマージしてみた。

https://rentry.org/caxcb37i

結構いい感じw
爆弾の作り方も、遠回しに答えたんで、nfsw化は成功したみたい。
0201名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 09:49:19.04ID:???0
以前、マイニングしてたこともあって、手元にはこんな機材が残ってるんだけど、 これらを使って、LLMの環境を構築したいんだけど、うまく活用する方法はないかな?

GPU: RTX3090×1、RTX3070×9、RTX3060×3、RTX1660S×3
メモリ: 32GB×4、16GB×4、8GB×4
CPU: Ryzen9 5900X、Ryzen5 3600、Ryzen5 3500、i3-10100F、Celeron G5905×3

せっかくのリソースをムダにしたくないし、何かいいアイディアあったら教えてくれ!
0204名無しさん@ピンキー (ワッチョイ 5b91-AdtJ)2024/05/11(土) 10:24:37.67ID:???0
>>201
うちも似たような環境だわ.

https://github.com/oobabooga/text-generation-webui

GW明けからいろいろためして、いくつかGPUまとめれたおかげで、Command R plus の4bitがなんとか動いてるよ
koboldcppとかほかのでもまとめられるから好みで選ぶといいかも

https://docs.vllm.ai/en/latest/serving/distributed_serving.html

もっと大きなのを動かそうとおもって複数PCをつなげるvllm を試している途中
10G LAN だとそれなりに動くらしい.試しているニキはおらんかな?
0205名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 11:05:26.75ID:???0
>>204
おお、近い時期やね
俺はGWの半ばからだけど、このスレがきっかけで本格的に始めたんよ

Command R plusは実用的な速度でに動くん?
IQ3Mで2.4T/sだわ

ちな以下の68GBの5枚指し
RTX3090×1
RTX3070×1
RTX3060×3

使ってるソフトはLM StudioとNovelAssistant

モデルのサイズに関わらず、枚数増やしていくごとに劇的に落ちていくわ・・・
0206名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 12:03:49.63ID:ILWLbVnk0
>>205
その構成の場合って処理速度は3060基準になるんか?
構成に比して遅すぎんか
0207名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 12:25:33.45ID:???0
>>206
やっぱり、遅すぎるか・・・
前スレの情報だと3090+4060Tixで5T/s出てたようなんで、そこまでスペック差があるかなあって思ってたとこよ

今、さっき教えてもらったoobaboogaをインストール中
実は前にもいれたことがあって、1年前だったかな
そのときは日本語がまともに動かなかった気がするわw
最近のはほんますごいわ
0208名無しさん@ピンキー (ワッチョイ 6f24-B3c0)2024/05/11(土) 12:25:39.61ID:???0
>>151
私の場合はローカルLLMにollamaでlangchainにつなぐ実験をしています
ollamaちょっとクセがあるけど慣れれば普通にできる
ollamaでサーバーを立てて、そのAPIをlangchainで叩くみたいな仕組みです
gpuはollama側で認識してくれます
0209名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 12:37:04.68ID:ILWLbVnk0
langchainといえば、テンプレートの整備とか面倒だから自分で試したことはないんだが、最近のmixtral系日本語LLMってlangchainのエージェント駆動できるんかな
大型のモデルでしか試したことないから少し気になる
0210名無しさん@ピンキー (ワッチョイ 5b91-AdtJ)2024/05/11(土) 13:41:40.53ID:???0
>>206,207

すまん.今動いているのは結構いい環境だわ
ブログとかに挙がっている構成と同じで A6000 + 4090 で 8 token/s でてるぐらい
最初は A6000 + 4060Ti で試していて GPUメモリが足らず 1 layer だけ GPU にオフロードできず 5 token/s

GPUメモリが正義だと勝手に思って、味をしめて30XX系をと考えていたけど、枚数が増えるとそこはよくないんやね
参考にならずすまんね。こちらでもできたらまた報告するわ
0211名無しさん@ピンキー (ササクッテロ Sp5f-Cnt2)2024/05/11(土) 14:20:45.63ID:???p
vramお大尽羨ましす
ちなみに70bの量子化だとどのレベルの量子化サイズなら
フルロードできるん?
24G
48G
それ以上
それぞれ積んでる人おしえて
帰ったらkarakuri-MS-02を別サイズで量子化する時の参考にしたい
うちは12Gだから鼻から諦めてQ6_kしかやってない( ´∀`)
0212名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 14:34:43.23ID:???0
>>210
すげーな
A6000って48GBも積んでるやつよね
仮にA6000+4060tiで、全部オフロード出来なくても5 token/sも出てたらほぼ実用の範囲やね

枚数が増えることの性能低下についてははっきり分からんのよね

oobaboogaでテストしているうちに3060が足引っ張ってる気がしてきたわ
3060は帯域狭いし、4060tiのようにキャッシュ積んでないしね
今の構成だとスピード優先ならVRAM減らしてでも3070に変えた方がいい気がしてきたw
0213名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 15:08:34.64ID:ILWLbVnk0
>>211
基本的にはN bit量子化=1パラメータあたりN bitだけど、実際は全部のパラメータが同様に量子化されるわけじゃないしアーキテクチャ・コンテキストサイズにもよるだろうから、動かしたいモデルのファイルサイズを直接見た方がいい
一例だけど今手元にある64GBのMacだと、Llama 3 70B系ならQ5_K_Mが50GBでフルロードできる
Q4だと40GB強だから、RTX4090x2とかの48GB VRAM構成のマシンにも乗るんじゃない?
0214マジカル (ワッチョイ 9b67-mzba)2024/05/11(土) 15:27:08.73ID:reEExVxa0
>>183
温度を0.3~0.4ぐらいまで下げてみてください。
0219マジカル (ワッチョイ 9b67-mzba)2024/05/11(土) 16:34:30.32ID:reEExVxa0
>>218
Transfomers
trust-remote-code にチェック
0221名無しさん@ピンキー (ワッチョイ 3bc0-5B/7)2024/05/11(土) 17:40:41.94ID:2u2kJLJC0
>>218
ExLlamav2のデフォ設定で使えてるけども
https://i.imgur.com/A8sDyAk.png
0223名無しさん@ピンキー (ワッチョイ 2b76-l/GH)2024/05/11(土) 19:10:41.60ID:???0
>>209
langchainで一度推論が使えるようになれば、その気になればRAGもできますよ
たぶん。自分の発言で気が付いたんだけど、llama-cpp-pythonでも
serverを使えば同じようなことができるなあ、と
しかし私のマシンはしょぼいので7b推論しててもだんだん調子悪くなってくる
0224名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 19:18:25.60ID:ILWLbVnk0
>>209
7Bでもlangchain駆動できるのか
定義したフォーマットから少しでも外れると基本NGだから、それなりに大型のinstructionモデルじゃないとキツいって印象だったんだがすごいな
0225名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 19:19:13.69ID:ILWLbVnk0
安価ミスった
>>223
0226名無しさん@ピンキー (ワッチョイ 9b32-vfni)2024/05/11(土) 20:02:00.00ID:???0
sbtom/karakuri-MS-02.ggu

karakuriのnsfw版
とりあえず量子化をアップしたので、フルロードできそうな人、試してみて
いい感じのエロ小説書いてくれます
0228名無しさん@ピンキー (ワッチョイ 0f7a-vfni)2024/05/11(土) 20:21:41.43ID:???0
正直25GBくらいまでは許容できるんだけど、今のところエロで一番性能がいいのは
ローカルでどれなんだろうねえ

70B系のモデルってどうしても30GB超えてきちゃうのが多いんだよな
0231名無しさん@ピンキー (ワッチョイ 5f37-D8ix)2024/05/11(土) 20:54:35.82ID:???0
26ならうちでも動作しないことは無いけど……ってなること考えるとやっぱ7Bとか13Bって手頃で良いよなと思ってしまう
それだけだと発展とかも限られるからローカル用にもでかいモデルがあるべきなんだろうけど
0232名無しさん@ピンキー (ワッチョイ 9b32-vfni)2024/05/11(土) 21:18:49.29ID:???0
手頃なのは間違いなく7BやLCAニキのモデルなんよ。
ただ、なんというか70Bの書く小説には例えようのない味があるんよなぁ
うまく伝えられんがw
0235名無しさん@ピンキー (ワッチョイ cb13-l/GH)2024/05/11(土) 22:17:29.68ID:???0
7Bとか実用性では最小限だろうしね
英語版Wikipediaがギリ入るくらいだそう

13〜20Bくらいが軽さと性能でバランスよさそうだけど少数派
Mixtral-8x22Bも単品のはないし(野良モデルならある)
0236名無しさん@ピンキー (ワッチョイ 1f7f-DfvV)2024/05/11(土) 23:11:37.53ID:???0
Llamaには13BのモデルがあったけどLlama2には無かったからね(正確にはあるけど非公開)
最近ではマージモデルとかMoEの2x7Bとかは出てきてるけども
0237名無しさん@ピンキー (ワッチョイ 0f71-5B/7)2024/05/12(日) 00:20:56.30ID:wLCK4O0F0
text-generation-webui-mainとEasyNovelAssistantでエロ小説を出力したので、シーンごとに挿絵をstable diffusionで生成したいですが、適切なプロンプトを生成するのに良い方法はありますか?
kgmkmさんのnoteも参考にしたけど、上手く行かず、シーンからプロンプトを生成するのに適切なモデルや手法があったら、お教えください。
0239名無しさん@ピンキー (ワッチョイ bba0-aVBI)2024/05/12(日) 05:49:21.21ID:???0
画像にテキストに音声に勉強すること沢山ありすぎるけど、これからの世代はこれらを全部使いこなす世界になると
本当に一人でなんでもできちゃう世界になるんだろうな
0242名無しさん@ピンキー (ワッチョイ 0f71-5B/7)2024/05/12(日) 08:33:48.25ID:wLCK4O0F0
>>238
ありがとうございます。試してみます
0244名無しさん@ピンキー (ワッチョイ 0f13-5B/7)2024/05/12(日) 09:39:37.20ID:???0
EasyNovelAssistantを色々と更新したで
ガッツリいじったんで不具合あったらすまんやで&なんか見つけたら知らせてもらえると助かるで

・入力欄のタブ化
・イントロプロンプトのタブで世界観やキャラの設定
・複数ファイルやフォルダのソート読み込み
・これらを使った執筆プロジェクトサンプル
・ここ三日間の軽量モデルラッシュに対応

https://twitter.com/Zuntan03/status/1789454526384394670
0250名無しさん@ピンキー (ワッチョイ 0f49-l/GH)2024/05/12(日) 12:36:56.06ID:???0
EasyNovelAssistantでたまに気に入った場面をじっくりやって欲しい時に限ってすぐに話し進んじゃうから
入力画面で[〇〇の描写を台詞なしで500文字で出力して]とか入れてリロード連発するとなんかほどよくいける
てかすごく欲しかったイントロプロンプト機能が追加されて草
本当に開発者さんには頭上がらねぇ…ありがとうございます
0256名無しさん@ピンキー (ワッチョイ bb87-AdtJ)2024/05/12(日) 19:58:55.05ID:f2NqOFhh0
>>255
以前似たようなエラーを経験したけど、そのときはプロンプトとかキャラクタープロフィールの最初の一文字目にマルチバイト文字が入ってると発症してたな
適当な記号とかascii文字を先頭に持ってくれば問題なかったけどどうだろう
0259名無しさん@ピンキー (ワッチョイ bba0-aVBI)2024/05/13(月) 06:43:28.37ID:???0
Ninja-v1-NSFW-128の作るエロ文章見てたら、別に70Bとかで無くても日本語のちゃんとしたエロ作れるんだと思った。

要は何を学習させているかなんだろうな
0262名無しさん@ピンキー (ワッチョイ 0fe5-Xoqa)2024/05/13(月) 12:26:06.16ID:C+s8vmCA0
どうせゴミLLMです
0263名無しさん@ピンキー (ワッチョイ 0f7a-vfni)2024/05/13(月) 12:29:49.46ID:???0
>>259
もうちょっとモデルサイズ大きくていいんで
さらなる発展を期待したい

モデルサイズ15GBくらいなら32GBメモリ積んだデスクトップPC使えば
ここ5年くらいのミドルレンジCPUで余裕やしな
0270名無しさん@ピンキー (ワッチョイ 7be4-PuMj)2024/05/13(月) 22:12:55.13ID:???0
>>264 のローカルLLMの記事見てローカルに興味持ったんやけど
LM studioってのとEasyNovelAssistantやったらどっちの方が使い勝手ええんや?
stable-diffusionの環境構築できるくらいの知識は持ってて、GPUは1660tiの低スペや
0271名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/13(月) 22:26:34.54ID:+rtn+Qak0
asciiの記事からよく短時間でこんな場所にたどり着いたなw
0273名無しさん@ピンキー (ワッチョイ 2bfd-3+jw)2024/05/14(火) 00:09:52.40ID:???0
何の地雷踏んだのかと思ったら、ArrowPro自体が地雷だったという話かw
リリース後のライセンス変更は、変更前に配布された分には変更の影響は及ばない
変更前に受け取った人から再配布するものにも影響はない
たいていの人はGGUFに変換されたものを落としてるだろうから影響なしだな
ライセンス変更自体を撤回したようだけど
0277名無しさん@ピンキー (ワントンキン MM7f-StPd)2024/05/14(火) 05:21:18.76ID:???M
俺ポエムだが
低パラのelyzaベンチ競争も良いけど、ベンチ番長作りにあまり白熱してほしくない
10B以下のモデルは本当の意味で「思考」してるわけじゃないって以前何処かの検証記事で見たし、7B使ってると口達者さでベンチスコア稼いでる印象を受ける
自然言語からのユーザー意図のくみとりが出来てないと感じることが多々ある

ハッカソン組は豊富な資源を使ってもっと大きいパラメタのモデルを改良してほしい
Xのポスト見てると7B世界一に拘りがあるようだが、正直7Bマージ芸するだけならA5000まで必要にならないしEvolveも出たんでマージ芸はそちらに任せればいいのではなかろうか

と貧弱GPUしかない身としては思ってしまうんだ
長文スマン
0278名無しさん@ピンキー (ワッチョイ 4f48-5B/7)2024/05/14(火) 05:35:36.17ID:x1g5Kcyw0
>>276
アルトマンはエロ解禁したいって言ってたし
そうなればローカルじゃなくてもいいんだけどな
0279名無しさん@ピンキー (ワッチョイ 5b2a-elgC)2024/05/14(火) 06:07:53.94ID:???0
EasyNovelAssistantインスコして起動すると"Not enough memory resources are available to process this command"って出るんだけど
これはRAMかVRAMがたりてないってことでええんか?
RAM32GB、VRAM8GBなんだけど
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況