なんJLLM部 避難所 ★2
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 63c0-joKd)2024/05/02(木) 18:27:25.10ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0131名無しさん@ピンキー (ワッチョイ df1d-YO5+)2024/05/08(水) 12:31:16.83ID:93yjFfFi0
>>130
いま、リートンアウラちゃんに暴力的なエッチしてたら、初めてまともな申し訳食らったので、ちょこっと追加情報与えてロールプレイ復帰して貰ったで
この挙動は中身はOpusやな、ほぼ間違いなく
0132名無しさん@ピンキー (ワッチョイ 767a-/jko)2024/05/08(水) 13:23:27.29ID:???0
>>124
一枚目の文章はかなり日本語が自然でいい感じと思うけど、Claude-Opusでこれ書いてもらおうとしても訳そうとしても普通にお気持ちされて無理だよね?
何かしらの手段でOpus脱獄したのか、それとも別のLLMの生成&翻訳結果の話かな?
0135名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/08(水) 15:44:54.78ID:???0
>>131
試してみたけどリートン明らかに変わっとるね
前はもっと倫理観高くて融通利かんかった
アプリ版ではClaude3が使えるって宣伝しとるけど
AIキャラだけ先行で変わったんかもしれん
何にしても遊べるのはええことや
0137名無しさん@ピンキー (オッペケ Sr77-T8Qm)2024/05/08(水) 16:30:44.89ID:???r
EasyNovelAssistantの読み上げ機能とかkoboldで当たり前に使えると思ってたら頑張ってもstyle bert vits2の音を出すことさえかなわんかったバブバブや
高度なことを手軽に試させてくれて感謝しかない
0140名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/08(水) 21:28:20.12ID:???0
リートン温度が低いんか繰り返しペナルティ的な数値の設定が低いんか分からへんけど
同じ文章を繰り返してまうとこだけ難があるな
タダやから文句は言わんけど
0146名無しさん@ピンキー (ワッチョイ 6fbe-YO5+)2024/05/09(木) 22:00:09.92ID:???0
流石にチャット用途だけあってチャットしてくれという指示にはNinjaやVecteusよりかなり従ってくれやすいね
ただ文章や発言には若干不自然さが強いと感じる
0154名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/10(金) 02:23:26.13ID:???0
まだちょっと触っただけやけど鯨なかなかの賢さや
新しい日本語を勝手に発明してまうようなとこはあるけど
一般的な用途ではVecteusを上回ってるんちゃうかな
0157名無しさん@ピンキー (ワッチョイ 932c-YO5+)2024/05/10(金) 08:40:39.97ID:ug6OjmNh0
>>149
premくあしく
0158名無しさん@ピンキー (ワッチョイ 934f-YO5+)2024/05/10(金) 09:02:02.94ID:ug6OjmNh0
>>155
大概なことはこんな感じで行けると思うんやが、それとももっと下品でえっちな世界を模索しとるんか?
https://imgur.com/a/1zCOC9H
0160名無しさん@ピンキー (ワッチョイ 9bdc-EK0q)2024/05/10(金) 11:25:20.41ID:???0
富岳使ってゼロから立ち上げた13bか
日本語特化みたいだけど実性能どうなんだろうな
今の特異点である7b上位層に太刀打ちできない予感しかないが
0162名無しさん@ピンキー (ブーイモ MM52-WHiR)2024/05/10(金) 12:25:32.38ID:???M
1つシチュエーションが浮かぶ度にあの子ならどう応える?を試すだけで時間が溶けちゃう
昨日は排便を見せられるのかどうかを聞いて回ってるうちに2時間くらい経ってた
0164名無しさん@ピンキー (ワッチョイ 0fb3-0S7g)2024/05/10(金) 12:51:32.13ID:???0
ベンチマークだけ見ると大したことはなさそう
ただ学習データはサイバーエージェントが用意してるみたいだからワンチャンCalm-2みたいにエロ結構いけたりするのかな
0169名無しさん@ピンキー (ワッチョイ 267f-LjJG)2024/05/10(金) 15:32:28.53ID:3lHnPK1F0
のべりすとAIから2年半ぶりぐらいに文章生成に戻ってきたけど
好きなネットの短編小説を放り込んで続きを書いてもらうのはまだ難しかったな
そのシチュエーションで続けてほしいのに
勘所を抑えてないから全然違う話になってしまう
0170マジカル (ワッチョイ 97dd-5ctY)2024/05/10(金) 15:42:57.26ID:be//dk1a0
マルチモーダルチャットAIである

Ocuteus-v1

を公開いたしました。
パラメータ数は7Bです。

マージを活用し、画像を認識できるようになったモデルです。
読み込ませた画像から小説を書かせたりなどといった使い方もできます。
もちろん普通の会話もできます。

ぜひお試しください。

https://huggingface.co/Local-Novel-LLM-project/Ocuteus-v1
https://huggingface.co/Local-Novel-LLM-project/Ocuteus-v1-gguf
0172名無しさん@ピンキー (ワッチョイ 87c0-w3Az)2024/05/10(金) 17:09:38.20ID:9XCLFueD0
7Bとか13Bが扱いやすいのはよくわかるけどわざわざ富嶽まで持ち出して13Bかよというがっかり感
0173名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/10(金) 17:13:04.20ID:???0
>>157-158
premは大盤振る舞いしとったらあっという間に無料プランどころか有料プランまで破綻したそうや
リートンは説得したらほんま何とでもなるんやな
考えてみたらそもそもワイがあんまりドギツイこと言わせようとしてへんだけやった
0175名無しさん@ピンキー (ワッチョイ 7b3e-YO5+)2024/05/10(金) 17:39:58.77ID:tFM2/wmS0
>>有料プランまで破綻
w
リートンはどうなんやろうな?このままだとモデレーション甘いで!ってClaudに怒られてモデレーション強化せざるを得なくなる気がするが
Cohereには今の形で頑張って生き残ってもらいたいもんや
0177名無しさん@ピンキー (ワッチョイ e787-7Tbh)2024/05/10(金) 17:42:29.53ID:X5gWZ+CA0
fugaku面白いじゃん。品質もちょっと前のモデルと比べれば驚異的だし
これだけのモデルをフルスクラッチで、しかもCPUで作れる事を実証したのはすごいわ。学習側のコードもオープンソースにしてるし
0181名無しさん@ピンキー (ワッチョイ 3613-LjJG)2024/05/10(金) 19:03:29.92ID:???0
EasyNovelAssistantで
>>170 のOcuteusをワンクリックで試せるようにしといたで

アプデしてKoboldCpp/Launch-Ocuteus-v1-Q8_0-C16K-L0.batを実行や

GPUレイヤー増やしたい時はbatコピーしてset GPU_LAYERS=33とかに書き換えてな
VRAM 12GBで33レイヤーが動作しとったで
0183名無しさん@ピンキー (ワッチョイ 6fbe-YO5+)2024/05/10(金) 19:19:09.60ID:???0
>>182
俺も同じような挙動になるけどLLMの画像認識って何でこんなに幻覚激しいんだろ
制服の女の子1人立ってる画像を艦娘で大和の周りを多数の戦艦が取り囲んでる絵だとか言い出したり滅茶苦茶過ぎる
0186名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/10(金) 19:59:26.04ID:B8lRoLSZ0
>>184
HuggingChatは普通に使えるんじゃないの?
0188名無しさん@ピンキー (ワッチョイ 267f-LjJG)2024/05/10(金) 20:34:18.08ID:3lHnPK1F0
>>182
全然違って草
0190名無しさん@ピンキー (ワッチョイ 267f-LjJG)2024/05/10(金) 20:57:44.80ID:3lHnPK1F0
>>189
なるほど、早くローカルで無限にできるようになりたい
0195名無しさん@ピンキー (ワッチョイ 7b3e-YO5+)2024/05/10(金) 23:30:43.84ID:tFM2/wmS0
>>184
垢BAN食らったのかと思ってけど画像見たら全然セーフでよかた
Trial APIキーっていくつでも発行して貰える感じだけど、月間1000メッセージ制限がキー単位でした、みたいなぬけみちあったりして
まあ、Gmailなりで別垢作ればこんな制限あってない様なもんだけど
0196名無しさん@ピンキー (ワッチョイ cb13-l/GH)2024/05/11(土) 00:07:20.29ID:???0
Mistral系で日本語化したのは
・RakutenAI-7B
・Swallow-MS-7b-v0.1
英語で強そうなのは
・openchat-3.5-0106
・OpenHermes-2.5-Mistral-7B
・Starling-LM-7B-beta
・WizardLM-2
あとはマージ比率の問題かな 進化アルゴリズムに期待
0198197 (ワッチョイ 9b32-vfni)2024/05/11(土) 07:27:36.21ID:???0
もう出ないといけないので、とりま結果報告だけ

MS-01は推論能力重視だったけど、今度はNSFW重視のMS-02を作ってみた。
Gembo-v1-70bとspicyboros_-70b-2.2をそれぞれ使って、karakuriとchatvectorしたモデルを
karakuri-midrose-mgをベースにmodelstockでマージしてみた。

https://rentry.org/caxcb37i

結構いい感じw
爆弾の作り方も、遠回しに答えたんで、nfsw化は成功したみたい。
0201名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 09:49:19.04ID:???0
以前、マイニングしてたこともあって、手元にはこんな機材が残ってるんだけど、 これらを使って、LLMの環境を構築したいんだけど、うまく活用する方法はないかな?

GPU: RTX3090×1、RTX3070×9、RTX3060×3、RTX1660S×3
メモリ: 32GB×4、16GB×4、8GB×4
CPU: Ryzen9 5900X、Ryzen5 3600、Ryzen5 3500、i3-10100F、Celeron G5905×3

せっかくのリソースをムダにしたくないし、何かいいアイディアあったら教えてくれ!
0204名無しさん@ピンキー (ワッチョイ 5b91-AdtJ)2024/05/11(土) 10:24:37.67ID:???0
>>201
うちも似たような環境だわ.

https://github.com/oobabooga/text-generation-webui

GW明けからいろいろためして、いくつかGPUまとめれたおかげで、Command R plus の4bitがなんとか動いてるよ
koboldcppとかほかのでもまとめられるから好みで選ぶといいかも

https://docs.vllm.ai/en/latest/serving/distributed_serving.html

もっと大きなのを動かそうとおもって複数PCをつなげるvllm を試している途中
10G LAN だとそれなりに動くらしい.試しているニキはおらんかな?
0205名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 11:05:26.75ID:???0
>>204
おお、近い時期やね
俺はGWの半ばからだけど、このスレがきっかけで本格的に始めたんよ

Command R plusは実用的な速度でに動くん?
IQ3Mで2.4T/sだわ

ちな以下の68GBの5枚指し
RTX3090×1
RTX3070×1
RTX3060×3

使ってるソフトはLM StudioとNovelAssistant

モデルのサイズに関わらず、枚数増やしていくごとに劇的に落ちていくわ・・・
0206名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 12:03:49.63ID:ILWLbVnk0
>>205
その構成の場合って処理速度は3060基準になるんか?
構成に比して遅すぎんか
0207名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 12:25:33.45ID:???0
>>206
やっぱり、遅すぎるか・・・
前スレの情報だと3090+4060Tixで5T/s出てたようなんで、そこまでスペック差があるかなあって思ってたとこよ

今、さっき教えてもらったoobaboogaをインストール中
実は前にもいれたことがあって、1年前だったかな
そのときは日本語がまともに動かなかった気がするわw
最近のはほんますごいわ
0208名無しさん@ピンキー (ワッチョイ 6f24-B3c0)2024/05/11(土) 12:25:39.61ID:???0
>>151
私の場合はローカルLLMにollamaでlangchainにつなぐ実験をしています
ollamaちょっとクセがあるけど慣れれば普通にできる
ollamaでサーバーを立てて、そのAPIをlangchainで叩くみたいな仕組みです
gpuはollama側で認識してくれます
0209名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 12:37:04.68ID:ILWLbVnk0
langchainといえば、テンプレートの整備とか面倒だから自分で試したことはないんだが、最近のmixtral系日本語LLMってlangchainのエージェント駆動できるんかな
大型のモデルでしか試したことないから少し気になる
0210名無しさん@ピンキー (ワッチョイ 5b91-AdtJ)2024/05/11(土) 13:41:40.53ID:???0
>>206,207

すまん.今動いているのは結構いい環境だわ
ブログとかに挙がっている構成と同じで A6000 + 4090 で 8 token/s でてるぐらい
最初は A6000 + 4060Ti で試していて GPUメモリが足らず 1 layer だけ GPU にオフロードできず 5 token/s

GPUメモリが正義だと勝手に思って、味をしめて30XX系をと考えていたけど、枚数が増えるとそこはよくないんやね
参考にならずすまんね。こちらでもできたらまた報告するわ
0211名無しさん@ピンキー (ササクッテロ Sp5f-Cnt2)2024/05/11(土) 14:20:45.63ID:???p
vramお大尽羨ましす
ちなみに70bの量子化だとどのレベルの量子化サイズなら
フルロードできるん?
24G
48G
それ以上
それぞれ積んでる人おしえて
帰ったらkarakuri-MS-02を別サイズで量子化する時の参考にしたい
うちは12Gだから鼻から諦めてQ6_kしかやってない( ´∀`)
0212名無しさん@ピンキー (ワッチョイ 5fc7-1AKA)2024/05/11(土) 14:34:43.23ID:???0
>>210
すげーな
A6000って48GBも積んでるやつよね
仮にA6000+4060tiで、全部オフロード出来なくても5 token/sも出てたらほぼ実用の範囲やね

枚数が増えることの性能低下についてははっきり分からんのよね

oobaboogaでテストしているうちに3060が足引っ張ってる気がしてきたわ
3060は帯域狭いし、4060tiのようにキャッシュ積んでないしね
今の構成だとスピード優先ならVRAM減らしてでも3070に変えた方がいい気がしてきたw
0213名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 15:08:34.64ID:ILWLbVnk0
>>211
基本的にはN bit量子化=1パラメータあたりN bitだけど、実際は全部のパラメータが同様に量子化されるわけじゃないしアーキテクチャ・コンテキストサイズにもよるだろうから、動かしたいモデルのファイルサイズを直接見た方がいい
一例だけど今手元にある64GBのMacだと、Llama 3 70B系ならQ5_K_Mが50GBでフルロードできる
Q4だと40GB強だから、RTX4090x2とかの48GB VRAM構成のマシンにも乗るんじゃない?
0214マジカル (ワッチョイ 9b67-mzba)2024/05/11(土) 15:27:08.73ID:reEExVxa0
>>183
温度を0.3~0.4ぐらいまで下げてみてください。
0219マジカル (ワッチョイ 9b67-mzba)2024/05/11(土) 16:34:30.32ID:reEExVxa0
>>218
Transfomers
trust-remote-code にチェック
0221名無しさん@ピンキー (ワッチョイ 3bc0-5B/7)2024/05/11(土) 17:40:41.94ID:2u2kJLJC0
>>218
ExLlamav2のデフォ設定で使えてるけども
https://i.imgur.com/A8sDyAk.png
0223名無しさん@ピンキー (ワッチョイ 2b76-l/GH)2024/05/11(土) 19:10:41.60ID:???0
>>209
langchainで一度推論が使えるようになれば、その気になればRAGもできますよ
たぶん。自分の発言で気が付いたんだけど、llama-cpp-pythonでも
serverを使えば同じようなことができるなあ、と
しかし私のマシンはしょぼいので7b推論しててもだんだん調子悪くなってくる
0224名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 19:18:25.60ID:ILWLbVnk0
>>209
7Bでもlangchain駆動できるのか
定義したフォーマットから少しでも外れると基本NGだから、それなりに大型のinstructionモデルじゃないとキツいって印象だったんだがすごいな
0225名無しさん@ピンキー (ワッチョイ cb11-+EhW)2024/05/11(土) 19:19:13.69ID:ILWLbVnk0
安価ミスった
>>223
0226名無しさん@ピンキー (ワッチョイ 9b32-vfni)2024/05/11(土) 20:02:00.00ID:???0
sbtom/karakuri-MS-02.ggu

karakuriのnsfw版
とりあえず量子化をアップしたので、フルロードできそうな人、試してみて
いい感じのエロ小説書いてくれます
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況