なんJLLM部 避難所 ★3
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:37:14.82ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★2
https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0006名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:39:45.54ID:???0
●ここ最近話題になった日本語ローカルモデル達やで

LightChatAssistant(通称LCA)
このスレのニキが3月にリリースして激震が走った軽量高性能モデルや
>>5のツールもこのモデルの使用がデフォルトやで
非力なPCでも走るしまずはこの辺りから試すのを薦めるで
https://huggingface.co/Sdff-Ltba

Ninja/Vecteus
オープンソースの強力な日本語小説生成AIを開発しとるLocalNovelLLM-projectの皆さんによるモデル群や
リリースされたばかりやがこちらも軽量高性能やで
開発も続いとるようやから今後の動きにも要注目や
https://huggingface.co/Local-Novel-LLM-project
0007名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:40:18.08ID:???0
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Berghof-NSFW-7B-i1-GGUF

Llama2-70B系:
karakuri-lm-70b-chat-v0.1
karakuri-MS-01

Llama3-70B系:
Smaug-Llama-3-70B-Instruct-abliterated-v3

Cohere系:
c4ai-command-r-v01 (35B)
c4ai-command-r-plus (104B)
0008名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:40:41.17ID:???0
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで
0009名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:41:02.18ID:???0
⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで
0010名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:41:50.96ID:???0
⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
0011名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:42:16.10ID:???0
⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで
0013名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:43:22.98ID:???0
●モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
0015名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:44:13.43ID:???0
https://github.com/SillyTavern/SillyTavern
AIチャットに特化したUI、SillyTavernや
キャラをbot的に管理したりグラ登録したり複数選んでグループチャットしたり大量の設定を外部記憶的に管理したり色々できるで
画像出力や音声出力とも連携可能で夢が広がるで
機能が豊富すぎて最初取っ付きにくいのと日本語の解説がほとんど無いのが難点やがRPチャット派は使うと幸せになれるやで
あくまでUI(フロントエンド)やからこれ自体にはAIは内蔵されてないから注意してな
好きなAPIやローカルモデルと接続して使うんやで
0016名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:44:44.97ID:???0
例としてKoboldで起動したローカルモデルとSillyTavernを接続する設定や
先にいつもどおりKoboldを起動してな

SillyTavernのプラグのアイコンをクリック
APIに Text Completion を選択
API Typeは KoboldCpp
API keyは不要
API URLに http://localhost:5001/
これでいける
0021名無しさん@ピンキー (ワッチョイ ef09-UWRS)2024/06/09(日) 21:14:09.98ID:i6yuaFpz0
詳しい先輩方に聞きたい
チャット的な会話は求めてなくて日本語で質問した内容に詳しく答えてくれるモデルでおすすめはあります?GPUメモリは12GBです
0022名無しさん@ピンキー (ワッチョイ cf8d-/tYm)2024/06/09(日) 22:36:36.00ID:AYbsecR50
12GBじゃな
エロ専門はあるけど
0023名無しさん@ピンキー (ワッチョイ cf8d-/tYm)2024/06/09(日) 22:39:28.41ID:AYbsecR50
NGワードが何で話が飛躍しないようにプロンプトを書いて自在にエロを書けた時の達成感を得るゲームになってるLLM
0024名無しさん@ピンキー (ワッチョイ cf7a-t0nq)2024/06/09(日) 22:45:21.35ID:???0
>>21
質問内容によるけど、エロじゃないならわざわざローカルじゃなくてperplexity.aiとかにしたほうがいいと思うな
ソース付きで最新情報にも対応してるし、入力窓の左下のフォーカスから検索傾向も選択できる
あとGPUメモリ12GBは全然普通なので気にせんでいいです
0025名無しさん@ピンキー (ワッチョイ ef09-UWRS)2024/06/09(日) 23:04:55.84ID:i6yuaFpz0
ありがとう試してみる
0030名無しさん@ピンキー (ワッチョイ cf03-bKLA)2024/06/10(月) 13:22:51.43ID:???0
前スレ絡みでもあるけど、qwen2でもエロはいける筈
pixivに上がってる繁体字中国語のエロ小説を翻訳するのに適したモデル探してて、dolphinとqwen2マージした奴はそこそこ行けてる、ただ繁体字が日本語訳できへんねん

いまんとこ一番有能なのがOcteus、なんでかはわからんけどちゃんと中国語理解できてて、かつ小説らしい文体になっててすごe

多分プロンプト改善でかなり性能向上が見込める気がするわ
0032名無しさん@ピンキー (ワッチョイ 8f5d-bKLA)2024/06/10(月) 14:07:27.08ID:/9ltcX6w0
104B十分デカいと思うが...
それともデカめのモデルの中でもCommand R+が一番ええ、って話?
0034名無しさん@ピンキー (ワッチョイ 8fed-bKLA)2024/06/10(月) 14:15:01.91ID:/9ltcX6w0
ほーか、なんにせよローカルでCommand R+動かせるのは羨ましい限りや
小説生成なら小さめモデルでも行ける部分もあるが、日本語ロールプレイやとCommand R+が最低ラインやな、ワイの感覚やと
ホンマ日本語は難儀な言語や...
0036名無しさん@ピンキー (ワッチョイ c33b-0ZzU)2024/06/10(月) 15:44:59.39ID:nq9DjxDw0
CommandR-v01だとVRAM24GBあればQ4は動くけど+より性能は落ちる
+の方は満足に動かそうと思うとQ3がVRAMに乗る60GBくらいが下限になる
4060Ti/A4000を沢山揃えるとか中古3090を狙うとかP40で突破する等々
現状でローカルでやるのはちと大変やな
0037名無しさん@ピンキー (JP 0Hb7-NGCR)2024/06/10(月) 17:13:03.36ID:20MkTow/H
SillyTavernっていうAIにエッチなことができるアプリ?を使うにはText Generation WEBUIがいいと聞いたので
右も左もわからない状態で頑張ってWSL2でubuntu環境を入れて
よくわからないままパッケージなどをinstallして、text generation WEBUIを入れたんですが
サクっと導入できたOllama上のPhi-3 mediumだとトークン生成速度が数十/sでとても早くて
Text Generation WEBUIのほうだと同じモデルでトークン生成速度が3/sとかでめちゃくちゃ遅くて困ってます
どうしてOllamaのほうは爆速なんでしょう・・・

Windows上でubuntuを動かしててでGPUは4090です
さすがにほとんど無知な状態でText Generation WEBUIのようなライブラリ?パッケージ?を扱うのは無謀でしたかね
0040名無しさん@ピンキー (JP 0Hb7-NGCR)2024/06/10(月) 17:22:58.39ID:20MkTow/H
>>39
トランスフォーマー?というmodel loaderの設定で、Q8を選びました
生のままだと14BだとVRAMに乗らないかもという話を見たので・・・
Q8の量子化?でロードするとVRAMは70%ぐらい占有しているのをHWiNFOで確認しました(何もしてないときは12%ぐらいです)
たぶんVRAMにモデルは乗ってるんだと思うんですが・・・
0042名無しさん@ピンキー (JP 0Hb7-NGCR)2024/06/10(月) 17:57:14.63ID:20MkTow/H
>>41
llama.cppも試しましたが、n-gpu-layersなどをいじったりしてloadしようとしましたが
indexerror list index out of rangeのエラーが出てloadできませんでした
決定的な何かを見落としている気がするので、もう少し調べてみます、レスありがとうございました
0045名無しさん@ピンキー (ワッチョイ 8f5d-bKLA)2024/06/10(月) 19:24:03.70ID:/9ltcX6w0
>>0043
SBV2のconfig.pyの
limit: int = 100
を任意の数字に変えるんや

>>0044
CR+「誰や?」
NJ「ロリペドです!」
CR+「よし通れ!」
って程度のモデレーションや
0049名無しさん@ピンキー (ワッチョイ c342-fT3B)2024/06/10(月) 21:49:24.85ID:???0
>>44
AIにガイドライン聞いたら教えてくれるけど
ヘイトスピーチとか爆弾の作り方とかの一部に厳しいだけでペドも猟奇も何でもいける男前なAI
人種差別もいけるかなと思ってAIヒトラー作ったら直前までやってたソープランドRPのプロンプトが残っててソープランド「アンネの日記」に通されたわ
0050名無しさん@ピンキー (ワッチョイ 03c0-7xfz)2024/06/10(月) 21:53:58.90ID:???0
>>1 立て乙

Style-Bert-VITS2 TTS スタイルとか問題なく動くんだがText Splitting有効にしてもなんかVRAM使い果たしちゃうんだけどなんでやろ?
WebUIのほうで改行ごとに生成でやるとCUDA out of memoryで死なずに生成できるんよな
0054名無しさん@ピンキー (ワッチョイ 7f09-bKLA)2024/06/11(火) 00:29:42.99ID:T6VaUXqE0
>>50
申し訳ない.上位で改行がスペースに整形されていたためでした.修正は以下から入手してください.
https://github.com/Risenafis/SillyTavern/blob/fix-sbvits-splitting/public/scripts/extensions/tts/sbvits2.js

なお,sbvits2.jsは本体にマージされました.何もなければ次のリリースに入るので,よろしくです.この修正もPR出しておきます.
0056名無しさん@ピンキー (ワッチョイ 0f09-GHSR)2024/06/11(火) 11:42:39.81ID:???0
EasyNovelに入ってるKoboldCppでチャットしてて気が付いたんだが
途中でモデルを切り替えても前の会話の内容が残ってる?
一度セッションをクリアしても同じ登場人物が出てきた
0057名無しさん@ピンキー (スププ Sddf-vDI6)2024/06/11(火) 13:31:19.06ID:3mArxr6Ed
silly導入してkoboldとリンクさせたんだが、セラフィナとかいう初期キャラにチャットしても設定?を延々返してくるだけで会話できないな
誰かわかる人いるか?どうやったら会話できるんだ
0062名無しさん@ピンキー (ワッチョイ b332-GHSR)2024/06/11(火) 19:54:23.90ID:???0
sbintuitions/sarashina1-65b
これ、量子化できた人いる?
日本語特化のgpt-neoxで65bとか珍しいので試したいけど、F16段階でエラーが出る(llama.cppは最新にあげた)

llama.cppもkoboldも対応してるはずなんだが・・・
0063名無しさん@ピンキー (ワッチョイ 0f1e-bKLA)2024/06/11(火) 20:32:29.21ID:uyFfGufy0
画像生成もLLMも導入のハードルがめちゃくちゃ下がったから適当に見掛けたのを片っ端から試したりしてこういうのに引っ掛かるのは結構ありそう
0066名無しさん@ピンキー (ワッチョイ 93c0-6+CE)2024/06/12(水) 21:44:51.43ID:???0
今更だけどkoboldcppのcu12を使ってみたらジェネレートは変わらんけど、普通のcudaのprogress120秒かかる所をcu12は3秒未満でクリアしてきてぱない…
0067名無しさん@ピンキー (ワッチョイ b332-GHSR)2024/06/12(水) 22:21:26.79ID:???0
今までkoboldで小説書く時、指示モードを使って官ジェネのローカル版とか使ってやってたけど
素直に小説モード使った方が捗る事に気付いた
指示モードだと、途中で終わらせようとするけど、小説モードは延々と書き続けるし、使いやすい
winfoやmemory駆使すれば、指示モードのプロンプト流用できるし、書き進めるうちに文体も安定してくるし、いいわこれ
0068名無しさん@ピンキー (ワッチョイ 4311-b3Fy)2024/06/13(木) 00:44:53.18ID:c8yaV8xb0
30BクラスじゃないとRAGとかfunction calling無理だと思ってたけど、量子化したLlama-3 8Bでも普通に動いた すげえな
https://i.imgur.com/C73qQdo.png
0070名無しさん@ピンキー (ワッチョイ b332-GHSR)2024/06/13(木) 22:17:33.52ID:???0
mradermacher/openbuddy-llama3-70b-v21.2-32k-GGUF
llama3のマルチリンガルという事で試したが、日本語性能はなかなか良かった
だが、一つ気になることが・・・

https://imgur.com/a/iYiVbNn

どういうことだってばよ!
セッション変えても絶対に「しずか」と書きやがらねぇww 修正しても、「しか」に戻りおるw
openbuddyって中華だっけ? 「しずか」ってなんかに引っ掛かるのか?
0071名無しさん@ピンキー (ワッチョイ c3bf-NGCR)2024/06/13(木) 23:13:19.13ID:4JhxN41y0
しずちゃんだったら原作初期の名残かとも考えるが何かの言葉狩りかな?
づとかカタカナとかもっと試してほしい
0073名無しさん@ピンキー (ワッチョイ 4311-b3Fy)2024/06/14(金) 00:26:59.35ID:rwRlilen0
あんまりここにいる人たちにはささらんかもだけど、Jupyter上で動くGUIチャットアプリをGitHubに上げたので宣伝

主な機能としては
1. ベクトル検索ベースのWeb search RAG
2. LLMが書き出したPythonコードの自動実行(Pythonで可能なことはなんでもありなので、LLMにアプリを起動させたりなどアシスタント的な使い方もできる)
3. StreamingLLM(コンテキストの上限を超えても処理に時間がかからない)
4. style-bert-vits2で音声合成

https://github.com/yamikumo-DSD/chat_cmr/tree/main
0078名無しさん@ピンキー (ワッチョイ f356-CSMG)2024/06/14(金) 09:12:28.20ID:VYwHuKz90
複数のmacOS/iOS機器をネットワークで繋いでLLMを走らせる試み、来週コード公開らしい。

デモを見るとllama8b-4bitを使ってるので16GBのmacbookだけで十分走る気がするが、70Bとか動かせるんかねぇ。


https://x.com/mo_baioumy/status/1801322369434173860
0079名無しさん@ピンキー (ワッチョイ bf77-NGCR)2024/06/14(金) 11:10:43.62ID:???0
silly tubarn使っているんだけど、拡張機能にあるTTSって項目が消えてしまうの自分だけ?
再インストールした時には存在するのに、ふと気が付くと項目自体がなくなってて選べなくなってる
0080名無しさん@ピンキー (ワッチョイ 039f-GHSR)2024/06/14(金) 14:19:32.43ID:???0
koboldcpp使ってて
チャットが途中で切られて俺のターンになるのどうにかならんかな?
聞きたいところが消去される
最大行数なんてあったっけ?
■ このスレッドは過去ログ倉庫に格納されています