なんJLLM部 避難所 ★2
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 63c0-joKd)2024/05/02(木) 18:27:25.10ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0006名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:29:20.85ID:???0
●ここ最近話題になった日本語ローカルモデル達やで

LightChatAssistant(通称LCA)
このスレのニキが3月にリリースして激震が走った軽量高性能モデルや
>>5のツールもこのモデルの使用がデフォルトやで
非力なPCでも走るしまずはこの辺りから試すのを薦めるで
https://huggingface.co/Sdff-Ltba

Ninja/Vecteus
オープンソースの強力な日本語小説生成AIを開発しとるLocalNovelLLM-projectの皆さんによるモデル群や
リリースされたばかりやがこちらも軽量高性能やで
開発も続いとるようやから今後の動きにも要注目や
https://huggingface.co/Local-Novel-LLM-project
0007名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:29:41.26ID:???0
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1

Llama2-70B系:
karakuri-lm-70b-chat-v0.1
karakuri-MS-01

Cohere系:
c4ai-command-r-v01 (35B)
c4ai-command-r-plus (104B)
0008名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:30:01.35ID:???0
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで
0009名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:30:23.52ID:???0
⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで
0010名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:30:43.04ID:???0
⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
0011名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:31:03.25ID:???0
⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで
0013名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:31:45.33ID:???0
●モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
0022名無しさん@ピンキー (スプッッ Sd9f-1dje)2024/05/02(木) 19:45:47.17ID:Ig09010md
>>1
この板は即死ないから20まで保守する必要はないと思う
0025マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 11:43:52.70ID:6BfWfX3i0
この中に、大葉でChatタブからnotebookタブなど他タブに切り替えてもモデルが前のタスクや設定を覚えてて
それを引きずった応答をしたという経験した方はいらっしゃいますか?
0026名無しさん@ピンキー (ワッチョイ 6fc8-3YXh)2024/05/03(金) 12:58:20.95ID:???0
EasyNovelAssistantでゴールシークテンプレをちょっと改変しつつ、指示出して洗脳系のシチュを提案するようにした
ttps://i.imgur.com/ediKctI.png
これはこれで面白いんだけど、こういうのうまく出させるにはどういうプロンプト渡したら打率高くなるだろ?
あと方向性限定させたり、もっと突飛にしたり。
整合性が取れてない内容が出力されることがあったり、変に短かったりすることが結構あるんだけど

それと、ちょっと試してみた感じLCAtypeBよりggml-model-Q4Kの方が良さげな回答くれてる気がするんだけど
どのモデルが良いかは総当たりしかない感じかな?

LLM系しっかり触ったことなかったから全部手探りで何もわからん…
0027名無しさん@ピンキー (ワントンキン MM1f-jMJY)2024/05/03(金) 13:42:57.97ID:???M
ggml-model-Q4KってVecteusのことかな
VecteusはLCAより後発なこともあって、より思考能力が高い傾向がある(恐らく最新のWizard2を組み込んでいるため)
とは言え日本語能力と一括りに言っても文章の傾向も異なってくるし、好みもあるから一概には言えん感じやけどね
こればっかりは試してみないと分からんと思う
Vecteusはサイズ小さくてより軽いのに高性能だから、人に勧め安いのは確か
0036名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/03(金) 16:38:29.33ID:Gj7rcMwg0
MikuMaidのLlama-3 70Bバージョン、LumiMaid 70Bがアップロードされたみたい
割とそのまま倫理規制が解除されてたLlama-3 70Bっていう感じだから、日本語のロールプレイは語彙的に厳しいけど、英語エロチャはいける
0037名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/03(金) 16:47:18.86ID:Gj7rcMwg0
一応生成例
(エロチャではないけどharmfulな結果は日本語でも出てくる点がMikuMaidとの違い)
https://i.imgur.com/GnGmoTK.png
0038名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 17:24:35.01ID:???0
スレ立てサンガツ!

>>26-28
アカンモデルははっきりアカンと言えるんやがエエモデルを比べるのはホンマにむずい
6GBでVRAMフルロードできるんで速いのはエエんやが人が読むよりも速く生成されても
生成物をAIに評価させるとかせんと扱いに困るしなぁ

一定ラインを超える生成物の良し悪しは個人の好みに寄ってきて長時間触らんとわからん印象
もしくは話題になっとったベンチーマークのカンニングができんような
人の感性に沿った数値評価ができるようになればかね

現状は画像生成モデルの「好みのモデルを使ったらええんやで」と似てきとる気がするで

>>34
情報サンガツ!
KoboldCpp上でのNinja Q8でコンテキスト長伸ばすとなんか変な反応するなぁと思っとったが
ワイ環じゃないようで安心したで
0040名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 17:42:16.13ID:???0
>>26
EasyNovelAssistantの出力にMd形式で番号を振ってあるんは
大量の出力から良さげなものをCommandR+やオンラインLLMとかに選ばせられへんかなぁと思うて付けたで

「人の心に響く番号を5つあげて、点数と理由も記載しなさい」みたいな
なんちゃって評価で大量の出力を評価でけへんかなぁと
0042名無しさん@ピンキー (ワッチョイ 6fc8-3YXh)2024/05/03(金) 18:27:28.18ID:???0
>>27
ごめんVecteusのことです。なんか書く時見てるところ違ったわ。
やっぱりどのモデルが向いてるかは試してみないとわからんか…

>>38
画像の方も結局は好みやしこっちもそうか…
しかしこっちは画像と違って一目でわからんし、それぞれ評価するのしんどそうやね

>>40
そういう目的でついてんのかこの番号
実際その辺もAI任せしたいなぁ…
最近はずっとEasyNovelAssistantにお世話になってます。めっちゃ楽しい!
(強いて要望言うと、Ctr+Sで保存する時日付時刻とかが自動的に入ってくれるとちょっとうれしいかも…)
0044マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 18:40:34.37ID:6BfWfX3i0
>>43
Ninja系統のモデルはどういうわけかこのような挙動をするので同じようなことをするモデルを探しています。
0045マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 19:03:40.72ID:6BfWfX3i0
https://t.co/bHqlgW04pa

我々が出しているNinja系のGGUFはコンテキスト長周りにバグを抱えているらしいのでmmnga氏の出しているGGUFを使うのをお勧めします。
原因はおそらくYarnがGGUFでは使えないことだと思われ、どうにかする予定です。
0046名無しさん@ピンキー (オッペケ Sre7-5fNx)2024/05/03(金) 20:03:30.28ID:???r
量子化の方法って違いがあるんだ?
gitでプロジェクトをクローンして、convert.pyでGGUFに変換して、
imatrixファイルを作成してからquantize.exeでお好みのサイズに量子化するだけだと思ってた
0047名無しさん@ピンキー (ワッチョイ 5377-7iwU)2024/05/03(金) 20:08:56.21ID:1tl4LoH/0
コンテキスト長がそのままだと短くなるとか?
0048名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 22:47:02.99ID:???0
>>42
> (強いて要望言うと、Ctr+Sで保存する時日付時刻とかが自動的に入ってくれるとちょっとうれしいかも…)

そのままではないんやが2点対応しといたで

・名前を付けて保存でデフォルトのファイル名に日時を設定
・ファイル保存時に上書きするファイルがあればlogフォルダにバックアップ

誤って大事なデータを上書きしてしまった時はlogフォルダを覗いてもろうたら
0051名無しさん@ピンキー (ワッチョイ 767a-/jko)2024/05/04(土) 09:27:01.44ID:???0
Command R+で…な文章書いて遊んでるだけの浅瀬なんだけど、Llama3より良い感じぽいなこれ
二次創作でもこっちがプロンプト書かなくてもある程度キャラ設定や口調再現するのは感動した
とはいえ翻訳だから高めのレベルで限界はある感じ
マイナーなキャラは対応してないだろうしね
日本語特化LLMはまだ試してないんだけど、どんどん情報更新されてく現状で、今のとこ一番日本語の小説創作向きって何があるかな
0053名無しさん@ピンキー (ワッチョイ 6fbe-YO5+)2024/05/04(土) 15:26:15.99ID:???0
>>44
俺もNinjaとVecteusは全く同じ動きするわ、再起動しない限り前のセッションを引きずったおかしい動きになる
koboldCppで他のモデルでこんなこと起きた事なかったからビックリ
モデル依存でそんなことってあるのか?
0055マジカル (ワッチョイ 0fe6-5ctY)2024/05/04(土) 15:44:47.53ID:LYjmb2CO0
>>53
Koboldcppでもそうなりますか...
NinjaがMistralアーキテクチャの機能をフル活用できる性能があるからこのようなことが起こるのでは
という仮説を立てていますが未だ原因は不明です。
情報ありがとうございます。
0056名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/04(土) 16:27:20.35ID:ZPxwerOY0
kobold.cppでもoobaboogaでも同じ動きするんだったら、どっちかと言うと裏で動いてるLlama.cppに問題があるんじゃないか?
0057名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/04(土) 16:30:24.10ID:ZPxwerOY0
もし素のmistral+素のLlama.cppで同じ現象起きるんだったら、実装の問題だからgithubでissue立てた方がいい気もするけど
0058名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/04(土) 16:57:37.07ID:y5nYNW650
>>51
ぶっちゃけ日本語で小説となるとまだAIのべりすとに一日の長があるんやない?
ローカルで動作するLLMが今のAIのべりすとを上回る日もそう遠くないとは思うけど
Vecteusほんま賢いわ
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況