なんJLLM部 避難所
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ e249-iArR)2023/12/17(日) 21:48:59.66ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ
なんJLLM部 ★6
https://fate.5ch.net/test/read.cgi/liveuranus/1701542705/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0136名無しさん@ピンキー (ワッチョイ 0f7a-YqhJ)2024/04/04(木) 16:44:53.32ID:???0
まあすんなり上手くいくかは別にして旗艦になりそうなモデルが
5chの人間から出てきたのは大きいんちゃうかなって

暇つぶしでデータ作成に協力くらいはしようかなと思ってるわ
匿名性維持しつつ削除されないためにはrentryが一番ええんかなあ
0137名無しさん@ピンキー (ブーイモ MMff-2ZW3)2024/04/04(木) 17:27:02.37ID:???M
>>135
まさしくそっちのスレの住人で現時点でローカルに手を出してないしなんJも行かんからROM専やってるのよ
データの正規化とか音頭を取れるほど詳しくもないから何かやるなら協力できることがあるならその範囲で何かやりたいなってだけかな
将来的にはローカルに移行したいけどみんなの開拓の成果タダ乗りってのはちょっと気が引けるじゃん?
0138名無しさん@ピンキー (ワッチョイ 4b13-oxdg)2024/04/04(木) 17:49:29.98ID:???0
>>120
どのエキスパートを使うかに影響する
例えばコード特化、数学特化、ロールプレイ特化、小説特化の4つでMoEする場合はそれぞれのPositive Promptに
「プログラムを書いてください」
「次の計算問題を解いてください」みたいに各モデルの得意なタスクとかを書くと、推論時の入力の意味をある程度解釈して適切にgatingしようとする
だけど、mergekitで2モデルでMoEする場合はデフォルトだと常に2モデル使うような設定で出力されるから、どんなgate_modeでも理論上変わらん…はず
0139名無しさん@ピンキー (ワッチョイ 4b13-oxdg)2024/04/04(木) 18:50:39.51ID:???0
>>80
今更だがベースモデルの片方のNTQAI/chatntq-ja-7b-v1.0はすでにInstruction Tuning済みなのか
Instruction Tuning済みのモデルにMistral-instructのベクトル足して上手くいくってのも割とわけわからんな
NTQAI/chatntq-ja-7b-v1.0はそのまま、Antler-7BはChat Vector足してMoEとかも試した感じ?
0140名無しさん@ピンキー (ブーイモ MMff-mCjS)2024/04/04(木) 18:54:21.36ID:???M
先週マイニング用の4分岐のライザーカードasm1184を用意した
最初のモデルのロードは遅い、busロード80%(おそらく分岐チップの制約でマックス速度)
初期プロンプト流し込み、ジェネレート中はbusロード20%は超えなかった
これの意味するところはマイニングライザーでグラボ増やす形でもあまり問題はなさそう
0144名無しさん@ピンキー (ワッチョイ 4bc6-R/WD)2024/04/04(木) 20:12:15.76ID:???0
LLM用のデータセットの話題があったみたいだけど、npakaさんの昔のデータセットっていうか会話集みたいだったけど、
(スマホアプリの中で使った会話っぽかった)あれ改造1回試みたんだけど頓挫してるんだよね。
昔の女子高生の会話みたいなやつ。データ使ったの前過ぎてどこにあるか忘れた。多分削除してしまったと思う。
まだネットに落ちてるかな。全部読んでみたんだけど肝心の所が削除されてたんだけどね。
0146名無しさん@ピンキー (スプッッ Sdff-Ltba)2024/04/04(木) 21:29:40.63ID:e1I1qEPtd
>>139
その組合せは試してない。理由としては以下のように進行したからです。

素のchatntq-ja-7bを試したが、こちらの指示通りに書かないことがある
→ChatVector適用するとどうなる?出力がおかしくなるか?求めるものに近づくか?
→ChatVector適用済モデル(MoE化前)で実験、好みの動作に近づいたと判断

なので適用済をMoEの素材にした。Antler-7Bも同様

今回の処理について自分が期待していたことは、

ChatVector: Instruct強化をすると、ユーザーの指示に従いやすくなったり、話を理解しやすくなるのではないか
MoE化: パラメータ数の増加による基本能力の向上と、7Bモデル同士の短所の補強及び長所の相乗効果(言葉合ってる?)

いろいろなモデルでマージしてしばらく遊んだ個人的経験から、上記2点の可能性を見たので試して、偶然できたのが今回のモデルです
LLMはkarakuriが公開されたころ(今年2月?)に触れたばかりで、理論的なことは正直さっぱりだったりする
0149名無しさん@ピンキー (ワッチョイ 4b13-oxdg)2024/04/05(金) 00:33:11.31ID:???0
llama.cppを最新版にしたらMoEしてMixtralになったものをquantizeしたモデルをKoboldcppでロードできなくなったんだがこれって対処法ある?
Koboldは最新のものにしたけどダメだった
経験者いたら教えてくれ
どうやらconvertするときの重みの名前の付け方が変わったっぽいが
0151名無しさん@ピンキー (スプッッ Sdff-Ltba)2024/04/05(金) 00:51:55.57ID:XJ7BCY1md
>>148
あ、確かに自社のデータセットでファインチューニングしたって書いてある
なるほどそれで二重にならなくて上手くいったのか…

そういやChatVectorしたかった理由で一番重要だった「Context32k対応」を忘れていたので、追加で
素のMistral系日本語モデルたちは32kまでじゃないんよ
これをしたかったからMistral系を漁っていたんだった

>>149
過去のバージョンにロールバックできれば…
git cloneで過去バージョンでコピーできないかな
しかしそんなことがあるのか。迂闊に最新にできないなあ
0154名無しさん@ピンキー (ワッチョイ 0f7a-YqhJ)2024/04/05(金) 01:45:41.38ID:???0
4090だけだと画像生成で無双できるやろけどLLMだとなあ……

>>80ニキのモデル動かすだけなら爆速やろから、それが進化して
13Bモデルとかになっても爆速にはなりそう
0157名無しさん@ピンキー (ワッチョイ 1fa3-hs76)2024/04/05(金) 07:02:27.53ID:???0
>>153
33Bくらいのモデルなら必要メモリ量が20GB前後なので、それだとちょうど4090にフルロードできて恩恵を実感できると思うが…
実際に話題になるモデルの多くは70Bクラスが中心なので、それだと4090といえどもフルロードはできない
溢れた分はCPU+RAMで動かすことになるので、そこが速度上のボトルネックになって、正直1070だろうが3060だろうが4090だろうがそれほど速度は変わらない(多少は変わるが劇遅→爆速で快適!とはならない)
勘違いしないで欲しいのは「4090程度じゃダメ」と否定しているのではなく、十分遊べるしそれなりの恩恵もある
ただ画像生成のような劇的な恩恵は無く、下位グラボじゃできなくて4090ならできるという場面はあまり無いよということ
現状はCPUとRAM側が重要
0161名無しさん@ピンキー (ワッチョイ fb4c-WvGX)2024/04/05(金) 09:03:12.34ID:SnnzYuXf0
昨日公開された新しいモデル、日本語もちゃんと出ますね。
https://huggingface.co/spaces/CohereForAI/c4ai-command-r-plus

官能小説家としての能力を試したらいい感じでした。
0162名無しさん@ピンキー (ワッチョイ df75-eoXq)2024/04/05(金) 09:13:28.78ID:ah2keZ830
流石にエロ小説をいきなり出すのは厳しいか……
何らかのキャラクターになり切って応答させる
とかの方が敷居は低い感じで良い?
0163名無しさん@ピンキー (ワッチョイ eb11-yUXY)2024/04/05(金) 10:19:50.57ID:XKPqXMvA0
すごいなこいつ
うちのMac 64GBだと相当縮めないとダメだろうが・・・
そもそも小さい方のやつもめちゃくちゃ性能いいけど、日本語だけ学習させるより、多言語で学習させた方が能力落ちにくいとかあるのかな
0165名無しさん@ピンキー (ワッチョイ eb11-yUXY)2024/04/05(金) 10:52:57.45ID:XKPqXMvA0
全般の能力に関しては納得できるんだけど、日本語単体の能力でみても日本語特化モデルより能力高い感じしない?
0166名無しさん@ピンキー (ワッチョイ eb11-yUXY)2024/04/05(金) 10:54:58.20ID:XKPqXMvA0
ああ、でもそもそも世の中の日本語モデルは事前学習自体はほぼ英語ってのも影響してるか
0169名無しさん@ピンキー (ワッチョイ 3b32-YqhJ)2024/04/05(金) 11:04:39.94ID:???0
command-r+はまだllama.cppに完全対応してないっぽいね
通常の量子化もだけど、imatrixにしたいから、こっちの問題も解決してほしい(command-rでもまだ無理だったし)
0172名無しさん@ピンキー (ワッチョイ fb4c-WvGX)2024/04/05(金) 13:33:30.81ID:SnnzYuXf0
4bqのCMDR+がこのスピード、M2 Ultra欲しくなりますなぁ……。

https://twitter.com/awnihannun/status/1776081238467768493

しかし唐突なグリーンってのは何なんだw
0174名無しさん@ピンキー (ワッチョイ eb11-yUXY)2024/04/05(金) 14:00:32.36ID:XKPqXMvA0
3bqならうちのmacでもギリギリ動かせそうだが、劣化が気になる
0179名無しさん@ピンキー (スプッッ Sdff-Ltba)2024/04/05(金) 18:52:46.12ID:XJ7BCY1md
>>80のモデルの名前が長い、というのをいくつか見かけたのでもっと短い名前を付けようと思います
LightChatAssistant(LCA)って変更したので、今後huggingfaceを見る方は以下のリポジトリをご参照ください

Sdff-Ltba/LightChatAssistant-2x7B
Sdff-Ltba/LightChatAssistant-2x7B-GGUF

それと量子化版にもっと大きいbit数のものを随時上げていく予定です
手始めにQ6_K版を上げました。非iMatrixです
もっと精度劣化してないの欲しい!という方はこちらをどうぞー
0182名無しさん@ピンキー (オイコラミネオ MM7f-k+SB)2024/04/05(金) 19:44:22.47ID:zF4aX+1DM
メインメモリ128GB自体はまだ現実的
問題はその時の速度
Mac最強かな
0184名無しさん@ピンキー (スプッッ Sdff-Ltba)2024/04/05(金) 19:50:24.81ID:XJ7BCY1md
>>180
ChatVectorですかね?やってみた…らブルースクリーンになったw久しぶりに見たw
メモリ96GBでは到底足りないようだ
1モデルだけで128GBあるからやはりきついみたい
0186名無しさん@ピンキー (ワッチョイ 5f92-oxdg)2024/04/05(金) 20:15:25.66ID:???0
やるとしたらRunpodとかのサービスでクソデカサーバ借りてマージするとかかな
ダウンロードとかアップロードの時は小さいインスタンスにするようにすれば5ドルくらいでいけそう
0194名無しさん@ピンキー (ワッチョイ 0f7a-YqhJ)2024/04/05(金) 20:59:11.27ID:???0
誰か立てたら残る
そうじゃなきゃこのまま

今の5ch/pinkbbsは割と成り行き任せよ
このスレが日本のLLM知見の最先端になってもそれはそれで・・・
0195名無しさん@ピンキー (ワッチョイ 3b32-YqhJ)2024/04/05(金) 21:47:09.49ID:???0
>>178
64GだとQ3までしか無理だなぁ
IQ3なら劣化も少なくすむのに

Aratako/c4ai-command-r-v01-japanese-instruct
こっちは、前モデルにファインチューンしたバージョン
スコア見る限り、かなり期待できそう
ダウンロード終わったら、Q6_kに量子化してkoboldで試してみるわ。
しかし、自前でファインチューンできる時代になったんだな
エロ特化にできんかな?w
0200名無しさん@ピンキー (ワッチョイ 4b67-oxdg)2024/04/05(金) 22:42:42.20ID:PBF0BZrG0
>>195
まともなデータセットで追加でファインチューニングすると逆にエロ悪化したりするからなぁ、どうだろう
試してみないと分からんが
>>199
俺もRAM64GB勢だからIQ3楽しみ
0201名無しさん@ピンキー (ワッチョイ 3b32-YqhJ)2024/04/05(金) 22:55:25.73ID:???0
Aratako/c4ai-command-r-v01-japanese-instruct
だめだ。エラーが解消できん。元のcommand-rは上手くできたのに
とりあえず作者様に量子化をお願いしてみた

>>199
見たら上がってた
早速落としてみる
0206名無しさん@ピンキー (ワッチョイ 7311-b8U7)2024/04/06(土) 00:27:43.75ID:WE0RLjCc0
latest releaseが1時間前とかだからいけるかと思ったけどダメという
お預けですな
0211名無しさん@ピンキー (ワッチョイ 4fc4-TfWo)2024/04/06(土) 06:04:15.65ID:???0
LLMじゃなくて画像生成(SD)のほうだけどRunpodでA100 80gb使ったことある
24時間ぐらい回すぐらいなら5000円くらいで使えるので個人でもわりとイケる
が、ワイ的な問題としてはSDは実質的にsd-scriptsというリポジトリのが学習環境の定番になってるんだがLLMの定番がわからん点や
karakuriはmegatoron deepspeedなるものを使ったということはわかる
0214名無しさん@ピンキー (ワッチョイ 021e-hBD6)2024/04/06(土) 10:59:06.63ID:IGDSh6PD0
>>80
めっちゃ楽しんでます、サンガツ!

chatntq_chatvector-MoE-Antler_chatvector-2x7B-GGUF+Kobold.cpp+SillyTavernで遊びたいんやが、SillyTavernの方の設定&キャラカードのプロンプトがイマイチわからん
この組み合わせで遊んでる民、どんな風に設定してるかおしえて
0215名無しさん@ピンキー (ササクッテロラ Spb7-aGYJ)2024/04/06(土) 11:23:08.35ID:???p
>>214
まずstの設定をkoboldと同じ設定に変更
キャラ設定はオナニースレのシルヴィを参考に入れ込んで自分好みにカスタマイズした
(小説機能とか省いて 口調のサンプルを追加とか)
0216名無しさん@ピンキー (ワッチョイ 021e-hBD6)2024/04/06(土) 11:40:59.95ID:IGDSh6PD0
>>215
サンガツ
チャット楽しみたいんやが、なんかプレイヤー乗っ取られたり、余計なプロンプトが最後にぶら下がったりで置いてけぼりくらうんやけど、その辺はどうやって制御したらええんかな?
0218名無しさん@ピンキー (ササクッテロラ Spb7-aGYJ)2024/04/06(土) 12:56:01.34ID:???p
>>216
会話は◯◯のみ行う とか 1センテンス以内にしろとか指示に入れてるが初手でダメならガチャしてる
あと指示はxml文で入れた方が理解度があがる 気がする ここら辺はワイもまだ試行錯誤だわ
0222名無しさん@ピンキー (ワッチョイ 0298-hBD6)2024/04/06(土) 15:26:29.60ID:IGDSh6PD0
>>215
オナニースレのシルヴィ探してるんやが見つからん
【Claude3】ChatGPTでオナニー ★29とかのテンプレ見るんじゃあかんのか?
>>217-219
ありがとな
修正出来るのは強みは活用せんとな
せっかく日本語で遊べるローカル出てきたからには尻タブ用の使い勝手のいい日本語テンプレプロンプト作らんとな
0224名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 16:18:23.05ID:PYnkc8ci0
避難所に案内されたわけですが、軽量でいいのがあるとのことですがどれのことなんだろう…
0226名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 17:17:13.41ID:PYnkc8ci0
>>225
ありがとうございます
これいくつか種類がありますけど何が違うんでしょうか…?
0230名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 18:18:33.28ID:PYnkc8ci0
最初q8のものを落として使ってみましたがVRAM15gb使ってたのでQ4kmってやつにしてみますね。
ただ日本語モデルということで日本語で入力してるんですが返答は英語で帰ってくるのはどうすればいいんでしょうか
0232名無しさん@ピンキー (ワッチョイ fe2b-Kxjx)2024/04/06(土) 18:30:04.85ID:PYnkc8ci0
全部消して228のを入れようとしたらこういわれました
https://files.catbox.moe/vr2l4z.png
koboldcppだけ先に落としておいたら進んで、できたbatを実行したらまた証明書が〜と出るのでこっちは起動までたどり着けないです…
comfyuiの時もこんなの出たことあったなぁ…
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況