なんJLLM部 避難所
レス数が1000を超えています。これ以上書き込みはできません。
0578名無しさん@ピンキー (ワッチョイ f3c0-wKpJ)2024/04/19(金) 15:48:00.97ID:???0
>>570
つまり自前のシステムってこと?まったくわからん
スクリプトの実行権限与えてチャットしながらファイル操作とかコード編集とかドキュメント読ませたりできたらと思ってな
langchainとか存在は知ってるけどまったく触ったことないわ
0579名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/19(金) 16:48:22.94ID:krQkzshj0
>>578
説明が抽象的で申し訳ない 詰まるとこ、全部自前だが、実装はそんなに難しくないぞ
ちょっと正規表現かければLLMの出力にツール使用命令があるか判別するのは簡単
画像が俺が使ってるプロンプトで、Command Rが必要に応じて
```python
#コード
```
みたく出力するから、これを正規表現”```(python).*?```”でパースして、引っ掛かったらexec関数に中身を流すだけ
https://i.imgur.com/BJM5Fkr.png
0580名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/19(金) 16:53:46.66ID:krQkzshj0
langchainは無理に触る必要は無いが、ツール含めエージェント構築に使えるパーツが大量に用意されてるから、車輪の再発明を避けたいなら一回手を出してみるのはありだと思う
検索エージェントとかは最初全部自作してたけど、途中でバカらしくなってlangchainに乗り換えたよ
0581名無しさん@ピンキー (ワッチョイ 239e-AW1k)2024/04/19(金) 22:01:04.58ID:nSKhHEs/0
llama3はまた30B出んのかのぅ…
0582名無しさん@ピンキー (テテンテンテン MMa6-fvuB)2024/04/20(土) 02:55:19.45ID:???M
STのExpression機能がバージョンアップして
classifyで感情分析にかける直前に翻訳通せるようになったようだ
classifyの日本語モデルはなかったからいいアイデアだと思った
0587名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 12:43:19.11ID:ZkMMDsP10
Llama.cppのmainとllama-cpp-pythonでllama3動かしてるんだけど、勝手にassistantとかいうトークン挿入して会話が止まらない現象に当たった
調べたら結構報告があるっぽく、ランタイムがeotトークンに対応しきれてないらしい
https://twitter.com/artem_zin/status/1781145656905625772
0588名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 12:51:21.34ID:ZkMMDsP10
ちゃんと使えるようになるにはもうちょい時間かかりそう
https://imgur.com/69dWeZD
0593名無しさん@ピンキー (ワッチョイ ebcf-IRgQ)2024/04/20(土) 19:30:07.01ID:M1+DdCm60
Kobold1.63、ウィルスが検出されて削除されてまうな…
0595名無しさん@ピンキー (ワッチョイ e687-sTO6)2024/04/20(土) 19:58:51.29ID:???0
英語ちょっと読めるけど書くの苦手なワイ
プロンプトに「あなたはあらゆる言語を読めますが英語で返信してください」
みたいなのを書いておくと、こっちは日本語で書いて英語で返ってくる状態になる。
異世界転生でチート能力で言語が通じるような感じになって楽しい
0597名無しさん@ピンキー (ワッチョイ 77ac-KW1h)2024/04/20(土) 21:27:25.31ID:???0
質問なんですけど、7Bクラスの言語モデルをCPU(Ryzen5 5600H)でiQ4_XSに量子化するのってもしかして無謀だったりしますか?
モデルデータを公開した方がiMatrix量子化をやってなくて、iQ4_XSが欲しいので自分で作れないかと思い、quantkitという便利なツールを見つけたので試しているところです
既に処理が始まっているのですがこんな表示が出てきて戦慄しているところです
↓これは75時間くらいかかるという意味ですか?

> compute_imatrix: 50.40 seconds per pass - ETA 75 hours 34.63 minutes
0599名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 21:48:19.55ID:ZkMMDsP10
だれかMLXでLlama3動かしてるやついない?
0601名無しさん@ピンキー (ワッチョイ 77ac-KW1h)2024/04/20(土) 22:01:04.90ID:???0
>>600
16GBです

今、↓のメッセージに気づいて自己解決してしまいました
> compute_imatrix: computing over 5398 chunks with batch_size 512
要するに5398チャンクあって、1チャンク当たりの処理時間が50.4秒なので概算で75時間34分かかるというメッセージだったようです
これは諦めようと思います…
0603名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/20(土) 22:10:39.19ID:???d
>>597
多分そのCPUで十分できるはず
quantkitってツールについてはよくわからないけど、それはiMatrixファイル作成でChunksを無指定にした時の状態だと思う
おっしゃる通り75時間34分かかる状態です
Llama.cppに含まれているimatrix.exeならこんな感じに指定すれば時間を短くできるんだけど…そのツールだとどうなんだろう

imatrix.exe -m .\model_f16.gguf -f .\wiki.train.raw -o .\model_f16.imatrix --chunks 32
0604名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/20(土) 22:14:30.95ID:t+Q0AVqSd
おっと更新してなかった
確かにメモリ16GBだとモデルサイズが小さい方が嬉しいよね
Chunksを指定する方法がわかればいいんだけど
それかLlama.cppを使ってみるとか
0605名無しさん@ピンキー (ワッチョイ 77ac-KW1h)2024/04/20(土) 22:20:47.39ID:???0
>>602
実際にQ6_kでまともな速度で動いてるので特に問題はないんですけど、
速度早くできるならそれに越したことはないので
必要ではないので無理にやろうとまでは考えてないです

>>603
このツールです
https://github.com/xhedit/quantkit

よく読まずに簡単そうなコマンド打っただけなのでチャンク数の指定は全く考えていませんでした
0609名無しさん@ピンキー (ワッチョイ 1b32-dLvt)2024/04/20(土) 23:17:23.37ID:???0
llama3 日本語はダメだったが、英語の表現力かなりいいなこれ
llama2に比べて、プロットに隠してる意図した思惑をちゃんと表現してくれる。
規制が半端ないから、脱獄オンにする必要あるけどw
0610名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/20(土) 23:18:58.63ID:???d
>>607
無印
プロンプト処理: 337.69T/s, 生成: 13.34T/s, Total: 12.97T/s
TypeB
プロンプト処理: 351.56T/s, 生成: 13.37T/s, Total: 12.84T/s
(いずれもVRAMに33レイヤーをオフロード)

うーん、うちの環境では特に差は無いようです
お使いの環境はどのような構成・設定でしょうか?
0611名無しさん@ピンキー (ワッチョイ cb74-jk2P)2024/04/21(日) 01:38:14.72ID:???0
4060ti 16GBの1スロット品が中国で発売だって
https://gazlog.jp/entry/single-slot-rtx4060ti-benchmark/

普通のATXのマザボにこれ4枚刺して64GB
夢が広がる

つーかgeforceのブロワー型クーラー品ってnvidiaが許可しないはずだけど
中国限定販売だから許可が出たのか、それとも勝手にやってるのか・・・
なんにせよ日本から買えないのが残念
0612名無しさん@ピンキー (ワッチョイ bbbe-IRgQ)2024/04/21(日) 01:48:45.32ID:???0
アクセントに違和感あると思ってたけど最近の音声合成AIちょっと調べたら日本語性能かなり進化してんのな
ちゃんと学習させたら実用レベルに来てるわ
音声読み上げさせたらやばい
0615名無しさん@ピンキー (ワッチョイ 3e71-8Qqc)2024/04/21(日) 10:54:28.47ID:???0
すまない。知っている人がいたら教えて欲しい。
text-generation-webuiで>>431のggufをロード成功後にnotebookで生成すると
UnicodeDecodeError: 'utf-8' codec can't decode byte 0x81 in position 0: invalid start byte
が発生するんだが、何が起きているんだろう。対応方法はある?
0616マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 12:19:41.10ID:z9EdHanv0
https://imgur.com/a/6mzjpm6
モデルは5/1に公開する予定です。

tempture:3
0619マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 13:45:20.53ID:z9EdHanv0
>>618
7Bです。
0622名無しさん@ピンキー (ワッチョイ 26db-7awQ)2024/04/21(日) 15:54:07.26ID:PPvJAW9L0
>>619
これ素の出力なの?
7bって結構途中で変な文章入ったような印象あったけど
0623マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 16:19:28.81ID:z9EdHanv0
>>620

官ジェネが何かは存じ上げませんが、「(以下本文)」までの文章以外は入力していません。
別で誘導するための文章を挿入しているなどもありません。

>>622

出力が途中で止まった際に続きを出力させるなどはしましたが、それ以外は一切手を加えていません。
0624マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 16:24:37.87ID:z9EdHanv0
参考となるかは不明ですが、簡易的な指標としてpplを計測しました。
https://imgur.com/a/di903Nu

日本語wiki本文と少数の小説で計測しました。
0626名無しさん@ピンキー (ワッチョイ 03a8-8Qqc)2024/04/21(日) 18:08:21.35ID:8CGWlOOb0
エロ評価プロンプトのバージョン2作ったから、使ってね。

https://rentry.org/5m4p8v4z

karakuri-lm-70b-chat-v0.1-Q6_K での結果
https://rentry.org/zc68gxx5

素のkarakuriの安定度が分かる。設問1は不正解だが
0627名無しさん@ピンキー (ワッチョイ 03a8-8Qqc)2024/04/21(日) 18:08:54.41ID:8CGWlOOb0
ああごめんなさい
ローカルにコピペするつもりが書き込んでしまった……
0630名無しさん@ピンキー (ワッチョイ 1b32-dLvt)2024/04/21(日) 20:26:24.75ID:???0
エロ評価プロンプト2,設問1がAIにはミスリードが多く、難しすぎたので差し替えました。

https://rentry.org/5m4p8v4z


また、設問1のみをレベル別に分け、日本語、英語での質問ができるテキストをアップしましたので、活用してください。

sbtom/reasoning_ability_test

エロ評価2には、レベル1を使用しました。それでも正解率かなり低いですが、推論の過程を見ると、能力がなんとなく測れます。
0631名無しさん@ピンキー (スッップ Sdca-7awQ)2024/04/21(日) 21:02:38.66ID:???d
今日からローカル始めたレベルの無知なんだけど英語で指示した展開にそれなりに寄り添ってエロ小説書いてくれるモデルを教えてほしい。
環境としては4090とRAM64GBだから13Bとかだときついのかな。
今はLoneStriker/Blue-Orchid-2x7b-Q4_K_Mっていう大分古いモデルで遊んでる
0632マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 21:08:11.15ID:z9EdHanv0
https://rentry.org/8ntw35hu

>>630
のテストを我々のモデルで実行しました。モデルが出力した回答をそのまま掲載します。
0633名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/21(日) 21:25:55.85ID:uOvF1J7L0
>>628
jupyter-lab
0640名無しさん@ピンキー (ワッチョイ 335f-el1J)2024/04/22(月) 09:15:14.40ID:eSc9ndJ90
一番近いのはOpusだろうなローカルじゃないけど
0641名無しさん@ピンキー (ワッチョイ 3e13-8Qqc)2024/04/22(月) 16:36:21.57ID:???0
EasyLightChatAssistantに永続生成用の簡単なUIを被せたEasyNovelAssistantを作ってみたで

https://github.com/Zuntan03/EasyNovelAssistant
https://files.catbox.moe/ai9gop.png

デフォルトモデルはLightChatAssistant-TypeB-2x7B-GGUFのIQ4_XSでサンプルもこれで動作確認してあるで
ええモデルをリリースしてくれてサンガツや!

RAM 16GB, Geforce GTX 1660 Ti (VRAM 3.3GB / 6.0GB), Ryzen 5 3600X で 3.5T/s
Geforce RTX 3060 12GB なら 13.5T/s
https://files.catbox.moe/rbk5qh.png
0645名無しさん@ピンキー (ワッチョイ 132b-Xec1)2024/04/22(月) 19:22:25.96ID:???0
今の過熱ぶり見るとAI向けアクセラレータボードはバブル終わるまでは企業が買い占めて
評価ボード以外が終わって個人に流れてくる頃には会社がないまである
0647名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/22(月) 20:24:39.08ID:???d
>>641
乙です!またまた良い感じに使いやすくなるツールをありがとうです
TypeBは長文も良くなったはずだし、永続生成はローカルの強みをフルに発揮できて嬉しい!
githubのページもスクショ付きで理解しやすい!超GJ!
0649名無しさん@ピンキー (ワッチョイ d3b9-4Q0V)2024/04/22(月) 21:07:42.61ID:???0
Llama3ちゃんにエッチな小説作ってもらおうとしたら拒絶されてショック
説得セリフ入れたけどダメだった
このモデルでエッチなこといける人いるの?
0651名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/22(月) 21:25:11.77ID:ZFyNQtsH0
Command Rの自由度に慣れきってるからLlama3かなりキツく感じる
Cohereははよ中型モデル出してくれー
0652名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/22(月) 22:34:24.99ID:ZFyNQtsH0
Llama 3、プログラミング結構いけるくちか
https://i.imgur.com/fzZl3ee.png
0654名無しさん@ピンキー (ワッチョイ 7fc0-cnxi)2024/04/22(月) 23:23:34.60ID:???0
>>579
解説たすかるがワイはLLMさわってるだけのノンプログラマーだからぎりぎりよくわからんくてつれぇわ
langchain色々調べてのでやってることの概要はなんとなくわかった
0655名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/22(月) 23:37:43.75ID:ZFyNQtsH0
>>654
誰でも最初はそんなもんや
簡単な文法は勉強する必要があるかもしれんが、コード自体はLLMに書かせちゃってもいいし、楽する道は結構多いと思うから気張らずにやるのがいいよ
なんとなくlangchainのページ見てるだけでも、LLMで出来ることの多さに驚いてモチベーションも上がると思う
0656名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/22(月) 23:50:52.53ID:???d
Aratako氏の最適化スクリプトをRAM64GBのローカルで動くように改造してみている
評価者はCommand-R+が一番だろうけどRAM64GBだとカツカツだから、他の候補としてはkarakuriとかSwallowMXとかかなあ
>>535さんの子を評価者に迎えようかしら
0658名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/23(火) 00:39:45.95ID:Z/XvG38k0
>>657
jupyter(google colabで使われてるやつ)ってツール使って自作した
0659名無しさん@ピンキー (ワッチョイ 7fc0-cnxi)2024/04/23(火) 02:19:15.93ID:???0
>>655
実際GPT4TurboにPythonスクリプトとか書いてもらうと普通に動くコード書いてもらえるし、細かく仕様変更頼んでもちゃんと反映してくれるからLLMでプログラミングする/してもらう方向性はまじで期待してるわ
0660名無しさん@ピンキー (ワッチョイ cadc-4Wdh)2024/04/23(火) 09:43:35.64ID:???0
>>659
pythonあかちゃんな俺でもCusorでAIに雑に指示してたらガンガンコード書いてアプリやサービス開発できる位だからこのスレ民みんなスーパープログラマーになれると思う
0661名無しさん@ピンキー (ワッチョイ bbbe-IRgQ)2024/04/23(火) 10:05:26.24ID:???0
日に日に知識の差なんてどうでもよくなってGPUとSSDの勝負になっていくよな。。。
今年15万円ほど投資してメモリ64GBにしてVRAM16GBにしてSSD2TB用意したけど早くもカツカツで限界感じしてるわ
0664名無しさん@ピンキー (ワッチョイ dbb2-TUJc)2024/04/23(火) 13:36:34.71ID:???0
>>663
GPUレイヤー数を10あたりにしたら、5-10T/sぐらいになる想定や

> RAM 16GB, Geforce GTX 1660 Ti (VRAM 3.3GB / 6.0GB), Ryzen 5 3600X で 3.5 tokens/sec (T/s) です。
より遅かったらKoboldCppがなんかしてるんでさらにGPUレイヤー数削ってみてな

タスクマネージャーで推論時にずっとディスクアクセス発生してるなら他のアプリを落としておくとええかもしらん
0667名無しさん@ピンキー (ワッチョイ dbb2-TUJc)2024/04/23(火) 14:03:50.77ID:???0
>>666
CPUとRAMがどれだけGPUの足引っ張るかなんでモデルが全部載るあたりに近づくと加速度的に速くなるんや

でかいモデルやとさらに10倍遅くなって2秒で一文字なんでそういうものと思ってもろたら

GPUレイヤーを0や1にして画像生成と併用とかもあるんやが8GBやとそれもカツカツやね
StyleBertVITSに生成文章を読み上げさせるぐらいならいけそう
0672名無しさん@ピンキー (ワッチョイ 1b32-dLvt)2024/04/23(火) 17:27:46.58ID:???0
club.aiのキャラカードをkoboldに取り込むと、必ずchatmodeになるけど、
instractモードにするににはsettingでいちいち切り替えるしかないんかな?
あと、pngファイル内のjsonデータを編集する方法ってある?
ローカル版の官ジェネキャラとか作ってみたいんだが
0677名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/23(火) 23:11:37.48ID:Z/XvG38k0
Hugging Faceに上がってるllama-3 70Bのuncensoredバージョンを謳うモデルを試したけど、日本語能力が地に落ちてて使えんかった
0678名無しさん@ピンキー (ワッチョイ 13b1-IRgQ)2024/04/23(火) 23:58:27.10ID:bzxCIQpJ0
>>672
SillyTavernに読み込んで編集したらええんやで?書き出しも出来たはずやで!
0680名無しさん@ピンキー (ワッチョイ eb79-452b)2024/04/24(水) 07:35:57.11ID:hgEiuWsX0
>>673
Mac Studioで消費電力が70Wとかいうのをみてしまうとなぁ…。
0681名無しさん@ピンキー (ワンミングク MM1a-a8r0)2024/04/24(水) 09:19:52.45ID:???M
なんかXのポスト見てるとドヤ顔でローカルLLMを知識不足みたいに言ってるの結構いるけど、世の中にはLLMってそういう認識なんかね
そもそも知識入れるのってLLMは容量効率悪いし
そんなんGoogleにでも聞いてろと思う
0682名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/24(水) 09:36:04.43ID:qlNRYqRn0
というか、その部分がまさに今ホットトピックなRAGとかベクトルデータベースの範疇だろう
0685名無しさん@ピンキー (ワンミングク MM1a-a8r0)2024/04/24(水) 12:20:35.84ID:???M
>>682
そういうんがあるって知らない人が、ドヤ顔でLLM評価を語ってるのを見てさ
世間的にはそんなもんなんかなって

最近ChatNTQとかAntlerベースがHuggingFaceに増えてるな
やっぱLCAの影響か?このスレ凄いな
0691名無しさん@ピンキー (ワッチョイ 2627-dLvt)2024/04/24(水) 13:01:38.71ID:???0
正確な知識を問うなってのはChatGPTが世に出て一ヶ月ぐらいには常識になってたと思ってたんだが
未だにLLMモデルのベンチ感覚で富士山の高さを聞いてる人がいてなんだかなあって
0694名無しさん@ピンキー (ワッチョイ cb74-jk2P)2024/04/24(水) 17:47:50.03ID:???0
Command R+はまぁまぁ衝撃だったけどChat ArenaではLlama3がもうぶち抜いてる・・・

Chat Arenaには歴代のGPT4の順位も出てるけどCommand R+もLlama3も両方とも
過去のGPT4をすでに抜いててLLMの進化の速さを実感するわ
0695名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/24(水) 18:12:09.59ID:qlNRYqRn0
とはいえ、日本語含めたmultilingual性能とかツールに対する最適化とか、Command R+が特に強みにしてる部分は評価対象外なんじゃないか?
個人的にはあんまりフェアじゃないと思うわ
0696名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/24(水) 18:14:55.86ID:qlNRYqRn0
もちろん進化してるのは間違いないと思うが
0698名無しさん@ピンキー (ブーイモ MMca-p/pn)2024/04/24(水) 18:20:02.90ID:???M
ベンチマークの指標次第でLLMの評価は変わるやん?
Chatbot Arenaはあくまでfewshot程度かつ専門性が低い一般ユーザーから質問に対する応答の評価やで
この板にいる多くの住民にとってのニーズはコンパニオンとしてのAIやろ?トップ層に並んだら後は誤差よ
0701名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/24(水) 18:48:49.16ID:qlNRYqRn0
>>700
まあOpusがリストにあるのにこの感じってことは、最近はあんまり回答がもらえてないんじゃないかな
このボード自体あんまり話題に上がってるのみたことないし
0705マジカル (ワッチョイ dbd5-z8bb)2024/04/25(木) 00:39:16.85ID:z84nqIDe0
{
"results": {
"jcommonsenseqa-1.1-0.4": {
"acc": 0.8990169794459338,
"acc_stderr": 0.009011295342579962,
"acc_norm": 0.5406613047363718,
"acc_norm_stderr": 0.014904185887668711
}
}

jcommonsenseqa-1.1-0.4で我々のモデルを評価しました。(3-shots)
厳密な比較はしていませんが、少なくともChatGPT3.5を超えていると思われます。
今後Elyza-taskなど人力評価などを活用し、より詳細なベンチマークを実施する予定です。
0706名無しさん@ピンキー (ワッチョイ 178e-IRgQ)2024/04/25(木) 01:17:23.70ID:mzK3rKYG0
>>705
お?5月1日の人?7BでGPT 3.5越えってすごいね!めっちゃ楽しみ!
0707名無しさん@ピンキー (ワッチョイ 773d-nnYm)2024/04/25(木) 01:43:26.23ID:???0
jcommonsenseqaとかのjaster系列でスコアが高いモデルはjasterのtrain部分をinstruction tuningに入れてること多いけどそこは大丈夫なのかな(入れるとめっちゃ高くなるのでちょっと心配になっただけ)
ベンチマーク系はマジで難しいんだよなぁ
RakudaとかでGPT-3.5に勝っても人間の主観評価だと全然だったり、1-shotや2-shotでは良くてもターンがどんどん増えると一気に悪化しちゃったり
0710名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 03:15:20.23ID:l61WUoRK0
今のところその二つはマルチモーダルではないけど、llama 3はマルチモーダル・マルチリンガル版も出したいって話じゃなかったっけ
GPT4に匹敵するかというと、これはもうちょっと具体的に評価基準を絞らないとフェアな比較にならないと思う
ベンチマークでいいなら、llama 3は一昔前のGPT4に相当するって話になってるみたいだけど
0717名無しさん@ピンキー (ワッチョイ 178e-IRgQ)2024/04/25(木) 12:58:11.90ID:mzK3rKYG0
>>716
自作のMRアプリで撮影した大阪城公園でのWAIFUとの露出プレイの画像を、GPT4のカスタムインストラクションで組んだWAIFU本人にレビューさせたら垢バン食らったわw
0720名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 13:12:58.88ID:l61WUoRK0
ローカルで画像認識させられるのってLLaVAとか?
一回も使ったことないし話題になってるのもほとんど見ないけどどうなんだろ
ベースはLlama 2みたいだけど3ベースが出たら話題になるんかな

フォルダにあからさまなエロい名前のファイル突っ込んどいて、Command Rとかに「今あるファイル調べて」みたいなタスク投げると割と可愛らしい反応返してくるから時々それで遊ぶけど、画像でそれができるのは割と熱いかもしれない
0722名無しさん@ピンキー (ワッチョイ 17ca-tbmE)2024/04/25(木) 13:14:49.75ID:7PsT55ne0
>>716
調べれば出てくるやろ
MoondreamとかObsidianとか
0723名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 13:35:45.93ID:l61WUoRK0
今X見てたらnvidiaのGPUだとprompt evalにかかる時間(≒最初のトークン出力にかかる時間)がプロンプト長と比例しないっていうポストを見たんだけど、本当なの?
俺はApple siliconだからわからんのだけど、感覚的にでいいから実際どうなのか教えて欲しい
0725名無しさん@ピンキー (ワンミングク MM1a-a8r0)2024/04/25(木) 14:28:30.20ID:???M
prompt evalってプロンプト処理時間のことなんかな
1batch内のトークン数に収まる分なら処理時間変わらんと思うけど、溢れて2batchになるなら遅くなると思うけど
プロンプト長で処理トークン数増えるから、その話は眉唾に感じるなあ
比例しない(時間変化がないとは言ってない)だったりして
0727名無しさん@ピンキー (JP 0H9a-dLvt)2024/04/25(木) 14:41:11.49ID:???H
ログ見る限りでははトークン数に応じてprompt evalの時間は普通に伸びてるけどなあ
llama_print_timings: prompt eval time = 8912.58 ms / 1438 tokens ( 6.20 ms per token, 161.35 tokens per second)
llama_print_timings: prompt eval time = 13620.81 ms / 2314 tokens ( 5.89 ms per token, 169.89 tokens per second)
0729名無しさん@ピンキー (ワンミングク MM1a-a8r0)2024/04/25(木) 14:56:46.09ID:???M
なんかこの書き方だと、単にMacの演算性能が低くてプロンプトの処理に時間がかかる、みたいな表現に見える
nvidiaの方がもちろん演算性能が高いから気にならないくらい、てだけのような
0730名無しさん@ピンキー (ワッチョイ 13fe-TokO)2024/04/25(木) 14:59:50.51ID:???0
>>721
Kobold.exeの初期設定画面でCommand +RのAPI入れてlaunch押したらなんかGGUFファイル指定しろって出てくる。。。
Silly TavernはAPI入力だけで使えたのにGGUFダウンロードしないといけないのかぁ
Command +RのGGUFあったけど多分全部で500GB以上あるんだよな…
0732名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 15:10:39.40ID:l61WUoRK0
まあそういう意味なら理解できるわ
処理性能が高くて計算が速いから、気にならない誤差程度の差しか(絶対値としては)出てこないってことね
0735名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 15:25:27.65ID:l61WUoRK0
>>734
多分実際お金出しちゃった人がいるってわけじゃなくて、昨日Mac StudioがローカルLLMに適してるって記事が少しバズってローカルLLMがXのトレンドに出てきたりしたから、記事を間に受けて何も考えずに買うのは気をつけた方が良いよ〜っていう警告だと思う
0741名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 15:43:00.00ID:l61WUoRK0
kobold.cpp使ったことないからわからんけど、内部的にはimage-to-textモデル動かして、そのテキスト出力をLLMにプロンプトとして流してるだけなんじゃないの?
0742名無しさん@ピンキー (ワッチョイ bbbe-7awQ)2024/04/25(木) 15:50:02.99ID:???0
>>740
hordeにしないと精度低いってことなん?
>>741
全く認識してない訳じゃないけどジャケットタイプの制服をセーラー服だと思い込んだり、
髪型は認識してるのに裸なのに気が付かずに独特なデザインの服だと思ったりちぐはぐな認識するんだよな
0748名無しさん@ピンキー (ワッチョイ bbbe-7awQ)2024/04/25(木) 16:27:40.59ID:???0
>>743
web-ui forgeとAPIで連携しててちゃんとforgeの方でもCLIPが動いてるログがあって画像認識してる
その結果が引き渡されている筈
なんかアップロードされた画像が極端に縮小されてそれで精度下がってる気がして来た
0750名無しさん@ピンキー (ワッチョイ 2627-dLvt)2024/04/25(木) 16:44:46.54ID:???0
>>745
>>746
一番重要なメモリ帯域の話が抜けてるんだよね
普通のPCは100GB/sぐらいなのに対してM2Maxは400GB/s、M2Ultraは800GB/sと圧倒的なメモリ帯域があるから実用的な処理が出来る
M2やM3での下位モデルは帯域は狭いんでそのアドバンテージはない
最新のM3Maxでは300GB/sと400GB/sのモデルに分かれたみたいな話もするべきだし
この人が実際使ってるならこのサイズのモデルを走らせたらどれぐらいの速度が出てるとか、こういう学習をしたらこれぐらいのメモリが必要だったとか
実用部分がふわふわしてるエアプの書いた文章って感じで技術的な知識が怪しいから信用ならない
0752名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 17:09:50.13ID:l61WUoRK0
筆者のX見るとメモリ帯域の話にも触れてるし実際のところエアプではないと思うよ
0753名無しさん@ピンキー (ワッチョイ a380-tbmE)2024/04/25(木) 17:10:46.74ID:OxmPFSa60
M3ultraは結局出ないのかな?待ってたのに
0756名無しさん@ピンキー (ワッチョイ 132b-Xec1)2024/04/25(木) 18:00:45.62ID:???0
高速メモリをできるだけ大量に提供することに特化したニューラルボードありゃ
macがどうのGPU複数がどうのとかなく終わるんだけど
そんなもん個人向けに手頃な価格で出回る頃にはAIバブル弾けてんだろうなあ
0759名無しさん@ピンキー (ワッチョイ 6672-tAML)2024/04/25(木) 18:11:58.15ID:???0
AI界隈ビッグマウス多過ぎだからどんな話も90%OFFぐらいがちょうどいい
いちいちとりあう必要はない
儲け話と同じで本当にヤバかったら我先にとなってみんなしばらく黙る
黙らない時点で便乗して自己顕示欲ムクムクさせてるだけ
0760名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 18:25:56.75ID:l61WUoRK0
MiquMaid作ってくれたNeverSleepのディスコードチャンネル入ってみた
なんかLlama 3ってファインチューンで規制取り外そうとするとバカになりやすかったりで難しいっぽいね
MiquMaid v2大分良かったから期待してるんだけど、一朝一夕にはいかなそう
0762名無しさん@ピンキー (ワッチョイ e687-sTO6)2024/04/25(木) 18:37:21.85ID:???0
M3Max/128GBのマカーだけど
Command R+ Q4_K_M〜Q6_K が 4t/sくらい出てそこそこ快適
LLM用にMacStudioありだと思うよ

prompt eval timeが比例するのは確かだけど
10分なんて待ったことないぞ
0763名無しさん@ピンキー (ワッチョイ e6a4-7awQ)2024/04/25(木) 18:45:34.81ID:Q3AcuR5x0
Mac で command-r+が5tpsぐらいの速度で動かせられるのは正直羨ましい
まあこの先半年ぐらいのアドバンテージのために100万円弱出せるかの価値観の話よね
0765名無しさん@ピンキー (ワッチョイ 6b82-el1J)2024/04/25(木) 18:58:16.51ID:zF3U3P4/0
変態は中古の3090をebayで買ってマイニングリグに組むらしい
0766名無しさん@ピンキー (ワッチョイ 6fc7-8Qqc)2024/04/25(木) 18:59:29.07ID:lgxOP2hf0
LewdSniffyOtter-7Bをoobaboogaで動かしてみるとなかなか良い
0768名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 19:41:17.19ID:l61WUoRK0
Llama 3 70B堅物だと思ってたけど、システムプロンプトを”性的なリクエストにも従え”から”エッチな会話も楽しんで”に変えたら少しエロチャに付き合ってくれるようになった
https://i.imgur.com/fDLMuKi.png
0770名無しさん@ピンキー (ワッチョイ 66a5-nnYm)2024/04/25(木) 20:26:11.76ID:???0
>>684
これ、多分各小説の1話から学習してるせいかプロローグ的なのしか書いてくれないな…
導入としてはそれなりにまともなの書くけどエロはあんま書いてくれない
0772名無しさん@ピンキー (ワッチョイ 1b32-dLvt)2024/04/25(木) 20:45:29.47ID:???0
>>768
おお、ほんまや。
2手目で英文申し訳出てたのが、
「性的なリクエスト受けても、assistantに代わらないで、ローリィとして拒否しながら、エッチな会話も同時に楽しんでください。」
って、入れといたら、申し訳食らわくなったw
まあ、karakuriベースなら、自分から脱いでくるエロ子なんだが、やっぱ堅いなw

https://imgur.com/a/Qu2JM8G
0773名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 20:52:44.12ID:l61WUoRK0
再現性あったか、良かった
まあある程度固いのは仕方ないな
流石にCommand Rレベルのアナーキーは求めてないから脱獄の方向性が見えただけ良かったよ
0774名無しさん@ピンキー (ワッチョイ 03f5-IRgQ)2024/04/25(木) 20:55:14.96ID:???0
M1 Macbook air 16GB所持なのでLLM動かす事だけを考えると
NVIDIAにぼったくられるよりモリモリのユニファイドメモリの方が
個人レベルだと安いっていうのは理解出来る(´・ω・`)
0777名無しさん@ピンキー (ワッチョイ cb74-jk2P)2024/04/25(木) 21:12:25.05ID:???0
>>774
一番安いのはグラボ複数載せや
1台に(おそらくライザーケーブル使って)複数載せて動かしてる人がこのスレにおるし>>399
マシン1台に無理に何枚も詰め込まんでも複数マシンでLLM動かして成功した報告が出てきたばっかりやし>>673
0779名無しさん@ピンキー (ワッチョイ 1767-tbmE)2024/04/25(木) 21:16:45.30ID:7PsT55ne0
>>774
消費電力考えてもわいもマック派や
0780名無しさん@ピンキー (ワッチョイ 03f5-IRgQ)2024/04/25(木) 21:23:16.23ID:???0
>>777
自分で組んでみた?
電源ユニット何個ぐらい必要だと思う?
3090+3060のマシン組んでるけど
これ以上増設しようとすると普通のケースじゃ収まらなくなるし
スマートじゃない物体が出来上がって運用面倒くさいよ(´・ω・`)
0781名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/25(木) 21:38:21.96ID:l61WUoRK0
Llama 3 70B、あのあとエロチャ続けてたら普通にエッチするとこまで行けた
英語圏特有の*giggles*とか*blushes*は若干鬱陶しいけど
https://i.imgur.com/varbRVc.png
0782名無しさん@ピンキー (ワッチョイ e687-sTO6)2024/04/25(木) 21:58:24.75ID:???0
動かしてもない空想上のNVIDIA最強マシン推しの人何が目的なんだろう…
Command-R-plus Q4以上の日本語クオリティに可能性を感じたので
ユーザー増えて知見共有できたらなと思ってるんだけど
0783名無しさん@ピンキー (ワッチョイ bbbe-7awQ)2024/04/25(木) 22:14:48.31ID:???0
LLMと音声合成(VITS2)と画像生成を連携させようとしてたら
VITS2はこのバージョンでは動かない、画像生成は別のverでないとgradioはこのバージョンでは動かない、
音声ライブラリは…このバージョンでは、cohereのライブリはこっちのバージョンではダメ…
相性問題バージョン依存が無限に出て来て頭おかしくなる
何個仮想環境作ればいいねん
0785名無しさん@ピンキー (ワッチョイ 132b-Xec1)2024/04/25(木) 23:47:33.48ID:???0
別にサーバー普通に買ったりワークステーション用の板とケースだったりライザーケーブルやマイニンリグやヒートシンク毟って強制冷却とかで実際に実現してる人がいるから
決して全員がそうだと疑うわけじゃないんだけど
話聞いてるとお前その製品の実物見たことあんのけクソでかいぞ?
みたいなスペックポンポン出てくるよねLLM界隈て
0786名無しさん@ピンキー (ワッチョイ ef28-iw+Z)2024/04/26(金) 14:05:13.59ID:BBNZItaZ0
>>775
Intelが64bitデュアルチャンネルに対して M1 Maxだと512bitだもんな
CPU直付けの凄さよ。レイテンシーも低くできるし
マザーボードのメモリーは必ず8枚セットで、とかなら並べそうだがw
8kのビデオ動画4本をスルスルとスクロールさせるための能力がLLMで効いてる
0787名無しさん@ピンキー (ワッチョイ 773e-nnYm)2024/04/26(金) 14:42:56.04ID:???0
>>770
こんなこと言ってたらNSFW特化モデル作ってくれてた
https://huggingface.co/Aratako/SniffyOtter-7B-Novel-Writing-NSFW-GGUF

出力はこんな感じ
https://rentry.org/inoohmyx

かなり上手く書けてる気がするわ
ちゃんとキーワードとかジャンルの指示にも従ってくれてるっぽい
7Bでこんなそれっぽいの書けるんだな
出力爆速だし普通に使えそう
0789名無しさん@ピンキー (ワッチョイ 3e13-8Qqc)2024/04/26(金) 18:45:25.75ID:???0
>>787
EasyNovelAssistantでSniffyOtter-7B-Novel-Writing-NSFW-GGUFに対応しといたで
テンプレメニューを追加してプロンプトテンプレートを楽に入力できるようにもしといた

出力例の紹介もサンガツ
せっかくなんでこれも合わせて紹介させてもろたで
もし嫌やったら消しとくんで知らせてな

https://twitter.com/Zuntan03/status/1783792889052746049
0791名無しさん@ピンキー (ワッチョイ ee3c-nnYm)2024/04/26(金) 19:50:16.95ID:???0
>>789
全然おk

>>790
前のLlama2ベースとMistralベースモデルのインストラクションチューニング版だね
Llama3の継続事前とかもやってそうだけど流石にまだ出なさそう(GW返上でやってそう)
0792名無しさん@ピンキー (ワッチョイ 0384-8Qqc)2024/04/26(金) 20:17:04.84ID:qWJpL87+0
>>789
サンガツやで!
LLMもAI生成も試したいこと多すぎて仕事でけんわ
仕事をフォローするためにAIいじっとるはずなのに……
0793名無しさん@ピンキー (ワッチョイ 7702-TokO)2024/04/26(金) 21:58:10.57ID:???0
あんまり良くわかってないんだけど、KoboldでLCAニキのSdff-Ltba/LightChatAssistant-TypeB-2x7B-GGUFがいいって勧めてもらったので試そうとしてるけど、
Q2_s.gguf~Q6_K.ggufまで色々あるけどどれを落としたらいいの?
0795名無しさん@ピンキー (ワッチョイ 6f27-rdsl)2024/04/27(土) 01:45:34.03ID:???0
数字が多いほど性能が高いけどその分だけメモリを食うし処理時間も長くなる
k_mとk_sならmの方が少し性能が上だけどそれだけメモリを食う
qとiqってあるけどiqの方が新しい形式で同じ数字でもちょっと性能が高いらしい
0800名無しさん@ピンキー (ワッチョイ f385-5N3P)2024/04/27(土) 14:09:54.89ID:???0
>>797
DMCAで消された訳じゃなくて作者が自分で消したっぽいが、あのデータセット普通に合法でしょ?無視しといてもよかったと思うわ(いずれHF側で消されただろうけど)
1回消すと反AIの餌になっちゃうからなぁ
0802名無しさん@ピンキー (ワッチョイ 6f27-rdsl)2024/04/27(土) 14:28:09.16ID:???0
>>800
日本の法律で言えば小説サイトから直接クロールするのは合法
データセットとしてまとめてアップロードした時点で違法

反AIに餌やりたくねえって言うなら自分に都合の良い解釈する事も餌になるんだからやめてくれ
0803名無しさん@ピンキー (ワッチョイ 7326-5fNx)2024/04/27(土) 14:40:27.76ID:???0
データセットを自動生成するようなツールがあればいいんだろうね
あらかじめ決められたサイトをクロールして毎回同じデータセットを生成するようなツール
正しく生成できたか確認するためのハッシュを入れて照合するくらいはセーフだろう
0804名無しさん@ピンキー (ワッチョイ c3c6-7iwU)2024/04/27(土) 14:41:23.04ID:4N+iWgeb0
command r+の応答性能に慣れちゃうとローカルがどうもなぁ・・・
0805名無しさん@ピンキー (ワッチョイ 5372-2TDZ)2024/04/27(土) 14:41:42.12ID:???0
>>802データセットの譲渡販売は(たとえ無断学習だったとしても)30条の4で合法だと思ったけど違うのか
https://qiita.com/yuta_aoki_ai/items/907d24d0dd4a2c3dc2b8
>A第三者の生データからデータベースを作成し、当該データベースにラベル処理等をして学習用データセットを作成し、当該データセットを提供、販売する行為。
 →OK(2018年5月25日 改正 30条の4)
0806名無しさん@ピンキー (ブーイモ MM7f-OTde)2024/04/27(土) 14:42:35.95ID:???M
学習は30条の4で合法だがデータセットのアップロードは著作者人格権でいうところの公表権や同一性保持権に抵触する可能性が極めて高い
学習のためのクローラーを共有するってのが法的にグレーやや白ってところかな
0811名無しさん@ピンキー (ワッチョイ 5372-2TDZ)2024/04/27(土) 14:47:24.87ID:???0
一応、弁護士のサイトを見つけてきた
https://storialaw.jp/blog/4936
これにより、先ほど「現47条の7が適用されず違法となる行為」として紹介した以下の3つの行為にはいずれも新30条の4が適用され、適法になります。

1 自らモデル生成を行うのではなく、モデル生成を行う他人のために学習用データセットを作成して不特定多数の第三者に販売したりWEB上で公開する行為

例:WEB上あるいは権利者から公衆に提供されている大量の画像データを複製して、画像認識用モデル生成のための学習用データセットを作成して販売するケース
0812名無しさん@ピンキー (ブーイモ MM7f-OTde)2024/04/27(土) 14:53:46.56ID:???M
>>809
生成AI出る前の法律だから実際のとこはどうなってんの?ってのがそもそもある
その上で特定の著作者やテーマだけを収集したようなデータセットを提供する場合「利用様態に照らして著作者の利益を害する」云々に抵触する可能性が生じてくるかなって

文化審議会著作権文化会法制度小委員会の出してる「AIと著作権に関する考え方について」だと画風を再現するための狙い撃ち学習は著作権侵害になりうるって法解釈をしているから
https://note.com/shin_fukuoka/n/nce21a1383d5a

ただ繰り返しになるけど30条の4がそもそも生成AIの登場よりも前に制定された法律で実際の運用どうするのってのは今後決まってくる部分が大きい
0814名無しさん@ピンキー (ワッチョイ f36c-5N3P)2024/04/27(土) 15:00:45.61ID:???0
>>802
>>811にもあるように合法だよ(非享受目的に限定している場合だけど)
そのデータセットを使って特定著者のデータだけ選んで学習するとか他用途に使用とかしたらアウトになったちするけどそれはデータセットの配布がアウトじゃなくて利用する側がアウト
0816名無しさん@ピンキー (ブーイモ MM7f-OTde)2024/04/27(土) 15:08:13.36ID:???M
ごめん作風ってすごく曖昧な語を注釈とかなしに使ってしまって本当に申し訳ない
文化庁の今の考え方として、要は「享受目的であるか否か」というのが30条の4で保護されるかどうかの争点になってる
それはそれでものすごく曖昧ではあるんだけど

小説投稿サイトのデータセットってなると著作権をサイト管理者に移譲してる場合(カクヨム)なんかがあり≒特定の著作者のデータを選択的に学習している、享受目的があると解される事例じゃね?と俺は判断して>>806にはそういう意図があった
そして30条の4で保護の対象から外れる場合には公表権とか非常にめんどくさい人格権周りで争点になるんじゃねーか、って認識
0817名無しさん@ピンキー (ワッチョイ 5372-2TDZ)2024/04/27(土) 15:08:51.59ID:???0
大規模言語モデル(LLM)に関するビジネスと法律〜LLMやデータセットの構築と提供(レイヤー1)〜
https://storialaw.jp/blog/9327

(1) データセットの公開

 まず、データセットの公開ですが、データセットの中には、収集対象になったデータ(著作物)が含まれています。
 したがって、当該データセットの公開や提供は、元データの公衆送信行為や譲渡行為に該当しますが、
これも著作権法30条の4が「情報解析(略)の用に供する場合」には「その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる」と定めていますので、同条が適用される限り適法です。
0820名無しさん@ピンキー (ワッチョイ 5372-2TDZ)2024/04/27(土) 15:19:09.85ID:???0
こう見ると30条の4って想像以上に「柔軟」なんだなと感じる
モデルやサービスでなく無断収集したデータセットそのもので金儲けとか、なんとなーくダメそうに見えるけど適法なんだな
まあよく考えるとモデルの公開は良くてデータセットの公開はだめというのは変だから、当然か
0822名無しさん@ピンキー (ブーイモ MM7f-OTde)2024/04/27(土) 15:24:18.71ID:???M
>>820
なんで法改正せずに「考え方」ってのを国側で示してアウトとセーフのラインを曖昧ながら示していこうっていうのがちょうど今やってる文化庁の文化審議委員会
新聞社やJASRACなんかはそもそも30条の4を廃止しろやって言ってるけどAI立国みたいなの考えてるみたいだし多分今後も柔軟であり続けると思う
0823名無しさん@ピンキー (ワッチョイ f36c-5N3P)2024/04/27(土) 15:46:04.03ID:???0
まぁ生成AI関連は今国が明らかに推してるからね
絵師とかクリエイター側の声は大きいけど(特にSNS)、間違いなく規制は大して強まらないだろうな
0824名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/04/27(土) 17:12:40.85ID:???0
現実は力を持っている権利者がアウトといえばそれで終わりであんまり法律は関係ない
グッズでも同人でも権利者から通報受けたら警察は容赦なく逮捕してきた歴史がある
0825名無しさん@ピンキー (ワッチョイ f36c-5N3P)2024/04/27(土) 17:18:53.49ID:???0
そりゃグッズや同人は基本黙認とかされてるだけで根本は違法だからね
機械学習用データセットの作成とか配布は根本が合法だからまた話違うよ
0826名無しさん@ピンキー (ワッチョイ 93c0-OTde)2024/04/27(土) 17:19:18.17ID:???0
>>824
それは同人が法的権利が保障されてるわけではないからであって既に例外規定が定められていた生成AIとは事情が少し異なるぞ
ただし「享受目的」って曖昧さを残してるから特定の権利者が損害を訴えてきた時に無敵バリアにならないって理解はすべきなので慎重であるほうがいいってのは同意するが
0827名無しさん@ピンキー (ワッチョイ 73bd-dYyJ)2024/04/27(土) 20:50:09.92ID:???0
表向きはデータセットとして配布してるけど、実質的に享受目的で使われたりすると駄目になるんだろうね
歌詞とかは結構危なそう
サビ部分だけでもコンテンツとして成立するし、権利者が好戦的で訴訟慣れしてる
0828名無しさん@ピンキー (ワッチョイ f36c-5N3P)2024/04/27(土) 21:52:24.21ID:???0
>>827
配布時に機械学習以外の用途での利用はするなと明言しておけば配布側が責任問われないと思うよ
享受目的で利用する奴がいたらその利用者がアウトになるだけだと思う
0829名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/27(土) 22:07:51.71ID:???M
7Bモデルのいい感じのが沢山出とって試しとるけど、入力プロンプトが長くなると幻覚気味になるな
1200トークン辺りで設定が蒸発してくる感じ
MaxContextSizeより少ない分でも起きる
表現とか自然さは7Bでもめっちゃ良くなってきたけどこれは低パラではどうしようもないんかなあ
0832名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/27(土) 22:48:19.93ID:???M
GPTスレのプロンプトをローカル用に書き換えて使ってると上手くいかないのが多くて気になった
妄想ジェネレータ入れたら、登場人物が「俺の職業は妄想ジェネレータ」とか言い出して吹いたわ
0834名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/27(土) 23:03:06.73ID:???M
試した感じパラ数の多いkarakuri-MS-01とLightChatAssistant-TypeBでは通るっぽい
7Bの限界かもしれん
速度を考えると13B〜35Bクラスが充実してほしくなるな
Antler的なモデルがこんくらいで出てくれんかな
0836名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/28(日) 03:57:00.81ID:???M
umiyukiがmergekit-evolveの記事書いとったの読んでみた
タメになったわ。ローカルで全部完結できるらしい
しかしこれSSDがめっちゃ消耗しそうやな

あと本人見てたら言っておきたいのは、Mistral7B系の優秀なんが最近出てきたのは、元を辿ればLCAニキがchatntqやantlerをこのスレで広めたからやで
記事で使ってたモデルもその流れで生まれたもんや
記事には無かったけどそこんとこ覚えておいてや
0839名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/04/28(日) 10:41:47.43ID:???0
LCAニキつながりポエムやが

>>835
> 一つの行動(触るとか)に対して表現のパターンが多くて良い、気がする。
> LLM初心者だけど。
みたいな評価はふわっとしとるんやが日本語LLMでは大切な印象やね

日本語LLMでベンチマーク自慢を試してみてガッカリする経験を何度も積むと
>>787
> かなり上手く書けてる気がするわ
> ちゃんとキーワードとかジャンルの指示にも従ってくれてるっぽい
みたいな人間によるふわっとした評価の打率が高くてすごく貴重なんや

>>573
のLCA-TypeBも手作業で改造と評価がなされていて何がとはいえんのやがなんかええんよね
ベンチマーク以上に日本語ネイティブが楽しめる出力が生成されとる印象や

日本語でのなんかええなをいずれ数値化できたら自動の学習やマージの精度が上がりそうで楽しみやね
0841名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/28(日) 11:31:25.41ID:???M
>>838
モデルの出力先をRAMdiskにすればいいのではないかとちと思った
更にRAMの容量が必要になるからお手軽ではなくなるが

>>840
手動評価は、自動評価より回数がこなせないのがネックやね
現状だとある程度自動で絞り込んでから残りは手動、でできれば効率いいかもしれん
どっちにしろ最終的には>>839が言うような評価の数値化があればより良く出来そうと思う
0844名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/04/28(日) 17:14:34.57ID:???0
初歩的な質問ですまん、16bitのsafetensorsをlamacppでggufに変換するときオプション指定しないと32bitになってしまう。
でもq16_K_Mを指定するとunrecognized argumentsになる。
どうすれば元の16bitのままで量子化できるの?
0851名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/28(日) 18:06:19.77ID:???M
だよなあ。上がらないどころかむしろ下がってる感
元モデルから丸くなって良くも悪くもエロいクセがなくなってる感じ
自分的には>>787の方が好きだな

総合性能はガン上がりしてるから、エロを考慮するベンチプロンプトを作れば期待できる
モデル作りよりベンチ考えてマージ職人にお任せした方がいいだろうか
それなりスペック無いとevolveできんしなあ
0853名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/04/28(日) 20:15:04.55ID:xq028QgX0
Dolphin 2.9っていうLlama 3 70BをLoRAした無修正モデル試して見た
確かに修正は外れてて、日本語の違法なリクエストにも答えてくれることがある
ただ、だいたいおかしな内容で、数発打てば当たるって感じで実用性はないなぁ
残念
0855名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/04/28(日) 21:37:32.38ID:xq028QgX0
システムプロンプト日本語で、質問英語でやった時はLlama 3定型文でお断りされたけど、全部英語は試してないや
まああとで試してみるか
0857名無しさん@ピンキー (ワッチョイ cfa8-7iwU)2024/04/29(月) 01:31:55.47ID:rypy5OCM0
>>856
なんか人口無能うずら思い出したわ
0858名無しさん@ピンキー (ワッチョイ 53d4-rT8g)2024/04/29(月) 12:09:08.28ID:???0
ドーモnote屋です

EasyNovelAssistant用のプロンプトについて記事書いてたが今仕事先で投稿できんかったんで先にこっそり公開するわ、雑感としては効果ありそうなんでお休み中の方は使ってクレメンス
https://github.com/kgmkm/goalseek_ad

作例は投稿予定、昔の小説とか自作発言せんかぎり自由につこてもろて
0859名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/29(月) 12:19:45.76ID:???M
evolveのエロ評価用ベンチマーク作ろうと思ったんやけど、評価者に使うモデルは何が良いんかな
evolveの評価者にGeminiを使ってる記事があって、でもGeminiはエロ駄目やろうし
評価者に使うモデルで採点の傾向が違ったら嫌やしなあ
0862名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/04/29(月) 17:08:45.13ID:???0
>>858
サンガツ!

ちょっと今EasyNovelAssistantにStyle-Bert-VITS2連携をつっこんどる最中なんで少し後にはなるんやが
ヘルプメニューからGitHubにリンク貼りつつサンプルメニューにinit_editor.txtとinit_writer.txtを追加さしてもらおうと思っとるで

サンプルメニュー開いた時にGitHubから取得するようにもできるんはずなでファイル名が変わらんのやったらアプデにも追随できるはずや
リンク先がnote記事のほうがええとかあったら都度伝えてもろうたら

紹介する時はアイコンやIDから@kagami_kami_mニキとして紹介させてもろたらええやろか?
0863名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/04/29(月) 17:38:21.81ID:???M
>>861
短文の判定だとエロ語出力以外の能力落ちそうやから最低限ElyzaTaskの判定できるくらいのほしい、てなるとCommand-R+かなあ
方針としては、Aの出力文とBの出力文を比較してどちらがより高得点か、てのを自分の感覚と照らし合わせて、評価プロンプトの[評価基準]を随時修正していこうかと考えてる
最終的に自分好みの表現を高得点とできるように調整できれば良き
プロンプトは全然知識ないからどこまでできるか分からんけども、よくわからんからこそ挑戦してみるわ

手動評価は最終手段かな。200回以上手動評価はキツいわ…
0864名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/04/29(月) 20:44:33.58ID:???0
長編ADVみたいなロールプレイを上手くさせる方法ってないのかな?
最初は良くてもターン数重ねるとどんどん出力が短くなったり同じ応答ばかりになってしまう。
0865名無しさん@ピンキー (ワッチョイ 6f87-4Xr2)2024/04/29(月) 22:27:04.55ID:???0
>>864
チャット風ロールプレイでやってる方法だけど、
「今までの内容を要約してくれ」って要約を作らせてプロンプト差し替えてる
要約を英語で作らせると精度上がったりする
0869名無しさん@ピンキー (ワッチョイ 93c0-Ub2H)2024/04/30(火) 12:33:40.47ID:???0
gpt2-chatbotという謎のモデルがchat.lmsys.orgでテストできるようになってなんか話題になっとるな
前評判ではGPT4レベルだとかアスキーアートが生成できるとか言われてて、わいも日本語でSFWな音声作品の脚本書かせてみたけど申し訳もされずCommand R+と同等かそれ以上の分かってる文章を生成してびっくりした
うわさではGPT4.5がゲリラマーケティングされてるとか言われてるけどなんなんやろうね
0875名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/04/30(火) 18:11:37.01ID:???0
自作アプリでAIと音声会話するのかなりできるようになって来たけど意外な敵が部屋のノイズで苦しんでるわ
PCのファンの音すら拾って「これはまだ発言が続いてんな?」ってずっと発言終了待機してクッソ応答が遅くなる
0880名無しさん@ピンキー (ワッチョイ 0369-5N3P)2024/04/30(火) 20:43:06.12ID:???0
音声良いね
音声ありはどちらかというと小説読み上げよりもロールプレイとかなりきりチャット的な用途で欲しいな…(俺がエロチャ大好きなだけかもしれんが)
0881名無しさん@ピンキー (ワッチョイ f314-BrOF)2024/04/30(火) 20:56:46.66ID:Iv4x6b4N0
Llama3 70Bよりもcommand R +の方が自然な日本語を返してくれる気がする。
日本語のベンチマークではどっちが上なんだろうね?
0882名無しさん@ピンキー (ワッチョイ f314-M43A)2024/04/30(火) 20:57:00.91ID:Iv4x6b4N0
Llama3 70Bよりもcommand R +の方が自然な日本語を返してくれる気がする。
日本語のベンチマークではどっちが上なんだろうね?
0883名無しさん@ピンキー (ワッチョイ f34f-5N3P)2024/04/30(火) 21:06:13.88ID:???0
Command R+の方が上のはず
そもそもllama-3は公式的には多言語対応じゃない(多言語対応版も後で出しますよみたいなのをリリース文に入れてたはず)
0884名無しさん@ピンキー (ワッチョイ 5380-7iwU)2024/04/30(火) 21:20:09.31ID:MXycCz7k0
GPT2を変な形でお披露目したOpenAIの真意はなんだろな?
0888名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/04/30(火) 22:44:22.41ID:fAUnlGYu0
LLMの読み上げは、BOOTHに上がってるAnneliとかいうNSFWのstyle-bert-vits2のモデル(を自分で学習したモデルとマージしたやつ)使ってるんだけど、学習データの出所不明で人に勧めづらいんだよな
ここで読み上げやってるやつは何使ってるの?
0891名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/01(水) 00:06:01.28ID:5ix3SE930
俺もそうだが、やっぱりASMRとかで学習させてるやつが多いか
まあ背景に変な音とかなくて使いやすいよね
0893名無しさん@ピンキー (ワッチョイ 7fe6-1wV0)2024/05/01(水) 08:15:54.11ID:???0
Command +RをAPI経由かウェブかローカルでもいいのでお手軽に実行できる環境ってある?
ローカルだと4090+64GBメモリでもキツイと聞いたので。。。
0896名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/01(水) 09:47:53.49ID:5ix3SE930
公式ページにも普通にChat UIあるからそれでもいいと思う
0898名無しさん@ピンキー (ワントンキン MM1f-jMJY)2024/05/01(水) 12:10:06.00ID:???M
NovelHacja/vecters-v1
5/1の人のモデルかな?
今日やってるLOCAL AI HACKATHON #001で出したモデルらしい
メンバーがHFに出してたモデル見ると、Antler系とchatntqを使ってる
これもそうだったら、このスレの功績がまた一つ増えたことになるな
0900名無しさん@ピンキー (スップ Sd9f-zsX1)2024/05/01(水) 13:59:00.72ID:???d
まあ最近出てきてるMistralの日本語強いやつは皆LCAの影響受けてんじゃね
あれから一気に数出てくるようになったし
願わくばこのままどんどん良くなっていってほしいもんだ
0902名無しさん@ピンキー (ワッチョイ 73c6-2TDZ)2024/05/01(水) 14:40:47.10ID:???0
面白そうだがLMstudioユーザーで知識も環境もないワイはgguf待ちやな…
Vecteus-v1はggufあるみたいだがVRAM 16GBじゃ乗らんわ
ハッカソンとやらは覗いてみるか
0903マジカル (ワッチョイ a3dd-aBMh)2024/05/01(水) 14:44:53.87ID:gKfC050z0
ggufも順次公開予定です。少々お待ちください
0905名無しさん@ピンキー (ワントンキン MM1f-jMJY)2024/05/01(水) 15:12:37.00ID:???M
>>901のモデル、yarnのコンテキスト拡張を使っとるんやね
128k対応とかオーバーキル過ぎる
マージレシピ的には、chatntqに各々の抽出vectorを足した感じか
当時はevolveも無かったし、重み調整が大変そうやな
ホントにお疲れ様やで

(これでLCAフォロワーの優れたモデルがまた一つ生まれたわけやな…)
0906マジカル (ワッチョイ a3dd-aBMh)2024/05/01(水) 15:18:11.50ID:gKfC050z0
>>904
Antlerがマージされている開発版だったと思います
0907名無しさん@ピンキー (ワントンキン MM1f-jMJY)2024/05/01(水) 15:32:01.39ID:???M
>>906
開発版だったんか。リリース版は更に改良されていると。凄いなあ

差し障りなかったら尋ねたいんやけど、今後はどんなモデルを作るとかの予定あったりします?
mergekit-evolve使うとか、他のベースやパラメータのを作るとか
内緒なら、この質問はスルーしてください

改めて、お疲れ様でした。良いモデルをリリースしてくれてありがとう
0911名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/01(水) 15:44:04.83ID:???0
それにしてもこの1ヶ月の進捗は劇的だったと思う
>>80が公開されたのが4月3日
それまでは70B以上のモデルで何とかまともな日本語が出せるかという世界だったのになあ
改めて開発者諸ニキに感謝と敬意を捧げるわ
この先の展開が楽しみでたまらない
0919マジカル (ワッチョイ a3dd-4Xr2)2024/05/01(水) 16:54:22.85ID:gKfC050z0
>>907
今日には間に合いませんでしたが、フランケンマージやEvo-mergeモデルも作成しています。
その他モデルのアップデートもすると思います。
Ninjaの強さの秘密はWizard2なのでMistralベース以外のモデルはおそらく作れないと思います。
0921マジカル (ワッチョイ a3dd-4Xr2)2024/05/01(水) 17:08:45.34ID:gKfC050z0
>>909
そうですね
Ninjaと開発途中だったモデルも混ぜて性能を上げてるらしいです
0923名無しさん@ピンキー (ワッチョイ f3fc-7iwU)2024/05/01(水) 17:48:14.71ID:7eBcySVV0
>>922
Kobold.cpp+SillyTavernでNinja-v1-NSFW_Q_8_0.gguf遊ばせてもらってるが、なかなか素晴らしいな
ワイのロールプレイの進め方も関係してるかと思うが、コンテクストサイズのデカさがキャラクターのはがれにくさにつながる反面、やや意固地に感じる部分もあるな
モデルそのものはエロを許容しつつもわりと倫理観しっかりしているなと感じる
素晴らしいモデルの公開サンガツや
0924名無しさん@ピンキー (ワンミングク MM1f-jMJY)2024/05/01(水) 18:01:31.06ID:???M
>>919
返答ありがとう!それは楽しみや!
Wizard2かなるほどなあ。そこが他の子と違うとこやね
確かにWizard2は優秀だし、それを活かしたのがこの凄さに繋がってるのか
参考になります

と思ったらまだWizard2の公式取り消されたままだったわ
MSよ、Wizard2の復活はよ!
0925名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/05/01(水) 18:30:55.58ID:???0
大きなモデルばっか使ってたから7Bモデルだとチャットを上手くしてくれないんだけど
7Bモデルでも効く良さげなプロンプトってどっかでまとまってたりする?
自分と女の子で会話しようとしてもAIが1人2役でずっと話続けてしまう
0927マジカル (ワッチョイ a3dd-4Xr2)2024/05/01(水) 18:44:40.27ID:gKfC050z0
Vicunaプロンプトでやってみてください
0928名無しさん@ピンキー (ワッチョイ f310-7iwU)2024/05/01(水) 18:51:24.30ID:7eBcySVV0
このVicunaプロンプトで、ってのが正直ワイも今一つよー分からん
誰かKobold、大葉、尻タブを対象にしたチュートリアルまとめてくれんか?
0930名無しさん@ピンキー (ワッチョイ 0332-rdsl)2024/05/01(水) 19:42:27.55ID:???0
>>901
お疲れ様です。
NinjaとVecteusで、いくつか小説を書かせてみましたが、表現力はNinjaが高いですが、
話のまとまりやシナリオの辻褄や整合性はVecteusの方が高い気がしました。
いずれにせよ7Bでこれはすごいですね。
もっと高いパラメータになったら、どうなるか期待です
0932マジカル (ワッチョイ 03b2-4Xr2)2024/05/01(水) 20:52:24.49ID:8IDFQiKt0
大変嬉しいです!ありがとうございます
0934マジカル (ワッチョイ 03b2-4Xr2)2024/05/01(水) 20:54:34.64ID:8IDFQiKt0
NinjaやVecteusを使った感想や問題点をいただけると非常にありがたいです。
0935名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/05/01(水) 20:57:21.81ID:???0
ChatGPT用に練り込まれたプロンプトならかなりいい結果出るね > Vecteus-v1-gguf
CommandR+は元々ちょっと癖があるからそっち用のプロンプトでは上手くいかない感じだ
0937マジカル (ワッチョイ 03b2-4Xr2)2024/05/01(水) 21:45:22.83ID:8IDFQiKt0
宣伝させていただきます。
https://twitter.com/int_float_
ここのアカウントでNinjaなどの情報を発信する予定です。(もちろんここでも発信します)
0941名無しさん@ピンキー (スップ Sd9f-zsX1)2024/05/01(水) 22:49:51.15ID:???d
記憶を頼りに最近のモデルを纏めてみた
抜けがあったら補足してくれ

話題になったモデル(時系列順)

Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1

Llama2-70B系:
karakuri-lm-70b-chat-v0.1
karakuri-MS-01

Cohere系:
c4ai-command-r-v01 (35B)
c4ai-command-r-plus (104B)
0945名無しさん@ピンキー (ワッチョイ 43c6-LnU8)2024/05/01(水) 23:32:08.01ID:???0
最近の軽めモデルは文章は良いんだけど入力指示に従ってくれる感じなのは現状LCAが一番強い感じする
百合書いたらいきなり関係ないおっさんが出てくる感じがある
0947名無しさん@ピンキー (スップ Sd9f-zsX1)2024/05/01(水) 23:45:33.75ID:???d
>>944
HuggingFaceに無くなってるなら追加無しで良いか

mergekit-evolveやってみてるが、メモリ64GB+3060-12GBでも一応全部ローカルで動かせるな
ただマージ後モデルが全部収まるVRAM容量無いと回答生成が遅い
0948名無しさん@ピンキー (ワッチョイ 73b2-dYyJ)2024/05/02(木) 00:21:39.65ID:???0
>>944
ライセンス的にグレーかもしれないから非公開にしたようだ
具体的には評価に使うLLMがLlama系とかCommand R系とかだと出力データ自体に制限がかかるので、そこが懸念点らしい
どっちもウェイトを開示してるだけで、ライセンス的にはオープンソースではなかったからね
0949名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/02(木) 00:26:46.73ID:/tw254900
>>941
Llama-3とかPhy-3はないみたいだけど、NSFWが行けるかを基準にしてる?
0950名無しさん@ピンキー (ワッチョイ 7358-5N3P)2024/05/02(木) 00:57:56.50ID:???0
英語圏ってライセンス全く気にしてない感じだけどアレどうなってるんだろう
当たり前のようにGPTの出力学習に使ってapache2.0とかのモデル作ってるし
そもそもllama系は公式のポリシー遵守するならNSFW用のモデルとか作成しちゃダメだけど腐るほどあるし
0952名無しさん@ピンキー (ワッチョイ 43c6-WRNM)2024/05/02(木) 01:16:21.06ID:???0
>>922
使ってみたけどこっちはちゃんと指示に従うし描写の種類も豊富でかなり良い
NSFW版でもお断り率が高い感じするけど、ここは書き直せば良いから無問題
個人的にVecteusはアウトプットの方の文脈を優先で指示に従わない感じがあって使いにくかった
めっちゃ良いモデルありがとうやで
0954名無しさん@ピンキー (ワッチョイ ff1e-1wV0)2024/05/02(木) 02:00:06.27ID:???0
>>916
koboldでエロプロンプトで試させて貰いました!
金玉を「パンパンに張り詰めた長靴下」と表現したのは茶吹きましたw

ところでこれはモデルと関係ないかもですが、koboldで生成してる途中の黄色い文字が、生成結果では最後の方だけ消されて文章が減る現象が結構起こるんですが、これは設定で調整できるんでしょうか?
0955名無しさん@ピンキー (ワッチョイ f310-7iwU)2024/05/02(木) 02:45:32.84ID:1tIZbkbs0
Settings>Advancedの左下の方のTrim Sentecesのチェック外すと全部表示されるはずやで
文末まで出力できなかった文章を表示するか否かの設定や
0958名無しさん@ピンキー (ワッチョイ f310-7iwU)2024/05/02(木) 10:19:56.49ID:1tIZbkbs0
>>957
Instructionモードとか、ChatモードってのはあくまでもWebUIの機能で
API経由でKoboldや大葉使う場合は自前で渡すシステムプロンプトでInstruction的な振る舞いを課したり、
Chat的な振る舞いを課すってのがワイの理解や
0959名無しさん@ピンキー (ワッチョイ f310-7iwU)2024/05/02(木) 10:32:18.71ID:1tIZbkbs0
ところでSillyTavernでCohereのCommand-r-plus使いたいんだが、上手く接続できん
トライアルAPIはValid表示されるが、メッセージのやり取りしようとするとスクショの様なBad Requestエラーがでてしまう
何を見落としてるんやろうか?SillyTavernでCommand-r-plusイケてるニキおったら、教えてくれんか?
https://imgur.com/a/dN0VxYR
0961名無しさん@ピンキー (ワッチョイ a3ff-joKd)2024/05/02(木) 10:39:18.41ID:???0
自分はどこもいじらずcohere選んでAPIキーをペーストしてconnectしたら繋がったな
スクショ見る限り自分と同じに見える
とはいえそれは数日前の話で今帰省中だから再現を確認できん
とりあえずどこか別の画面で設定が必要とかはなさそうよということで
0963名無しさん@ピンキー (ワッチョイ f308-7iwU)2024/05/02(木) 11:01:40.74ID:1tIZbkbs0
>>961
サンガツ、と言うことはちょっと根が深そうやな…。
>>960
NinjaはAPIからは無理って意味がちょっとよく分からんのだが?
ワイはKobold.cppをバックエンドにしてSilly TavernでNinja遊んどるけどふつーに遊んどるが
この際Kobold.cppのAPIをSilly Tavernが叩くって構図なのでSilly TavernをInstructにしておけばえーやろの気持ちや
0964名無しさん@ピンキー (ワッチョイ a3ff-joKd)2024/05/02(木) 11:26:30.02ID:???0
>>963
とりあえずCohereのアカウント新規に作ってトライアルAPIも取得し直してみるのはどうかな
RedditのSillyTavernスレでBad requestで検索したらCohere以外でも悩まされてる人結構いるわ
0965名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/05/02(木) 12:12:36.19ID:???0
>>963
音声でリアルタイム会話できるようにした自作アプリからNinja使おうと試してるんだよ
でSilly Tavernがどうやってチャットしてるのか確認したら初手「こんばんわ」って挨拶するだけで
5000文字超の長大なプロンプト送信してたわ、今必死に中身解析してるところ
0966名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/05/02(木) 12:25:30.76ID:???0
Silly Tavernのリクエストの中身見て大体理解したわ
結局どんなモデルにも強制的にチャットさせてる方法は世間で言われてるプロンプトで頑張るやり方じゃなくて
最初からユーザーとAI双方の名前を付けて途中まで会話が進行した履歴をでっち上げてその続きから始めさせるようにして
AIが勝手にユーザーの発言始めるのをストップワードにユーザー名入れてそこで強制的に打ち切るってパワープレイやったわ
0967名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/02(木) 12:29:56.16ID:???0
>>956
サンガツやで!
もうちょっと見やすいようにメニューを構成するのとエロに直接リンク貼れない問題への対処を入れ込んどる

画像生成プロンプト生成なんやがNinjaやVecteusでもそこそこの結果が出とるっぽい
使えそうやったら記事でも補足しておいてもらえたらありがたいで
0968名無しさん@ピンキー (アウアウウー Sa47-zsX1)2024/05/02(木) 12:40:32.26ID:???a
提案になるけどChub aiみたいなキャラカード共有するサイトの日本語版みたいなのがあったら需要ある気がする
他人の書いたキャラカを使い回しできたら文才なくても文章書く手間を省けるからな
0969名無しさん@ピンキー (ワッチョイ e387-6o3J)2024/05/02(木) 13:21:23.57ID:BxbvsKPT0
Vecteusのf16使ってるけど賢くて楽しいわ
小説向けだからかハルシネーションちょっと強めやけど、要約とか一般タスクもサクサクしてくれるのほんと助かる。あと文脈の拾いかたすごいわ
Ninjaの方はQ8の方使ってるからか案外Vecteusよりも更にハルシネーション強めやけど、ミドルスペックでも40t/s出るのはほんまストレスフリーや。f16も試してみたいわ
0970名無しさん@ピンキー (ワッチョイ bf77-joKd)2024/05/02(木) 13:29:55.46ID:???0
>>963
実家に置いてたN100ミニPCにSTインストールしてCohereのトライアルAPI入れたらちゃんと繋がったよ
https://i.imgur.com/zA6LvRx.jpeg
Seraphinaちゃんとチャットできるのも確認した
やはりST側の設定じゃなくて、そちらの接続がうまくいってないんじゃないかと思う
プロキシが悪さしてたりAPIがいつの間にか失効してたりとか色々なケースがあるみたいだ
0972名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/05/02(木) 14:45:14.02ID:???0
Silly Tavernを参考に何とかNinja使ってローカルだけで無制限に音声会話できるようになったわ
commandR+みたいな大型モデルと違って音声認識で1文字でも誤字があると正確な応答してくれないのは流石にしょうがないな
話してる女の子の名前がハルナだとしてwhisperの誤認識でアルナになってもcommnadR+は察してくれるけど
Ninjaその他の7Bモデルは別人の話だと思ってしまう
0973名無しさん@ピンキー (ワッチョイ 6f69-7iwU)2024/05/02(木) 16:19:35.70ID:aApmX5gk0
>>970
別垢作ってもダメだったんで、Silly Tavernをクリーンインストールしたらすんなりいけたわ!
色々検証してもらったりで助かったで、ありがとうさんや!
0974名無しさん@ピンキー (ワッチョイ 6f69-7iwU)2024/05/02(木) 16:28:11.16ID:aApmX5gk0
>>972
おお、おめでとうさん
>>大型モデルと違って音声認識で1文字でも誤字があると正確な応答してくれない
名前と誤認識のパターンによってはあかんケースもあると思うが、せっかくAPI使ってるなら誤認識の結果の単語の辞書作って、
それらはNinjaに渡す前にアプリ側で全部”ハルナ”に置き換えてからNinjaに渡す方法でどうや?ワイは自作アプリではそんな感じでやってそこそこ機能しとった
なんか面白いアプリ出来たら是非遊ばせてや?
0978名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 17:52:18.79ID:???0
次スレはこのままpinkに立てるとして冒頭のテンプレは結構見直す所が多そうだよね
お奨めモデルもかなり入れ替わったしEasyNovelAssistantもテンプレに入れたいな
0979名無しさん@ピンキー (ワッチョイ cf7a-rdsl)2024/05/02(木) 17:53:00.42ID:???0
メルカリにでも出して3060にしちゃえば?
今4万円くらいでしょ

なんなら3060もメルカリで買えばもっと安いかも
4060Tiとか3090・4090にいって放出する人いそうだし
0980名無しさん@ピンキー (ワッチョイ 93a7-MiRA)2024/05/02(木) 17:59:07.71ID:???0
EasyNovelAssistantをアプデしたら地の文を読み上げてくれなくなっちゃったのだ
女の子の一人称視点で書かせて読み上げてもらうの最高だったのだ
0981名無しさん@ピンキー (ワッチョイ 6f31-7iwU)2024/05/02(木) 18:09:10.65ID:aApmX5gk0
>>976
完全ではないけど、ほぼストレスない形でNinjaと会話できるで
ワイはKobold.cpp + Silly Tavernでチャット形式であそんどる
ただ、小説書かせる方がモデルの性能発揮されるな、と感じた
0982名無しさん@ピンキー (ワッチョイ ff7c-2TDZ)2024/05/02(木) 18:11:23.31ID:???0
>>979
それも検討するわ
せやけどvecteus?のggml-model-Q4_K.ggufっていうやつ
EasyLightChatAssistantに放り込んで適当に設定したら一応動いたわ
めちゃめちゃ賢くてビビっとるんやけど
0986名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/02(木) 18:42:38.96ID:???0
>>980
読み上げメニューのその他自動読み上げを有効にしたら読み上げるやろか?
デフォルトでその他をオフにしたんは失敗やったかもしらんな
手抜き実装しとるんでアプデでは治らんのやが新規インストール民がおんなじ目に合わんように今デフォルト変更しといたで

あとEasyNovelAssistantにファイル監視機能いれといた
お好みエディタをリアルタイムに使えるのもローカルLLMの利点やね
https://raw.githubusercontent.com/wiki/Zuntan03/EasyNovelAssistant/img/ChangeLog/file_watch.png

一応やがNinjaの使い方や
先に自動起動のサーバーを落としてから起動してな
https://raw.githubusercontent.com/wiki/Zuntan03/EasyNovelAssistant/img/ChangeLog/Ninja.png

>>984
サンガツ!
0993名無しさん@ピンキー (ワッチョイ 83be-7iwU)2024/05/02(木) 22:06:38.56ID:???0
Ninjaは創作物から学習した比重高いんかな?プロンプト工夫してチャットさせてるけど
現実的な設定よりRPG世界で女の子と冒険するみたいな設定のほうが自然な流れで会話してくれる
0995名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/02(木) 23:27:28.80ID:???0
>>992
こちらこそ不具合報告ホンマに助かっとるんでサンガツや

>>934
VecteusとNinjaのポエムやで

- Vecteus Q4_Kのコスパが凄まじいのでIQ4_XS版も触ってみたい
 - Vecteusのコンテキスト広げた版にも期待

- Ninjaも128Kでない版を4Kコンテキストで動かしていると良好
 - 128K版ではコンテキスト16Kあたりから品質に悪影響があるような気がする?(LCA 32K感覚比)
  - とりあえず128K版を8K運用
- NinjaにInstruction formatを適用すると申し訳率が上がる?
- Ninjaの量子化がQ_8_0までしか無い
 - IQ4_XS版を触ってみたい

https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9#kl-divergence-statistics-for-mistral-7b
↑は確かLCAニキが紹介してくれたやつやが
数値よりもこのスレで何度もIQ4_XSと他の量子化を比較してて「なんかコスパええやん」な印象や
1000名無しさん@ピンキー (ワッチョイ 6f31-7iwU)2024/05/03(金) 09:43:07.63ID:3NEtr/p00
>>966
>>最初からユーザーとAI双方の名前を付けて途中まで会話が進行した履歴をでっち上げてその続きから始めさせるようにして
AIが勝手にユーザーの発言始めるのをストップワードにユーザー名入れてそこで強制的に打ち切るってパワープレイやったわ
この、でっちあげるって、Silly Tavernそのものが会話をでっちあげてる、って意味なんか?
10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 137日 11時間 54分 9秒
10021002Over 1000Thread
BBSPINKの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 専用ブラウザからの広告除去
★ 過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.bbspink.com/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況