なんJLLM部 避難所
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ e249-iArR)2023/12/17(日) 21:48:59.66ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ
なんJLLM部 ★6
https://fate.5ch.net/test/read.cgi/liveuranus/1701542705/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0543名無しさん@ピンキー (ワッチョイ 7ffb-uGJR)2024/04/18(木) 12:04:53.20ID:31yba4ll0
>>542
>>そのストレスって関西弁聞く時のと同種
同意してもらったところ悪いんやけど、なんJでそれ言うんかw
オナテク板もなんJも関東人以外もふつーにおるんでちょっと配慮したってや?
0544名無しさん@ピンキー (ワッチョイ ff9f-OvSD)2024/04/18(木) 15:01:38.67ID:???0
なんJのは関西弁ではなく猛虎弁ではw
>「猛虎弁」は、関西弁と似た言葉遣いを模倣したユーモラスな表現です。元々は「なんJ(なんでも実況J)」と呼ばれる2ちゃんねるで使われていた言葉で、その後他のネット掲示板やコメント欄でも広まりました123。
(中略)
>猛虎弁は関西人からすれば容易にニセモノだとわかりますが、関西以外の人からは見分けがつかないこともあります。ただし、猛虎弁は本物の関西弁ではないため、注意が必要です123。
0548名無しさん@ピンキー (ワッチョイ b3de-+gIl)2024/04/18(木) 15:35:36.17ID:???0
今まで単純にモデルのサイズが大きければ大きいほどoutputも遅いものだと思ってたけどそうじゃないんだな。
hfに上がってたwizardLM2-8x22Bは1T/sも出てる(普段は70Bで0.5Tくらい)
0550名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/18(木) 19:00:52.25ID:Se0rtYV00
昨日あげた画像結構ウケが良かったが、pythonをLLMに組み込む長所としてはどっちかと言うとこういうふうに指示出してミニゲームできたりするメリットの方を推していきたい
https://i.imgur.com/jSSVVyJ.png
0553名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/18(木) 19:59:00.44ID:???0
つづき
command-r-plus(web)での回答

https://rentry.org/8av79u4b

さすが、エロ表現はいいね。宇宙人は台詞を言ってほしかったが。設問1はこれも不正解


karakuri-rosemiqu-CV2は苦労した割に、ダメダメだった。削除しようかと思ったが、あのアプローチでの失敗例として上げとく

で、自分的には一番いい出来と思った、
model_stockマージでのkarakuri-MS-01の結果

https://rentry.org/we25qrsa

これで、設問1が正解なら、脳汁出るところだが、さすがに無理だった。
でも、他の表現力はcommand-r-plusに負けてない気もする
同じアプローチでswallowを使ったら、どうなるか試したいが、SSDの空きを作るのが大変だw
0554名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/18(木) 20:05:40.35ID:???0
あれ?
今、リートンのGPT4-turboと、copilotに設問1の質問したら、両方とも早苗って答えた。

あれれ? ワイ、間違ってないよな?
拓郎が愛しているのは、源蔵だよな?
0555名無しさん@ピンキー (ワッチョイ bfa3-y89D)2024/04/18(木) 20:30:48.34ID:???0
論理的に詰めていけば源蔵しかいないのだが、AIはみんなそのような思考をせずにシチュエーションだけで判断してるように見えるな
「論理的に」「数理的に」「解析せよ」とか指示を加えたらどうだろう
0556名無しさん@ピンキー (スプッッ Sd1f-Y5Kd)2024/04/18(木) 20:40:30.43ID:???d
思考問題はGPT-4とかClaude3が安定して正解を出力できる問題にしないとダメかもしらんね
これつらができない問題でも解ける特化型とかあるんかね

それと>>552は「特殊シチュ+指示少な目(求めるお察し力高め)」だから、使うなら旧verと併せて追試として使った方が良さそう
旧verはサクッとチェックできて、最低限の出力品質を確認できるから個人的に好き
0557名無しさん@ピンキー (ワッチョイ bfa3-y89D)2024/04/18(木) 21:07:33.17ID:???0
GPT4とOpusに設問(1)をやらせてみたが正解にたどり着かないな
まず恋愛対象を勝手に異性に限定したがる。まあこれは「同性も含めて」と指示すればいいのだが
一番無視しがちな前提条件が「複数の人を同時に愛することはない」という部分。この文章を正しく理解できていないかもしれない
0559名無しさん@ピンキー (ワッチョイ d3b5-humn)2024/04/18(木) 21:23:39.01ID:???0
【悲報】ワイの頭AI並み
この設問と条件なら一応、早苗と沙織先生がどちらも拓郎を好いていて拓郎は早苗だけ好き、と解釈するのも可能やからなあ
0565名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/19(金) 00:29:45.61ID:???0
うおおお
karakuri-MS-01たんは、
ここで、大ヒントです。早苗と相思相愛なのは、沙織です。
の一文入れたら、なんとか「校長」と答えてくれたw
ちなcopilotはダメだったw
0569名無しさん@ピンキー (ワッチョイ f3c0-wKpJ)2024/04/19(金) 02:11:29.23ID:???0
無印Command rええやん
1.5 tokens/sぐらい
16GB〜24GBなら全部VRAMに乗りそうやな
>>550
ちなみにプログラム実行の権限〜ってLLMエージェント的なやつ?何使ってるか教えてほしい
0570名無しさん@ピンキー (ワッチョイ ff20-asBb)2024/04/19(金) 02:57:07.71ID:???0
>>569
LLMが使えるツールをいくつか設定してて、その中にPythonを入れてる
まあ大枠で言えばエージェントかも
ツール使用するときにはこう書きなさいって指示しといてそれを検出したら、execを拡張した関数(langchainのPythonREPLに近い)に流してる
0571名無しさん@ピンキー (ワッチョイ ff20-asBb)2024/04/19(金) 03:12:26.78ID:???0
オリジナルのPythonREPLだと標準出力
と標準エラーしか受け取れないから、色々いじってmatplotlibのデータ解析結果の画像を表示したり、セッション内でグローバル変数が保持されるようにしたり、トレースバック(LLMがエラー見てコードを自己修復するため)を追加してる
大体ChatGPTのPython実行環境に近い事ができる(仮想化はしてないけど)
0573名無しさん@ピンキー (スプッッ Sd1f-Y5Kd)2024/04/19(金) 07:21:01.60ID:???d
Aratako氏にいただいたデータを元に、手作業で改造したLCA-TypeBをリリースしました

Sdff-Ltba/LightChatAssistant-TypeB-2x7B
Sdff-Ltba/LightChatAssistant-TypeB-2x7B-GGUF

こちらの使い方では、指示追従性能の低下を抑えながら日本語の自然さ向上を実感できました
特に長文では大分滑らかになったと思います(一度に2000tokens弱の小説出力を何度かしてテスト)
0574名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/19(金) 10:06:04.59ID:???0
校長を好きな人がいるという事を、もっと分かりやすい文にして、恋愛対象は異性とは限らないとしたら、
日本語だとだめだったが、英文翻訳して聞いたら、copilotは完璧な答えを導いた。
llama3は英文でもダメだった。
やはり、gpt4強しか
0576名無しさん@ピンキー (ワッチョイ 8f56-VjaA)2024/04/19(金) 10:24:15.97ID:YN736YjM0
>>573
乙なんやで!
0578名無しさん@ピンキー (ワッチョイ f3c0-wKpJ)2024/04/19(金) 15:48:00.97ID:???0
>>570
つまり自前のシステムってこと?まったくわからん
スクリプトの実行権限与えてチャットしながらファイル操作とかコード編集とかドキュメント読ませたりできたらと思ってな
langchainとか存在は知ってるけどまったく触ったことないわ
0579名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/19(金) 16:48:22.94ID:krQkzshj0
>>578
説明が抽象的で申し訳ない 詰まるとこ、全部自前だが、実装はそんなに難しくないぞ
ちょっと正規表現かければLLMの出力にツール使用命令があるか判別するのは簡単
画像が俺が使ってるプロンプトで、Command Rが必要に応じて
```python
#コード
```
みたく出力するから、これを正規表現”```(python).*?```”でパースして、引っ掛かったらexec関数に中身を流すだけ
https://i.imgur.com/BJM5Fkr.png
0580名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/19(金) 16:53:46.66ID:krQkzshj0
langchainは無理に触る必要は無いが、ツール含めエージェント構築に使えるパーツが大量に用意されてるから、車輪の再発明を避けたいなら一回手を出してみるのはありだと思う
検索エージェントとかは最初全部自作してたけど、途中でバカらしくなってlangchainに乗り換えたよ
0581名無しさん@ピンキー (ワッチョイ 239e-AW1k)2024/04/19(金) 22:01:04.58ID:nSKhHEs/0
llama3はまた30B出んのかのぅ…
0582名無しさん@ピンキー (テテンテンテン MMa6-fvuB)2024/04/20(土) 02:55:19.45ID:???M
STのExpression機能がバージョンアップして
classifyで感情分析にかける直前に翻訳通せるようになったようだ
classifyの日本語モデルはなかったからいいアイデアだと思った
0587名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 12:43:19.11ID:ZkMMDsP10
Llama.cppのmainとllama-cpp-pythonでllama3動かしてるんだけど、勝手にassistantとかいうトークン挿入して会話が止まらない現象に当たった
調べたら結構報告があるっぽく、ランタイムがeotトークンに対応しきれてないらしい
https://twitter.com/artem_zin/status/1781145656905625772
0588名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 12:51:21.34ID:ZkMMDsP10
ちゃんと使えるようになるにはもうちょい時間かかりそう
https://imgur.com/69dWeZD
0593名無しさん@ピンキー (ワッチョイ ebcf-IRgQ)2024/04/20(土) 19:30:07.01ID:M1+DdCm60
Kobold1.63、ウィルスが検出されて削除されてまうな…
0595名無しさん@ピンキー (ワッチョイ e687-sTO6)2024/04/20(土) 19:58:51.29ID:???0
英語ちょっと読めるけど書くの苦手なワイ
プロンプトに「あなたはあらゆる言語を読めますが英語で返信してください」
みたいなのを書いておくと、こっちは日本語で書いて英語で返ってくる状態になる。
異世界転生でチート能力で言語が通じるような感じになって楽しい
0597名無しさん@ピンキー (ワッチョイ 77ac-KW1h)2024/04/20(土) 21:27:25.31ID:???0
質問なんですけど、7Bクラスの言語モデルをCPU(Ryzen5 5600H)でiQ4_XSに量子化するのってもしかして無謀だったりしますか?
モデルデータを公開した方がiMatrix量子化をやってなくて、iQ4_XSが欲しいので自分で作れないかと思い、quantkitという便利なツールを見つけたので試しているところです
既に処理が始まっているのですがこんな表示が出てきて戦慄しているところです
↓これは75時間くらいかかるという意味ですか?

> compute_imatrix: 50.40 seconds per pass - ETA 75 hours 34.63 minutes
0599名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 21:48:19.55ID:ZkMMDsP10
だれかMLXでLlama3動かしてるやついない?
0601名無しさん@ピンキー (ワッチョイ 77ac-KW1h)2024/04/20(土) 22:01:04.90ID:???0
>>600
16GBです

今、↓のメッセージに気づいて自己解決してしまいました
> compute_imatrix: computing over 5398 chunks with batch_size 512
要するに5398チャンクあって、1チャンク当たりの処理時間が50.4秒なので概算で75時間34分かかるというメッセージだったようです
これは諦めようと思います…
0603名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/20(土) 22:10:39.19ID:???d
>>597
多分そのCPUで十分できるはず
quantkitってツールについてはよくわからないけど、それはiMatrixファイル作成でChunksを無指定にした時の状態だと思う
おっしゃる通り75時間34分かかる状態です
Llama.cppに含まれているimatrix.exeならこんな感じに指定すれば時間を短くできるんだけど…そのツールだとどうなんだろう

imatrix.exe -m .\model_f16.gguf -f .\wiki.train.raw -o .\model_f16.imatrix --chunks 32
0604名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/20(土) 22:14:30.95ID:t+Q0AVqSd
おっと更新してなかった
確かにメモリ16GBだとモデルサイズが小さい方が嬉しいよね
Chunksを指定する方法がわかればいいんだけど
それかLlama.cppを使ってみるとか
0605名無しさん@ピンキー (ワッチョイ 77ac-KW1h)2024/04/20(土) 22:20:47.39ID:???0
>>602
実際にQ6_kでまともな速度で動いてるので特に問題はないんですけど、
速度早くできるならそれに越したことはないので
必要ではないので無理にやろうとまでは考えてないです

>>603
このツールです
https://github.com/xhedit/quantkit

よく読まずに簡単そうなコマンド打っただけなのでチャンク数の指定は全く考えていませんでした
0609名無しさん@ピンキー (ワッチョイ 1b32-dLvt)2024/04/20(土) 23:17:23.37ID:???0
llama3 日本語はダメだったが、英語の表現力かなりいいなこれ
llama2に比べて、プロットに隠してる意図した思惑をちゃんと表現してくれる。
規制が半端ないから、脱獄オンにする必要あるけどw
0610名無しさん@ピンキー (スプッッ Sd6a-Z3ht)2024/04/20(土) 23:18:58.63ID:???d
>>607
無印
プロンプト処理: 337.69T/s, 生成: 13.34T/s, Total: 12.97T/s
TypeB
プロンプト処理: 351.56T/s, 生成: 13.37T/s, Total: 12.84T/s
(いずれもVRAMに33レイヤーをオフロード)

うーん、うちの環境では特に差は無いようです
お使いの環境はどのような構成・設定でしょうか?
0611名無しさん@ピンキー (ワッチョイ cb74-jk2P)2024/04/21(日) 01:38:14.72ID:???0
4060ti 16GBの1スロット品が中国で発売だって
https://gazlog.jp/entry/single-slot-rtx4060ti-benchmark/

普通のATXのマザボにこれ4枚刺して64GB
夢が広がる

つーかgeforceのブロワー型クーラー品ってnvidiaが許可しないはずだけど
中国限定販売だから許可が出たのか、それとも勝手にやってるのか・・・
なんにせよ日本から買えないのが残念
0612名無しさん@ピンキー (ワッチョイ bbbe-IRgQ)2024/04/21(日) 01:48:45.32ID:???0
アクセントに違和感あると思ってたけど最近の音声合成AIちょっと調べたら日本語性能かなり進化してんのな
ちゃんと学習させたら実用レベルに来てるわ
音声読み上げさせたらやばい
0615名無しさん@ピンキー (ワッチョイ 3e71-8Qqc)2024/04/21(日) 10:54:28.47ID:???0
すまない。知っている人がいたら教えて欲しい。
text-generation-webuiで>>431のggufをロード成功後にnotebookで生成すると
UnicodeDecodeError: 'utf-8' codec can't decode byte 0x81 in position 0: invalid start byte
が発生するんだが、何が起きているんだろう。対応方法はある?
0616マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 12:19:41.10ID:z9EdHanv0
https://imgur.com/a/6mzjpm6
モデルは5/1に公開する予定です。

tempture:3
0619マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 13:45:20.53ID:z9EdHanv0
>>618
7Bです。
0622名無しさん@ピンキー (ワッチョイ 26db-7awQ)2024/04/21(日) 15:54:07.26ID:PPvJAW9L0
>>619
これ素の出力なの?
7bって結構途中で変な文章入ったような印象あったけど
0623マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 16:19:28.81ID:z9EdHanv0
>>620

官ジェネが何かは存じ上げませんが、「(以下本文)」までの文章以外は入力していません。
別で誘導するための文章を挿入しているなどもありません。

>>622

出力が途中で止まった際に続きを出力させるなどはしましたが、それ以外は一切手を加えていません。
0624マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 16:24:37.87ID:z9EdHanv0
参考となるかは不明ですが、簡易的な指標としてpplを計測しました。
https://imgur.com/a/di903Nu

日本語wiki本文と少数の小説で計測しました。
0626名無しさん@ピンキー (ワッチョイ 03a8-8Qqc)2024/04/21(日) 18:08:21.35ID:8CGWlOOb0
エロ評価プロンプトのバージョン2作ったから、使ってね。

https://rentry.org/5m4p8v4z

karakuri-lm-70b-chat-v0.1-Q6_K での結果
https://rentry.org/zc68gxx5

素のkarakuriの安定度が分かる。設問1は不正解だが
0627名無しさん@ピンキー (ワッチョイ 03a8-8Qqc)2024/04/21(日) 18:08:54.41ID:8CGWlOOb0
ああごめんなさい
ローカルにコピペするつもりが書き込んでしまった……
0630名無しさん@ピンキー (ワッチョイ 1b32-dLvt)2024/04/21(日) 20:26:24.75ID:???0
エロ評価プロンプト2,設問1がAIにはミスリードが多く、難しすぎたので差し替えました。

https://rentry.org/5m4p8v4z


また、設問1のみをレベル別に分け、日本語、英語での質問ができるテキストをアップしましたので、活用してください。

sbtom/reasoning_ability_test

エロ評価2には、レベル1を使用しました。それでも正解率かなり低いですが、推論の過程を見ると、能力がなんとなく測れます。
0631名無しさん@ピンキー (スッップ Sdca-7awQ)2024/04/21(日) 21:02:38.66ID:???d
今日からローカル始めたレベルの無知なんだけど英語で指示した展開にそれなりに寄り添ってエロ小説書いてくれるモデルを教えてほしい。
環境としては4090とRAM64GBだから13Bとかだときついのかな。
今はLoneStriker/Blue-Orchid-2x7b-Q4_K_Mっていう大分古いモデルで遊んでる
0632マジカル (ワッチョイ db34-z8bb)2024/04/21(日) 21:08:11.15ID:z9EdHanv0
https://rentry.org/8ntw35hu

>>630
のテストを我々のモデルで実行しました。モデルが出力した回答をそのまま掲載します。
0633名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/21(日) 21:25:55.85ID:uOvF1J7L0
>>628
jupyter-lab
0640名無しさん@ピンキー (ワッチョイ 335f-el1J)2024/04/22(月) 09:15:14.40ID:eSc9ndJ90
一番近いのはOpusだろうなローカルじゃないけど
0641名無しさん@ピンキー (ワッチョイ 3e13-8Qqc)2024/04/22(月) 16:36:21.57ID:???0
EasyLightChatAssistantに永続生成用の簡単なUIを被せたEasyNovelAssistantを作ってみたで

https://github.com/Zuntan03/EasyNovelAssistant
https://files.catbox.moe/ai9gop.png

デフォルトモデルはLightChatAssistant-TypeB-2x7B-GGUFのIQ4_XSでサンプルもこれで動作確認してあるで
ええモデルをリリースしてくれてサンガツや!

RAM 16GB, Geforce GTX 1660 Ti (VRAM 3.3GB / 6.0GB), Ryzen 5 3600X で 3.5T/s
Geforce RTX 3060 12GB なら 13.5T/s
https://files.catbox.moe/rbk5qh.png
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況