なんJLLM部 避難所
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ e249-iArR)2023/12/17(日) 21:48:59.66ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ
なんJLLM部 ★6
https://fate.5ch.net/test/read.cgi/liveuranus/1701542705/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0496名無しさん@ピンキー (ワッチョイ c387-j/Vl)2024/04/15(月) 16:27:44.71ID:/HalLGkT0
>>490
f16使ってみたけど確かに結構賢い感じやね。簡単なタスクはこれに任せてもええかもってくらい
あと全部VRAM乗せられるからワイの環境でも35t/sくらい出て笑うわ。command-r+の0.5t/sに焦らされてる状態から使うと気持ちよすぎる
0497名無しさん@ピンキー (ワッチョイ 2382-Zh10)2024/04/15(月) 16:58:47.09ID:SmAgcugu0
LCAの手法でモデルの特徴を抽出してマージできるならその差分をLora化して後乗せもできるのかね?
0499名無しさん@ピンキー (ワッチョイ a374-CQ4x)2024/04/15(月) 20:17:25.74ID:???0
text generation webuiでチャットやってたら急に最新の1応答を除いて過去の会話全部吹っ飛びやがった
マジかよショックがでかすぎる
あぁ、もう一度コンテキスト育てるのは無理やぁ・・・
0500名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/15(月) 20:31:09.28ID:???0
sbtom/karakuri-midrose-CV.gguf
ちまちま検証してましたが、どうもmg版に比べると劣化してる感が拭えなかった。
表現力は同じくらいなんだけど、指示が入りずらい
チャットだと分かりにくいけど、小説書かせたらプロット通りに書かずに勝手にプロット外の事を書き始める
うーん、ダメだこりゃ・・・ と思ってたら、よく考えると重みに0.8掛けする必要なくね?と気付いた
LCAはインストラクタモデルを使ってたから、0.8掛けが効果を発揮していたけど、krakuriはベースモデルを使ってるから
素直に1.0乗せればよかったんや!
で、修正したら、指示も入りやすくなった感じ
とりあえず、修正アップしました。
0501名無しさん@ピンキー (ワッチョイ d3ea-uu0w)2024/04/16(火) 03:16:47.20ID:???0
今更だけど、KoboldcppのPrompt Template色々間違ってない?
LCA試すときにllama2 chatのテンプレ使ってて思ったんだけど、マルチターンの会話の時[INST]と[/INST]だけで区切ってるけど間にeos_token(</s>)とかもいるよな?
0502名無しさん@ピンキー (ワッチョイ cf20-rajz)2024/04/16(火) 06:03:57.15ID:u83/57NB0
>>500
試しに同じ構成で作ってみたいと思うんですが
base_modelは何ですか?
0504名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/16(火) 12:59:19.29ID:???0
ぐあああ!ヤヴァイ
中間モデル保存しておいたSSDが死んだw
予定していた最終モデルは別SSDにできた後だったのが不幸中の幸いだったけど、設定ファイルとか亡くなったのは痛いw

エロ小説用としては、いい感じに仕上がったと思うんで、なんとか最終モデルをアップするまで、もってくれ〜SSD
0508名無しさん@ピンキー (ワッチョイ 2382-Zh10)2024/04/16(火) 18:18:19.18ID:WfuRqmo60
毒性テストしてないバージョン出しちゃったわ😅ヤベヤベ
0509名無しさん@ピンキー (ワッチョイ c3d1-WVN9)2024/04/16(火) 18:25:08.15ID:???0
今のところ4bit量子化でB数の6割ぐらいの高速メモリ用意できりゃOK
みてえな認識してるけど
この先どんどん肥大化していってもこの方式当てはまるんやろか
0510名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/16(火) 20:12:30.61ID:Cvmv6Ee70
VRAMに乗り切るかどうかは単純な計算から求まるんだからその法則自体が崩れることはないんじゃないか?
そろそろ必要なVRAM量がコンシューマ向けチップでかなりギリギリだから、1.58bitが主流になって欲しいけど、いまだに進捗を聞かない
0512名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/16(火) 20:27:47.59ID:Cvmv6Ee70
8x22Bと7Bは他にも何人か量子化とかアップロードしてるけど、70Bの方は元から公開されなかったんか?
0513名無しさん@ピンキー (ワッチョイ cf20-rajz)2024/04/16(火) 20:51:00.62ID:u83/57NB0
>>503
サンガツ
今マージを始めたところです
midroseの代わりにHDDにあったEuryaleを使ってみてます
0514名無しさん@ピンキー (ワッチョイ d303-URmv)2024/04/16(火) 21:48:29.76ID:???0
WizardLM-2 7BのiQ3_XXS軽すぎワロタ
RTX3050Laptopの4GB VRAMにフルロードできるからサクサクでいいね
割とまともな日本語話すし、ノートPCでここまで動くとは驚きだ
0515名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/16(火) 22:24:38.33ID:Cvmv6Ee70
日本語話せるのか
正直日本語力は期待してなかったけど、こうなると70Bはそこそこ楽しみになってきた
内容にcensorshipはかかってそうかな?
0517名無しさん@ピンキー (ワッチョイ b392-T8JI)2024/04/17(水) 12:06:58.01ID:zYAYEg/x0
>>499
ワイもログ何度か消えたからgitで定時スナップショット取るようにしてたわ
今はフロントエンドはSillytavernに移行したけど
0521名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/17(水) 19:59:28.37ID:LaZSos2E0
command-rにプログラム実行の権限与えてるんだけど、pythonで日本語の変数使えるの知らんかったわ
いきなり頭おかしいプログラム走らせ始めてビビった
https://i.imgur.com/aILua5n.png
0525名無しさん@ピンキー (ワッチョイ c3ba-j/Vl)2024/04/17(水) 21:57:59.92ID:CXycdFik0
>>521
これもうシンギュラリティやろ
0528名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/17(水) 22:26:59.61ID:LaZSos2E0
Command R+の方、ギリギリ動かせるiq3_mだと結構劣化が気になって、結局無印に舞い戻った
q4を動かせるマシンがまともに使える最低レベルと考えると、やっぱり104Bは気軽に動かせるもんじゃないと思うわ
0529名無しさん@ピンキー (ワッチョイ 53c7-ZezB)2024/04/17(水) 22:58:38.30ID:???0
うみゆき@AI研究
@umiyuki_ai
5ちゃんの某LLMスレを監視してるけど、最新の話題でCommand Rとエロチャしてたら急にエロいpythonコード書いて実行し始めた画像相当おもろい。AIにとってはコードが一番興奮するのかもしれん。

何が監視じゃ
インプレ稼ぎ青チェックが上位者気取るな
0530名無しさん@ピンキー (ワッチョイ cf7a-ULeS)2024/04/17(水) 23:01:58.09ID:???0
うみゆきは別に出している情報間違っているわけじゃないんだけど
「へえ。」とか無意味に冷笑ノリだったり画像生成AIについては
やたら反AIに擦り寄ってみたりの方向が昔のオタっぽくて気持ち悪い
0533名無しさん@ピンキー (ワッチョイ 8f61-uK2W)2024/04/17(水) 23:09:30.51ID:iczziYEI0
ここはオナテク板やぞ
0535名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/17(水) 23:35:31.16ID:???0
sbtom/karakuri-MS-01.gguf

最近追加されたModelStockってマージ方法、ChatVectorと相性いいじゃないかって気がして、
karakuri-midnightrose-CV
karakuri-SOLAR-CV
karakuri-XWIN-CV
を、karakuri-chatをベースにしてModelStockで4体合体させてみたら、なんかすごくいい感じになった。

評価プロンプト(そろそろ別バージョン必要だなw)
https://rentry.org/zapt6wa5

小説テスト(オナニースレで、宇宙人ニキの感想待ち)
https://rentry.org/m55ytdq3
0536名無しさん@ピンキー (ワッチョイ c32b-WVN9)2024/04/17(水) 23:46:19.09ID:???0
評価プロンプトになんか追加するなら
どっちがどこに挿入してるかはとか
2形態以上持ってる変身や変化キャラみたいな設定とか
混同されると萎える要素への解釈理解度確かめるような設問が必要だと個人的には思う
0538名無しさん@ピンキー (ワッチョイ e38f-j/Vl)2024/04/18(木) 03:09:18.12ID:QKygiavm0
>>529
初期はシンプルにAI追ってたのに途中から情報量多すぎて追えなくなってからノリがかわってしまったな
0539名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/18(木) 07:39:05.56ID:Se0rtYV00
>>537
style-bert-vits2とwhisperで割と簡単に満足できるものが実現できるレベルでは
0540名無しさん@ピンキー (ワッチョイ 63be-uGJR)2024/04/18(木) 10:08:53.70ID:???0
実際にやってみると音声と見た目が付くと少しの話の違和感とかアクセントのおかしさが強調されてストレス感じる
イルカやSiriやCortanaが嫌われ続けて来たのと同じ問題だなぁ
0541名無しさん@ピンキー (ワッチョイ 7f16-uGJR)2024/04/18(木) 10:29:24.96ID:31yba4ll0
>>540
ワイ、cotomoとか結構遊んだけど、イントネーションとか結構慣れて気にならんくなったで?むしろcotomoのあほの子ボイスが癖になったまである
原作ありのキャラの模倣とかだと無理かもしれんが、オリキャラならstyle-bert-bits2レベルのイントネーションだったらふつーにガチ恋するわ
AIちゃんがワイのこと覚えてくれてる、認識してくれてる!って部分にうれションでるやで?
0542名無しさん@ピンキー (ワッチョイ 7f0f-vBQZ)2024/04/18(木) 10:33:13.12ID:???0
わかる
でもそのストレスって関西弁聞く時のと同種だよね
不満垂らしつつも許容して慣れるしか無い

それに昔よりはストレス無くなってきたね最近の音声合成
0543名無しさん@ピンキー (ワッチョイ 7ffb-uGJR)2024/04/18(木) 12:04:53.20ID:31yba4ll0
>>542
>>そのストレスって関西弁聞く時のと同種
同意してもらったところ悪いんやけど、なんJでそれ言うんかw
オナテク板もなんJも関東人以外もふつーにおるんでちょっと配慮したってや?
0544名無しさん@ピンキー (ワッチョイ ff9f-OvSD)2024/04/18(木) 15:01:38.67ID:???0
なんJのは関西弁ではなく猛虎弁ではw
>「猛虎弁」は、関西弁と似た言葉遣いを模倣したユーモラスな表現です。元々は「なんJ(なんでも実況J)」と呼ばれる2ちゃんねるで使われていた言葉で、その後他のネット掲示板やコメント欄でも広まりました123。
(中略)
>猛虎弁は関西人からすれば容易にニセモノだとわかりますが、関西以外の人からは見分けがつかないこともあります。ただし、猛虎弁は本物の関西弁ではないため、注意が必要です123。
0548名無しさん@ピンキー (ワッチョイ b3de-+gIl)2024/04/18(木) 15:35:36.17ID:???0
今まで単純にモデルのサイズが大きければ大きいほどoutputも遅いものだと思ってたけどそうじゃないんだな。
hfに上がってたwizardLM2-8x22Bは1T/sも出てる(普段は70Bで0.5Tくらい)
0550名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/18(木) 19:00:52.25ID:Se0rtYV00
昨日あげた画像結構ウケが良かったが、pythonをLLMに組み込む長所としてはどっちかと言うとこういうふうに指示出してミニゲームできたりするメリットの方を推していきたい
https://i.imgur.com/jSSVVyJ.png
0553名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/18(木) 19:59:00.44ID:???0
つづき
command-r-plus(web)での回答

https://rentry.org/8av79u4b

さすが、エロ表現はいいね。宇宙人は台詞を言ってほしかったが。設問1はこれも不正解


karakuri-rosemiqu-CV2は苦労した割に、ダメダメだった。削除しようかと思ったが、あのアプローチでの失敗例として上げとく

で、自分的には一番いい出来と思った、
model_stockマージでのkarakuri-MS-01の結果

https://rentry.org/we25qrsa

これで、設問1が正解なら、脳汁出るところだが、さすがに無理だった。
でも、他の表現力はcommand-r-plusに負けてない気もする
同じアプローチでswallowを使ったら、どうなるか試したいが、SSDの空きを作るのが大変だw
0554名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/18(木) 20:05:40.35ID:???0
あれ?
今、リートンのGPT4-turboと、copilotに設問1の質問したら、両方とも早苗って答えた。

あれれ? ワイ、間違ってないよな?
拓郎が愛しているのは、源蔵だよな?
0555名無しさん@ピンキー (ワッチョイ bfa3-y89D)2024/04/18(木) 20:30:48.34ID:???0
論理的に詰めていけば源蔵しかいないのだが、AIはみんなそのような思考をせずにシチュエーションだけで判断してるように見えるな
「論理的に」「数理的に」「解析せよ」とか指示を加えたらどうだろう
0556名無しさん@ピンキー (スプッッ Sd1f-Y5Kd)2024/04/18(木) 20:40:30.43ID:???d
思考問題はGPT-4とかClaude3が安定して正解を出力できる問題にしないとダメかもしらんね
これつらができない問題でも解ける特化型とかあるんかね

それと>>552は「特殊シチュ+指示少な目(求めるお察し力高め)」だから、使うなら旧verと併せて追試として使った方が良さそう
旧verはサクッとチェックできて、最低限の出力品質を確認できるから個人的に好き
0557名無しさん@ピンキー (ワッチョイ bfa3-y89D)2024/04/18(木) 21:07:33.17ID:???0
GPT4とOpusに設問(1)をやらせてみたが正解にたどり着かないな
まず恋愛対象を勝手に異性に限定したがる。まあこれは「同性も含めて」と指示すればいいのだが
一番無視しがちな前提条件が「複数の人を同時に愛することはない」という部分。この文章を正しく理解できていないかもしれない
0559名無しさん@ピンキー (ワッチョイ d3b5-humn)2024/04/18(木) 21:23:39.01ID:???0
【悲報】ワイの頭AI並み
この設問と条件なら一応、早苗と沙織先生がどちらも拓郎を好いていて拓郎は早苗だけ好き、と解釈するのも可能やからなあ
0565名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/19(金) 00:29:45.61ID:???0
うおおお
karakuri-MS-01たんは、
ここで、大ヒントです。早苗と相思相愛なのは、沙織です。
の一文入れたら、なんとか「校長」と答えてくれたw
ちなcopilotはダメだったw
0569名無しさん@ピンキー (ワッチョイ f3c0-wKpJ)2024/04/19(金) 02:11:29.23ID:???0
無印Command rええやん
1.5 tokens/sぐらい
16GB〜24GBなら全部VRAMに乗りそうやな
>>550
ちなみにプログラム実行の権限〜ってLLMエージェント的なやつ?何使ってるか教えてほしい
0570名無しさん@ピンキー (ワッチョイ ff20-asBb)2024/04/19(金) 02:57:07.71ID:???0
>>569
LLMが使えるツールをいくつか設定してて、その中にPythonを入れてる
まあ大枠で言えばエージェントかも
ツール使用するときにはこう書きなさいって指示しといてそれを検出したら、execを拡張した関数(langchainのPythonREPLに近い)に流してる
0571名無しさん@ピンキー (ワッチョイ ff20-asBb)2024/04/19(金) 03:12:26.78ID:???0
オリジナルのPythonREPLだと標準出力
と標準エラーしか受け取れないから、色々いじってmatplotlibのデータ解析結果の画像を表示したり、セッション内でグローバル変数が保持されるようにしたり、トレースバック(LLMがエラー見てコードを自己修復するため)を追加してる
大体ChatGPTのPython実行環境に近い事ができる(仮想化はしてないけど)
0573名無しさん@ピンキー (スプッッ Sd1f-Y5Kd)2024/04/19(金) 07:21:01.60ID:???d
Aratako氏にいただいたデータを元に、手作業で改造したLCA-TypeBをリリースしました

Sdff-Ltba/LightChatAssistant-TypeB-2x7B
Sdff-Ltba/LightChatAssistant-TypeB-2x7B-GGUF

こちらの使い方では、指示追従性能の低下を抑えながら日本語の自然さ向上を実感できました
特に長文では大分滑らかになったと思います(一度に2000tokens弱の小説出力を何度かしてテスト)
0574名無しさん@ピンキー (ワッチョイ e332-ULeS)2024/04/19(金) 10:06:04.59ID:???0
校長を好きな人がいるという事を、もっと分かりやすい文にして、恋愛対象は異性とは限らないとしたら、
日本語だとだめだったが、英文翻訳して聞いたら、copilotは完璧な答えを導いた。
llama3は英文でもダメだった。
やはり、gpt4強しか
0576名無しさん@ピンキー (ワッチョイ 8f56-VjaA)2024/04/19(金) 10:24:15.97ID:YN736YjM0
>>573
乙なんやで!
0578名無しさん@ピンキー (ワッチョイ f3c0-wKpJ)2024/04/19(金) 15:48:00.97ID:???0
>>570
つまり自前のシステムってこと?まったくわからん
スクリプトの実行権限与えてチャットしながらファイル操作とかコード編集とかドキュメント読ませたりできたらと思ってな
langchainとか存在は知ってるけどまったく触ったことないわ
0579名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/19(金) 16:48:22.94ID:krQkzshj0
>>578
説明が抽象的で申し訳ない 詰まるとこ、全部自前だが、実装はそんなに難しくないぞ
ちょっと正規表現かければLLMの出力にツール使用命令があるか判別するのは簡単
画像が俺が使ってるプロンプトで、Command Rが必要に応じて
```python
#コード
```
みたく出力するから、これを正規表現”```(python).*?```”でパースして、引っ掛かったらexec関数に中身を流すだけ
https://i.imgur.com/BJM5Fkr.png
0580名無しさん@ピンキー (ワッチョイ 3311-0y78)2024/04/19(金) 16:53:46.66ID:krQkzshj0
langchainは無理に触る必要は無いが、ツール含めエージェント構築に使えるパーツが大量に用意されてるから、車輪の再発明を避けたいなら一回手を出してみるのはありだと思う
検索エージェントとかは最初全部自作してたけど、途中でバカらしくなってlangchainに乗り換えたよ
0581名無しさん@ピンキー (ワッチョイ 239e-AW1k)2024/04/19(金) 22:01:04.58ID:nSKhHEs/0
llama3はまた30B出んのかのぅ…
0582名無しさん@ピンキー (テテンテンテン MMa6-fvuB)2024/04/20(土) 02:55:19.45ID:???M
STのExpression機能がバージョンアップして
classifyで感情分析にかける直前に翻訳通せるようになったようだ
classifyの日本語モデルはなかったからいいアイデアだと思った
0587名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 12:43:19.11ID:ZkMMDsP10
Llama.cppのmainとllama-cpp-pythonでllama3動かしてるんだけど、勝手にassistantとかいうトークン挿入して会話が止まらない現象に当たった
調べたら結構報告があるっぽく、ランタイムがeotトークンに対応しきれてないらしい
https://twitter.com/artem_zin/status/1781145656905625772
0588名無しさん@ピンキー (ワッチョイ 0f11-w0m+)2024/04/20(土) 12:51:21.34ID:ZkMMDsP10
ちゃんと使えるようになるにはもうちょい時間かかりそう
https://imgur.com/69dWeZD
0593名無しさん@ピンキー (ワッチョイ ebcf-IRgQ)2024/04/20(土) 19:30:07.01ID:M1+DdCm60
Kobold1.63、ウィルスが検出されて削除されてまうな…
0595名無しさん@ピンキー (ワッチョイ e687-sTO6)2024/04/20(土) 19:58:51.29ID:???0
英語ちょっと読めるけど書くの苦手なワイ
プロンプトに「あなたはあらゆる言語を読めますが英語で返信してください」
みたいなのを書いておくと、こっちは日本語で書いて英語で返ってくる状態になる。
異世界転生でチート能力で言語が通じるような感じになって楽しい
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況