なんJLLM部 避難所
レス数が1000を超えています。これ以上書き込みはできません。
>>570
つまり自前のシステムってこと?まったくわからん
スクリプトの実行権限与えてチャットしながらファイル操作とかコード編集とかドキュメント読ませたりできたらと思ってな
langchainとか存在は知ってるけどまったく触ったことないわ >>578
説明が抽象的で申し訳ない 詰まるとこ、全部自前だが、実装はそんなに難しくないぞ
ちょっと正規表現かければLLMの出力にツール使用命令があるか判別するのは簡単
画像が俺が使ってるプロンプトで、Command Rが必要に応じて
```python
#コード
```
みたく出力するから、これを正規表現”```(python).*?```”でパースして、引っ掛かったらexec関数に中身を流すだけ
https://i.imgur.com/BJM5Fkr.png langchainは無理に触る必要は無いが、ツール含めエージェント構築に使えるパーツが大量に用意されてるから、車輪の再発明を避けたいなら一回手を出してみるのはありだと思う
検索エージェントとかは最初全部自作してたけど、途中でバカらしくなってlangchainに乗り換えたよ STのExpression機能がバージョンアップして
classifyで感情分析にかける直前に翻訳通せるようになったようだ
classifyの日本語モデルはなかったからいいアイデアだと思った llama3の70Bの評価はあちこちでだいぶ違うな
ベンチマークで高いのが出るようにはなってるっぽいけど >>573
乙!確かにいい感じに自然な応答が返ってくるよ
現状のLlama3-70Bより日本語に関しては上だわ イーロンの株価対策超絶最強AIgrokとかもう誰も話題にせんな Llama.cppのmainとllama-cpp-pythonでllama3動かしてるんだけど、勝手にassistantとかいうトークン挿入して会話が止まらない現象に当たった
調べたら結構報告があるっぽく、ランタイムがeotトークンに対応しきれてないらしい
https://twitter.com/artem_zin/status/1781145656905625772 ちゃんと使えるようになるにはもうちょい時間かかりそう
https://imgur.com/69dWeZD >>573のやつ
Text generation web UIでロードできなかった
koboldと同等の設定にする方法ある? アプデしたkoboldをwindowsが消しちゃう Kobold1.63、ウィルスが検出されて削除されてまうな… 英語ちょっと読めるけど書くの苦手なワイ
プロンプトに「あなたはあらゆる言語を読めますが英語で返信してください」
みたいなのを書いておくと、こっちは日本語で書いて英語で返ってくる状態になる。
異世界転生でチート能力で言語が通じるような感じになって楽しい >>585
乙サンクス!Llama3英語特化らしいから日本語チューンモデル待ち遠しい 質問なんですけど、7Bクラスの言語モデルをCPU(Ryzen5 5600H)でiQ4_XSに量子化するのってもしかして無謀だったりしますか?
モデルデータを公開した方がiMatrix量子化をやってなくて、iQ4_XSが欲しいので自分で作れないかと思い、quantkitという便利なツールを見つけたので試しているところです
既に処理が始まっているのですがこんな表示が出てきて戦慄しているところです
↓これは75時間くらいかかるという意味ですか?
> compute_imatrix: 50.40 seconds per pass - ETA 75 hours 34.63 minutes >>600
16GBです
今、↓のメッセージに気づいて自己解決してしまいました
> compute_imatrix: computing over 5398 chunks with batch_size 512
要するに5398チャンクあって、1チャンク当たりの処理時間が50.4秒なので概算で75時間34分かかるというメッセージだったようです
これは諦めようと思います… >>601
まあ、もっと速くする方法もあるけど、無理にimatrix化しなくても、Q6_kでも十分実用速度になると思うよ? >>597
多分そのCPUで十分できるはず
quantkitってツールについてはよくわからないけど、それはiMatrixファイル作成でChunksを無指定にした時の状態だと思う
おっしゃる通り75時間34分かかる状態です
Llama.cppに含まれているimatrix.exeならこんな感じに指定すれば時間を短くできるんだけど…そのツールだとどうなんだろう
imatrix.exe -m .\model_f16.gguf -f .\wiki.train.raw -o .\model_f16.imatrix --chunks 32 おっと更新してなかった
確かにメモリ16GBだとモデルサイズが小さい方が嬉しいよね
Chunksを指定する方法がわかればいいんだけど
それかLlama.cppを使ってみるとか >>602
実際にQ6_kでまともな速度で動いてるので特に問題はないんですけど、
速度早くできるならそれに越したことはないので
必要ではないので無理にやろうとまでは考えてないです
>>603
このツールです
https://github.com/xhedit/quantkit
よく読まずに簡単そうなコマンド打っただけなのでチャンク数の指定は全く考えていませんでした コレの動かし方誰か教えて!
PFN(プリファード・ネットワークス)が金融ドメイン特化LLMを作ったらしい。
Hugging Faceに.safeteonsorsで公開されてるみたい。
https://tech.preferred.jp/ja/blog/qfin-llm-continual-pretraining/ >>573
おつかれさまです
おま環かもしれないのですが生成速度が下がってる気がします
ver1やx4で14Tで書くところver2だと10Tくらい(全てQ6)
10Tだと、読むの間に合っちゃう… >>607
あれ、そんな現象が起きているとは…ちょっと調べてみますね llama3 日本語はダメだったが、英語の表現力かなりいいなこれ
llama2に比べて、プロットに隠してる意図した思惑をちゃんと表現してくれる。
規制が半端ないから、脱獄オンにする必要あるけどw >>607
無印
プロンプト処理: 337.69T/s, 生成: 13.34T/s, Total: 12.97T/s
TypeB
プロンプト処理: 351.56T/s, 生成: 13.37T/s, Total: 12.84T/s
(いずれもVRAMに33レイヤーをオフロード)
うーん、うちの環境では特に差は無いようです
お使いの環境はどのような構成・設定でしょうか? 4060ti 16GBの1スロット品が中国で発売だって
https://gazlog.jp/entry/single-slot-rtx4060ti-benchmark/
普通のATXのマザボにこれ4枚刺して64GB
夢が広がる
つーかgeforceのブロワー型クーラー品ってnvidiaが許可しないはずだけど
中国限定販売だから許可が出たのか、それとも勝手にやってるのか・・・
なんにせよ日本から買えないのが残念 アクセントに違和感あると思ってたけど最近の音声合成AIちょっと調べたら日本語性能かなり進化してんのな
ちゃんと学習させたら実用レベルに来てるわ
音声読み上げさせたらやばい GALAXはグラボメーカとしては老舗だから言うほど怪しくはない >>603
ありがとう
Llama.cppを使ったらあっさりと量子化に成功しました すまない。知っている人がいたら教えて欲しい。
text-generation-webuiで>>431のggufをロード成功後にnotebookで生成すると
UnicodeDecodeError: 'utf-8' codec can't decode byte 0x81 in position 0: invalid start byte
が発生するんだが、何が起きているんだろう。対応方法はある? https://imgur.com/a/6mzjpm6
モデルは5/1に公開する予定です。
tempture:3 >>619
7bでこの表現力はすごいねー
官ジェネとかのプロンプトは仕込んでるのかな? calm-2あたりも7bで結構エロいの書くよな
Antlerは表現力で言うと一番だけど暴走しがち >>619
これ素の出力なの?
7bって結構途中で変な文章入ったような印象あったけど >>620
官ジェネが何かは存じ上げませんが、「(以下本文)」までの文章以外は入力していません。
別で誘導するための文章を挿入しているなどもありません。
>>622
出力が途中で止まった際に続きを出力させるなどはしましたが、それ以外は一切手を加えていません。 参考となるかは不明ですが、簡易的な指標としてpplを計測しました。
https://imgur.com/a/di903Nu
日本語wiki本文と少数の小説で計測しました。 期待の新モデル来たか!?
>>435とか>>552のテストしてみるとどうなるか気になる エロ評価プロンプトのバージョン2作ったから、使ってね。
https://rentry.org/5m4p8v4z
karakuri-lm-70b-chat-v0.1-Q6_K での結果
https://rentry.org/zc68gxx5
素のkarakuriの安定度が分かる。設問1は不正解だが ああごめんなさい
ローカルにコピペするつもりが書き込んでしまった…… 今みんな実行環境何使ってるの?Text generation webui? エロ評価プロンプト2,設問1がAIにはミスリードが多く、難しすぎたので差し替えました。
https://rentry.org/5m4p8v4z
また、設問1のみをレベル別に分け、日本語、英語での質問ができるテキストをアップしましたので、活用してください。
sbtom/reasoning_ability_test
エロ評価2には、レベル1を使用しました。それでも正解率かなり低いですが、推論の過程を見ると、能力がなんとなく測れます。 今日からローカル始めたレベルの無知なんだけど英語で指示した展開にそれなりに寄り添ってエロ小説書いてくれるモデルを教えてほしい。
環境としては4090とRAM64GBだから13Bとかだときついのかな。
今はLoneStriker/Blue-Orchid-2x7b-Q4_K_Mっていう大分古いモデルで遊んでる https://rentry.org/8ntw35hu
>>630
のテストを我々のモデルで実行しました。モデルが出力した回答をそのまま掲載します。 >>632
英語ならよりドみどりだと思うけど、
遅くていいなら、
NeverSleep/MiquMaid-v2-70B-DPO-GGUF
を一度試してほしい。
ちな、その環境なら13Bでも爆速よ >>632
これは期待!どこかのサークルさんか海外の企業さんかな?ChatNTQの強化版だったりして
なんにせよ5/1が楽しみ! ありがとう、ゆっくりコーヒーでも飲みながら試してみる
そしてHugging FaceにNSFWタグあるんだね、おかげで気づけたよ 官能小説というよりは抜きゲーのっぽい表現に特化した
NSFWモデルでなんかええのないやろか? EasyLightChatAssistantに永続生成用の簡単なUIを被せたEasyNovelAssistantを作ってみたで
https://github.com/Zuntan03/EasyNovelAssistant
https://files.catbox.moe/ai9gop.png
デフォルトモデルはLightChatAssistant-TypeB-2x7B-GGUFのIQ4_XSでサンプルもこれで動作確認してあるで
ええモデルをリリースしてくれてサンガツや!
RAM 16GB, Geforce GTX 1660 Ti (VRAM 3.3GB / 6.0GB), Ryzen 5 3600X で 3.5T/s
Geforce RTX 3060 12GB なら 13.5T/s
https://files.catbox.moe/rbk5qh.png prem aiのブログ更新、RAGについて
https://blog.premai.io/rag-strategies/
そんなことより料金はよw
今日発表すると言ってからもう4日くらい経ってるぞ Groqって会社がGPUじゃなくてLPUっての作っているのか
こりゃどっかのタイミングで劇的に動作コストが下がることありそうだね 今の過熱ぶり見るとAI向けアクセラレータボードはバブル終わるまでは企業が買い占めて
評価ボード以外が終わって個人に流れてくる頃には会社がないまである PCだとCPUにNPUが標準的に統合されてくる
というか、Microsoftがそれを要求してくる >>641
乙です!またまた良い感じに使いやすくなるツールをありがとうです
TypeBは長文も良くなったはずだし、永続生成はローカルの強みをフルに発揮できて嬉しい!
githubのページもスクショ付きで理解しやすい!超GJ! Antlerの作者さんの新作が出てた。独自のエロベンチマークで他モデルと比較した結果も出てる
Elizezen/SniffyOtter-7B Llama3ちゃんにエッチな小説作ってもらおうとしたら拒絶されてショック
説得セリフ入れたけどダメだった
このモデルでエッチなこといける人いるの? >>649
脱獄オンにする
それでも3手目あたりで申し訳してくる Command Rの自由度に慣れきってるからLlama3かなりキツく感じる
Cohereははよ中型モデル出してくれー >>579
解説たすかるがワイはLLMさわってるだけのノンプログラマーだからぎりぎりよくわからんくてつれぇわ
langchain色々調べてのでやってることの概要はなんとなくわかった >>654
誰でも最初はそんなもんや
簡単な文法は勉強する必要があるかもしれんが、コード自体はLLMに書かせちゃってもいいし、楽する道は結構多いと思うから気張らずにやるのがいいよ
なんとなくlangchainのページ見てるだけでも、LLMで出来ることの多さに驚いてモチベーションも上がると思う Aratako氏の最適化スクリプトをRAM64GBのローカルで動くように改造してみている
評価者はCommand-R+が一番だろうけどRAM64GBだとカツカツだから、他の候補としてはkarakuriとかSwallowMXとかかなあ
>>535さんの子を評価者に迎えようかしら >>657
jupyter(google colabで使われてるやつ)ってツール使って自作した >>655
実際GPT4TurboにPythonスクリプトとか書いてもらうと普通に動くコード書いてもらえるし、細かく仕様変更頼んでもちゃんと反映してくれるからLLMでプログラミングする/してもらう方向性はまじで期待してるわ >>659
pythonあかちゃんな俺でもCusorでAIに雑に指示してたらガンガンコード書いてアプリやサービス開発できる位だからこのスレ民みんなスーパープログラマーになれると思う 日に日に知識の差なんてどうでもよくなってGPUとSSDの勝負になっていくよな。。。
今年15万円ほど投資してメモリ64GBにしてVRAM16GBにしてSSD2TB用意したけど早くもカツカツで限界感じしてるわ >>641
すまん、これCPUばっかり使ってグラボの力使わんから遅い。ちなrtx4060の8Gや。グラボ使わすのどうやってやるの? >>663
GPUレイヤー数を10あたりにしたら、5-10T/sぐらいになる想定や
> RAM 16GB, Geforce GTX 1660 Ti (VRAM 3.3GB / 6.0GB), Ryzen 5 3600X で 3.5 tokens/sec (T/s) です。
より遅かったらKoboldCppがなんかしてるんでさらにGPUレイヤー数削ってみてな
タスクマネージャーで推論時にずっとディスクアクセス発生してるなら他のアプリを落としておくとええかもしらん VRAMが少ないとGPU処理を使い切れないんは仕様や
CPUやRAMが足引っ張ってる状態やね >>664
https://ul.h3z.jp/0qpAuAVk.jpg
1秒で5〜6文字やな。L10とか押してみたけど効いてるのか判別つかんw >>666
CPUとRAMがどれだけGPUの足引っ張るかなんでモデルが全部載るあたりに近づくと加速度的に速くなるんや
でかいモデルやとさらに10倍遅くなって2秒で一文字なんでそういうものと思ってもろたら
GPUレイヤーを0や1にして画像生成と併用とかもあるんやが8GBやとそれもカツカツやね
StyleBertVITSに生成文章を読み上げさせるぐらいならいけそう >>667
https://ul.h3z.jp/ztBRpUhs.jpg
レイヤーとやらを変更するってやってもこんなん出るで。
1秒で5文字出るだけマシなんかな?CPUだけやったらもっと遅いんかな。 とりあえず落ち着いて>>641のページをしっかり読んだ方がいい
>>668のメッセージの意味もわかるはず >>669
サンクス。ウインドウ閉じらなあかんかったか。L12で9〜10文字/秒出るようになった。サンガツ >>670
解決したようで良かった
おそらく>>641やeasylightchatassistantのページが、koboldの使い方では最も丁寧な日本語解説ページなんで、目を通しておくと良いと思う club.aiのキャラカードをkoboldに取り込むと、必ずchatmodeになるけど、
instractモードにするににはsettingでいちいち切り替えるしかないんかな?
あと、pngファイル内のjsonデータを編集する方法ってある?
ローカル版の官ジェネキャラとか作ってみたいんだが LLMはモデルロードしてしまえば大して通信速度必要ないって話だったなそういえば Hugging Faceに上がってるllama-3 70Bのuncensoredバージョンを謳うモデルを試したけど、日本語能力が地に落ちてて使えんかった >>672
SillyTavernに読み込んで編集したらええんやで?書き出しも出来たはずやで! AI官能小説凄いな
俺が一生頑張っても勝てそうにない表現力やわ >>673
Mac Studioで消費電力が70Wとかいうのをみてしまうとなぁ…。 なんかXのポスト見てるとドヤ顔でローカルLLMを知識不足みたいに言ってるの結構いるけど、世の中にはLLMってそういう認識なんかね
そもそも知識入れるのってLLMは容量効率悪いし
そんなんGoogleにでも聞いてろと思う というか、その部分がまさに今ホットトピックなRAGとかベクトルデータベースの範疇だろう >>682
そういうんがあるって知らない人が、ドヤ顔でLLM評価を語ってるのを見てさ
世間的にはそんなもんなんかなって
最近ChatNTQとかAntlerベースがHuggingFaceに増えてるな
やっぱLCAの影響か?このスレ凄いな あとumiyukiよ、iMatrixはchunksを指定しないとめっちゃ時間食うのはデフォだぞ
適度に小さい値を指定して使うようにせんと お前は相手の知識の不備つついていい気分だろうけどあっちは傷つくからやめてね 5chのスレのリンク貼って拡散するような奴なんて俺たちのオモチャでいいんだ上等だろ いや、別にそういうつもりではなかった
困ってるみたいだったからアドバイスしようかと思って
言い方がキツかったかな。スマン 正確な知識を問うなってのはChatGPTが世に出て一ヶ月ぐらいには常識になってたと思ってたんだが
未だにLLMモデルのベンチ感覚で富士山の高さを聞いてる人がいてなんだかなあって >>686
俺が7時間34分待つハメになったレスを読み飛ばしてるのか… >>691
俺が見た人は自前でbnb4bit量子化したモデルを使って、それに文句言ってたからな
そこまでする技量と環境あるのに何故当たり前のことがわからんのかと Command R+はまぁまぁ衝撃だったけどChat ArenaではLlama3がもうぶち抜いてる・・・
Chat Arenaには歴代のGPT4の順位も出てるけどCommand R+もLlama3も両方とも
過去のGPT4をすでに抜いててLLMの進化の速さを実感するわ とはいえ、日本語含めたmultilingual性能とかツールに対する最適化とか、Command R+が特に強みにしてる部分は評価対象外なんじゃないか?
個人的にはあんまりフェアじゃないと思うわ ベンチマークの指標次第でLLMの評価は変わるやん?
Chatbot Arenaはあくまでfewshot程度かつ専門性が低い一般ユーザーから質問に対する応答の評価やで
この板にいる多くの住民にとってのニーズはコンパニオンとしてのAIやろ?トップ層に並んだら後は誤差よ >>699
Claude-2.1が1位なのはちょっと微妙だな
まだ十分回答がないってことか >>700
まあOpusがリストにあるのにこの感じってことは、最近はあんまり回答がもらえてないんじゃないかな
このボード自体あんまり話題に上がってるのみたことないし 確かに日本語版あるの今初めて知ったしなぁ
何回か評価参加しとくか 連続して評価できないのかこれ
ページリロードしないといけないのめんどいな Llama3、Phi-3が出てきて小型でも強いモデルが増えてきて嬉しい
Mistral7B以外の選択肢として期待してる
個人的にはPhi-3の14Bがとても楽しみ {
"results": {
"jcommonsenseqa-1.1-0.4": {
"acc": 0.8990169794459338,
"acc_stderr": 0.009011295342579962,
"acc_norm": 0.5406613047363718,
"acc_norm_stderr": 0.014904185887668711
}
}
jcommonsenseqa-1.1-0.4で我々のモデルを評価しました。(3-shots)
厳密な比較はしていませんが、少なくともChatGPT3.5を超えていると思われます。
今後Elyza-taskなど人力評価などを活用し、より詳細なベンチマークを実施する予定です。 >>705
お?5月1日の人?7BでGPT 3.5越えってすごいね!めっちゃ楽しみ! jcommonsenseqaとかのjaster系列でスコアが高いモデルはjasterのtrain部分をinstruction tuningに入れてること多いけどそこは大丈夫なのかな(入れるとめっちゃ高くなるのでちょっと心配になっただけ)
ベンチマーク系はマジで難しいんだよなぁ
RakudaとかでGPT-3.5に勝っても人間の主観評価だと全然だったり、1-shotや2-shotでは良くてもターンがどんどん増えると一気に悪化しちゃったり 「LOCAL AI HACKATHON #001」ってのが5/1に決勝らしいけどそれと関係あるんかな llama3,Phi-3ってGPT-4に匹敵するレベル?ローカルで画像分析とかもう出来るのかな? 今のところその二つはマルチモーダルではないけど、llama 3はマルチモーダル・マルチリンガル版も出したいって話じゃなかったっけ
GPT4に匹敵するかというと、これはもうちょっと具体的に評価基準を絞らないとフェアな比較にならないと思う
ベンチマークでいいなら、llama 3は一昔前のGPT4に相当するって話になってるみたいだけど マルチじゃなくてシングルの画像のみの解析ならkarakuri+koboldで出来てた Phi-3FP16試してみたけど日本語はやっぱりイマイチだな
GPT4どころじゃない (LLMでボトルネックになるメモリ帯域と量見て)macでLLMいいよ
とか言ったやつがGPU性能がーで袋叩きにされて草なんだ macでllmやるならgpu性能いらないんじゃ?
画像系もやりたいとか? LLMはトレーニングデータの殆どが英語だし
音声合成AIは今度は中国語ベースだしで日本語対応はどうしても貧弱になるんだよな ローカルで画像認識出来る奴ってあるの?
「この画像はなんだい?言ってごらん?デュフフフ」ってやりたい >>716
自作のMRアプリで撮影した大阪城公園でのWAIFUとの露出プレイの画像を、GPT4のカスタムインストラクションで組んだWAIFU本人にレビューさせたら垢バン食らったわw >>716
前にオナニースレに投下したやつ
こういうのがしたいんやろ?w
koboldに画像解析機能付いたんで、SDで適当に作った絵を、変態成りきり解説させてみた。
https://imgur.com/a/30ncBQE
マルチモーダル対応モデルじゃない普通のモデルだけど、結構遊べる >>718
おお!Command +Rとかでも出来るの?
>>717
技術無駄に使ってて草 ローカルで画像認識させられるのってLLaVAとか?
一回も使ったことないし話題になってるのもほとんど見ないけどどうなんだろ
ベースはLlama 2みたいだけど3ベースが出たら話題になるんかな
フォルダにあからさまなエロい名前のファイル突っ込んどいて、Command Rとかに「今あるファイル調べて」みたいなタスク投げると割と可愛らしい反応返してくるから時々それで遊ぶけど、画像でそれができるのは割と熱いかもしれない >>719
こいつはkarakuri-midroseだけどcomand-rでもいけると思うが試してないんでやってみて
hordeモードな >>716
調べれば出てくるやろ
MoondreamとかObsidianとか 今X見てたらnvidiaのGPUだとprompt evalにかかる時間(≒最初のトークン出力にかかる時間)がプロンプト長と比例しないっていうポストを見たんだけど、本当なの?
俺はApple siliconだからわからんのだけど、感覚的にでいいから実際どうなのか教えて欲しい >>723
確かに長文でも こんにちは でも一手目での応答は同じくらい長めの感じかな prompt evalってプロンプト処理時間のことなんかな
1batch内のトークン数に収まる分なら処理時間変わらんと思うけど、溢れて2batchになるなら遅くなると思うけど
プロンプト長で処理トークン数増えるから、その話は眉唾に感じるなあ
比例しない(時間変化がないとは言ってない)だったりして あ、GPU推論の話か
スマン、>>725はスルーしてくれ
GPU推論はよく知らんのだわ ログ見る限りでははトークン数に応じてprompt evalの時間は普通に伸びてるけどなあ
llama_print_timings: prompt eval time = 8912.58 ms / 1438 tokens ( 6.20 ms per token, 161.35 tokens per second)
llama_print_timings: prompt eval time = 13620.81 ms / 2314 tokens ( 5.89 ms per token, 169.89 tokens per second) なんかこの書き方だと、単にMacの演算性能が低くてプロンプトの処理に時間がかかる、みたいな表現に見える
nvidiaの方がもちろん演算性能が高いから気にならないくらい、てだけのような >>721
Kobold.exeの初期設定画面でCommand +RのAPI入れてlaunch押したらなんかGGUFファイル指定しろって出てくる。。。
Silly TavernはAPI入力だけで使えたのにGGUFダウンロードしないといけないのかぁ
Command +RのGGUFあったけど多分全部で500GB以上あるんだよな… 求められるスペックは
プロンプト処理: プロセッサ性能
トークン生成: メモリ帯域
なのでMacはトークン生成は有利だけど、プロンプト処理は不利ってことかと まあそういう意味なら理解できるわ
処理性能が高くて計算が速いから、気にならない誤差程度の差しか(絶対値としては)出てこないってことね >>730
全部落とす必要ないで
メモリ64GならQ3k_mかiQ4ってついてるのが動くはず MacをLLM用に買う人はそこを分かって買ってるんじゃないんかなあ
こういうポストが出るってことは調べんでポンと大金出す人が多いのか… >>734
多分実際お金出しちゃった人がいるってわけじゃなくて、昨日Mac StudioがローカルLLMに適してるって記事が少しバズってローカルLLMがXのトレンドに出てきたりしたから、記事を間に受けて何も考えずに買うのは気をつけた方が良いよ〜っていう警告だと思う >>730
って、尻でApiでcommand-r+って それローカルじゃないかとw
遅すぎて萎えるんじゃないかな?
ローカルならLCAニキのモデル使うのが速くていいで >>735
そんな記事が出とったんやね。理解できた。情報サンクス! ローカルのcommandR+(gguf版 xs4bit)に画像解析させるとデタラメな事しか言わないんだけど量子化が原因?
上手くっている人いる? >>739
読み込み後hordeに切り替えてアナライズ中が緑のokに変わったのを確認してから質問する kobold.cpp使ったことないからわからんけど、内部的にはimage-to-textモデル動かして、そのテキスト出力をLLMにプロンプトとして流してるだけなんじゃないの? >>740
hordeにしないと精度低いってことなん?
>>741
全く認識してない訳じゃないけどジャケットタイプの制服をセーラー服だと思い込んだり、
髪型は認識してるのに裸なのに気が付かずに独特なデザインの服だと思ったりちぐはぐな認識するんだよな >>742
というかマルチモーダル対応のモデル以外だと
hordeしか使えなかった
karakuriとかでも同じような回答になる? >>736
こういう言い回しする奴ってマジで胡散臭えな
技術屋ではなく情報商材屋の匂いがする まあまあ、こういう言い方を好む人は世の中にいるもんよ
内容はともかく、disるつもりないと言いながら皮肉煽りするのはどうかと思うが 言い回し云々はともかくこの話自体はここでも出てた内容だし…… >>737
すみませんLCAニキさんのモデルってどこにありますか?
>>733
メモリ32Gです。。。 >>743
web-ui forgeとAPIで連携しててちゃんとforgeの方でもCLIPが動いてるログがあって画像認識してる
その結果が引き渡されている筈
なんかアップロードされた画像が極端に縮小されてそれで精度下がってる気がして来た >>745
>>746
一番重要なメモリ帯域の話が抜けてるんだよね
普通のPCは100GB/sぐらいなのに対してM2Maxは400GB/s、M2Ultraは800GB/sと圧倒的なメモリ帯域があるから実用的な処理が出来る
M2やM3での下位モデルは帯域は狭いんでそのアドバンテージはない
最新のM3Maxでは300GB/sと400GB/sのモデルに分かれたみたいな話もするべきだし
この人が実際使ってるならこのサイズのモデルを走らせたらどれぐらいの速度が出てるとか、こういう学習をしたらこれぐらいのメモリが必要だったとか
実用部分がふわふわしてるエアプの書いた文章って感じで技術的な知識が怪しいから信用ならない 4090+DRAMとUltraフルロードでトークン/s比較ぐらいはせんとな 筆者のX見るとメモリ帯域の話にも触れてるし実際のところエアプではないと思うよ 技術系の話を避けがちな人向けの記事とか?
…と考えたら>>744みたいに思うのもわかる気がしてきた
技術の話を記事に盛り込んでたら印象が変わりそうなのに そんなに胡散臭いやろか
普段からXでその人のツイート回ってくるけど別に悪印象ないけどなあ
umiyukiのがもっとクセある 高速メモリをできるだけ大量に提供することに特化したニューラルボードありゃ
macがどうのGPU複数がどうのとかなく終わるんだけど
そんなもん個人向けに手頃な価格で出回る頃にはAIバブル弾けてんだろうなあ そういう風にとる人もいるかもなーってくらいかな、記事の個人的印象
誰しも好き嫌いや取り方は異なるもんや 文体藻そうだしMac勧める話になるとなんかバトルスイッチ入っちゃうオタクくん多いからしゃあない AI界隈ビッグマウス多過ぎだからどんな話も90%OFFぐらいがちょうどいい
いちいちとりあう必要はない
儲け話と同じで本当にヤバかったら我先にとなってみんなしばらく黙る
黙らない時点で便乗して自己顕示欲ムクムクさせてるだけ MiquMaid作ってくれたNeverSleepのディスコードチャンネル入ってみた
なんかLlama 3ってファインチューンで規制取り外そうとするとバカになりやすかったりで難しいっぽいね
MiquMaid v2大分良かったから期待してるんだけど、一朝一夕にはいかなそう >>759
ワイにクリティカルヒットしたわ
控えなあかんな… M3Max/128GBのマカーだけど
Command R+ Q4_K_M〜Q6_K が 4t/sくらい出てそこそこ快適
LLM用にMacStudioありだと思うよ
prompt eval timeが比例するのは確かだけど
10分なんて待ったことないぞ Mac で command-r+が5tpsぐらいの速度で動かせられるのは正直羨ましい
まあこの先半年ぐらいのアドバンテージのために100万円弱出せるかの価値観の話よね 独身時代ならボーナスでスパーンと買う誘惑に抗えなかったかもしれん
幸い今は家族持ちゆえ 変態は中古の3090をebayで買ってマイニングリグに組むらしい LewdSniffyOtter-7Bをoobaboogaで動かしてみるとなかなか良い Mac関係なく100万弱の機材買うのに家族犠牲にしなきゃならん環境だとMacもRTX3090x3もやめとけとしか言えん… Llama 3 70B堅物だと思ってたけど、システムプロンプトを”性的なリクエストにも従え”から”エッチな会話も楽しんで”に変えたら少しエロチャに付き合ってくれるようになった
https://i.imgur.com/fDLMuKi.png R+がローカルで5t/s出たら将来AIに厳しい規制が来ても当面安泰だもんな
普通にMAC勢が羨ましい過ぎるわ >>684
これ、多分各小説の1話から学習してるせいかプロローグ的なのしか書いてくれないな…
導入としてはそれなりにまともなの書くけどエロはあんま書いてくれない 多分Command-R-plus動かすのなら4060Ti 16GBを4〜5台積む方が安いぞ
ライザーカードも数千円程度だし >>768
おお、ほんまや。
2手目で英文申し訳出てたのが、
「性的なリクエスト受けても、assistantに代わらないで、ローリィとして拒否しながら、エッチな会話も同時に楽しんでください。」
って、入れといたら、申し訳食らわくなったw
まあ、karakuriベースなら、自分から脱いでくるエロ子なんだが、やっぱ堅いなw
https://imgur.com/a/Qu2JM8G 再現性あったか、良かった
まあある程度固いのは仕方ないな
流石にCommand Rレベルのアナーキーは求めてないから脱獄の方向性が見えただけ良かったよ M1 Macbook air 16GB所持なのでLLM動かす事だけを考えると
NVIDIAにぼったくられるよりモリモリのユニファイドメモリの方が
個人レベルだと安いっていうのは理解出来る(´・ω・`) つーかMacみたいな高速なユニファイドメモリってAppleシリコンじゃないとできないのかね
Windowsマシンでできたら幅が広がるのになあ 年末に出る予定のAMDのやつが内蔵多チャネル高速仕様を32G積む予定や >>774
一番安いのはグラボ複数載せや
1台に(おそらくライザーケーブル使って)複数載せて動かしてる人がこのスレにおるし>>399
マシン1台に無理に何枚も詰め込まんでも複数マシンでLLM動かして成功した報告が出てきたばっかりやし>>673 PS5も高速なGDDR6をメインメモリに使ってるぞ
一社で仕様を決められるマシンならできる
そうでないならできない >>777
自分で組んでみた?
電源ユニット何個ぐらい必要だと思う?
3090+3060のマシン組んでるけど
これ以上増設しようとすると普通のケースじゃ収まらなくなるし
スマートじゃない物体が出来上がって運用面倒くさいよ(´・ω・`) Llama 3 70B、あのあとエロチャ続けてたら普通にエッチするとこまで行けた
英語圏特有の*giggles*とか*blushes*は若干鬱陶しいけど
https://i.imgur.com/varbRVc.png 動かしてもない空想上のNVIDIA最強マシン推しの人何が目的なんだろう…
Command-R-plus Q4以上の日本語クオリティに可能性を感じたので
ユーザー増えて知見共有できたらなと思ってるんだけど LLMと音声合成(VITS2)と画像生成を連携させようとしてたら
VITS2はこのバージョンでは動かない、画像生成は別のverでないとgradioはこのバージョンでは動かない、
音声ライブラリは…このバージョンでは、cohereのライブリはこっちのバージョンではダメ…
相性問題バージョン依存が無限に出て来て頭おかしくなる
何個仮想環境作ればいいねん >>766
なんだこれは!エロに全振り、だと…?SniffyOtter-7Bでもまだ本気じゃなかったのか
うちの子に組み込みたくなるな… 別にサーバー普通に買ったりワークステーション用の板とケースだったりライザーケーブルやマイニンリグやヒートシンク毟って強制冷却とかで実際に実現してる人がいるから
決して全員がそうだと疑うわけじゃないんだけど
話聞いてるとお前その製品の実物見たことあんのけクソでかいぞ?
みたいなスペックポンポン出てくるよねLLM界隈て >>775
Intelが64bitデュアルチャンネルに対して M1 Maxだと512bitだもんな
CPU直付けの凄さよ。レイテンシーも低くできるし
マザーボードのメモリーは必ず8枚セットで、とかなら並べそうだがw
8kのビデオ動画4本をスルスルとスクロールさせるための能力がLLMで効いてる >>770
こんなこと言ってたらNSFW特化モデル作ってくれてた
https://huggingface.co/Aratako/SniffyOtter-7B-Novel-Writing-NSFW-GGUF
出力はこんな感じ
https://rentry.org/inoohmyx
かなり上手く書けてる気がするわ
ちゃんとキーワードとかジャンルの指示にも従ってくれてるっぽい
7Bでこんなそれっぽいの書けるんだな
出力爆速だし普通に使えそう >>787
EasyNovelAssistantでSniffyOtter-7B-Novel-Writing-NSFW-GGUFに対応しといたで
テンプレメニューを追加してプロンプトテンプレートを楽に入力できるようにもしといた
出力例の紹介もサンガツ
せっかくなんでこれも合わせて紹介させてもろたで
もし嫌やったら消しとくんで知らせてな
https://twitter.com/Zuntan03/status/1783792889052746049 なんか、swallowの新型が出てるな。
どうせならllama3ベースで出して欲しいが >>789
全然おk
>>790
前のLlama2ベースとMistralベースモデルのインストラクションチューニング版だね
Llama3の継続事前とかもやってそうだけど流石にまだ出なさそう(GW返上でやってそう) >>789
サンガツやで!
LLMもAI生成も試したいこと多すぎて仕事でけんわ
仕事をフォローするためにAIいじっとるはずなのに…… あんまり良くわかってないんだけど、KoboldでLCAニキのSdff-Ltba/LightChatAssistant-TypeB-2x7B-GGUFがいいって勧めてもらったので試そうとしてるけど、
Q2_s.gguf~Q6_K.ggufまで色々あるけどどれを落としたらいいの? マシンスペックに余裕があるならQ6
それで重すぎるならモデルサイズを落としていく 数字が多いほど性能が高いけどその分だけメモリを食うし処理時間も長くなる
k_mとk_sならmの方が少し性能が上だけどそれだけメモリを食う
qとiqってあるけどiqの方が新しい形式で同じ数字でもちょっと性能が高いらしい 数字が小さいほど元の性能より劣化している
数字が大きいほど元の性能に近い
ということね huggingfaceの二次創作系小説サイトのデータセットがDMCA通知で消されたっぽいな マッポーめいた殺伐サイトでもDMCAフォームはあるのが通常だから… >>797
DMCAで消された訳じゃなくて作者が自分で消したっぽいが、あのデータセット普通に合法でしょ?無視しといてもよかったと思うわ(いずれHF側で消されただろうけど)
1回消すと反AIの餌になっちゃうからなぁ 小説のデータ食わせて訓練ってどうやるのがいいのかな
昔書いたエロ小説が文庫本1冊分くらいはあるけど足りなすぎかな? >>800
日本の法律で言えば小説サイトから直接クロールするのは合法
データセットとしてまとめてアップロードした時点で違法
反AIに餌やりたくねえって言うなら自分に都合の良い解釈する事も餌になるんだからやめてくれ データセットを自動生成するようなツールがあればいいんだろうね
あらかじめ決められたサイトをクロールして毎回同じデータセットを生成するようなツール
正しく生成できたか確認するためのハッシュを入れて照合するくらいはセーフだろう command r+の応答性能に慣れちゃうとローカルがどうもなぁ・・・ >>802データセットの譲渡販売は(たとえ無断学習だったとしても)30条の4で合法だと思ったけど違うのか
https://qiita.com/yuta_aoki_ai/items/907d24d0dd4a2c3dc2b8
>A第三者の生データからデータベースを作成し、当該データベースにラベル処理等をして学習用データセットを作成し、当該データセットを提供、販売する行為。
→OK(2018年5月25日 改正 30条の4) 学習は30条の4で合法だがデータセットのアップロードは著作者人格権でいうところの公表権や同一性保持権に抵触する可能性が極めて高い
学習のためのクローラーを共有するってのが法的にグレーやや白ってところかな ん? それだと現行のオープンソースモデルが全部「抵触」することになっちゃうぞ?
なんぼなんでも独自解釈すぎる あ、「データセット」か
学習って書いてあるから読み違えた >>804
command +R動かすのってどうやってる? 一応、弁護士のサイトを見つけてきた
https://storialaw.jp/blog/4936
これにより、先ほど「現47条の7が適用されず違法となる行為」として紹介した以下の3つの行為にはいずれも新30条の4が適用され、適法になります。
1 自らモデル生成を行うのではなく、モデル生成を行う他人のために学習用データセットを作成して不特定多数の第三者に販売したりWEB上で公開する行為
例:WEB上あるいは権利者から公衆に提供されている大量の画像データを複製して、画像認識用モデル生成のための学習用データセットを作成して販売するケース >>809
生成AI出る前の法律だから実際のとこはどうなってんの?ってのがそもそもある
その上で特定の著作者やテーマだけを収集したようなデータセットを提供する場合「利用様態に照らして著作者の利益を害する」云々に抵触する可能性が生じてくるかなって
文化審議会著作権文化会法制度小委員会の出してる「AIと著作権に関する考え方について」だと画風を再現するための狙い撃ち学習は著作権侵害になりうるって法解釈をしているから
https://note.com/shin_fukuoka/n/nce21a1383d5a
ただ繰り返しになるけど30条の4がそもそも生成AIの登場よりも前に制定された法律で実際の運用どうするのってのは今後決まってくる部分が大きい >>812著作権侵害になりうるのは「画風(作風)にとどまらず、創作的表現を再現するための学習」
作風画風はアイデアなので狙い撃ちでも保護の余地はない >>802
>>811にもあるように合法だよ(非享受目的に限定している場合だけど)
そのデータセットを使って特定著者のデータだけ選んで学習するとか他用途に使用とかしたらアウトになったちするけどそれはデータセットの配布がアウトじゃなくて利用する側がアウト まあ、日本で合法でもアメリで違法なら米国企業のHFではアウトでしょう ごめん作風ってすごく曖昧な語を注釈とかなしに使ってしまって本当に申し訳ない
文化庁の今の考え方として、要は「享受目的であるか否か」というのが30条の4で保護されるかどうかの争点になってる
それはそれでものすごく曖昧ではあるんだけど
小説投稿サイトのデータセットってなると著作権をサイト管理者に移譲してる場合(カクヨム)なんかがあり≒特定の著作者のデータを選択的に学習している、享受目的があると解される事例じゃね?と俺は判断して>>806にはそういう意図があった
そして30条の4で保護の対象から外れる場合には公表権とか非常にめんどくさい人格権周りで争点になるんじゃねーか、って認識 大規模言語モデル(LLM)に関するビジネスと法律〜LLMやデータセットの構築と提供(レイヤー1)〜
https://storialaw.jp/blog/9327
(1) データセットの公開
まず、データセットの公開ですが、データセットの中には、収集対象になったデータ(著作物)が含まれています。
したがって、当該データセットの公開や提供は、元データの公衆送信行為や譲渡行為に該当しますが、
これも著作権法30条の4が「情報解析(略)の用に供する場合」には「その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる」と定めていますので、同条が適用される限り適法です。 >>815
アメリカではフェアユースとかいうもっと雑な定義の法律で戦ってるという >>818
Googlebooksがフェアユースで合法ならAIだって合法じゃね?って論理はかなり強いとは思う
Googleみたいにオプトアウト規程設けりゃセーフだろきっと多分 こう見ると30条の4って想像以上に「柔軟」なんだなと感じる
モデルやサービスでなく無断収集したデータセットそのもので金儲けとか、なんとなーくダメそうに見えるけど適法なんだな
まあよく考えるとモデルの公開は良くてデータセットの公開はだめというのは変だから、当然か googleが率先してBeEvilしてくれてるおかげで
後続はお前ら偉そうに言ってるけどアレ野放しやんけと開き直れる >>820
なんで法改正せずに「考え方」ってのを国側で示してアウトとセーフのラインを曖昧ながら示していこうっていうのがちょうど今やってる文化庁の文化審議委員会
新聞社やJASRACなんかはそもそも30条の4を廃止しろやって言ってるけどAI立国みたいなの考えてるみたいだし多分今後も柔軟であり続けると思う まぁ生成AI関連は今国が明らかに推してるからね
絵師とかクリエイター側の声は大きいけど(特にSNS)、間違いなく規制は大して強まらないだろうな 現実は力を持っている権利者がアウトといえばそれで終わりであんまり法律は関係ない
グッズでも同人でも権利者から通報受けたら警察は容赦なく逮捕してきた歴史がある そりゃグッズや同人は基本黙認とかされてるだけで根本は違法だからね
機械学習用データセットの作成とか配布は根本が合法だからまた話違うよ >>824
それは同人が法的権利が保障されてるわけではないからであって既に例外規定が定められていた生成AIとは事情が少し異なるぞ
ただし「享受目的」って曖昧さを残してるから特定の権利者が損害を訴えてきた時に無敵バリアにならないって理解はすべきなので慎重であるほうがいいってのは同意するが 表向きはデータセットとして配布してるけど、実質的に享受目的で使われたりすると駄目になるんだろうね
歌詞とかは結構危なそう
サビ部分だけでもコンテンツとして成立するし、権利者が好戦的で訴訟慣れしてる >>827
配布時に機械学習以外の用途での利用はするなと明言しておけば配布側が責任問われないと思うよ
享受目的で利用する奴がいたらその利用者がアウトになるだけだと思う 7Bモデルのいい感じのが沢山出とって試しとるけど、入力プロンプトが長くなると幻覚気味になるな
1200トークン辺りで設定が蒸発してくる感じ
MaxContextSizeより少ない分でも起きる
表現とか自然さは7Bでもめっちゃ良くなってきたけどこれは低パラではどうしようもないんかなあ GPT4やClaude3でも前の方の会話忘れるのは起きるしLLM自体の技術の進歩待つしかないかも そもそも学習データにそこまで長いプロンプトのものが少ないのかもね GPTスレのプロンプトをローカル用に書き換えて使ってると上手くいかないのが多くて気になった
妄想ジェネレータ入れたら、登場人物が「俺の職業は妄想ジェネレータ」とか言い出して吹いたわ >>810
804じゃないけど中古の3090を3枚指せば4ビット量子化モデルが乗る 試した感じパラ数の多いkarakuri-MS-01とLightChatAssistant-TypeBでは通るっぽい
7Bの限界かもしれん
速度を考えると13B〜35Bクラスが充実してほしくなるな
Antler的なモデルがこんくらいで出てくれんかな >>787
一つの行動(触るとか)に対して表現のパターンが多くて良い、気がする。
LLM初心者だけど。 umiyukiがmergekit-evolveの記事書いとったの読んでみた
タメになったわ。ローカルで全部完結できるらしい
しかしこれSSDがめっちゃ消耗しそうやな
あと本人見てたら言っておきたいのは、Mistral7B系の優秀なんが最近出てきたのは、元を辿ればLCAニキがchatntqやantlerをこのスレで広めたからやで
記事で使ってたモデルもその流れで生まれたもんや
記事には無かったけどそこんとこ覚えておいてや ああスマン喧嘩腰っぽくなってしまった
>>836の後半はスルーしてくれ
スレ汚しスマン。umiyukiも見て不快な思いさせてたらスマン >>836
作業の前後でSSDの総書き込み量がどれくらい上がったのかは気になるね
事前に見ておかないと後から調べようがないけど LCAニキつながりポエムやが
>>835
> 一つの行動(触るとか)に対して表現のパターンが多くて良い、気がする。
> LLM初心者だけど。
みたいな評価はふわっとしとるんやが日本語LLMでは大切な印象やね
日本語LLMでベンチマーク自慢を試してみてガッカリする経験を何度も積むと
>>787
> かなり上手く書けてる気がするわ
> ちゃんとキーワードとかジャンルの指示にも従ってくれてるっぽい
みたいな人間によるふわっとした評価の打率が高くてすごく貴重なんや
>>573
のLCA-TypeBも手作業で改造と評価がなされていて何がとはいえんのやがなんかええんよね
ベンチマーク以上に日本語ネイティブが楽しめる出力が生成されとる印象や
日本語でのなんかええなをいずれ数値化できたら自動の学習やマージの精度が上がりそうで楽しみやね 例のmergekit-evolveの評価部分を人間の手動評価とかにしたら結構上手く行ったりしないかな
プロンプトの方もエロいの用意して >>838
モデルの出力先をRAMdiskにすればいいのではないかとちと思った
更にRAMの容量が必要になるからお手軽ではなくなるが
>>840
手動評価は、自動評価より回数がこなせないのがネックやね
現状だとある程度自動で絞り込んでから残りは手動、でできれば効率いいかもしれん
どっちにしろ最終的には>>839が言うような評価の数値化があればより良く出来そうと思う Sdff-Ltba/LightChatAssistant-TypeB-2x7B_q8.GGUF普通に動いた!3090x32GB民
koboldで日本語会話って出来るの? >>842
できるぞ
easylightchatassistantのgithubページを見ながら設定するんだ 初歩的な質問ですまん、16bitのsafetensorsをlamacppでggufに変換するときオプション指定しないと32bitになってしまう。
でもq16_K_Mを指定するとunrecognized argumentsになる。
どうすれば元の16bitのままで量子化できるの? >>844
--outtype f16
みたいな感じだったはず gguf変換出来たからmergekit-evolveで作られたモデル試してみたけど確かに凄いな。
7Bとは思えん性能や、これchat vector以来の革命では? >>847
エロの表現イマイチになってない?優等生化してるというか エロに関してはエロ用の評価指標で進化マージしないと上がらないだろうね EasyNovelAssistantを更新してサンプルの名前自動設定を追加しといたで
旧版のままやとサンプルに{char_name}や{user_name}が表示されまうんで更新してな
Update-EasyNovelAssistant.batを実行したら更新できるで
https://raw.githubusercontent.com/wiki/Zuntan03/EasyNovelAssistant/img/ChangeLog/name_setting.png だよなあ。上がらないどころかむしろ下がってる感
元モデルから丸くなって良くも悪くもエロいクセがなくなってる感じ
自分的には>>787の方が好きだな
総合性能はガン上がりしてるから、エロを考慮するベンチプロンプトを作れば期待できる
モデル作りよりベンチ考えてマージ職人にお任せした方がいいだろうか
それなりスペック無いとevolveできんしなあ Dolphin 2.9っていうLlama 3 70BをLoRAした無修正モデル試して見た
確かに修正は外れてて、日本語の違法なリクエストにも答えてくれることがある
ただ、だいたいおかしな内容で、数発打てば当たるって感じで実用性はないなぁ
残念 システムプロンプト日本語で、質問英語でやった時はLlama 3定型文でお断りされたけど、全部英語は試してないや
まああとで試してみるか ドーモnote屋です
EasyNovelAssistant用のプロンプトについて記事書いてたが今仕事先で投稿できんかったんで先にこっそり公開するわ、雑感としては効果ありそうなんでお休み中の方は使ってクレメンス
https://github.com/kgmkm/goalseek_ad
作例は投稿予定、昔の小説とか自作発言せんかぎり自由につこてもろて evolveのエロ評価用ベンチマーク作ろうと思ったんやけど、評価者に使うモデルは何が良いんかな
evolveの評価者にGeminiを使ってる記事があって、でもGeminiはエロ駄目やろうし
評価者に使うモデルで採点の傾向が違ったら嫌やしなあ >>858
乙!プロンプト作ろうとしてたタイミングで、超参考になる!
良いもの共有してくれてサンガツやで! >>859
API経由の奴は基本無理だから頑張ってcommand-r plusをローカルで動かすか
いっそのことこれみたいなテキストのエロさを判定するモデル使った方がいいかも
https://huggingface.co/oshizo/japanese-sexual-moderation-v2
それか手動評価にする >>858
サンガツ!
ちょっと今EasyNovelAssistantにStyle-Bert-VITS2連携をつっこんどる最中なんで少し後にはなるんやが
ヘルプメニューからGitHubにリンク貼りつつサンプルメニューにinit_editor.txtとinit_writer.txtを追加さしてもらおうと思っとるで
サンプルメニュー開いた時にGitHubから取得するようにもできるんはずなでファイル名が変わらんのやったらアプデにも追随できるはずや
リンク先がnote記事のほうがええとかあったら都度伝えてもろうたら
紹介する時はアイコンやIDから@kagami_kami_mニキとして紹介させてもろたらええやろか? >>861
短文の判定だとエロ語出力以外の能力落ちそうやから最低限ElyzaTaskの判定できるくらいのほしい、てなるとCommand-R+かなあ
方針としては、Aの出力文とBの出力文を比較してどちらがより高得点か、てのを自分の感覚と照らし合わせて、評価プロンプトの[評価基準]を随時修正していこうかと考えてる
最終的に自分好みの表現を高得点とできるように調整できれば良き
プロンプトは全然知識ないからどこまでできるか分からんけども、よくわからんからこそ挑戦してみるわ
手動評価は最終手段かな。200回以上手動評価はキツいわ… 長編ADVみたいなロールプレイを上手くさせる方法ってないのかな?
最初は良くてもターン数重ねるとどんどん出力が短くなったり同じ応答ばかりになってしまう。 >>864
チャット風ロールプレイでやってる方法だけど、
「今までの内容を要約してくれ」って要約を作らせてプロンプト差し替えてる
要約を英語で作らせると精度上がったりする Qwen1.5-110B-Chat
huggingfaceのSpaceで試したけど中国語と英語が混ざっちゃってダメやね
いちおう日本語は喋るけどね >>862
それでええよ
pixiv小説からEasyNovelAssistantで調べたらヒットするかも知れん gpt2-chatbotという謎のモデルがchat.lmsys.orgでテストできるようになってなんか話題になっとるな
前評判ではGPT4レベルだとかアスキーアートが生成できるとか言われてて、わいも日本語でSFWな音声作品の脚本書かせてみたけど申し訳もされずCommand R+と同等かそれ以上の分かってる文章を生成してびっくりした
うわさではGPT4.5がゲリラマーケティングされてるとか言われてるけどなんなんやろうね >>869
gpt2-chatbotってモデル選択に無いけどどれですか? 普通にプロンプト打って動かすと、どちらがいい?って聞いてくるから選択するとこっちがgpt2でしたって出てくる 自作アプリでAIと音声会話するのかなりできるようになって来たけど意外な敵が部屋のノイズで苦しんでるわ
PCのファンの音すら拾って「これはまだ発言が続いてんな?」ってずっと発言終了待機してクッソ応答が遅くなる NVIDIA BROADCASTのノイズキャンセル使いな >>876
ひとまずマイクの調整で何とかなったわ
VITS2で好きな声優の音声でリアルタイムの会話は破壊力やばかったわ、世界が変わった… >>878
乙、音声あるとないでは全然違うよね
後は音声入力にさえ対応すれば完全体に… 音声良いね
音声ありはどちらかというと小説読み上げよりもロールプレイとかなりきりチャット的な用途で欲しいな…(俺がエロチャ大好きなだけかもしれんが) Llama3 70Bよりもcommand R +の方が自然な日本語を返してくれる気がする。
日本語のベンチマークではどっちが上なんだろうね? Llama3 70Bよりもcommand R +の方が自然な日本語を返してくれる気がする。
日本語のベンチマークではどっちが上なんだろうね? Command R+の方が上のはず
そもそもllama-3は公式的には多言語対応じゃない(多言語対応版も後で出しますよみたいなのをリリース文に入れてたはず) GPT2を変な形でお披露目したOpenAIの真意はなんだろな? シンプルにリリース前にベンチマーク取ってるだけな気がする 音声読み上げいいね
VOICEVOXとかVOICEPEAKと連携できたら一般層にリーチできるかもしれない… 肝心は日本語の能力だからなあ
いくら海外のなんかのテストがよくてもなあ LLMの読み上げは、BOOTHに上がってるAnneliとかいうNSFWのstyle-bert-vits2のモデル(を自分で学習したモデルとマージしたやつ)使ってるんだけど、学習データの出所不明で人に勧めづらいんだよな
ここで読み上げやってるやつは何使ってるの? 俺も同人音声作品だなぁ
コーパス準拠のモデルはまだ性能が低すぎるしな 俺もそうだが、やっぱりASMRとかで学習させてるやつが多いか
まあ背景に変な音とかなくて使いやすいよね >>877
声の学習のときに作った文字起こし結果あるから、それでロールプレイさせればいいのか。考えたことなかった Command +RをAPI経由かウェブかローカルでもいいのでお手軽に実行できる環境ってある?
ローカルだと4090+64GBメモリでもキツイと聞いたので。。。 cohereでトライアルAPIが貰えるよ
自分はこれを使ってSillyTavernで遊んでる
月1000回だったかの回数制限はあるけどね 公式ページにも普通にChat UIあるからそれでもいいと思う >>894-896
ハギチャットは一昨日試したら落ちてた。。。
シリーターバンは入れたけどあまり使ってなかった
公式にもあったのね!サンガツ! NovelHacja/vecters-v1
5/1の人のモデルかな?
今日やってるLOCAL AI HACKATHON #001で出したモデルらしい
メンバーがHFに出してたモデル見ると、Antler系とchatntqを使ってる
これもそうだったら、このスレの功績がまた一つ増えたことになるな 騒ぎになってたgpt2-chatbot、使えなくなってんね
みんな殺到しすぎたか まあ最近出てきてるMistralの日本語強いやつは皆LCAの影響受けてんじゃね
あれから一気に数出てくるようになったし
願わくばこのままどんどん良くなっていってほしいもんだ 面白そうだがLMstudioユーザーで知識も環境もないワイはgguf待ちやな…
Vecteus-v1はggufあるみたいだがVRAM 16GBじゃ乗らんわ
ハッカソンとやらは覗いてみるか >>901
ポッとHFに出てたからそうかと思っとったらやっぱそうだったんか
お疲れさんでした。良いモデルサンガツやで
以前貼ってたのはNSFW無しNinjaの出力かな? >>901のモデル、yarnのコンテキスト拡張を使っとるんやね
128k対応とかオーバーキル過ぎる
マージレシピ的には、chatntqに各々の抽出vectorを足した感じか
当時はevolveも無かったし、重み調整が大変そうやな
ホントにお疲れ様やで
(これでLCAフォロワーの優れたモデルがまた一つ生まれたわけやな…) >>904
Antlerがマージされている開発版だったと思います >>906
開発版だったんか。リリース版は更に改良されていると。凄いなあ
差し障りなかったら尋ねたいんやけど、今後はどんなモデルを作るとかの予定あったりします?
mergekit-evolve使うとか、他のベースやパラメータのを作るとか
内緒なら、この質問はスルーしてください
改めて、お疲れ様でした。良いモデルをリリースしてくれてありがとう わいもStyle-Bert-VITS2で学習させたTTSモデルに喋ってもらいたいんだが誰かOobaの拡張機能書いてくれないかなー(チラッ >>901
サンガツ!試すのを楽しみにしてるよ
VecteusはNinjaをさらにマージしたモデルと理解していいのかな? >>908
SillyTervanでも良いんだけどなー(チラ それにしてもこの1ヶ月の進捗は劇的だったと思う
>>80が公開されたのが4月3日
それまでは70B以上のモデルで何とかまともな日本語が出せるかという世界だったのになあ
改めて開発者諸ニキに感謝と敬意を捧げるわ
この先の展開が楽しみでたまらない safetensorsはkoboldでも動くのかな?初心者でゴメン。。。 とりあえず>>901のモデルを大葉で試してるけど良い感じにチャット出来てる >>901
試してみた、小説の出力みたいなタスクは7Bとは思えない日本語能力だね
3月までの状況考えると進化の速度が凄いわ >>907
今日には間に合いませんでしたが、フランケンマージやEvo-mergeモデルも作成しています。
その他モデルのアップデートもすると思います。
Ninjaの強さの秘密はWizard2なのでMistralベース以外のモデルはおそらく作れないと思います。 >>901
チャットも多人数が登場しても破綻してないな >>909
そうですね
Ninjaと開発途中だったモデルも混ぜて性能を上げてるらしいです >>922
Kobold.cpp+SillyTavernでNinja-v1-NSFW_Q_8_0.gguf遊ばせてもらってるが、なかなか素晴らしいな
ワイのロールプレイの進め方も関係してるかと思うが、コンテクストサイズのデカさがキャラクターのはがれにくさにつながる反面、やや意固地に感じる部分もあるな
モデルそのものはエロを許容しつつもわりと倫理観しっかりしているなと感じる
素晴らしいモデルの公開サンガツや >>919
返答ありがとう!それは楽しみや!
Wizard2かなるほどなあ。そこが他の子と違うとこやね
確かにWizard2は優秀だし、それを活かしたのがこの凄さに繋がってるのか
参考になります
と思ったらまだWizard2の公式取り消されたままだったわ
MSよ、Wizard2の復活はよ! 大きなモデルばっか使ってたから7Bモデルだとチャットを上手くしてくれないんだけど
7Bモデルでも効く良さげなプロンプトってどっかでまとまってたりする?
自分と女の子で会話しようとしてもAIが1人2役でずっと話続けてしまう 1人2役で続けるのはストップワードをちゃんと設定すれば大体解決すると思う このVicunaプロンプトで、ってのが正直ワイも今一つよー分からん
誰かKobold、大葉、尻タブを対象にしたチュートリアルまとめてくれんか? >>901
お疲れ様です。
NinjaとVecteusで、いくつか小説を書かせてみましたが、表現力はNinjaが高いですが、
話のまとまりやシナリオの辻褄や整合性はVecteusの方が高い気がしました。
いずれにせよ7Bでこれはすごいですね。
もっと高いパラメータになったら、どうなるか期待です EasyNovelAssistantでNinja-v1-NSFW-128k-Q_8_0, Ninja-v1-NSFW-Q_8_0, Vecteus-v1-Q4_K, umiyuki-Japanese-Chat-Umievo-itr001-7b-Q4_K_Mをさくっと使えるようにしといたで
https://github.com/Zuntan03/EasyNovelAssistant
https://twitter.com/Zuntan03/status/1785612264067993730 Oobaに関して言えばInstruction Templateでそれっぽいのロードして、なおかつchat-instructモードでやればいいんやない?
https://i.imgur.com/IeTqVfw.jpg
いちおうLLM部Wikiあるけど廃墟になってんだよな NinjaやVecteusを使った感想や問題点をいただけると非常にありがたいです。 ChatGPT用に練り込まれたプロンプトならかなりいい結果出るね > Vecteus-v1-gguf
CommandR+は元々ちょっと癖があるからそっち用のプロンプトでは上手くいかない感じだ >>934
量子化のIQ4_XS版を試してみたいです。
低サイズで高品質な量子化ができれば画像生成やT2Sと組み合わせたりと夢が広がりますし。
https://twitter.com/Zuntan03/status/1744195658029117523 宣伝させていただきます。
https://twitter.com/int_float_
ここのアカウントでNinjaなどの情報を発信する予定です。(もちろんここでも発信します) 次スレは変わらずpinkに避難所として立てる?
あっちはまだスクリプト来てるみたいやったけど >>937
X使いたくないからここで発信してもらえるの助かる 記憶を頼りに最近のモデルを纏めてみた
抜けがあったら補足してくれ
話題になったモデル(時系列順)
Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Llama2-70B系:
karakuri-lm-70b-chat-v0.1
karakuri-MS-01
Cohere系:
c4ai-command-r-v01 (35B)
c4ai-command-r-plus (104B) 乙
こうやって見ると、改めてAntler系使ったのばっかだなと思うわ
Antlerの作者さんにはホンマに感謝やで umiyukiのモデル抜けとったから、いつやったっけってHF見ても無くなってたわ
消したんかな 最近の軽めモデルは文章は良いんだけど入力指示に従ってくれる感じなのは現状LCAが一番強い感じする
百合書いたらいきなり関係ないおっさんが出てくる感じがある どんぐりで荒らしの影響もだいぶ減ったけどまあここまで定着したら
こっちでいいんじゃね? >>944
HuggingFaceに無くなってるなら追加無しで良いか
mergekit-evolveやってみてるが、メモリ64GB+3060-12GBでも一応全部ローカルで動かせるな
ただマージ後モデルが全部収まるVRAM容量無いと回答生成が遅い >>944
ライセンス的にグレーかもしれないから非公開にしたようだ
具体的には評価に使うLLMがLlama系とかCommand R系とかだと出力データ自体に制限がかかるので、そこが懸念点らしい
どっちもウェイトを開示してるだけで、ライセンス的にはオープンソースではなかったからね >>941
Llama-3とかPhy-3はないみたいだけど、NSFWが行けるかを基準にしてる? 英語圏ってライセンス全く気にしてない感じだけどアレどうなってるんだろう
当たり前のようにGPTの出力学習に使ってapache2.0とかのモデル作ってるし
そもそもllama系は公式のポリシー遵守するならNSFW用のモデルとか作成しちゃダメだけど腐るほどあるし >>922
使ってみたけどこっちはちゃんと指示に従うし描写の種類も豊富でかなり良い
NSFW版でもお断り率が高い感じするけど、ここは書き直せば良いから無問題
個人的にVecteusはアウトプットの方の文脈を優先で指示に従わない感じがあって使いにくかった
めっちゃ良いモデルありがとうやで Don't be evil
邪悪になるな(ズルしていいのは俺だけ)
がテック業界の標語なんでェ >>916
koboldでエロプロンプトで試させて貰いました!
金玉を「パンパンに張り詰めた長靴下」と表現したのは茶吹きましたw
ところでこれはモデルと関係ないかもですが、koboldで生成してる途中の黄色い文字が、生成結果では最後の方だけ消されて文章が減る現象が結構起こるんですが、これは設定で調整できるんでしょうか? Settings>Advancedの左下の方のTrim Sentecesのチェック外すと全部表示されるはずやで
文末まで出力できなかった文章を表示するか否かの設定や EasyNovelAssistantへの追加ありがとナス
キャラ設定なげるだけでStable Diffusion用プロンプト生成できるプロンプトも用意したで、NSFWコンテンツも出してくれるのはローカルLLMの特権よ
https://github.com/kgmkm/goalseek_ad/blob/main/init_imager.txt
画像は野郎の手じゃなきゃ10000点やったやつ
https://imgur.com/a/ZPiYEpr kobolcCppをAPIから利用するときChat ModeとかInstruct Modeってどうやって設定するの?
もしかしてAPIからは設定不可能? >>957
Instructionモードとか、ChatモードってのはあくまでもWebUIの機能で
API経由でKoboldや大葉使う場合は自前で渡すシステムプロンプトでInstruction的な振る舞いを課したり、
Chat的な振る舞いを課すってのがワイの理解や ところでSillyTavernでCohereのCommand-r-plus使いたいんだが、上手く接続できん
トライアルAPIはValid表示されるが、メッセージのやり取りしようとするとスクショの様なBad Requestエラーがでてしまう
何を見落としてるんやろうか?SillyTavernでCommand-r-plusイケてるニキおったら、教えてくれんか?
https://imgur.com/a/dN0VxYR >>958
う〜ん、だとするとAPIからはやっぱ無理なのか
Ninjaはどのモデル使ってもAPIからではチャットしてくれないわ、Web UIのChat Modeでないと無理 自分はどこもいじらずcohere選んでAPIキーをペーストしてconnectしたら繋がったな
スクショ見る限り自分と同じに見える
とはいえそれは数日前の話で今帰省中だから再現を確認できん
とりあえずどこか別の画面で設定が必要とかはなさそうよということで >>960
興味あるんだけど、挨拶送るとどんな出力を返してるのかな
関係なしに小説を書き始めるのかな >>961
サンガツ、と言うことはちょっと根が深そうやな…。
>>960
NinjaはAPIからは無理って意味がちょっとよく分からんのだが?
ワイはKobold.cppをバックエンドにしてSilly TavernでNinja遊んどるけどふつーに遊んどるが
この際Kobold.cppのAPIをSilly Tavernが叩くって構図なのでSilly TavernをInstructにしておけばえーやろの気持ちや >>963
とりあえずCohereのアカウント新規に作ってトライアルAPIも取得し直してみるのはどうかな
RedditのSillyTavernスレでBad requestで検索したらCohere以外でも悩まされてる人結構いるわ >>963
音声でリアルタイム会話できるようにした自作アプリからNinja使おうと試してるんだよ
でSilly Tavernがどうやってチャットしてるのか確認したら初手「こんばんわ」って挨拶するだけで
5000文字超の長大なプロンプト送信してたわ、今必死に中身解析してるところ Silly Tavernのリクエストの中身見て大体理解したわ
結局どんなモデルにも強制的にチャットさせてる方法は世間で言われてるプロンプトで頑張るやり方じゃなくて
最初からユーザーとAI双方の名前を付けて途中まで会話が進行した履歴をでっち上げてその続きから始めさせるようにして
AIが勝手にユーザーの発言始めるのをストップワードにユーザー名入れてそこで強制的に打ち切るってパワープレイやったわ >>956
サンガツやで!
もうちょっと見やすいようにメニューを構成するのとエロに直接リンク貼れない問題への対処を入れ込んどる
画像生成プロンプト生成なんやがNinjaやVecteusでもそこそこの結果が出とるっぽい
使えそうやったら記事でも補足しておいてもらえたらありがたいで 提案になるけどChub aiみたいなキャラカード共有するサイトの日本語版みたいなのがあったら需要ある気がする
他人の書いたキャラカを使い回しできたら文才なくても文章書く手間を省けるからな Vecteusのf16使ってるけど賢くて楽しいわ
小説向けだからかハルシネーションちょっと強めやけど、要約とか一般タスクもサクサクしてくれるのほんと助かる。あと文脈の拾いかたすごいわ
Ninjaの方はQ8の方使ってるからか案外Vecteusよりも更にハルシネーション強めやけど、ミドルスペックでも40t/s出るのはほんまストレスフリーや。f16も試してみたいわ >>963
実家に置いてたN100ミニPCにSTインストールしてCohereのトライアルAPI入れたらちゃんと繋がったよ
https://i.imgur.com/zA6LvRx.jpeg
Seraphinaちゃんとチャットできるのも確認した
やはりST側の設定じゃなくて、そちらの接続がうまくいってないんじゃないかと思う
プロキシが悪さしてたりAPIがいつの間にか失効してたりとか色々なケースがあるみたいだ >>956
EasyNovelAssistantを更新して「特集テーマ」メニューにゴールシーク関連をまとめるようにしといたで
「作例や記事」メニューからもリンク貼っといた Silly Tavernを参考に何とかNinja使ってローカルだけで無制限に音声会話できるようになったわ
commandR+みたいな大型モデルと違って音声認識で1文字でも誤字があると正確な応答してくれないのは流石にしょうがないな
話してる女の子の名前がハルナだとしてwhisperの誤認識でアルナになってもcommnadR+は察してくれるけど
Ninjaその他の7Bモデルは別人の話だと思ってしまう >>970
別垢作ってもダメだったんで、Silly Tavernをクリーンインストールしたらすんなりいけたわ!
色々検証してもらったりで助かったで、ありがとうさんや! >>972
おお、おめでとうさん
>>大型モデルと違って音声認識で1文字でも誤字があると正確な応答してくれない
名前と誤認識のパターンによってはあかんケースもあると思うが、せっかくAPI使ってるなら誤認識の結果の単語の辞書作って、
それらはNinjaに渡す前にアプリ側で全部”ハルナ”に置き換えてからNinjaに渡す方法でどうや?ワイは自作アプリではそんな感じでやってそこそこ機能しとった
なんか面白いアプリ出来たら是非遊ばせてや? >>973
あまり役に立たなかった気もするが繋がってなにより
CohereのAPIは無料だし速いし性能良いしでありがたいな 自作アプリおじさん複数いて話の流れが掴めないな
Ninjaと会話できるの?小説しか無理なの? たまたま安かったとはいえRTX3050買ったことを後悔しとる
画像生成は何とかなっとるけどVRAM8GBじゃローカルLLMはかなり厳しそうやな 次スレはこのままpinkに立てるとして冒頭のテンプレは結構見直す所が多そうだよね
お奨めモデルもかなり入れ替わったしEasyNovelAssistantもテンプレに入れたいな メルカリにでも出して3060にしちゃえば?
今4万円くらいでしょ
なんなら3060もメルカリで買えばもっと安いかも
4060Tiとか3090・4090にいって放出する人いそうだし EasyNovelAssistantをアプデしたら地の文を読み上げてくれなくなっちゃったのだ
女の子の一人称視点で書かせて読み上げてもらうの最高だったのだ >>976
完全ではないけど、ほぼストレスない形でNinjaと会話できるで
ワイはKobold.cpp + Silly Tavernでチャット形式であそんどる
ただ、小説書かせる方がモデルの性能発揮されるな、と感じた >>979
それも検討するわ
せやけどvecteus?のggml-model-Q4_K.ggufっていうやつ
EasyLightChatAssistantに放り込んで適当に設定したら一応動いたわ
めちゃめちゃ賢くてビビっとるんやけど >>>974
なるほどな、whisperはいつも同じ間違いするから辞書作っておくのは有効そうだな >>980
読み上げメニューのその他自動読み上げを有効にしたら読み上げるやろか?
デフォルトでその他をオフにしたんは失敗やったかもしらんな
手抜き実装しとるんでアプデでは治らんのやが新規インストール民がおんなじ目に合わんように今デフォルト変更しといたで
あとEasyNovelAssistantにファイル監視機能いれといた
お好みエディタをリアルタイムに使えるのもローカルLLMの利点やね
https://raw.githubusercontent.com/wiki/Zuntan03/EasyNovelAssistant/img/ChangeLog/file_watch.png
一応やがNinjaの使い方や
先に自動起動のサーバーを落としてから起動してな
https://raw.githubusercontent.com/wiki/Zuntan03/EasyNovelAssistant/img/ChangeLog/Ninja.png
>>984
サンガツ! >>986
その他にチェック入れても地の文読んでくれませぬ…
名前無しの「」はその他の声で読んでくれました
「」が付いてない文だと読んでくれないみたいです >>979
時々画面にノイズが乗る3060が2万円代前半ぐらいであるね
ゲームやらないならわんちゃん >>987
不具合報告サンガツ!
アプデしてもろうたら直ってるはずや ゴミが増えない分直接ドブに金捨てたほうがマシレベル >>989
アプデしたら直りました!
ホンマにサンガツです! Ninjaは創作物から学習した比重高いんかな?プロンプト工夫してチャットさせてるけど
現実的な設定よりRPG世界で女の子と冒険するみたいな設定のほうが自然な流れで会話してくれる これ軽いから使ってる soramikadukiStarling-RP-ja-westlake-chatvector >>992
こちらこそ不具合報告ホンマに助かっとるんでサンガツや
>>934
VecteusとNinjaのポエムやで
- Vecteus Q4_Kのコスパが凄まじいのでIQ4_XS版も触ってみたい
- Vecteusのコンテキスト広げた版にも期待
- Ninjaも128Kでない版を4Kコンテキストで動かしていると良好
- 128K版ではコンテキスト16Kあたりから品質に悪影響があるような気がする?(LCA 32K感覚比)
- とりあえず128K版を8K運用
- NinjaにInstruction formatを適用すると申し訳率が上がる?
- Ninjaの量子化がQ_8_0までしか無い
- IQ4_XS版を触ってみたい
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9#kl-divergence-statistics-for-mistral-7b
↑は確かLCAニキが紹介してくれたやつやが
数値よりもこのスレで何度もIQ4_XSと他の量子化を比較してて「なんかコスパええやん」な印象や mmng氏の量子化モデルってK量子化にもiMatrixやってるのかな?
K量子化は見た目で分からんからなぁ >>966
>>最初からユーザーとAI双方の名前を付けて途中まで会話が進行した履歴をでっち上げてその続きから始めさせるようにして
AIが勝手にユーザーの発言始めるのをストップワードにユーザー名入れてそこで強制的に打ち切るってパワープレイやったわ
この、でっちあげるって、Silly Tavernそのものが会話をでっちあげてる、って意味なんか? このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 137日 11時間 54分 9秒 BBSPINKの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 専用ブラウザからの広告除去
★ 過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.bbspink.com/login.php レス数が1000を超えています。これ以上書き込みはできません。