なんJLLM部 避難所 ★8
0001名無しさん@ピンキー 転載ダメ (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:18:32.02ID:0Ak3eO5y0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0208名無しさん@ピンキー (ワッチョイ e377-ElKC)2025/05/27(火) 13:50:47.62ID:j/rkKysz0
lmスタジオ触り始めたワイに最近ホットなエチエチモデルこっそり教えて
0210名無しさん@ピンキー (ワッチョイ e377-ElKC)2025/05/27(火) 17:21:24.36ID:j/rkKysz0
>>209
ホットやけど個人で使えるレベル超えてないか?ワイの3090tiでも無理そうなんやが
0211名無しさん@ピンキー (ワッチョイ 5367-ElKC)2025/05/27(火) 20:44:47.86ID:Khy5JY5E0
magnum-v4-27bとか色々使ってみたけどエロ会話どころか日本語も安定しないな画像生成AIみたいに日本語強いモデルとエロモデルでマージみたいな事は簡単には出来ん感じ?
0213名無しさん@ピンキー (ワッチョイ cffb-oPLX)2025/05/27(火) 22:52:07.26ID:bc4+kV0z0
>>211
gemmaみたいな規制強いモデルにエロファインチューンすると使ってるデータの言語に過剰適合しちゃう感じ
mistral系ならちゃんとした日本語返してくれるよ
0214名無しさん@ピンキー (ワッチョイ 0383-ElKC)2025/05/28(水) 19:58:00.90ID:ijGRRwkN0
色々試してberghof-erp-7bが今ん所エチエチの解像度高く正確にレスポンスしてくれるんやがコレより更にいいモデルってなるとある?
0215名無しさん@ピンキー (ワッチョイ cfd9-Qnse)2025/05/29(木) 01:11:59.57ID:LI3y/jIC0
サイズにこだわらなければMistral系列のもうちょい大きめなやつベースのモデルが良いんじゃない?
BerghofもMistralベースだしmagnum-v4-123bもそうだしMistral系列は俺たちみたいな用途の人間にとっては最強なイメージ

日本産モデルでどっかがエロテキストとかフィルタせず食わせまくってるとかあればポテンシャルは高そうだけどないのかな
0216名無しさん@ピンキー (ワッチョイ 3f21-ElKC)2025/05/29(木) 06:51:05.05ID:fTvJ5RgK0
スプレッドシートとか使ってスレ民で寄り合ってチマチマデータセット作るとかも考えたことあるが
0218名無しさん@ピンキー (ワッチョイ 3f21-ElKC)2025/05/29(木) 07:18:11.62ID:fTvJ5RgK0
>>217
それがあるから代替案模索しとるんやけどなかなか
正直文章程度でbanとかふざけんなよって思うけどそもそものLLMのエロ規制も含め世知辛い
0227名無しさん@ピンキー (ワッチョイ efc8-I9TV)2025/05/29(木) 20:00:36.79ID:OQIYzoML0
>>205
すいません
購入を考えているのですが
AI最適化済みのWIN11って普通のものと何か違ってましたか

用途によるんでしょうが、radeonで困ることってありますか
0228名無しさん@ピンキー (ブーイモ MM5f-3IWN)2025/05/29(木) 21:07:57.72ID:De9VSIVPM
>>227
きちんと検証した訳じゃないけど多分普通のwin11じゃないかな
radeonで困ることはおそらくあると思う
lm studioでrocmランタイム有効にするのも一手間かかったし
ユーザー増えて対応進むといいなと思ってる(他力本願)
0229名無しさん@ピンキー (スプッッ Sd5f-J0oL)2025/05/29(木) 21:13:18.31ID:HZQgz9qxd
Ai(LLM)で人物とかの設定と細かいストーリーラインを指示して小説風に仕上げることを繰り返して物語を作りたいのですが、おすすめありますか?
0234名無しさん@ピンキー (ワッチョイ 8fc8-O274)2025/05/30(金) 05:53:08.32ID:mY97NSrc0
RADEONてローカルLLMで使えるんでしょうか?
メモリ容量だけ見るとNVより有利に見えるけど...
0243名無しさん@ピンキー (ワッチョイ 3f9f-FD3H)2025/05/30(金) 23:27:36.72ID:WWTGK6G80
>>238
ていうかSambaモデルがMacというかMLXで動くのか
実はApple Silicon Mac持ちなのでMLXで動くなら動かせるんよ
で、中の人がtranslateの方もMLX用の量子化モデルを作ってくれていたので動かせた
(Model treeのリンクが間違っているので量子化モデルの存在に気付けなかった)
https://x.com/mitmul/status/1927960884103762302
https://huggingface.co/mlx-community/plamo-2-translate
0246名無しさん@ピンキー (オッペケ Sr97-PO4I)2025/05/31(土) 22:50:30.63ID:NoEL71Wjr
>>236
Linuxってwslでもいいの?
0249名無しさん@ピンキー (ワッチョイ a2c7-8HDr)2025/06/01(日) 16:39:51.03ID:41bXt3zO0
deepseek-R1-0528のIQ2_XXS動かしてるんだけど日本語は自然になってるね

でも小説書かせてみたらmagnum-v4-123bほどではないんだけどそんなもんかな?
0251名無しさん@ピンキー (ワッチョイ b2ec-SiyO)2025/06/01(日) 22:46:27.41ID:mIad1fRF0
小説性能ってベースモデルの事前学習時点で決まる感じやから当分は来ないやろね
qwenやgemmaは明らかに学習データをフィルタリングしてるしmistralも最近はSTEM重視の姿勢でクリエイティブ性能落ちてる
deepseekはかなり緩めだけどそれで越えれないなら厳しい 
0252名無しさん@ピンキー (ワッチョイ 724a-rQsc)2025/06/02(月) 00:41:51.92ID:Z/D3ETlA0
magnum-v4-123b使うときGPUとRAM何GB消費してる?
RTX3060 12GBと32GBしか積んでなくて、どれくらい増せばよいのか知りたい
0253名無しさん@ピンキー (ワッチョイ ef32-kszJ)2025/06/02(月) 01:01:34.86ID:PL5oy1lz0
>>252
メモリは最低でも64Gないと動かん
64GでもIQ3_Mの量子化が限界
96GあればQ5_K_Mが動くが、メモリで動かすと絶望的に遅いからお勧めしない
ワイは64Gで動かしてるが、プロンプト打ち込んだら、別の事して30〜40分掛かって512トークン終わる感じだわw
3080tiの12GのVRAMは一応使ってるが、あっても無くても変わらんレベル
しかもmagnum123Bは日本語トークン対応してないみたいで、1文字2トークン使うから、対応してる70Bの体感3倍遅いwww

RTX6000proQ-Maxが欲しいいいいいいい
このグラボでフルスペックの512G mac買えるけど画像AIにも使えるしマジ悩むw
0261名無しさん@ピンキー (ワッチョイ 66de-HBKV)2025/06/02(月) 18:05:42.44ID:VrKdnv2l0
結局マシンスペックに帰結するんだよな
もっと手軽に高品質な官能小説出したいだけなのに
0262名無しさん@ピンキー (ワッチョイ bb0a-rkY2)2025/06/02(月) 19:39:50.13ID:Pz4Lw+jF0
楽しみながらデータセット無限生成編始まった一粒で6度美味しい
こういうのみんなで出し合ったらデータセット簡単に作れそうやけど情報偏りそう
https://i.imgur.com/AYt6MwY.png
0264名無しさん@ピンキー (ワッチョイ 52d4-SiyO)2025/06/02(月) 22:26:51.97ID:L4/XXPNV0
最近ローカルでLLM使えるの知って今日始めてSilly Tavernでオリキャラと会話して遊んでるけど
なんか緊張して関係性進展しなくて草
でも昔恋愛シュミレーションゲームやってて選択肢をどっちにするかとか考えて楽しかったけど
こっちは無限にいろんな分岐があるゲームをやってるみたいで更に楽しいね
0265名無しさん@ピンキー (ワッチョイ fec8-npAY)2025/06/02(月) 22:48:20.98ID:I2aTIrKa0
Project-Wannabeの作者様へ
いつも使わせていただいております
ありがとうございます

要望なのですが
・出力されたものは全てパラメータjsonやkcppsと共に
logとして残しておくことはできないでしょうか
・デフォルトの生成パラメータ数値ヘ簡単に戻すことはできないでしょうか
・出力時に1行ずつ空白行を挿入(改行)されてしまうことが多いのですが、
それをさせないようにすることはできないでしょうか
0268名無しさん@ピンキー (ワッチョイ b6bc-lbRc)2025/06/03(火) 19:48:55.49ID:Uf3qAznp0
学習データって>>262のように同じテーマで口調を変えただけのものを用意するのと
バラバラなテーマで口調を変えたものを用意するのとどっちが適してるのかな
もちろんトータルのデータセット数は同じだと仮定した場合ね
前者でいいなら楽にデータセット用意できるけど後者だと内容考えるだけでも大変なんだけど
0269名無しさん@ピンキー (ワッチョイ b6d9-KDLv)2025/06/04(水) 09:20:46.17ID:+oV0wOD20
後者のほうが良いよ
基本多様であれば多様なほど良いと思って良い
テーマのリストとか口調のリストとかをGeminiとかで大量に書かせてリスト化してランダムに組み合わせてLLMに合成させる感じとかでそれなりに多様にはできると思う
0276名無しさん@ピンキー (ワッチョイ 42e3-L/D9)2025/06/04(水) 19:08:02.68ID:a5Ck1WYB0
3.1なんてもう化石だろjk
0277名無しさん@ピンキー (ワッチョイ 7fba-RMgv)2025/06/04(水) 19:33:05.22ID:AUnMmnLx0
>>275
70Bなんか動かせるマシン持ってるやつ少ねえよってのと最近は性能大幅に落としてもいいからエッジデバイスでいかにそれっぽいのを動かせるかに研究が移ってるっぽいからなあ
0278名無しさん@ピンキー (ワッチョイ b6bc-lbRc)2025/06/04(水) 19:56:58.96ID:FvknF98Q0
>>269
やっぱりそうかぁ
以前、内容や名詞をスクリプトで自動的に組み合わせて生成した金太郎飴みたいなデータセット1万件ぐらいを使ってLoRA作成したんだけど
推論結果が同じく金太郎飴みたいになってて全く使い物にならなかったんよ
質問文は自力で頑張って用意してそれをLLMに蒸留させてデータ作成するのが一番現実的そうやね
ただOpenAIは蒸留に対する検知厳しくなったみたいだしローカルLLMで蒸留させるしかないのかな
0282名無しさん@ピンキー (ワッチョイ 9fcc-bdW6)2025/06/07(土) 00:48:13.65ID:39KDc2wv0
>>281
Instruct版のSpaceあったので遊んでみたけど、ハルシネーション抑制、ってあったけどInstruction Followig、Groundnessともに怪しい感じでこれで4o越えは評価のスコープを思いい切り絞らないと、って印象
文体は自然でそこそこなので惜しい感じ
フルスクラッチ日本語モデルって点では今後に期待
111B多言語対応のCommand-a越えを期待してたんだけど...
0284名無しさん@ピンキー (ワッチョイ 9fcc-bdW6)2025/06/07(土) 01:08:50.77ID:39KDc2wv0
>>283
あ、そうかも
いまもう一回検索したらStockmark-2-VL-100BではSpace出てない感じだった
楽しみが増えた、ありがとう
0292名無しさん@ピンキー (ワッチョイ d36a-jj0/)2025/06/08(日) 18:57:30.93ID:CFh7R3fZ0
ストックマークってだめな会社なん?🤔
0293名無しさん@ピンキー (ワッチョイ a332-e2Mg)2025/06/08(日) 19:40:31.40ID:UHwTbmjA0
世間一般ではダメじゃないかもしれんがスレの評価が低かっただけ
でも、どんなベンチマークの評価よりこのスレの評価の方が参考になるんだわw
0297名無しさん@ピンキー (ワッチョイ 57d9-3NuF)2025/06/10(火) 01:12:25.58ID:QqWnFUnK0
NemoAuroraちょっと試したがかなり饒舌な感じで淫語とかも普通に出やすいな
この人のモデルにしては珍しく小説系とかそっち寄りな感じがする
この辺はHimeyuri-12Bとかをマージしてる影響かな?エロ系はかなり自然な感じ
その分何回も会話してるとだんだん応答が長くなって行きがちだから適度に過去会話をカットしてあげると良さそう(SillyTavernとかなら楽)
README読むとコンテキスト長32kで学習されてるみたいだけど実際そこまでいけるならかなり実用性ありそう
0298名無しさん@ピンキー (ワッチョイ 8732-+HAl)2025/06/10(火) 09:27:53.11ID:+5w+8cqP0
エロokの配信サイトとか最近やと何処がええんやろ?ワイのAIライバーをニキらのオモチャにしてみたい
0300名無しさん@ピンキー (ワッチョイ d36a-Lyjn)2025/06/10(火) 14:58:04.41ID:yNzdttZM0
文字化け野郎がまた来た😅
0302名無しさん@ピンキー (ワッチョイ d36a-Lyjn)2025/06/10(火) 15:45:35.63ID:yNzdttZM0
設定変えてみてよ
0303名無しさん@ピンキー (ワッチョイ 8732-+HAl)2025/06/10(火) 16:51:31.40ID:+5w+8cqP0
fc2とかええかなって思ったけどツールでコメント拾う手法が確立されてないんか
レスを投稿する


ニューススポーツなんでも実況