なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0366名無しさん@ピンキー (ワッチョイ 1bc6-eccJ)2025/12/17(水) 11:52:52.32ID:w5cKB6em0
>>365
環境はWindowsならLM Studio使うのが楽でオススメ
エロ用途ならMistral-Small-24Bかこいつをベースにしたモデルが個人的には好み
エロかつ画像認識対応ならQwen3-VLの30BA3Bのabliterated版が良いかと

でも最終的には自分の好みとかあるから片っ端からダウンロードして試すのが一番だよ
0367名無しさん@ピンキー (オッペケ Sr97-QUL1)2025/12/17(水) 12:31:07.33ID:dh3d3zpIr
同じモデルの同じsafetensorを使ってもollamaよりLM studioの方がエロにゆるい気がしないでもない…
実装が違うからなんだろうか
0368名無しさん@ピンキー (ワッチョイ 72bf-zBTM)2025/12/17(水) 12:59:04.62ID:/pkrHNq40
前もそんな風なこと言ってる人いたね
同じ規制解除版使ってるのにollamaとLM studioだと申し訳食らってkoboldcppだとエロいけた、だったっけか?
どこで差が出来るんだろ
デフォのシステムプロンプトとか?
0369名無しさん@ピンキー (ワッチョイ 72bb-KIjk)2025/12/17(水) 14:39:55.92ID:/jx/zd8d0
初心者で最近ローカルLLMを触り始めた
NeverSleep/Lumimaid-v0.2-12B (12B)GGUF版、ollamaでエロ小説を書かせたら動作は遅いのはともかく、セリフの整合性、語彙力、表現力が全然だわ
これってプロンプトが悪いのかPCスペックが悪いのか12Bっていう量子化されてるやつを使ってるから微妙なのか何が原因なんだろ
3060ti VRAM 8GB、メインメモリ32GBの弱小スペックにおすすめのモデルってある?
素直にGrok使っておけっていうのは最もなんだけどやっぱりGrokやGPTに近いような小説をローカルでやってみたいんよ
0370名無しさん@ピンキー (ワッチョイ 32c7-DAEx)2025/12/17(水) 14:44:12.41ID:SvtpxmAx0
ありがとう!!!
はじめの取っ掛かりが掴めずに居たから助かる
0371名無しさん@ピンキー (ワッチョイ 3732-9rD2)2025/12/17(水) 15:33:00.83ID:C1S990uQ0
>>369
初心者ならプロンプトの問題もかなりあるだろうけど、モデルの性能自体が低いからどうやってもGrokに近づくことはできない
GrokやGPTみたいなトップクラスのモデルと比べたらあかん
7B〜12Bぐらいのモデルは変な日本語や整合性の悪さ、コンテキストウィンドウの小ささを受け入れた上で遊ぶんだよ
0373名無しさん@ピンキー (ワッチョイ 8760-7UIs)2025/12/18(木) 02:03:41.26ID:2awyAXmF0
ローカルで何するにもPC高騰で冬の時代に
でもここは震源に近いから強く言えん所はある
PCゲーマーとしてはマイニングブームが終わったら次はAIブームでまたかよって文句言いたいけど
レスを投稿する


ニューススポーツなんでも実況