なんJLLM部 避難所 ★10
初心者で最近ローカルLLMを触り始めた
NeverSleep/Lumimaid-v0.2-12B (12B)GGUF版、ollamaでエロ小説を書かせたら動作は遅いのはともかく、セリフの整合性、語彙力、表現力が全然だわ
これってプロンプトが悪いのかPCスペックが悪いのか12Bっていう量子化されてるやつを使ってるから微妙なのか何が原因なんだろ
3060ti VRAM 8GB、メインメモリ32GBの弱小スペックにおすすめのモデルってある?
素直にGrok使っておけっていうのは最もなんだけどやっぱりGrokやGPTに近いような小説をローカルでやってみたいんよ ありがとう!!!
はじめの取っ掛かりが掴めずに居たから助かる >>369
初心者ならプロンプトの問題もかなりあるだろうけど、モデルの性能自体が低いからどうやってもGrokに近づくことはできない
GrokやGPTみたいなトップクラスのモデルと比べたらあかん
7B〜12Bぐらいのモデルは変な日本語や整合性の悪さ、コンテキストウィンドウの小ささを受け入れた上で遊ぶんだよ >>369
ローカルでエロ小説やりたいなら、旧mistral-large系一択
日本語ならamaterasuとかmagnum
123Gあってmoeじゃないからクソ遅いけどビンビンにくるぞw ローカルで何するにもPC高騰で冬の時代に
でもここは震源に近いから強く言えん所はある
PCゲーマーとしてはマイニングブームが終わったら次はAIブームでまたかよって文句言いたいけど llama.cppがGLM4.6Vに対応したみたいだぞ
LM StudioでもVisionは有効ですと出てるから動かせそうだ