なんJLLM部 避難所 ★10
0368名無しさん@ピンキー (ワッチョイ 72bf-zBTM)2025/12/17(水) 12:59:04.62ID:/pkrHNq40
前もそんな風なこと言ってる人いたね
同じ規制解除版使ってるのにollamaとLM studioだと申し訳食らってkoboldcppだとエロいけた、だったっけか?
どこで差が出来るんだろ
デフォのシステムプロンプトとか?
0369名無しさん@ピンキー (ワッチョイ 72bb-KIjk)2025/12/17(水) 14:39:55.92ID:/jx/zd8d0
初心者で最近ローカルLLMを触り始めた
NeverSleep/Lumimaid-v0.2-12B (12B)GGUF版、ollamaでエロ小説を書かせたら動作は遅いのはともかく、セリフの整合性、語彙力、表現力が全然だわ
これってプロンプトが悪いのかPCスペックが悪いのか12Bっていう量子化されてるやつを使ってるから微妙なのか何が原因なんだろ
3060ti VRAM 8GB、メインメモリ32GBの弱小スペックにおすすめのモデルってある?
素直にGrok使っておけっていうのは最もなんだけどやっぱりGrokやGPTに近いような小説をローカルでやってみたいんよ
0370名無しさん@ピンキー (ワッチョイ 32c7-DAEx)2025/12/17(水) 14:44:12.41ID:SvtpxmAx0
ありがとう!!!
はじめの取っ掛かりが掴めずに居たから助かる
0371名無しさん@ピンキー (ワッチョイ 3732-9rD2)2025/12/17(水) 15:33:00.83ID:C1S990uQ0
>>369
初心者ならプロンプトの問題もかなりあるだろうけど、モデルの性能自体が低いからどうやってもGrokに近づくことはできない
GrokやGPTみたいなトップクラスのモデルと比べたらあかん
7B〜12Bぐらいのモデルは変な日本語や整合性の悪さ、コンテキストウィンドウの小ささを受け入れた上で遊ぶんだよ
0373名無しさん@ピンキー (ワッチョイ 8760-7UIs)2025/12/18(木) 02:03:41.26ID:2awyAXmF0
ローカルで何するにもPC高騰で冬の時代に
でもここは震源に近いから強く言えん所はある
PCゲーマーとしてはマイニングブームが終わったら次はAIブームでまたかよって文句言いたいけど
0375名無しさん@ピンキー (シャチーク 0C13-Toi2)2025/12/18(木) 07:53:52.78ID:afV40DvKC
マルチモーダル系のモデルの規制解除版の説明に規制解除はテキストのみで画像部分は解除されてないってよく書いてるけど
あれってどうゆう事?
画像生成するわけでもないし、出力のテキストが規制なかったらいいんじゃないの?
0376名無しさん@ピンキー (オッペケ Sr97-HgNt)2025/12/18(木) 10:36:43.02ID:Tn5rBGrSr
>>363
国内企業はドコモ国内のアホを騙せればいいと思っていい加減な商売してる
0377名無しさん@ピンキー (ワッチョイ 3e2e-c5sb)2025/12/18(木) 11:09:02.03ID:wV9BfonF0
>>375
学習データからエロ関連を弾いてるからそもそもモデルが認識できないとか?
それか画像認識の中にエロ判定層みたいなのがあるけど回避する手段が見つかってないとかじゃない?
0378名無しさん@ピンキー (ワッチョイ 72b0-5Jjh)2025/12/18(木) 11:31:24.56ID:9swORTeL0
VLMって通常のLLMにビジョン用機構を増設しているだけという事が多いから規制解除時にLLMの重みだけを対象に変更したってだけじゃない?
ビジョン用機構は画像入力を受け付けるから別の処理しないといけなくて、最適化ライブラリでも対象外なこと多いし
レスを投稿する


ニューススポーツなんでも実況