なんJLLM部 避難所 ★10
0347名無しさん@ピンキー (ワッチョイ 3732-9rD2)2025/12/16(火) 14:57:03.34ID:1Zg1Wdsu0
ユーザー「AI、今週末に新しく出来たピザ屋さんに行かない?」
AI「新しいピザ屋さん!?わくわくするわね〜!ユーザーは何を頼むのかな?今度、週末に行こうよ! 🍕」


これだけのやりとりをするのに8000トークンも思考する
まあチャットやロールプレイング用のモデルじゃないから仕方ないんだろうけど
0348名無しさん@ピンキー (ワッチョイ 87e8-DAEx)2025/12/16(火) 15:20:49.17ID:I8CXFDR50
>>344
コミットされたで(はやい)
0349名無しさん@ピンキー (ワッチョイ 5224-I8Ki)2025/12/16(火) 15:55:55.06ID:hw7FBFqM0
ピザ屋へのお誘いで8000トークンは草
ローカルLLMやるようになってから人間がいちいち「ありがとう」とか言うせいで莫大な計算力が浪費されてるって話の重大さが理解できるようになったわ
理解できるようになっても辞めんけどな
0353名無しさん@ピンキー (ワッチョイ 72c7-lorD)2025/12/16(火) 18:01:33.89ID:6N5ldNhF0
ビジョンモデルのGLM4.6V試してるんだけど4.5Vとそんなに違いは感じないような気がする
ただ、小さいモデルの9BFlashが意外とすごい
それなりにオブジェクトを認識しているし、日本語の表現も自然。英語で返してくることも多いけどね
OCRはちょっと弱いけど割と日本語も認識する
使う場面によっては実用的かも?

後は新たに追加されたツール呼び出しだな
vLLMは性能がいいので使ってるんだけどThinkingとツール呼び出しの併用が出来ないっぽい・・・
Thinking有り無しで結構、得られる情報量が違うから惜しいな
もうちょっと調べてみるけど
0356名無しさん@ピンキー (ワッチョイ 3b49-r+g0)2025/12/16(火) 22:33:26.03ID:quQmhDAk0
ミスった コーディング・数学・エージェントね
小説向けのベンチはEQBenchぐらいだけどあんまりリーダーボードにモデル追加されないんよな
0358名無しさん@ピンキー (ワッチョイ 5224-I8Ki)2025/12/16(火) 22:49:07.37ID:hw7FBFqM0
小説みたいないわゆるアートとか対人の受け答えは数値で評価できんから今の世の中ではAIに限らず軽視されがちやな
0360名無しさん@ピンキー (ワッチョイ b6a0-A5rm)2025/12/17(水) 08:12:48.81ID:3Qb5xfU80
Stable DiffusionやってるとAIというより
モデルを作った人がどんな学習をさせたかを逆に想像しながら作っていく。
そしてそれが一致した時にほしい絵柄が得られる。
ほしい絵柄が生成された時が快感だ
0362名無しさん@ピンキー (ワッチョイ 722d-zBTM)2025/12/17(水) 08:38:09.06ID:/pkrHNq40
shisa2.1 14Bあれからも色々パラメータ調整しながら試してるんやが微妙に会話力弱いのかも?
これどんな匂い?って聞いても無視して話を進めようとしたり
なんなんやろなこれ
昔の7Bでもちゃんと答えるようなことが出来てなかったりするわ
0364名無しさん@ピンキー (ワッチョイ 1bc6-r+g0)2025/12/17(水) 09:55:29.35ID:w5cKB6em0
OpenRouterにMistral Small Creativeなるモデルが出たらしいけど試した人居る?
>Mistral Small Creative は、クリエイティブ ライティング、物語生成、ロールプレイ、キャラクター主導の対話、汎用的な指示の追跡、会話エージェント向けに設計された実験的な小型モデルです。
との事でちょっと期待している
0365名無しさん@ピンキー (ワッチョイ 32ac-DAEx)2025/12/17(水) 11:27:24.59ID:SvtpxmAx0
4090で普通に動く
・エロ規制ありで優秀なモデル
・コーディングに強いモデル
・エロ規制なしの優秀なモデル
これらの用途におすすめモデルってどんなのがある
あと、初めて使うなら、どんな環境(Ollama?)も教えて貰えるとありがたい
0366名無しさん@ピンキー (ワッチョイ 1bc6-eccJ)2025/12/17(水) 11:52:52.32ID:w5cKB6em0
>>365
環境はWindowsならLM Studio使うのが楽でオススメ
エロ用途ならMistral-Small-24Bかこいつをベースにしたモデルが個人的には好み
エロかつ画像認識対応ならQwen3-VLの30BA3Bのabliterated版が良いかと

でも最終的には自分の好みとかあるから片っ端からダウンロードして試すのが一番だよ
0367名無しさん@ピンキー (オッペケ Sr97-QUL1)2025/12/17(水) 12:31:07.33ID:dh3d3zpIr
同じモデルの同じsafetensorを使ってもollamaよりLM studioの方がエロにゆるい気がしないでもない…
実装が違うからなんだろうか
0368名無しさん@ピンキー (ワッチョイ 72bf-zBTM)2025/12/17(水) 12:59:04.62ID:/pkrHNq40
前もそんな風なこと言ってる人いたね
同じ規制解除版使ってるのにollamaとLM studioだと申し訳食らってkoboldcppだとエロいけた、だったっけか?
どこで差が出来るんだろ
デフォのシステムプロンプトとか?
0369名無しさん@ピンキー (ワッチョイ 72bb-KIjk)2025/12/17(水) 14:39:55.92ID:/jx/zd8d0
初心者で最近ローカルLLMを触り始めた
NeverSleep/Lumimaid-v0.2-12B (12B)GGUF版、ollamaでエロ小説を書かせたら動作は遅いのはともかく、セリフの整合性、語彙力、表現力が全然だわ
これってプロンプトが悪いのかPCスペックが悪いのか12Bっていう量子化されてるやつを使ってるから微妙なのか何が原因なんだろ
3060ti VRAM 8GB、メインメモリ32GBの弱小スペックにおすすめのモデルってある?
素直にGrok使っておけっていうのは最もなんだけどやっぱりGrokやGPTに近いような小説をローカルでやってみたいんよ
0370名無しさん@ピンキー (ワッチョイ 32c7-DAEx)2025/12/17(水) 14:44:12.41ID:SvtpxmAx0
ありがとう!!!
はじめの取っ掛かりが掴めずに居たから助かる
0371名無しさん@ピンキー (ワッチョイ 3732-9rD2)2025/12/17(水) 15:33:00.83ID:C1S990uQ0
>>369
初心者ならプロンプトの問題もかなりあるだろうけど、モデルの性能自体が低いからどうやってもGrokに近づくことはできない
GrokやGPTみたいなトップクラスのモデルと比べたらあかん
7B〜12Bぐらいのモデルは変な日本語や整合性の悪さ、コンテキストウィンドウの小ささを受け入れた上で遊ぶんだよ
0373名無しさん@ピンキー (ワッチョイ 8760-7UIs)2025/12/18(木) 02:03:41.26ID:2awyAXmF0
ローカルで何するにもPC高騰で冬の時代に
でもここは震源に近いから強く言えん所はある
PCゲーマーとしてはマイニングブームが終わったら次はAIブームでまたかよって文句言いたいけど
レスを投稿する


ニューススポーツなんでも実況