なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0002名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:56:18.50ID:kt2SGedd0
初心者は導入しやすいKoboldcppから始めるのをお勧め
(1)NVIDIA、CPUユーザーはここで最新版のKoboldcpp.exeをダウンロード
https://github.com/LostRuins/koboldcpp/releases
AMDユーザーはこっち
https://github.com/YellowRoseCx/koboldcpp-rocm
(2)ここで良さげなggufモデルをダウンロード
https://huggingface.co/models?sort=modified&search=gguf
この2つのファイルだけで動く

Koboldの設定や使い方は英語だけどここが詳しい
https://github.com/LostRuins/koboldcpp/wiki
0005名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:57:48.90ID:kt2SGedd0
https://github.com/SillyTavern/SillyTavern
AIチャットに特化したUI、SillyTavernや
キャラをbot的に管理したりグラ登録したり複数選んでグループチャットしたり大量の設定を外部記憶的に管理したり色々できるで
画像出力や音声出力とも連携可能で夢が広がるで
機能が豊富すぎて最初取っ付きにくいのと日本語の解説がほとんど無いのが難点やがRPチャット派は使うと幸せになれるやで
あくまでUI(フロントエンド)やからこれ自体にはAIは内蔵されてないから注意してな
好きなAPIやローカルモデルと接続して使うんやで
0006名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:58:17.92ID:kt2SGedd0
例としてKoboldで起動したローカルモデルとSillyTavernを接続する設定や
先にいつもどおりKoboldを起動してな

SillyTavernのプラグのアイコンをクリック
APIに Text Completion を選択
API Typeは KoboldCpp
API keyは不要
API URLに http://localhost:5001/
これでいける
0007名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:58:38.98ID:kt2SGedd0
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで

⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで

⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
量子化は4bitまでならほとんど精度が落ちないのでよくわからない場合はIQ4_XSやQ4_k_mなどにしとけばええで

⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで

●モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
0008名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:59:01.90ID:kt2SGedd0
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral系
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Berghof-NSFW-7B-i1-GGUF
Mistral-Small-3.2-24B-Instruct-2506
Cydonia 24B v4
Cydonia-R1-24B-v4

Llama3-70B系:
Smaug-Llama-3-70B-Instruct-abliterated-v3

Cohere系:
c4ai-command-r-08-2024 (35B)
c4ai-command-r-plus-08-2024 (104B)

magnumシリーズ(エロ特化):
https://huggingface.co/collections/anthracite-org/v4-671450072656036945a21348

Lumimaid-Magnum:
Lumimaid-Magnum-v4-12B

magnumの日本語版:
Mistral-nemo-ja-rp-v0.2
0009名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:59:25.37ID:kt2SGedd0
●高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで
若干規制はあるもののGoogle AI studioから無料でAPI keyを入手して高性能なAIを使うこともできるのでそれを使うのええで
API keyの入手はhttps://aistudio.google.com/apikeyここからできるで
0015名無しさん@ピンキー (ワッチョイ bb32-dDTn)2025/11/24(月) 11:58:31.79ID:hXVKj7Ep0
ワイもずっとkobold.cppやな
exe一発でuiもシンプル ちょっと凝った事したけりゃメニューで変更や画像生成もできる
指示モードとチャットモードがあるけど、ワイは小説書かせる時は指示モードかな。指示モードでもチャットできるし

LM studio使ってる人も、使い勝手や面白い使い方知ってればどんどん教えて欲しい
0016名無しさん@ピンキー (ワッチョイ eb03-9a+n)2025/11/24(月) 12:30:09.03ID:E+dO/e8k0
intel環境だとlm studioは特殊な操作なしでNPUまで使ってくれるからノートパソコンで重宝してる
普段は惰性でkobold使ってるけどAPIの項目も多いしとか画像生成とかもできるし下位互換ではないと思う
0018名無しさん@ピンキー (スプープ Sdff-QkBA)2025/11/25(火) 04:25:36.84ID:PnUBt4Bed
ローカルLLMを使い倒すアプリを組んで動いたはいいが
「なんでワイしょうもない用途でゴツいアプリ作っちゃったんやろ」と賢者モードになる

電気代が怖いし人間ぽい感じでやらなきゃ爆速で終わるのにとも思う
あとこんなんクラウドでやったら課金課金で胃に穴が空くわ
0020名無しさん@ピンキー (ワッチョイ db3e-WDmd)2025/11/25(火) 10:17:01.32ID:ncCFUx0n0
これカスタムしてるだろ
0023名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/25(火) 14:14:57.16ID:oFIjDYBV0
AIが直接見下すとかではないけど「あなたには無理です。こちらの方法をお勧めします。」と言われたことがあるな
ちょっとショックだったw
最初に「初めてなので」という断りを入れてたからだろうけど
0024名無しさん@ピンキー (ワッチョイ eb89-WXoq)2025/11/25(火) 14:28:54.25ID:HkFgURHY0
連休で始めた初心者なんだけど、12GBのGPUメモリで動くRPが得意で特定の決まり事をシステムプロンプトで指定したら絶対に守るようなおすすめモデルってある?
MistralPrism24Bに感動したのだけど、条件を守ってくれない。
チャットゲームみたいの作りたい。
0025名無しさん@ピンキー (ワッチョイ df1c-1/gi)2025/11/25(火) 14:35:36.43ID:PH4lt1Fa0
>>24
そのサイズでは日本語RPが得意なモデルはあっても指示に対する理解力が足りないものしかないと思うで
ちなみにberghof ERP 7BはRP得意でおすすめやが状況把握や矛盾に対する認識なんかはまあ7Bですね…という感じ
当然ゲームマスター的な事をやらせても上手くいかん
0027名無しさん@ピンキー (オイコラミネオ MMff-CpB3)2025/11/25(火) 18:13:12.92ID:QvMwqdOzM
スレ立て乙

自分の認識だと
7Bモデル 雑なプロンプトでもかなり自然な出力が得られるが賢さは最低限(berghof,vecteusV1が好き)
7B以上(を量子化して無理くり動かす)モデル まともな出力を得るのが格段に難しくなって面倒臭さが賢くなったメリットを上回る

なので初心者でエロ目的じゃなければビッグテックが念入りにチューニングしたクラウドAIが良いのでは

こないだメインメモリ128MBのマシンを作ったんだけど、Qwen3-235Bの量子化モデルにはかなり可能性を感じた。チューニングを頑張ろうと思う
0028名無しさん@ピンキー (ワッチョイ 0fa0-dDTn)2025/11/25(火) 20:42:26.31ID:7ie9GGyz0
誰か、文章を読解してdanboru語に翻訳するLLM作って、

言葉じゃないんだよ、ビジュアルに付いてるタグが何なのかなんだよ
それが分かれば好きな絵が描ける
0030名無しさん@ピンキー (スプープ Sdff-QkBA)2025/11/25(火) 22:42:36.60ID:PnUBt4Bed
>>28
情景描写から情景にふさわしい日本語の挿絵プロンプトを出させてから
日本語の挿絵プロンプトをRAGに突っ込んでdanbooru語に変換させればいい

danbooruタグと日本語訳のデータセットはネットに転がってるとスレに3回は書いた記憶
二次創作でブルアカとか今期のアニメみたいな新しいキャラのタグを出させたいならデータセットも更新が必要
0031名無しさん@ピンキー (ワッチョイ ebc8-kuv8)2025/11/26(水) 09:28:15.15ID:SVl2K3q70
どんどんブレイクスルー起こしてほしいな
NVIDIAをぶっこわーす
0037名無しさん@ピンキー (ワッチョイ 9fe3-kPTt)2025/11/26(水) 14:10:17.22ID:VjXULiiA0
redditで見かけたけどQwen-image-edit-2511っていうのが来週来るらしい
自然言語の理解力が向上してるとか
ただ日本語も理解できてエロOKかどうかはわからないな
0038名無しさん@ピンキー (ワッチョイ 6f9f-8p14)2025/11/26(水) 14:46:21.59ID:40lioEY10
>●多くのモデルには「base」と「instruct」の2種類があるで
>baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
>instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで

MistralPrism24BGGUFのQ8_0使ってるけど、こういうシーンを詳細に描写して欲しいと指示すると、毎回そのシーンの後の方がやたらと出力多い(しかもどの文章も描写が詳細でない)のだが、これって俺が使い方間違っているのかな?

ちなみにVRAM12GB、RAM64GB
悲しいけどこれ以上のモデルは使えないんだよな

もっとPCスペック高ければ望んだようなこと出来るのかな?
0039名無しさん@ピンキー (ワッチョイ dffc-1/gi)2025/11/26(水) 15:18:29.04ID:YJcXUW6h0
>>38
それロールプレイ用モデルだからキャラになりきって会話、つまり短い文の応酬が得意なようにチューンされてるんやろな
シーンを詳細に書き出してほしいならまだ小説向けモデルの方が適正ありそう
0040名無しさん@ピンキー (ワッチョイ 6f9f-8p14)2025/11/26(水) 15:26:26.83ID:40lioEY10
>>39
やっぱりロールプレイ用だから適してないって訳か。ありがとう

追加で恐縮だが、日本語が得意で小説生成向けなモデルはあったりする?

Aratako氏のはともかく、huggingfaceで検索しても案外Novelで検索引っかからなかったりするし、Japaneseタグで検索しても件数少ないし、日本語対応できててもJapaneseタグは付いてなかったりするしなあ
0042名無しさん@ピンキー (ワッチョイ dffc-1/gi)2025/11/26(水) 15:55:33.46ID:YJcXUW6h0
>>40
小説系は全然触ってないのでおすすめとかは分からんのやが24B以下のモデルは進化が割と停滞してるんでテンプレに書かれてるモデルを試していく価値はあるんやないかな
0043名無しさん@ピンキー (ワッチョイ df32-ylw2)2025/11/26(水) 16:37:32.17ID:HcH1xQvr0
ところでその環境でmistral24B系のQ8動かすとVRAM溢れてる状態だろうから、今のスピードに納得できてるならもっと大きいの動かしたほうがいい
0044名無しさん@ピンキー (ワントンキン MMff-CpB3)2025/11/26(水) 17:03:33.19ID:wyRksDxCM
>>38
いっそ小説特化ならAIのべりすとが悪くないと聞く。独自モデルをずっと育ててきたみたいだし

MistralSmall3.1 24Bの経験で書くよ
Mistral系でダラダラ長くなるっつうと、何のアプリで出してるのか分からんけどパラメータのmax new tokensが大きすぎると思う
加えてMistral系は支離滅裂になりがちでtemperatureをおもくそ下げるのが良いとされる
あとプロンプトが悪いのかもしれないが、台詞等をいっぱい例示したところ異様に繰り返しが多くなり閉口した

以上を踏まえた結果、ワイは刑事の誘導尋問みたいな会話で話の展開や要素を与えてやって、良い感じの一人称小説ふうを出せたよ
0046名無しさん@ピンキー (ワントンキン MMff-CpB3)2025/11/26(水) 17:25:21.64ID:wyRksDxCM
はえーそうなんだ。出来の良いオープンソースモデルが使えるならもはや独自モデルに拘る必要も無いのか…

Mistral3.1 24Bで作ったやつ、ログが残ってたので上げるで。ほぼガチャ無しポン出し編集無しやったと思う
https://files.catbox.moe/pbpjh8.jpg
これで「詳細で無い」というんならもう120Bくらいないとダメだと思う。qwen3-30Bも試す価値あるけどね
0049名無しさん@ピンキー (ワッチョイ dbf2-LCpl)2025/11/26(水) 22:23:24.32ID:jfbAA4Gm0
gpt-oss-120bで
Stable Diffusion の danbouruタグで表現して。70単語以内で極力詳しく。
「描きたい文章」とかでいいんじゃね?
0050名無しさん@ピンキー (ワッチョイ 6f9f-8p14)2025/11/26(水) 23:15:25.28ID:40lioEY10
かつてGrokの動画生成でエロ解禁から一転してエロ禁止にしたり、GPTも5.1からさらに規制厳しくなったり、GoogleなんかもっとGoogle広告の時代からコロコロとルール変えたりしてるから、

総じてクラウド利用のAIは全く信用ならないんだよね。こればかりは痛い目遭った人以外には通じない話しなんだが。
0051名無しさん@ピンキー (ワッチョイ 5f24-5doS)2025/11/26(水) 23:28:17.37ID:ar21Juv90
信用できないというか今のAIは短期間のうちに仕様が変わりすぎる
性能の差はあれどそこが気にならないなら腰を落ち着けて制作や作業の土台にするなら自分の意志でやらないと変更が起きないローカルの方が向いてるわ
0052名無しさん@ピンキー (ワッチョイ 6f27-C6qF)2025/11/27(木) 02:25:53.28ID:GSK77Oq40
アップルがSiriにGemini使用
アップルの自社鯖で動かして通信するからプライバシーの問題はないらしい

年間10億ドル払うらしいけどモデル作るより遥かに安いよな
金かけても1年どころか半年で陳腐化するしこの業界狂ってるわ
0053名無しさん@ピンキー (ワッチョイ 9f0b-A5gx)2025/11/27(木) 10:55:02.41ID:wpv3SsfJ0
ローカルllmのロールプレイやりたくてデスクとノートで70B q4をllama のpp並列(Vram 合計56G)で動かせたんだけど、70Bのモデルで十分なんかな?まだsillytavern 入れてやり始めたばっかだから設定が悪いかもしれないが、まぁ同じ言葉繰り返したりしまくるんだよね。
120Bをcpu オフロードしてでも使うべきなのかなーとか。みんな何モデルでロールプレイしてるの?
0054名無しさん@ピンキー (ワッチョイ df20-1/gi)2025/11/27(木) 11:21:23.63ID:gFA6hyjM0
>>53
初めてならまずはberghof ERP 7Bでsilly tavernロールプレイやるのおすすめやで
コンテキストテンプレートはChatMLやで
後はチャッピーにでもberghof用のおすすめパラメータ設定を聞いて微調整すればよし
まずこれを体験してからこれを超えるモデルを探し続けることや
ワイは応答速度や日本語表現の堅苦しさとかで結局未だにこれを超える物に出会えとらん
0056名無しさん@ピンキー (ワッチョイ 9f0b-A5gx)2025/11/27(木) 13:02:15.42ID:wpv3SsfJ0
>>54
ありがとう、7Bモデルで十分やったんか…わからんまま手を出したらあかんな、余計なクラスタ組んでしまった。ubuntu x2のinfiniband 接続とかやってみたが混合GPU 環境でのllama じゃ意味なかったしな…
chatml もわからんから調べてみるわ。
0058名無しさん@ピンキー (ワッチョイ df32-ylw2)2025/11/27(木) 14:24:18.17ID:668J8c2B0
dense系は高々70Bじゃないかなぁと思う
それ以上は個人用途での評価自体ガクッと減る印象だし、近頃はもう30Bがラインかもしれん
ただ最初は小さいやつで実験しよう
0059名無しさん@ピンキー (ワッチョイ 1bdd-sV47)2025/11/27(木) 15:31:31.98ID:SI+uqTxz0
このスレで聞くことなのかわからんが知ってたら教えてほしい
roocodeでgithubcopilotのAPIキー使ってclaude3.5sonnet使ってたんだけどclaude3.5sonnetが設定できなくなってたから代替手段を探してる
課金したくないから以前ollamaのAPIキー使ってローカルでやろうとしたんだけど調整がうまくできなくてgithubcopilotに戻してた
今はローカルLLMでもうまくroocodeとかCursorって動かせるの?
0060名無しさん@ピンキー (ワッチョイ 1bdd-sV47)2025/11/27(木) 15:33:24.94ID:SI+uqTxz0
3か月前に色んな言語モデル使ってollamaで動かしてたけど調整が下手でアスペ回答ばっかで結局うまくできなかった
0062名無しさん@ピンキー (ワッチョイ 5f22-4gGQ)2025/11/27(木) 18:19:20.87ID:OXCml/ok0
>>59
今はantigravityが最強
sonnet4.5もgemini3も無料や
0063名無しさん@ピンキー (ワッチョイ 7be1-kPTt)2025/11/27(木) 19:07:24.01ID:92VKQEMF0
>>56
いきなりLLMのシステムを組めるのはスゲーけど、LLMの動かし方(プロンプト、パラメータ、モデルの癖を知る)を知らなさすぎやな
それが分かってないと中規模モデルの操縦はほぼ無理
ChatGPTくらい大規模になると初心者の適当な指示でも推し量ってくれるみたいやけど
0064名無しさん@ピンキー (ワッチョイ 9f0b-A5gx)2025/11/27(木) 19:45:31.70ID:wpv3SsfJ0
>>57
そうか、モデル色々触らんとわからんな…

>>63
多少サーバー知識ありはするが、専門外なのでAIに聞きまくりやw
LLMへの理解についてはほんと指摘の通りだわ。今回クラスタ組んでテンソル並列やら、vllm llamaの違いやらinfininband やら学んだから楽しかったけど、まぁやっぱ動かすモデルそのものが何でどう扱うかわかっとかんとダメだったね…
まぁなんにしても環境できたし色々動かして試してみるわ。
0065名無しさん@ピンキー (ワッチョイ 7be1-kPTt)2025/11/27(木) 20:03:18.97ID:92VKQEMF0
ハマると楽しいで、がんばれー

自分のロールプレイモデル遍歴&レビュー

※ワイのプロンプト技術がヘボい可能性もあるのでうのみにしないでね
※あと上から徐々に経験を積んでいったから、というのもあるので初心者が下のほうのモデルをいきなり使いこなせるかは分からんです

・Vecteus-V1-7B、Berghof-NSFW-7B(ここだけsafetensors、他はgguf)

小規模と侮るなかれ、初心者丸出しのプロンプト、適当パラメータでもRPできる超優秀モデル
ちゃんと会話のキャッチボールが弾む、でも単に地の文章が苦手なのかもしれない。大抵どこかで聞いたような表現ばかりだが、会話が弾むのであまり気にならない。思い切り下品にアヘらせたいならBerghof-ERPを使おう

・Mistral-Small-3.1-24B

明らかに語彙力と表現力が上がっている
が制御の難易度が爆上がりで、さらにMistral独特なのか癖があり、会話を続けるとどんどん破綻してくる。プロンプトやtemparature、repetition-penartyを神経質に弄り倒す羽目になる。
安定したらしたで、地の文章が多めなため「イくぅぅー」ではなく「彼女は絶頂した」みたいな出力になりRP感が削がれた。いまは自分語りをさせる用途で使っている >>46
それと量子化モデルによって性能のバラツキがあるようだ
0066名無しさん@ピンキー (ワッチョイ 7be1-kPTt)2025/11/27(木) 20:06:45.98ID:92VKQEMF0
・Lumimaid-Magnum-12B

24Bの経験から安定動作できる様にはなったが優秀すぎる7Bモデルとの差が小さいと感じた

・Aratako/Qwen3-30B-A3B-ERP-v0.1

操作性と性能のバランスがかなり良い。地の文少なめでRP力も高い。ただ個人的には挨拶後即脱いでくる股のユルさが気になり使っていない。クレクレ野郎でAratako氏はじめ諸氏には恐縮だが、Qwen3-30Bのファインチューンモデルがもっと欲しいな...

・Qwen3-235B-A22B-Instruct-2507-Q3

これはすごい、RPの指示にしっかりと従い、説明的な内容も地の文ではなくセリフの上で表現する。ここ表現が難しいけど結構感動する。
素のモデルだがプロンプトで指示してやるとERPもこなせるようだ。というか発情している「雰囲気」を出してくるのがすごい。
操縦難度はMistral-24B程ではないにせよそこそこある感じで、特にプロンプトには神経を使うようだ。これからチューニングを進めていくところ
0067名無しさん@ピンキー (ワッチョイ df21-4gGQ)2025/11/27(木) 20:38:44.21ID:B13Q9jby0
Openrouterのステルスモデルがmistralの新しいモデルという噂があるね
速度的にMoEや小規模モデルっぽくないのとベンチマーク的に3.1 mediumのちょい上くらいなのでlargeかmediumの新作っぽいからオープンウェイトではなさそうだけど一応期待
0068名無しさん@ピンキー (ワッチョイ db1a-LCpl)2025/11/27(木) 22:07:32.00ID:MIAIOtOm0
>>59
VSCodeにCLINE入れて LMStudio で gpt-ossつことる。120bですら英語でやりとりせんとアホになってしまう
20bは端的に "Refactor hoge() method"と余計な単語は一切入れないとダメ(使わなくなった)
0069名無しさん@ピンキー (スプープ Sdff-QkBA)2025/11/27(木) 22:55:27.69ID:B8CDrREfd
Grok4.1ですらエロガバガバな以外は微妙なんやから
Qwen3-235B-A22Bクラスが最低ラインやで

Gemini用に作り込まれたプロンプトがまともに動くかどうかが分かれ目や
0073名無しさん@ピンキー (ワッチョイ 6f9f-8p14)2025/11/28(金) 08:03:22.58ID:fzEd81Ad0
>>71
解禁されるだろうけどたぶんそれでも非合意禁止&未成年キャラ禁止だと思うぞ。期待しないこった
0074名無しさん@ピンキー (ワッチョイ 5bc0-aOqE)2025/11/28(金) 08:26:50.89ID:u/YviZU90
OpenMOSE/Qwen3-VL-REAP-145B-A22Bが日本語性能落ちてる感じもあまりなくてちょっと気に入ってる
235Bは無理でも145Bならメモリに乗るって人も居ると思う
0075名無しさん@ピンキー (ワッチョイ 9f6a-A5gx)2025/11/28(金) 10:35:49.52ID:jb/LTKTc0
>>66
qwen3-235bってmoe モデルだよね。70Bのmagnum や123bのlumimaid にロールプレイで勝てるもんなの?moe は専門家が複数いて、用途によって内部で使い分けるから人格がブレるとからしいからどうなんかなと。
0076名無しさん@ピンキー (ワッチョイ dfea-1/gi)2025/11/28(金) 11:36:02.17ID:WIXK3jgP0
応答5秒かかるならもうロールプレイなんてやる気起きなくなるわ
3秒ならまあ
あとどれだけ賢くてもちゃんとくだけた言い渡しや略語なんかを使って感情表現が豊かでないとチャットやってても気分が盛り上がらんのよな
レスを投稿する


ニューススポーツなんでも実況