なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0410名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/22(月) 16:54:41.95ID:KaFwJnb80
>>301
Q5K_M以上も出してくれたんで試したが、たしかにQ4より出来はいいな
だが、なんというか意識高い系っていうか、エロなのになんか上品な小説に持っていこうとする傾向あるな
整合性についはもう一歩欲しい
0411名無しさん@ピンキー (スプープ Sd5f-iM94)2025/12/22(月) 18:48:04.06ID:3IAyEDiWd
>>410
他所でも書いたが下品なエロを学習してないから話がどんどん脇道に反れる
中華モデルで顕著に見られる傾向

特にQwen系はすぐSFやメカ展開に持っていきたがるからプロンプトで明示的に抑制する必要がある

下品なエロや隠語をGrokあたりから抜いてプロンプト、LoRA、FTで移植しないと俺らが望むエロモデルにはならない
0412名無しさん@ピンキー (ワッチョイ 3fc7-rc7o)2025/12/22(月) 19:56:53.84ID:ZkZbvAII0
>>409
PL80で使うから大丈夫だと思ってたけど、不安になったから
電源使い回し(コルセア9年目)でHDD沢山積んでるから、
Thermaltake PS-TPD-1200FNFAPJ-L
をポチってみた(AIに聞いたらこれすごく推してきた)
ただ4090ではGPU付属の変換コネクタ使ってるわ 4090も結構まずかったんだろうか

>>399-401
Define使ってるけどサイドを開けて空気清浄機の風当てようかと思ってる
ライザーカードに乗せるのかなり良さそうだね もう1台買おうかと思ったけど5090の在庫がなくってよかった
とりあえず、冷静になって、まずはローカルLLMの性能を使ってみた考えようと思う

あと、ちょびっツじゃないけど、AIを自宅で育てるというかいい感じに改良できないんだろうか?
最近、国分寺稔くんをやたらと思い出す あとKOTOも
ただレイアースの方が遥かに有名みたいでこのSFアニメしてる人が少ないっぽく残念

特に、最近Geminiの品質が向上しすぎてシステム無駄になりそうで不安ある
SDのエロLoRA素材(顔を赤らめてとか怒ってるとか作らせてる)作らせてるけどエロが無理だから素材だけどかなりいいものができてるわ
というかこれnswfで動かしたいがいつになったらローカルで使えるのやら
あとLLM、科学、経済など大学の教官並に詳しくて驚く、これいつになったらローカルで使えるのやら?
0413名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/22(月) 21:03:39.87ID:WaudJre70
追加学習は要求スペックと難易度が高いから海外勢も諦めムード
それに今はDenseモデルを弄るよりMoEモデルをそのまま使う方がいい結果になりやすい
0414名無しさん@ピンキー (ワッチョイ 3fb6-zXIm)2025/12/22(月) 21:49:07.62ID:OMjUm8Lu0
知識(語彙も含む)の追加は学習で最も面倒でLoRAでは無理って言われてるね 
だから海外のRPモデルは最初からそっちの知識が豊富なmistral smallとかnemoをベースにしてる
レスを投稿する