なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0781名無しさん@ピンキー (ワッチョイ 3e9f-vlRz)2026/01/16(金) 21:32:43.81ID:ZwE9wbul0
>>779
Gemini2.5fでも魅力的だが、その場合は256GB?
0782名無しさん@ピンキー (ワッチョイ 36a9-KoMk)2026/01/16(金) 22:00:31.51ID:khTupJvD0
GLM4.7を想定して書いたけども
もとにしたベンチマークはおそらくbf16で動いてるやろうから1TBになるやね

Q8ならおそらくそこまで劣化ないやろうからほぼ同等の性能が512GBでおそらくいける
それより下の量子化になるとベンチマークでは数値下がってくると思うやで
0783名無しさん@ピンキー (ワッチョイ 662b-uqmN)2026/01/16(金) 22:28:03.19ID:2veUatO60
ノベルAIがGLM4.6だっけ?ゲミニと比べたらゴミみたいなもんだし厳しいな
0786名無しさん@ピンキー (ワッチョイ 936a-viuJ)2026/01/17(土) 14:28:23.25ID:sdnCrY5o0
2.5てポンコツ
0789名無しさん@ピンキー (スップー Sd9f-J81O)2026/01/17(土) 18:43:32.72ID:pu1J5etdd
koboldcpとSillyTavernでロールプレイやってるんだけど少しガード固めのモデルないかな
今はjapanese textgen moe 2x7b nsfwってやつが一番いい感じなんだけど
ずっと同じだと飽きるんでこれに似た感じのないかな
aratakoのrobinhoodとかMistralPrism-24Bとか使ってみたんだけど
すぐエロモードに入ってあんまり面白くないんだよね
10G前後の軽いやつで何かいいのないかな
0791名無しさん@ピンキー (ワッチョイ bf9f-ryvZ)2026/01/18(日) 03:15:55.40ID:T+e6cVxF0
>>787
コスパはそうなんだろうけど、クラウドサービスである以上いつでも規制きつくなるしな。GPT5.2はそれで死滅した。

多少お金掛かってもローカルで実現できるならそれに越したことはない
0793名無しさん@ピンキー (ワッチョイ 27a0-J81O)2026/01/18(日) 09:05:59.40ID:eTm5xaVj0
チャッピーってエロ抜きの美しい文章を書くことしか、他のLLMに勝ってないな

基本、Geminiの方が全体的にすごい、エロならGrok、エクセルとかで便利なコパイロット
0798名無しさん@ピンキー (ワッチョイ c35b-/IBL)2026/01/19(月) 01:16:22.59ID:r6HfMQ9p0
半年ぐらい前にQwen-235B-A22B-Instruct-2507の性能に度肝を抜かれた以来なんですが
今アツいモデルあったら教えて欲しいです
環境はVRAM24GB、DRAM96GB
LMStudio愛用のローカルLLM初心者です
0799名無しさん@ピンキー (ワッチョイ 936a-viuJ)2026/01/19(月) 08:31:32.04ID:NDOT6mQm0
てめえ、初心者気取った熟練工だろ
0801名無しさん@ピンキー (ワッチョイ df88-mrDK)2026/01/20(火) 05:17:18.48ID:hwv83Gyg0
GLM 4.7 Flashが来た
30B-A3Bらしい
0803名無しさん@ピンキー (オッペケ Srdf-viuJ)2026/01/20(火) 12:54:03.23ID:JCxxLgksr
a3bはちょっと
0806名無しさん@ピンキー (ワッチョイ e7a9-0bv4)2026/01/20(火) 14:02:03.80ID:GvRoLOjd0
glm4.7flashはqwen3-30b-a3bとgpt-oss-20bに対して全領域で明確に上回っとるのか
後発だから当たり前ではあるんやけどこのサイズじゃこの2つが今まで長い間幅利かせとったから
ようやくいい感じの次世代がでてきたという感じやな
0808名無しさん@ピンキー (ワッチョイ 9b45-z33+)2026/01/22(木) 04:35:28.71ID:6p3S/hpS0
novelAIの小説補助UIがわけわからん作りしてるから評価不能なんよな
あれを使いこなせる人って作った開発者くらいじゃないのか
0809名無しさん@ピンキー (ワッチョイ bbd7-bPP2)2026/01/22(木) 21:49:08.56ID:9DiKRE2t0
俺の知ってる霧島じゃない
0810名無しさん@ピンキー (ワッチョイ 1f24-eZjg)2026/01/23(金) 02:09:51.50ID:8g1gaaJy0
AIにエロ画像作らせるのは簡単なのにエロ小説書かせるのが難しいのってなんでなんだろうな
エロ創作特化のモデルってなんかあったっけ
0812名無しさん@ピンキー (ワッチョイ 63ac-40sh)2026/01/23(金) 04:37:10.10ID:gdTzh9j+0
画像精製もLLMもデカいクリトリスだっつてんのに、すぐにチンチンにしてしまうのは一緒やで
0813名無しさん@ピンキー (ワッチョイ b732-J81O)2026/01/23(金) 05:51:52.16ID:D1QePr6y0
簡単と言ってもDeepDreamからSDリリースまで7年くらいかかってるぞ

画像生成は世界中で研究・開発されるのが大きいんだろうな
LLMは言語人口の影響があるからマイナー言語は難しい
あと、小規模で高性能で日本語もできる夢のモデルを誰も開発できてないから
既成モデルのエロチューニングもあまり期待できない
0815名無しさん@ピンキー (オッペケ Srdf-viuJ)2026/01/23(金) 09:39:32.37ID:F9WixtPnr
>>812
合ってるよな🤔
0816名無しさん@ピンキー (ワッチョイ ef32-qkVW)2026/01/23(金) 14:47:57.25ID:zfc5xOk30
エロ画像モデルは言語関係無しに世界中の人が楽しめるけど
エロLLMは言語が合ってないと一切楽しめない

今は音声付きエロ動画が始まってきているからLLMみたいに言語の壁にぶつかるようになるだろうな
レスを投稿する


ニューススポーツなんでも実況