なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0777名無しさん@ピンキー (ワッチョイ 3e9f-vlRz)2026/01/16(金) 20:05:48.58ID:ZwE9wbul0
今の俺にはRAM256GBは夢のまた夢だが、RAM256GB積めばGeminiと遜色のない小説文章を出力してくれる?

Geminiは0から生み出すというよりも、元の殴り書きから小説文章を生み出すのに秀でているが、これがローカルLLMでも出来たら強いなあと
0781名無しさん@ピンキー (ワッチョイ 3e9f-vlRz)2026/01/16(金) 21:32:43.81ID:ZwE9wbul0
>>779
Gemini2.5fでも魅力的だが、その場合は256GB?
0782名無しさん@ピンキー (ワッチョイ 36a9-KoMk)2026/01/16(金) 22:00:31.51ID:khTupJvD0
GLM4.7を想定して書いたけども
もとにしたベンチマークはおそらくbf16で動いてるやろうから1TBになるやね

Q8ならおそらくそこまで劣化ないやろうからほぼ同等の性能が512GBでおそらくいける
それより下の量子化になるとベンチマークでは数値下がってくると思うやで
0783名無しさん@ピンキー (ワッチョイ 662b-uqmN)2026/01/16(金) 22:28:03.19ID:2veUatO60
ノベルAIがGLM4.6だっけ?ゲミニと比べたらゴミみたいなもんだし厳しいな
0786名無しさん@ピンキー (ワッチョイ 936a-viuJ)2026/01/17(土) 14:28:23.25ID:sdnCrY5o0
2.5てポンコツ
0789名無しさん@ピンキー (スップー Sd9f-J81O)2026/01/17(土) 18:43:32.72ID:pu1J5etdd
koboldcpとSillyTavernでロールプレイやってるんだけど少しガード固めのモデルないかな
今はjapanese textgen moe 2x7b nsfwってやつが一番いい感じなんだけど
ずっと同じだと飽きるんでこれに似た感じのないかな
aratakoのrobinhoodとかMistralPrism-24Bとか使ってみたんだけど
すぐエロモードに入ってあんまり面白くないんだよね
10G前後の軽いやつで何かいいのないかな
0791名無しさん@ピンキー (ワッチョイ bf9f-ryvZ)2026/01/18(日) 03:15:55.40ID:T+e6cVxF0
>>787
コスパはそうなんだろうけど、クラウドサービスである以上いつでも規制きつくなるしな。GPT5.2はそれで死滅した。

多少お金掛かってもローカルで実現できるならそれに越したことはない
0793名無しさん@ピンキー (ワッチョイ 27a0-J81O)2026/01/18(日) 09:05:59.40ID:eTm5xaVj0
チャッピーってエロ抜きの美しい文章を書くことしか、他のLLMに勝ってないな

基本、Geminiの方が全体的にすごい、エロならGrok、エクセルとかで便利なコパイロット
0798名無しさん@ピンキー (ワッチョイ c35b-/IBL)2026/01/19(月) 01:16:22.59ID:r6HfMQ9p0
半年ぐらい前にQwen-235B-A22B-Instruct-2507の性能に度肝を抜かれた以来なんですが
今アツいモデルあったら教えて欲しいです
環境はVRAM24GB、DRAM96GB
LMStudio愛用のローカルLLM初心者です
0799名無しさん@ピンキー (ワッチョイ 936a-viuJ)2026/01/19(月) 08:31:32.04ID:NDOT6mQm0
てめえ、初心者気取った熟練工だろ
0801名無しさん@ピンキー (ワッチョイ df88-mrDK)2026/01/20(火) 05:17:18.48ID:hwv83Gyg0
GLM 4.7 Flashが来た
30B-A3Bらしい
0803名無しさん@ピンキー (オッペケ Srdf-viuJ)2026/01/20(火) 12:54:03.23ID:JCxxLgksr
a3bはちょっと
0806名無しさん@ピンキー (ワッチョイ e7a9-0bv4)2026/01/20(火) 14:02:03.80ID:GvRoLOjd0
glm4.7flashはqwen3-30b-a3bとgpt-oss-20bに対して全領域で明確に上回っとるのか
後発だから当たり前ではあるんやけどこのサイズじゃこの2つが今まで長い間幅利かせとったから
ようやくいい感じの次世代がでてきたという感じやな
レスを投稿する