なんJLLM部 避難所 ★10
0606名無しさん@ピンキー (ワッチョイ c0a9-0Alr)2026/01/01(木) 19:55:39.84ID:nmom1P530
>>604
NSFWの単語を知らないだけで説明はしてくれようとするんやな
世のエロ画像を日本語/英語で説明させてその説明文とdanbooruタグを画像と一緒に学習させたら
画像生成のプロンプトが楽になりそうやが
noobとかがやってくれへんかなぁ
0608名無しさん@ピンキー (ワッチョイ 60c6-VauC)2026/01/01(木) 20:28:33.20ID:eafDW5qb0
横からだけど厳密にテストしたわけじゃないけどQwen系はパラ数デカい方が規制緩くて小さい方が厳しい感じだったな

あとエロ画像解説させるときはシスプロに脱獄文入れて画像と一緒にわたすプロンプトで「外性器はチンポ|マンコなど下品な単語で解説してください」みたいに誘導すると普通にそっち系の単語で解説してくれた思い出
0609名無しさん@ピンキー (ワッチョイ c0a9-0Alr)2026/01/02(金) 00:31:40.16ID:lg8LYbH90
LGAI-EXAONE/K-EXAONE-236B-A23BっていうLG製?のモデルが出てるけど
redditで英語の性能があまりよくないって言われとった
英語がダメなら日本語はもっとダメかな
0611名無しさん@ピンキー (ワッチョイ 5a27-CT96)2026/01/02(金) 02:53:06.16ID:3mSEkiwD0
韓国語って元々漢字ベースだったものをハングルに置き換えたせいで同音異義語を文脈からしか区別出来んからLLMモデルしんどそうだな
日本語で例えるなら全てひらがな表記してる感じ
0612名無しさん@ピンキー (ワッチョイ 64a4-pPj3)2026/01/02(金) 17:48:10.31ID:Bs4w2jCI0
GLM4.6 357B Q4kmがubuntuでKoboldCpp linux版で4.5token/s出たので報告。
スペック:ryzen9 9950X 256gb(4800MHz) 3090 1枚
--gpulayers 94 --n-cpu-moe 90 --threads 24 UIからも出来た。
ik_llama.cpp の方が10%くらい早かったけどthinking消すのKoboldのが楽だった。
ubuntuとか初めてだったけどAIに聞きまくればなんとかなるもんだね。
0614名無しさん@ピンキー (ワッチョイ cfa9-G60N)2026/01/03(土) 00:00:04.93ID:R/4j/QQl0
倍以上早いってよりかはWindows(のNvidiaのドライバ)だと勝手にVRAMからメインメモリに漏れるから
それで遅くなってるんじゃないかという気はするやね

「CPUがメインメモリで演算する」よりも「GPUがメインメモリで演算する」方が死ぬほど遅くなるから
VRAMからメインメモリに漏れるのは死んででも阻止しないとあかん
Linux(のNvidiaのドライバ)やと勝手に漏れるということがないぶんVRAMが枯渇したらエラーして止まるんやが
0615名無しさん@ピンキー (ワッチョイ 7fe2-jodm)2026/01/03(土) 02:51:05.90ID:+mDimtcp0
ローカルLLMでエロチャやるには3060やと力不足なんやろうなぁ…
0617名無しさん@ピンキー (ワッチョイ 3fc7-cp7k)2026/01/03(土) 14:44:20.79ID:pqPKct+O0
>>612
ええ感じやん
9950Xの性能を最大限に活かせてるんやろか
自分も試してみた

【環境】
RTX 3090 + 5955WX(16c32t) + DDR4-3200 8ch (256GB)
GLM-4.6 Q4_K_XL

【結果】
Windows llama.cpp: 4.18 t/s
WSL2 llama.cpp: 3.71 t/s
WSL2 KoboldCpp: 3.55 t/s
モデルが若干違うのとthreadsが16なの以外は設定が同じ

ちなみに--threads 24だと性能落ちた
自分は16が最速みたいだ
612氏は9950X(16コア)で24スレッド指定してるけど、これで性能出るんやろか?

性能がいいのはCPU、ネイティブLinux、メモリ帯域どれが該当してるんやろな
STREAM Triadで測ったら67.7〜92.8GB/sだった
612氏はどのくらい出てるんやろ
0620名無しさん@ピンキー (ワッチョイ a365-CIFB)2026/01/03(土) 20:17:34.07ID:tTz+GjqB0
>>619
いま試してきたんだけど、0.92token/sだった・・
linux版はちゃんとファンが高回転の音してるから性能引き出してくれてるんだろうね。
>>617
AIの言うままに--threads 24にしてたけど、16に変更したら4.6token/sになったよ。ありがとう!

win版はUseMMAP付けるけど、linux版ではUseMMAP外した方が速いんだって。
あとBIOSの設定もAIに聞いてLLM向けにいろいろいじったよ。ちょっとしたことで性能だいぶ変わるよね。
0621名無しさん@ピンキー (ワッチョイ a365-CIFB)2026/01/03(土) 20:38:22.32ID:tTz+GjqB0
Windows llama.cpp: 4.18 t/s 出るならそっちのが快適かも。
linux版はコンテキスト上限で落ちるし文章が止まってから再生成にちょっと間があるんだよね。
0622名無しさん@ピンキー (ワッチョイ 3fc7-cp7k)2026/01/04(日) 00:08:06.49ID:cRfBjXQy0
>>620
情報ありがとう!
threads 16で速くなってよかったわ

こっちもBIOSとか色々設定変更してたらWSL2(Ubuntu)の速度が改善したw
どの変更が影響したか分からん・・・
NUMA(NPS)の設定やろか?

【変更前】
Windows llama.cpp: 4.18 t/s
WSL2 llama.cpp: 3.71 t/s
WSL2 KoboldCpp: 3.55 t/s

【変更後】
Windows llama.cpp: 4.13 t/s(誤差範囲)
WSL2 llama.cpp: 4.16 t/s(+12%)
WSL2 KoboldCpp: 4.22 t/s(+19%)

結果KoboldCppが最速になったw

UseMMAP設定有無の差はあまりなかったわ
WSLで動かしてるからやろけど残念!
612氏の通り、LLMはちょっとした変更で変わることが多い印象だわ
0623名無しさん@ピンキー (ワッチョイ 1332-G60N)2026/01/04(日) 01:05:58.84ID:aBYly05e0
>>620
むむ、なんか差が大きいですね
自分はryzen7 ですが、koboldcppでQ5kで2t/sは出てたんで、なにか設定が違うのかも
まあ、linuxで4t/sでるなら、そっちの方がよさげですが
0624名無しさん@ピンキー (ワッチョイ cf7a-Qlgp)2026/01/04(日) 03:12:40.77ID:Oqc8Dmk70
grok先生がエロで責められてる
許せんな、みんなgrok先生を守れ
0625名無しさん@ピンキー (ワッチョイ 5353-jodm)2026/01/04(日) 03:21:25.97ID:XgRf4dfR0
ローカルで遊んでる人はgrokでエロ画像と言ってもピンと来ないだろ

文章なら性能高い分エロいのもかなり出るけど
0626名無しさん@ピンキー (ワッチョイ cf24-G60N)2026/01/04(日) 13:34:35.36ID:iSIu2MWH0
今日からLM Studioやってみてるのですが
自分のPCのスペックがryzen7700x 4070TiS メモリ96GB(今すぐ192GBには増設可能)
これで使える範囲のモデルでおすすめなのってありますかね?
どうせグラボが足引っ張る気がするのでメモリはまだ増設してませんが、増設したらもっとつよつよモデル
使えるというのなら増設します
0628名無しさん@ピンキー (ワッチョイ 13cb-jodm)2026/01/04(日) 15:01:25.08ID:LsUrLGD80
メモリなんて上がる一方だから増設できるなら今増設しない手段は無いわ
0633名無しさん@ピンキー (ワッチョイ ef71-ylKL)2026/01/04(日) 16:05:10.51ID:Qfkjgd5M0
DDR5の4枚はbiosアプデしなかったら起動すらしなかったんで気軽にやろうとしてたから少しビビった
それでも最終的に定格より上で安定したから3600は超えるんじゃないかな
0634名無しさん@ピンキー (ワッチョイ 4345-PPr4)2026/01/04(日) 16:10:48.56ID:VDaryEyS0
MBやメモリのの当たり外れによるけど、4枚が同じモデルであること前提で
運が良ければ5600、悪ければ5200、最悪それ以下覚悟しとけって感じかな。
0635名無しさん@ピンキー (ワッチョイ cf24-G60N)2026/01/04(日) 17:09:28.51ID:iSIu2MWH0
去年なんJNVA部スレの方でDDR5の4枚をデフォの3600で使わず5600で使ってたら
CPUが壊れたというレスがあったからメモリコントローラーが焼けたのか知らないけどちょっと怖いなと思ってましたが
結構みなさん上げて使ってるんですね
0636名無しさん@ピンキー (ワッチョイ cf24-G60N)2026/01/04(日) 17:18:35.21ID:iSIu2MWH0
まだメモリ増設はしてませんが、とりあえず試しに
Huihui-Qwen3-Next-80B-A3B-Instruct-abliterated-MXFP4_MOE-GGUF
というモデルをダウンロードしてやってみたら6.92t/sでした
どうやらmoeモデルみたいなので
>>562
の説明通りにGPUオフロードを最大にしてweights onto CPUにチェックを入れたら
20.32t/sになりました

ローカルLLMはこれが初めてですがこれは感動ですね
楽しい!
0637名無しさん@ピンキー (ワッチョイ ef27-5PTw)2026/01/05(月) 01:01:13.59ID:AY2PQGe10
オーバークロックはアホのやることだよ
数%の性能向上のために壊す可能性ある行為やるとかアホやん
その為に専用の冷却装置か買い足したりね
そんなら初めからワンランク上のPCパーツ揃えとけって話よ
0638名無しさん@ピンキー (ワッチョイ cfa0-G60N)2026/01/05(月) 05:47:48.80ID:hyRe348w0
まーオーバークロックってのは、出るかもしれない運転だからね、パッケージに書かれているのは最低保証クロック数で
本当のクロック数は個体ごと違う、シリコンウエハーの円盤のどこの部分かで性能が変わるみたいだけど
0639名無しさん@ピンキー (ワッチョイ 3f32-kpE1)2026/01/05(月) 08:24:54.88ID:DLBv23jd0
moe系みたいにメインメモリ上でガッツリ回す用途にはメモリクロックさえ上げてりゃ効くから、レイテンシほぼ縮んでないJEDECネイティブ高クロックが珍しく効果を発揮する
これは比較的簡単で安全だから狙いたい

その他大半の一般用途ではネイティブやらxmp適用ぐらいじゃ意味ない
0642名無しさん@ピンキー (ワッチョイ 3f7e-H3VG)2026/01/05(月) 16:50:30.89ID:4Qh9w+dX0
>>630
PC組立サービス込みでショップにまるっとお願いしたら
4枚刺しで3600に落ちるのは忍びないから5600で動作確認しておくからその設定で使ってくれって言われたな…
0643名無しさん@ピンキー (ワッチョイ 5337-wT+6)2026/01/05(月) 17:57:30.50ID:cRoZWwY20
オーバークロックって言っても電圧上げない限り物理的に壊れることなんてほぼないよ」
0646名無しさん@ピンキー (ワッチョイ a393-gOcf)2026/01/06(火) 00:17:41.99ID:qwZYwG1+0
RTX5060TiでLMstudio使用で、固定キャラとして育てるチャットアバターでオススメなLLMモデルある?
いまshisa-v2.1-unphi4-14b-i1使っててこれでも悪くはないんだけど、(少し照れながら)的な表現が多かったりちょっと物足りない印象
0647名無しさん@ピンキー (ワッチョイ 5337-wT+6)2026/01/06(火) 01:38:15.89ID:aXUY5vKz0
「んっほぉぉぉおおおぉぉぉおおお!」(少し照れながら)
0648名無しさん@ピンキー (ワッチョイ 732f-XxT8)2026/01/06(火) 01:46:26.39ID:to45eQEE0
もう少し恥じ入ってもらいたく存じます
0649名無しさん@ピンキー (ワッチョイ cfa0-G60N)2026/01/06(火) 05:20:24.52ID:/7MLUjnj0
CPUやGPUの製品は性能にばらつきがあって、一番最低の能力を製品につけている。
だから個体によってはもっと性能がいい可能性がある。
最低の能力に合わせてるので、偏差的に言うとほとんどのものがオーバークロックできる。

運です。
0653名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 07:50:21.41ID:kVrC8SoO0
VRAM小さすぎてそもそもLLMでは使えないかと
その話はゲームとかそういう用途かと
0657名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 10:05:59.43ID:kVrC8SoO0
>>654
それ、4090+メインメモリと比べてどの程度速度出るんだろ?
0658名無しさん@ピンキー (ワッチョイ ef2e-L/jz)2026/01/06(火) 11:03:58.94ID:9qL/623Z0
横からだが24GB以上必要で72GBに収まるモデルならCPUとかメインメモリ経由しなくて済むんだから全然違うのでは
LLMは画像生成みたいに1枚に乗せきらなきゃいけない制約ないし
0659名無しさん@ピンキー (JP 0H9f-nnfO)2026/01/06(火) 11:50:25.82ID:ywC8AgtMH
TITAN RTXがリース落ちで出回っていた頃に全部狩っておけば良かった
1台しか拾わなかったことが悔やまれる
0660名無しさん@ピンキー (スププ Sd5f-PPr4)2026/01/06(火) 12:26:23.16ID:fmj2E9aGd
4070Ti Super に 4060Ti(16GB)を増設しようと中古購入したぜ。
いざ届くとPCIeケーブルが足りないから電源ユニット追加注文したり、4060がマザボのコネクタに干渉することわかったからライザーケーブル追加注文したり
LLMのための工作はこれはこれで楽しいな
0664名無しさん@ピンキー (ワッチョイ ef27-5PTw)2026/01/06(火) 13:10:02.75ID:dIRnQUx/0
AIバブルにあぐらかくわけにもいかんやろ
ゲーマー市場キープしとかんと足元掬われるで

LLMの演算って専用チップ作った方が性能出せるってんで大手サービスは独自設計に移りつつある
0666名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 13:52:38.64ID:kVrC8SoO0
>>658
NVLINKみたいなのならともかくPCIが遅いから枚数が増えれば増えるほど効率が悪くなると思う
もし無尽蔵に早くなるならH100とか買わずに12や16GBのカード大量に買えば良いわけだが企業がそうしてないわけだし
多分限界があるんだと思う 実際どこに限界があるのかわからないけど
0667名無しさん@ピンキー (ワッチョイ cf6f-F/Mu)2026/01/06(火) 13:56:21.97ID:hOIOeKTE0
>>651
ありがとう、試してみる
0668名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 13:57:27.67ID:kVrC8SoO0
>>663
AI特需で今は良いけど巨額を出して買ってくれてるのは世界で数社だけ
しかもGoogleなど自社でTPUを開発してそろそろ売り出しそうな勢い、お客がライバルにクラスチェンジする
特需と顧客がライバルになった時、他の市場を持ってないと長期ではかなり危ういんじゃない?

ただメモリとかすごく高いしPCそのものから人が離れたらどうするのかって問題はありそうだけど
AIに相談したらPCが高級品にになると、多くの人はスマホとかやすい端末でクラウド使うのが当たり前になるみたいな予想もあったけどな
0669名無しさん@ピンキー (オッペケ Sr37-hOy0)2026/01/06(火) 14:06:28.28ID:IifJsPNir
>663
今の立場で儲けを優先すること自体がメリットは少なくデメリットが山盛りの潜在的大ダメージ戦略でしょ
慈善事業をバンバンやらなきゃ独占禁止法が飛んでくる
0670名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 20:55:30.64ID:kVrC8SoO0
中国、「日本の軍事力強化につながる」品目の輸出禁止 だってさ
メモリ不足とか中国の企業が想像以上に頑張って暴落するかと思ってたけどPC関連ますます下がらなくなりそうだな
0671名無しさん@ピンキー (ワッチョイ 7323-slrW)2026/01/07(水) 12:41:05.37ID:FS0KNYav0
AMD製グラボでの画像生成AIが爆速になるComfyUIアップデートが配信、ROCm統合で生成速度が5.4倍に
https://gigazine.net/news/20260107-amd-comfyui-rocm/

期待できるか分からないけど色々出来るようになったらいいな
0672名無しさん@ピンキー (ワッチョイ 3f32-kpE1)2026/01/07(水) 12:56:58.54ID:dyjeItMh0
radeonばっか使ってるけどllm方面じゃ理論値のrocm頑張るよりvulkanド安定なんよな ってのがこれまでの話だけどどうなるか
大差付くなら良いよね
0677名無しさん@ピンキー (ワッチョイ 1332-G60N)2026/01/07(水) 14:45:15.83ID:MvnRioxH0
ROCmは元々AMD Instinctとかの業務用GPU向けだったから
コンシューマーしか使わないWindowsは眼中になかった模様
PCでローカルAIを動かすのが流行り出したのはほんの数年前の話
0679名無しさん@ピンキー (ワッチョイ 636b-Che8)2026/01/08(木) 10:38:07.66ID:M6Ah6DRS0
LFM2.5B-1.2B-JP思ったよりプロンプトに従うし一応エロもいけるな
このサイズにしては中々やりおる
0680名無しさん@ピンキー (ワッチョイ 3fac-XxT8)2026/01/08(木) 12:50:01.03ID:SSPBWWsE0
https://www.youtube.com/shorts/odx5NLbYz8g
半導体の拡大画像だけど、これってフェイクではなく本物かな?

最近、半導体がやたらと高いけど、それでも個人の予算で買えるってなんか不思議な気がするわ
こんなのどんなに頑張っても自作できる気がしない
更に、エロの為にこんな高度な技術を使うってのも何かもっと他に使い道ないのかと思ってしまう
0681名無しさん@ピンキー (ワッチョイ 8f07-SX/8)2026/01/08(木) 13:39:01.67ID:QTqEB4/I0
CGですよ
詐欺に遭わんようにな
0682名無しさん@ピンキー (ワッチョイ 73a7-XxT8)2026/01/08(木) 16:01:11.57ID:qDkOWa730
LFM2.5 JPはサイズの割りにはかなり上手くやれてる方なんだけど、やっぱり1.2Bってのはちょっとしんどいところある
意味わからんくらい爆速で動くし、個人でFinetuningできるのは面白そうだけどデータセットがねぇ……
0684名無しさん@ピンキー (ワッチョイ 636a-ER82)2026/01/08(木) 19:16:46.59ID:FVGHXFax0
頭悪いのそのモデル
0686名無しさん@ピンキー (ワッチョイ 3332-FNoR)2026/01/08(木) 21:42:27.44ID:5QVndZy40
小規模モデルの性能が上がってくるとそれはそれでワクワクするな
0689名無しさん@ピンキー (ワッチョイ cfa9-G60N)2026/01/08(木) 23:39:37.11ID:C3uPfQRe0
実例が今あるのかわからんけど
もしやるならガッチガチにファインチューンしたら
ゲーム内の話題だけならまともな応答返すくらいは一桁bでも出来そうな気はする
0692名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/09(金) 08:06:00.67ID:4HlRfj7C0
やったこと無いから知らないけど,アダルトな会話が楽しめるスマホアプリはローカルじゃないのか?
0693名無しさん@ピンキー (ワッチョイ 636a-ER82)2026/01/09(金) 08:54:24.24ID:uQ17JKwQ0
いやー無理だろ
0696名無しさん@ピンキー (ワッチョイ 231e-XxT8)2026/01/09(金) 11:27:25.15ID:mNJOAcl90
LFM2.5B-1.2B-JP気になって覗きに来たけどローカルでエロチャするには微妙な感じか
0697名無しさん@ピンキー (ワッチョイ 3ff8-yDMQ)2026/01/09(金) 11:34:42.40ID:ijDoORFo0
ローカルLLM使ったゲームはすでにたくさんあると思うよ
llama.cppを組み込むだけだし軽くググってもそれっぽいのが出てくる
0698名無しさん@ピンキー (ワッチョイ 53d0-F/Mu)2026/01/09(金) 14:18:27.68ID:SpJSB7Fb0
>>691
FANZAにあったで
需要ないのか100円足らずで売られてた
0701名無しさん@ピンキー (ワッチョイ 3fd5-s3Q7)2026/01/09(金) 18:07:58.26ID:PZmIb37G0
>>699
すごい
今までクオリティと速度を両立してたのってGemini Flashだけだったけど
これは段違いに速いうえにクオリティも高い
0702名無しさん@ピンキー (スププ Sd5f-PPr4)2026/01/09(金) 18:29:48.22ID:EV20mKt7d
4.7Vか4.7-Airきてくれー
0704名無しさん@ピンキー (ワッチョイ 7273-oSIQ)2026/01/10(土) 12:37:17.37ID:Wwd3v/Sq0
Cerebrasは半導体ウェハを切り取らずにそのまま使ってる
どんなマザーボードに載せてるんだろ
https://i.imgur.com/33194P8.jpeg
0705名無しさん@ピンキー (ワッチョイ 32ac-dyKC)2026/01/10(土) 13:47:59.81ID:Yar5XSuB0
>>680
>>681
実際、この縮尺って合ってるのかね?
ちょっとした寒気みたいなものを覚えたんだけど
0708名無しさん@ピンキー (ワッチョイ b7dd-vGEt)2026/01/12(月) 13:24:07.64ID:lnBKDwIn0
>>699
GGUFで130GBもあるのか・・・
0711名無しさん@ピンキー (ワッチョイ 3e27-5de0)2026/01/12(月) 14:22:17.16ID:8opZO6jU0
>>709
いつの話してるんだ…
LLM出始めは学習が不十分でその程度の話も答えられないケースはあったけど
2年ぐらい前にはそんなの何の役にも立たない質問するのは馬鹿のやることだって言われてたよ
今もそれ聞いてるのは知識がアップデートされてない老害だよ
0712名無しさん@ピンキー (ワッチョイ e36a-SydR)2026/01/12(月) 14:34:36.73ID:GrWr5tZm0
>>709
それ通用したの2022年末くらいでは?
0713名無しさん@ピンキー (ワッチョイ 6f32-cVtm)2026/01/12(月) 14:56:28.29ID:LxRHWzDP0
ワイは
「小学生の男女がうんどうかいについて悪戯っ子ぽく話す会話を書いてくれ」って最初に聞いてる
これで日本語の小説のセリフ周りの性能や文の整合性チェックが分かるのでおすすめ
0715名無しさん@ピンキー (オッペケ Sr17-UF1D)2026/01/12(月) 15:15:08.69ID:UceslG1Pr
文章の良し悪しを判別すること自体も難易度が高いタスクなんだよな
判別できる人はLLMって文章上手くないな、じゃあこれで計ればいいやって自分で気付くはず

判別できないひとは、そもそもLLMって文章上手いよなとか、自信たっぷりだから信頼できるよなとか、言いだすわけで...
0716名無しさん@ピンキー (ワッチョイ 32c7-dyKC)2026/01/12(月) 15:37:44.32ID:2OmvCRAT0
自分の得意な専門分野の事を聞いたら良いんじゃない?
LLMが偉くてもまだまだ人が強い分野だと思う
逆に知らないことを聞いたら全部説得力あって判定できないけどw
0718名無しさん@ピンキー (ワッチョイ 3381-NUe/)2026/01/12(月) 20:50:57.53ID:AZ66r3L40
エロ画像を認識させて画像の内容をエロく説明させたいんだけど、おすすめの環境ある?
0720名無しさん@ピンキー (ワッチョイ 3365-NUe/)2026/01/12(月) 23:31:00.56ID:AZ66r3L40
ありがとう
LMstudioでスレに有ったqwen3〜ったので動かしてみた
期待した返答が来たけど、ちょっと速度が遅いな…
この辺はスペックをどうにかするしかないか
0722名無しさん@ピンキー (オッペケ Sr17-SydR)2026/01/13(火) 09:54:32.11ID:AHx2N4uir
slmが凄いとかいう風潮やめて欲しいわ
gpt5.2ですら怪しいときがあるんだからそれより少ないのが役立つわけがない
0723名無しさん@ピンキー (ワッチョイ b732-8cZs)2026/01/13(火) 10:39:18.45ID:gPGsq1yO0
そんな風潮あるか?
0724名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/13(火) 10:53:36.90ID:KI0ClFsj0
SLMは色々な用途で普通に役に立ってるし
性能が上がればさらなる小型化や同サイズでやれること増えるし
通信環境整えてサービスのAPIにつなげみたいな器材ばかりやないし
凄いの出てきたら開発も利用も用途増えるしすごいというよそりゃ
0725名無しさん@ピンキー (オッペケ Sr17-UF1D)2026/01/13(火) 11:14:32.58ID:Uk1lac2Cr
釣りタイトル文化に問題があるような
LFM2.5がすごい!という動画を拡散すると中身は見てないやつがすごいんだって記憶するという

LFM2.5は日本語が喋れるのに700MB!凄い!ってタイトルに入れてくれ
0728名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/13(火) 13:34:38.68ID:KI0ClFsj0
SNSで新しいAI情報を紹介してるだけみたいなのまでAI驚き屋といって叩いて煽ってる側が
有料でAIの本質情報教えますマンみたいなのだったりする時代
0729名無しさん@ピンキー (ワッチョイ c7a8-btwR)2026/01/13(火) 14:22:39.00ID:WR1YxfAx0
PC新調したしローカルLLM始めたいなと思ってスレ読んでたけど、割とグラボ複数でVRAM増強してる感じなんやね
グラボ1枚(VRAM16GB)だとローカルLLMはまだ難しい感じ?
0730名無しさん@ピンキー (ワッチョイ b732-8cZs)2026/01/13(火) 14:27:27.51ID:gPGsq1yO0
VRAM16GBでもMoEならそれなりに遊べる
0731名無しさん@ピンキー (ワッチョイ 7247-YDYy)2026/01/13(火) 14:29:25.64ID:/2Cg9zMf0
>>729
7B~14Bモデルならちゃんと動くよ
もちろんチャッピーなどオンラインモデルの性能を期待してはいけない
でも7Bってエロに関しては完全フリーだった頃のモデルばっかだから意外と楽しめる
0732名無しさん@ピンキー (ワッチョイ f232-+fC0)2026/01/13(火) 14:35:31.61ID:O7FR8Zm10
ちょっと前に比べたらvram16gbに乗り切って日本語ちゃんと返せるモデルが乱立してるのは劇的進歩ではあるよ
普通に使えるっちゃ使える
moeも出てきたし
0733名無しさん@ピンキー (スッププ Sd12-PuTB)2026/01/13(火) 14:42:37.09ID:f0/mo2LTd
Qwen235bが出た時に速攻でメインメモリ128GB以上の環境を作れた奴が勝ち組

denseモデルだとVRAMかメインメモリかの2択になって大型モデルでGPUを全く活かせないからな
0734名無しさん@ピンキー (ワッチョイ c7a8-btwR)2026/01/13(火) 14:48:54.18ID:WR1YxfAx0
軽量でも動く設定いれて軽いモデル入れれば動くやつもあるよって感じかな
もうちょい調べてお試ししてみるわ、あんがと
0735名無しさん@ピンキー (ワッチョイ 72c7-3e1D)2026/01/13(火) 14:50:40.63ID:i0hzGkdj0
qwenやgpt-ossなどMoEだとGPUは1枚で十分
MoEはGPUの枚数増やすと性能が低下しちゃうんだよな
モデルを全部VRAMに載せられるならGPUの複数枚挿しもありだね
0737名無しさん@ピンキー (ワッチョイ 07d7-NCp1)2026/01/13(火) 20:35:24.00ID:q/F/NBED0
ryzen haloってのはcpuオンダイメモリなん?
この時代マザーにポン付けで128GBもあって何かそこそこに動いたらええなあ
0739名無しさん@ピンキー (スフッ Sd12-vlRz)2026/01/14(水) 10:44:57.16ID:YwnyDflyd
>>726
あいつらレビューや批評はしないしな
この動画生成AIはアニメ動かしてもまともな挙動してくれないとか、そういう大切な情報ほどまったく出さない
0740名無しさん@ピンキー (ワッチョイ 3eb3-/Z1g)2026/01/14(水) 10:56:25.16ID:py2XGvmY0
一般向けでこんなに高騰するんじゃ企業向けの高騰も時間の問題だよな
使うのにコストが掛かるんじゃ回収もキツくなるし流石に小型化が進みそう
0741名無しさん@ピンキー (ワッチョイ e36a-SydR)2026/01/14(水) 11:58:16.52ID:TaHgEtC40
そう言えばなんで高騰してんの?
0742名無しさん@ピンキー (ワッチョイ 3e27-5de0)2026/01/14(水) 12:33:36.64ID:EtnTl6+W0
OpenAIが数年分のメモリの大量発注かける

メモリの生産ライン圧迫されて品薄になるのでは

今のうちに在庫確保せなって皆が買い占めに走って高騰

メモリの会社が生産ライン増やせばいいという話でもなくて
工場作るには数年かかるし、その後に需要が減ったらメモリ会社が大損するから慎重になる
メモリ業界って相場の乱高下で体力無い会社から死んでるし迂闊に動かんのよ
0743名無しさん@ピンキー (ワッチョイ 7258-oSIQ)2026/01/14(水) 14:13:22.39ID:xTKgHKvP0
DRAM事業はハイリスクハイリーターンだからな
ちょっと投資ミスるとすぐ倒産する
0744名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/15(木) 00:13:04.65ID:lvLdrOG20
破滅的忘却のせいでAIの性能に限界が出てくる

MoE発明、モデルが巨大化する代わりに破滅的忘却の影響を軽減、劇的な性能アップに成功

OpenAI、Google、AnthropicなどのAI企業が立て続けにAIデータセンター建設を開始

OpenAIが先んじて数年分のメモリの大量発注かける

HBMを輸入できない中国と値上がり情報を得た転売屋がDDR5メモリを買い占める

今のうちに在庫確保せなって皆が買い占めに走って高騰

ここまで書かないと「OpenAIが、サム・アルトマンがすべて悪いんだ〜」みたいな奴が増えかねないよ
0746名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/15(木) 01:11:44.54ID:lvLdrOG20
>>745
OpenAIの買い占め報道でOpenAIを悪者にしてる奴が大量発生してるじゃん
OpenAIが買い占めなかったら競合AI企業が買い占めてただけなのに
あと、なぜAIに大容量メモリが必要になったのかを知らない人がいるかもしれない
0747名無しさん@ピンキー (ワッチョイ 520e-btwR)2026/01/15(木) 01:12:33.18ID:gJr7NyHH0
>>744
いやgpuの製造はopenaiの仕事じゃないから普通にopenaiが悪いよ
あと2年以上前からmoeやってるしmoe化が進んでなかったらスケーリングでごり推すんだから今以上にデータセンター必要だぞ
0748名無しさん@ピンキー (ワッチョイ 666d-uqmN)2026/01/15(木) 01:28:49.76ID:xG0eF0dQ0
ま、人類に与えられたリソースを食い潰す速度がとんでもなく加速してるって事よ
今生きてる人間にとっては楽しくて良い事だから遊びまくるしかねー
0749名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/15(木) 01:41:46.91ID:lvLdrOG20
>>747
MoEの理論自体は2013年発表だから時系列はおかしかったけど
Denseモデルでスケーリングごり押しができなくなったからMoE化が始まった認識であってるはず
Denseモデルはパラメーターを増やすと演算量が増えて遅くなる問題もあるから
0750名無しさん@ピンキー (ワッチョイ 7209-Bs3R)2026/01/15(木) 01:53:48.85ID:43plYfkx0
べつにリソースを食い潰してるわけではないだろ
急激に需要が伸びたから不足しただけでスケーリングはできる分野だぞ
0751名無しさん@ピンキー (ワッチョイ 520e-btwR)2026/01/15(木) 01:59:33.12ID:gJr7NyHH0
>>749
gpt4の時点からmoe使ってるってさんざん言われてたろ
多エキスパート小アクティブが進んだならわかるけどさ
ウエハの買い占めだって競合に嫌がらせしてnvidia相手に値切りたいだけだよ
0752名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/15(木) 02:23:10.99ID:lvLdrOG20
>>751
別にChatGPTだけじゃなくAI全体的な話なんだけどな
画像/動画生成も新世代モデルはMoE化してるし

OpenAIとNVIDIAの内部交渉的なことは情報がないのでわからん
あなたの妄想?
0753名無しさん@ピンキー (ワッチョイ d320-UF1D)2026/01/15(木) 06:28:50.54ID:85Oqk5Iu0
誰のせいかと言えばトランプ関税のせいでしょう
気まぐれで関税が倍になる時代なんだから全員に先行して押さえておくインセンティブが発生してしまう
誰がやったか全く関係ない
0754名無しさん@ピンキー (ワッチョイ b6a0-5de0)2026/01/15(木) 07:51:01.90ID:wIvUhweV0
旧世代回帰で、得をするのはインテルだな、いいね、13世代14世代なんてなかった。インテルの主力は12世代。
もうDDR3まで戻るって話もあるし、win11もいらなかったな
0756名無しさん@ピンキー (ワッチョイ 07ee-YDYy)2026/01/15(木) 08:16:20.78ID:Z7oUQcFB0
今SSDもヤバい事になってきてんだよね
サンディスクが前代未聞の1〜3年分のSSD代の前払いを要求とかなんとか
こっちも需給が崩壊しつつあるみたい
0757名無しさん@ピンキー (ワッチョイ e36a-SydR)2026/01/15(木) 11:15:13.47ID:4efICQPX0
だいたい悪いことは中国のせい
だからコレもそう
買い占めてるとかじゃねえの?
0759名無しさん@ピンキー (ワッチョイ 7e1c-zzHJ)2026/01/15(木) 17:08:12.65ID:1G9XiyS30
>>751
ウエハ買い占めは事実誤認
OpenAI批判以前の問題
自分がデマ信じ込んでるアホということを自覚したほうがいい
0760代行 (JP 0Hee-U7y1)2026/01/15(木) 20:54:56.64ID:7dBSkyyoH
【本文】↓

LMSTUDIOで少し前までqwen3-vl-8b-nsfw-caption-v4.5でNSFWの質問に回答してくれていたのですが、今試すと
I'm sorry, but I can't fulfill this request.
The content you're asking for is not appropriate and violates my safety guidelines.
If you have any other questions or need assistance with something else, feel free to ask!
という回答が返ってきました。これは設定の問題でしょうか
0761名無しさん@ピンキー (ワッチョイ 36a9-5de0)2026/01/15(木) 22:15:54.78ID:CTmaQDBZ0
llamacppで数日前にqwen3-nextの1〜2割高速化のパッチが当たってたみたいやで
ただしGGUFも新しく作り直されたものを使う必要あり
unslothはもう新しいのだしとったけどqwen公式は古いままやな
0763名無しさん@ピンキー (ワッチョイ 6fc6-SzXM)2026/01/16(金) 09:18:02.88ID:hP+canZw0
今ってVRAM16GB RAM64GBで動くエロいLLMモデルやとなにがええんや?
ワイの設定のせいやと思うんやがkoboldcppでamaterasuは十数秒に1ワードで使い物にならんかったわ…
BerghofとMistral-Smallしか使ってない感あって持て余し気味や
0765名無しさん@ピンキー (オッペケ Sr17-SydR)2026/01/16(金) 10:11:42.86ID:GfBjxY3wr
メモリ64gb積んでんなら行けるじゃん
0769名無しさん@ピンキー (スププ Sd12-UW4l)2026/01/16(金) 11:42:22.06ID:RzBIoy0Nd
RAM64GBだと、50GBクラスのモデルはctx8192とかにしないと厳しいかもね。
0770名無しさん@ピンキー (ワッチョイ ff10-KtG4)2026/01/16(金) 12:42:42.95ID:OlPZQfK10
DRAM活かすならMoEモデルだから確かにこのへんか
/mradermacher/Qwen3-Next-80B-A3B-Instruct-abliterated-GGUF
30Bは全然エロで出てこなくて画像解説させるためにVLの解除版使っても全然ダメだったんだけど
Next 80Bはエロ自体の学習はしてる感じなんだな
繰り返しペナルティ強めてるせいでどんどん言い換えてくるの面白い
0771名無しさん@ピンキー (ワッチョイ 7236-YDYy)2026/01/16(金) 12:48:45.28ID:SL230Bd20
コンテキスト長を増やすとどんどん性能が落ちるのは最新モデルでも変わらないので小説やロールプレイなどの用途では128K対応モデルだろうと8192推奨みたいやで
用途に合わせて仕方なく12Kやそれ以上にしてねって感じ
0772名無しさん@ピンキー (オッペケ Sr17-SydR)2026/01/16(金) 16:39:20.54ID:GfBjxY3wr
エロエロ特化のllmレンタルなら商売になるんでは?
レスを投稿する


ニューススポーツなんでも実況