なんJLLM部 避難所 ★8
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@ピンキー 転載ダメ (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:18:32.02ID:0Ak3eO5y0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0978名無しさん@ピンキー (ワッチョイ 7bf8-Bfp2)2025/08/21(木) 16:28:13.28ID:exCP1ZjN0
Deepseekv3.1出たけどAPIのコスパの良さが際立つくらいで671B-A37Bはローカルやと使いにくそうやね
0979名無しさん@ピンキー (スッププ Sd3f-bXPR)2025/08/21(木) 16:45:15.65ID:QlompAIld
>>978
そこら辺はオープンウェイトとは言ってもH100クラスを想定した設計なんじゃね
Kimi K2やGLMもそう

Qwen3-235B-A22Bだけが大型モデルで唯一ご家庭で動くギリギリを狙ってきている
QwenはImageもあるし設計思想がPCを意識しているんだろう
0982名無しさん@ピンキー (ワッチョイ 9f8d-Zqh3)2025/08/22(金) 08:04:12.44ID:gBBSaTvB0
DeepSeek3.1公開されたな
0984名無しさん@ピンキー (ワッチョイ df3d-fSvz)2025/08/22(金) 09:42:34.70ID:YC6+2a2u0
redditに出てたけどpro 6000での20b 120bの出力速度はそれぞれ200t/s 140t/sらしい
ちなみにvllmを使うとgpt 20bをバッチ機能を使って計算リソースを飽和させれば4090でも10000t/s出るらしい
複数利用を想定するならMoEは圧倒的に有利
0985名無しさん@ピンキー (ワッチョイ 1fb5-Bfp2)2025/08/22(金) 09:51:39.78ID:fGlEkz760
ローカルLLM演算って基本同規模vRAMなら帯域差でMac勝つ印象だけどそうでもない?
0986名無しさん@ピンキー (ワッチョイ 8bb9-Zqh3)2025/08/22(金) 10:32:34.07ID:RAz9ttUF0
>>985
その認識であってると思う
結局MacはGPUの性能が足りてないから
0991名無しさん@ピンキー (ワッチョイ 9f13-9oPA)2025/08/22(金) 15:37:40.41ID:6PYaQLmY0
インテルはAVX2(AVX-256)があるからCPU単体でも並列演算で速い
AVX-512ネイティブ対応ならさらに早い(AMDはエミュだけど)
Apple Mシリーズ NEON(ARM SIMD)は128bitしかない
GPU側だとUltraまでいかないと演算器が足りない。Ultraで4070くらい
ただ実際「汎用の」ピクセルシェーダーを書いてると5090並に速くなることもあるんだよね
バス幅が有利なんかな
0992名無しさん@ピンキー (ワッチョイ 1fe2-tp/S)2025/08/22(金) 15:42:10.82ID:PVV3YDN30
RTX3090でも快適に使えるエチチもいけるLLMで今ベストってQwen3-32B-Uncensored.Q4_K_M?
0994名無しさん@ピンキー (ワッチョイ 1f73-Zqh3)2025/08/22(金) 17:57:09.89ID:bK/Vt5N00
>>993
coreだとメモリ帯域足りなくてAMX搭載しても活かしきれなさそう
0995名無しさん@ピンキー (ワッチョイ 6bad-9CBc)2025/08/22(金) 18:03:48.37ID:YJ+F97c90
core ultraとか言う中途半端オブ中途半端sの事は考えなくて良いと思う
0996名無しさん@ピンキー (ワッチョイ 1fe2-tp/S)2025/08/22(金) 23:02:39.73ID:sywHngdj0
もうみんなローカルLLMは使ってないの?APIのみ?
0997名無しさん@ピンキー (ワッチョイ fbf8-GMkG)2025/08/23(土) 03:57:02.83ID:XYdbbERa0
ddr6と同時にintelもAMDも4ch動作をコンシューマで解禁するみたいな噂もあるしローカルはCPU推論がメインになりそうではあるな
nova lakeとか52コアで高くても20万円くらいでしょ 4ch ddr6なら帯域幅256GB-512GB/sも狙えるしMoEなら70万円程度でSOTAモデルを実用レベルで動かせる可能性高そう
というかそう考えるとmac studioの先見性すごいな
0998名無しさん@ピンキー (JP 0H0e-TcND)2025/08/23(土) 04:46:12.08ID:hvD7X/jjH
Mac Stuidoの場合基板にメモリ直付けでオクタチャンネルだしな
NVIDIAにしてもサーバー向けのGrace HopperはArmCPUにGPUとHBMメモリの一体設計だし

ソケットやスロットで全部のパーツを交換可能なのが自作PCの強みだけど、AIでハイパフォーマンスを目指すとなると、ソケットやスロットで配線が厳しいのがボトルネックになってきてる
0999名無しさん@ピンキー (ワッチョイ f251-53nT)2025/08/23(土) 08:53:46.42ID:4DO7qNsY0
ローカルLLM初心者なんだがLM StudioでNSFWで検索したら出てきたQwen-72B-nsfw-novel-GGUFをダウンロード中なんだが
もしかしてNSFWよりUncensoredの方がファイル名としては一般的?
1000名無しさん@ピンキー (ワッチョイ e626-TnY8)2025/08/23(土) 09:51:52.68ID:ZvENN5EZ0
どっちなんだろうね?
10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 104日 11時間 33分 22秒
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況