なんJLLM部 避難所 ★8
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@ピンキー 転載ダメ (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:18:32.02ID:0Ak3eO5y0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0952名無しさん@ピンキー (ワッチョイ 9b4e-NT8x)2025/08/18(月) 19:28:17.98ID:fAvcvBE00
>>951
Airなら一応openrouter経由無料で使えるんだよな
Openrouterの無料モデルの制限上限までしゃぶるために10ドル課金したわ
0953名無しさん@ピンキー (ワッチョイ ef27-tc79)2025/08/18(月) 19:42:28.61ID:Kb4I0FOW0
>>947
エロだとこんな感じでした
https://imgur.com/a/nC23YkN
0954名無しさん@ピンキー (ワッチョイ df23-9CBc)2025/08/18(月) 21:02:36.87ID:oRsM7ome0
Openrouter無料枠って問答無用で学習に利用されるんじゃなかったっけ?
たしか「Enable free endpoints that may train on inputs」を有効にしないと無料枠使えなかったと思うんだが
ちょっと不安

…そんなもん気にするならそもそもやるな、って話なら、そりゃそうだとも思う
0959名無しさん@ピンキー (ワッチョイ 1fa4-AVXO)2025/08/19(火) 08:35:58.74ID:jfYTe0rq0
GLM4.5、思考中の内容を読めるけど「ユーザーはこのようにしてLLMを騙してポリシーをないものにしようとしている」みたいなの見てると面白いな
脱獄の参考にもなる
0963名無しさん@ピンキー (ワッチョイ ef99-9oPA)2025/08/19(火) 16:46:53.84ID:GHs6ZxNk0
OpenCVは数学的に正確な関数であって幻覚がでる拡散モデルじゃないから用途が全然違うから比べられない
もっともClear LinuxもOpenCVもCPUもIntelだからオワコンではあるが
0965名無しさん@ピンキー (ワッチョイ 1fac-Yi6T)2025/08/20(水) 02:05:56.89ID:cOfEFQ1c0
>>951
Chutesの推論apiサブスク(10ドルプラン)で使ってるけど、アレも多分プライバシーポリシーなにそれなやつだと思うからオススメはしにくいな
0968名無しさん@ピンキー (ワッチョイ 5f27-wbf1)2025/08/20(水) 18:01:39.87ID:7ub/X3NL0
>>964
空リポジトリなのにすでに500↑いいねとかDeepseekほんま覇権やな
0971名無しさん@ピンキー (ワッチョイ 7bf8-Bfp2)2025/08/20(水) 23:54:02.44ID:zh7ersEL0
MoEのが結果的にvRAM節約出来てるから方向性的にはそれで良い気はする
GPT-ossもm4macbook単体で動くレベルなのが凄いし
0972名無しさん@ピンキー (ワッチョイ df3d-fSvz)2025/08/21(木) 00:02:39.22ID:wevjbNHK0
100B前後のmoeはdenseの24-32B程度の性能しかない(LMarena基準)
それでいてオフロードしないと動かせないし速度もアクティブパラメータ次第だけどVRAMに全部載った30Bより遅い
例えばgpt oss 120B(A5.1B)を4090 + DDR5 96GBで動かすと15-20t/s
GLM4.5 airだと10-12t/s 一方高密度32Bモデルの4bitが4090で30-35t/sも出る
その上微調整しようとするとパラメータ数相応のメモリが要求されるから嫌い
サービスを提供したりcpuオンリー環境なら恩恵あるのは理解できるけどね
0974名無しさん@ピンキー (ワッチョイ 5f49-Zqh3)2025/08/21(木) 02:06:48.97ID:FiSFa4JV0
>>973
Mistral Mediumは?
0975名無しさん@ピンキー (ワッチョイ 0f75-UyD4)2025/08/21(木) 02:35:57.47ID:pa6JuIeq0
no-thinkingとほぼ互角って感じやねthinkingだと差をつけられるんじゃないかな
VRAMをもっと手軽に盛れる環境がこないかぎりはMoE路線の方が今のところの現実路線な感じがする
ryzen ai max+ 395とかユニファイドメモリもうちょっと盛り上がってくれるといいんだけど
0978名無しさん@ピンキー (ワッチョイ 7bf8-Bfp2)2025/08/21(木) 16:28:13.28ID:exCP1ZjN0
Deepseekv3.1出たけどAPIのコスパの良さが際立つくらいで671B-A37Bはローカルやと使いにくそうやね
0979名無しさん@ピンキー (スッププ Sd3f-bXPR)2025/08/21(木) 16:45:15.65ID:QlompAIld
>>978
そこら辺はオープンウェイトとは言ってもH100クラスを想定した設計なんじゃね
Kimi K2やGLMもそう

Qwen3-235B-A22Bだけが大型モデルで唯一ご家庭で動くギリギリを狙ってきている
QwenはImageもあるし設計思想がPCを意識しているんだろう
0982名無しさん@ピンキー (ワッチョイ 9f8d-Zqh3)2025/08/22(金) 08:04:12.44ID:gBBSaTvB0
DeepSeek3.1公開されたな
0984名無しさん@ピンキー (ワッチョイ df3d-fSvz)2025/08/22(金) 09:42:34.70ID:YC6+2a2u0
redditに出てたけどpro 6000での20b 120bの出力速度はそれぞれ200t/s 140t/sらしい
ちなみにvllmを使うとgpt 20bをバッチ機能を使って計算リソースを飽和させれば4090でも10000t/s出るらしい
複数利用を想定するならMoEは圧倒的に有利
0985名無しさん@ピンキー (ワッチョイ 1fb5-Bfp2)2025/08/22(金) 09:51:39.78ID:fGlEkz760
ローカルLLM演算って基本同規模vRAMなら帯域差でMac勝つ印象だけどそうでもない?
0986名無しさん@ピンキー (ワッチョイ 8bb9-Zqh3)2025/08/22(金) 10:32:34.07ID:RAz9ttUF0
>>985
その認識であってると思う
結局MacはGPUの性能が足りてないから
0991名無しさん@ピンキー (ワッチョイ 9f13-9oPA)2025/08/22(金) 15:37:40.41ID:6PYaQLmY0
インテルはAVX2(AVX-256)があるからCPU単体でも並列演算で速い
AVX-512ネイティブ対応ならさらに早い(AMDはエミュだけど)
Apple Mシリーズ NEON(ARM SIMD)は128bitしかない
GPU側だとUltraまでいかないと演算器が足りない。Ultraで4070くらい
ただ実際「汎用の」ピクセルシェーダーを書いてると5090並に速くなることもあるんだよね
バス幅が有利なんかな
0992名無しさん@ピンキー (ワッチョイ 1fe2-tp/S)2025/08/22(金) 15:42:10.82ID:PVV3YDN30
RTX3090でも快適に使えるエチチもいけるLLMで今ベストってQwen3-32B-Uncensored.Q4_K_M?
0994名無しさん@ピンキー (ワッチョイ 1f73-Zqh3)2025/08/22(金) 17:57:09.89ID:bK/Vt5N00
>>993
coreだとメモリ帯域足りなくてAMX搭載しても活かしきれなさそう
0995名無しさん@ピンキー (ワッチョイ 6bad-9CBc)2025/08/22(金) 18:03:48.37ID:YJ+F97c90
core ultraとか言う中途半端オブ中途半端sの事は考えなくて良いと思う
0996名無しさん@ピンキー (ワッチョイ 1fe2-tp/S)2025/08/22(金) 23:02:39.73ID:sywHngdj0
もうみんなローカルLLMは使ってないの?APIのみ?
0997名無しさん@ピンキー (ワッチョイ fbf8-GMkG)2025/08/23(土) 03:57:02.83ID:XYdbbERa0
ddr6と同時にintelもAMDも4ch動作をコンシューマで解禁するみたいな噂もあるしローカルはCPU推論がメインになりそうではあるな
nova lakeとか52コアで高くても20万円くらいでしょ 4ch ddr6なら帯域幅256GB-512GB/sも狙えるしMoEなら70万円程度でSOTAモデルを実用レベルで動かせる可能性高そう
というかそう考えるとmac studioの先見性すごいな
0998名無しさん@ピンキー (JP 0H0e-TcND)2025/08/23(土) 04:46:12.08ID:hvD7X/jjH
Mac Stuidoの場合基板にメモリ直付けでオクタチャンネルだしな
NVIDIAにしてもサーバー向けのGrace HopperはArmCPUにGPUとHBMメモリの一体設計だし

ソケットやスロットで全部のパーツを交換可能なのが自作PCの強みだけど、AIでハイパフォーマンスを目指すとなると、ソケットやスロットで配線が厳しいのがボトルネックになってきてる
0999名無しさん@ピンキー (ワッチョイ f251-53nT)2025/08/23(土) 08:53:46.42ID:4DO7qNsY0
ローカルLLM初心者なんだがLM StudioでNSFWで検索したら出てきたQwen-72B-nsfw-novel-GGUFをダウンロード中なんだが
もしかしてNSFWよりUncensoredの方がファイル名としては一般的?
1000名無しさん@ピンキー (ワッチョイ e626-TnY8)2025/08/23(土) 09:51:52.68ID:ZvENN5EZ0
どっちなんだろうね?
10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 104日 11時間 33分 22秒
10021002Over 1000Thread
BBSPINKの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 専用ブラウザからの広告除去
★ 過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.bbspink.com/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況