なんJLLM部 避難所 ★9
0431名無しさん@ピンキー (ワッチョイ be35-/zn3)2025/09/20(土) 12:42:40.70ID:JqUlC67e0
OpenRouterにGrok 4 Fastが来た。
しかもフリー。なんだこれ最高かよ。
0432名無しさん@ピンキー (ワンミングク MMa2-tQaT)2025/09/21(日) 10:00:43.82ID:TZGwxDCYM
CPU推論ってシングルスレッドが有効?
スリッパだとシングルが弱い上にメモリアクセスにワンクッション挟むからRyzen 8000シリーズより遅くなる印象

ThreadripperならGPU複数枚構成かなぁ
0434名無しさん@ピンキー (ワッチョイ f2d3-OtDG)2025/09/21(日) 20:42:01.00ID:UQ+WCB620
epycで良くないか?
SP5ソケットなら最大12ch動作やから500GB/sくらい出たはず
それにデュアルcpuにすれば理論帯域幅も倍になるから1000GB/s超えも狙える(ソフト側の問題で実際の速度向上は30%程度らしい)
まあCCDの数で実際の帯域幅は律速されるから12chフルで使えるCPUにすると数百万コースやけど
0435名無しさん@ピンキー (ワッチョイ f2d3-OtDG)2025/09/21(日) 21:01:38.73ID:UQ+WCB620
調べたら9B45とか128core DDR5 12channel で50万くらいなので組み方次第で100万以下も狙えそう
MoEならGPUも載せて一部オフロードすればさらに高速化狙えるし
0439名無しさん@ピンキー (ワッチョイ f2c7-yPTp)2025/09/22(月) 05:29:51.21ID:acG4VmK/0
Threadripper Proやepyc買うなら24コア以上推奨
16コア以下だとCCD数の関係で、例えば8chのメモリ帯域をフルに活かせない
chが増えるほど必要なCCD数がいるはず
0444名無しさん@ピンキー (ワッチョイ f7fb-5nxf)2025/09/23(火) 09:25:22.55ID:bSvVK3GU0
Qwen明日またモデル出るっぽいな
ミニサイズで性能良かったら嬉しいが、
0445名無しさん@ピンキー (ワッチョイ 2249-YdyK)2025/09/23(火) 14:14:46.14ID:J/x1dQw60
Qwenのリリース速度はすごいな
さすがアリババ
クラウドサービス持ってるところは強い
0446名無しさん@ピンキー (ワッチョイ f3a4-KxXW)2025/09/24(水) 06:28:25.56ID:Tg8zlyhV0
>>424
人類が意味と価値を見出せるパターンが文章より圧倒的に少ない
ローカルで動いてる画像生成なんて裸の女の子ドーン!みたいな似たような絵しか出ないやろ
それに自然言語で色々出せるモデルはそろそろローカルじゃキツくなってきてるころや
0447名無しさん@ピンキー (ワッチョイ db8e-fBkI)2025/09/24(水) 12:35:38.81ID:PYQ60cU40
エロ小説をLMstudio君に生成させてみたいんだけどどのモデルがいいのかね?
さすがにgptモデルじゃ無理でした…
0449名無しさん@ピンキー (ワッチョイ db8e-fBkI)2025/09/24(水) 17:44:39.49ID:PYQ60cU40
>>448
おほーサンクス
家に帰ってみたら早速実装してみます
0450名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 17:49:04.04ID:q/lnB44d0
オナテク板で真面目なLLM性能も議論してるから教えて欲しいんやが
コード添付して色々教えてもらうのってどのモデルがええんや?
GPTやと1つのphpコードであれこれ入門的な説明してもらってるときに
「添付があるからこれ以上続行すらさせへんで」になるからLLMでやりたいんや
0452名無しさん@ピンキー (ワッチョイ f26b-YdyK)2025/09/24(水) 18:06:27.43ID:EqE2QH2E0
codex使えば?
0453名無しさん@ピンキー (ブーイモ MM92-QGC9)2025/09/24(水) 18:08:51.17ID:wQMvlyu2M
コーディングだとclaudeが強いって前に評判だったけど最新の情勢は違うのかもしれん
ローカルだとそもそもコンテキストサイズ的に満足行く回答が得られるか怪しいと思うで
0455名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 18:17:46.93ID:q/lnB44d0
>>451-453
サンガツ
添付が無かったらワイのつたない質問でも永遠に相手してくれるんやが
100行のPHPコードだけでもすぐに「このスレッドには添付があるからこれ以上は質問すらさせへんで」になるのが無料やから仕方ないんよな
0457名無しさん@ピンキー (ワッチョイ 1f81-gFLl)2025/09/24(水) 18:55:55.40ID:ARkRWnqL0
どうしてもローカルがいいならgpt-oss 20B/120Bかqwen3 coder試してみて、ダメだったらcodexとかclaude codeにいくしかないと思うで
強めのグラボ積んでるならLM StudioでGPU offloadを最大にしてflash attensionを有効にすればワイの環境ならgpt-oss 120Bで140tok/sec出てるで
長めの文章読み込めるようにcontext lengthをそのモデルの最大(gpt-ossなら13万)にするか、遅くならない程度の値にしておくんやで
0458名無しさん@ピンキー (ワッチョイ bffd-pB+b)2025/09/24(水) 18:56:33.04ID:gh85Ul4x0
コードを扱うならどこのAIでも良いので大人しく課金した方が良い
仕事でバリバリ使ってない限り20$の一番安いプランで、
チャットでもCLIでもまず制限には当たらない
0461名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 19:03:54.92ID:q/lnB44d0
>>456-458
それでご飯食べてるわけではなくて初学者で
まれにファイル添付して全体的な質問をする時があるくらいやからその時はローカルでと思ったんやが
codeがついているモデルで添付OKなモデルでやってみるやで
0462名無しさん@ピンキー (ワッチョイ bf06-/zn3)2025/09/24(水) 19:09:04.54ID:w2HZ4JhN0
動かなかったら直せばええ
0464名無しさん@ピンキー (ワッチョイ 9320-VUrW)2025/09/24(水) 19:47:13.41ID:ZtGaaXzi0
なんも考えずにChatGPT契約して使い倒してから続けるか止めるか考えればいい
ローカルLLMは日本語でやりとりすることによる 性能ロスが大きすぎるから殆どの用途で使い物にならん
英語ネイティブですというなら違う可能性はあるけど
0467名無しさん@ピンキー (ワッチョイ f7b6-/zn3)2025/09/25(木) 06:53:11.82ID:Z3kA1xHf0
ワイも必須になりつつある
毎日の食事カロリー計算から運動のリマインダー、
あとマイコンボードでのデバイス制作とめちゃ助かってる
(肝心な部分はredditの海外ニキらのコメントだが)

でもローカルLLMはロマンはあるンゴね
0469名無しさん@ピンキー (JP 0H6e-MM1T)2025/09/25(木) 21:55:28.51ID:apj1zCrgH
カロリーは脳ミソでもかなり消費するはずだから
エネルギーが要るというのは間違ってはないと思う
お堅い文面でもLLMにぶち込むモノでも頭はけっこう使うし
レスを投稿する


ニューススポーツなんでも実況