なんJLLM部 避難所 ★9
0455名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 18:17:46.93ID:q/lnB44d0
>>451-453
サンガツ
添付が無かったらワイのつたない質問でも永遠に相手してくれるんやが
100行のPHPコードだけでもすぐに「このスレッドには添付があるからこれ以上は質問すらさせへんで」になるのが無料やから仕方ないんよな
0457名無しさん@ピンキー (ワッチョイ 1f81-gFLl)2025/09/24(水) 18:55:55.40ID:ARkRWnqL0
どうしてもローカルがいいならgpt-oss 20B/120Bかqwen3 coder試してみて、ダメだったらcodexとかclaude codeにいくしかないと思うで
強めのグラボ積んでるならLM StudioでGPU offloadを最大にしてflash attensionを有効にすればワイの環境ならgpt-oss 120Bで140tok/sec出てるで
長めの文章読み込めるようにcontext lengthをそのモデルの最大(gpt-ossなら13万)にするか、遅くならない程度の値にしておくんやで
0458名無しさん@ピンキー (ワッチョイ bffd-pB+b)2025/09/24(水) 18:56:33.04ID:gh85Ul4x0
コードを扱うならどこのAIでも良いので大人しく課金した方が良い
仕事でバリバリ使ってない限り20$の一番安いプランで、
チャットでもCLIでもまず制限には当たらない
0461名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 19:03:54.92ID:q/lnB44d0
>>456-458
それでご飯食べてるわけではなくて初学者で
まれにファイル添付して全体的な質問をする時があるくらいやからその時はローカルでと思ったんやが
codeがついているモデルで添付OKなモデルでやってみるやで
0462名無しさん@ピンキー (ワッチョイ bf06-/zn3)2025/09/24(水) 19:09:04.54ID:w2HZ4JhN0
動かなかったら直せばええ
0464名無しさん@ピンキー (ワッチョイ 9320-VUrW)2025/09/24(水) 19:47:13.41ID:ZtGaaXzi0
なんも考えずにChatGPT契約して使い倒してから続けるか止めるか考えればいい
ローカルLLMは日本語でやりとりすることによる 性能ロスが大きすぎるから殆どの用途で使い物にならん
英語ネイティブですというなら違う可能性はあるけど
0467名無しさん@ピンキー (ワッチョイ f7b6-/zn3)2025/09/25(木) 06:53:11.82ID:Z3kA1xHf0
ワイも必須になりつつある
毎日の食事カロリー計算から運動のリマインダー、
あとマイコンボードでのデバイス制作とめちゃ助かってる
(肝心な部分はredditの海外ニキらのコメントだが)

でもローカルLLMはロマンはあるンゴね
0469名無しさん@ピンキー (JP 0H6e-MM1T)2025/09/25(木) 21:55:28.51ID:apj1zCrgH
カロリーは脳ミソでもかなり消費するはずだから
エネルギーが要るというのは間違ってはないと思う
お堅い文面でもLLMにぶち込むモノでも頭はけっこう使うし
0471名無しさん@ピンキー (ワッチョイ 4fa3-mwor)2025/09/26(金) 09:41:39.48ID:D5GOUI0s0
【朗報】さくらインターネットのAI、「さくらのAI Engine」の一般提供開始!!国策AIがついに動き出す! [673057929]
http://greta.5ch.net/test/read.cgi/poverty/1758803926/
 
これ一から自前で作ってる国産?
0479名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 17:23:27.60ID:f/GM/BxQ0
>>478
数ヶ月前までRinnaがやってたけどな最近は更新されてないか
0480名無しさん@ピンキー (ドコグロ MMca-YdyK)2025/09/26(金) 17:23:52.17ID:vox1d4RkM
日本語はGLMが優秀だぞ
0483名無しさん@ピンキー (ワッチョイ efd8-gFLl)2025/09/26(金) 20:43:31.02ID:3B4su3U20
予測はLLM使わんでも線形回帰でええやん
0485名無しさん@ピンキー (ワッチョイ bf38-/zn3)2025/09/26(金) 20:47:53.63ID:EP60vsIo0
詐欺メールもだな
0487名無しさん@ピンキー (オッペケ Srd7-l4qr)2025/09/26(金) 22:16:39.04ID:UNdtCLMYr
ROCm 6.4.4リリースでようやっとRyzen AI Max+ 395.がサポートされたみたいね
これからローカルLLMて進展が出てくるの期待だわ
0488名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 23:14:28.18ID:f/GM/BxQ0
llama.cppでもうすぐQwen3 Nextがサポートされそう
0491名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/26(金) 23:31:10.61ID:Gt003hUg0
jpxがなんか予測に使ってたな
0495名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/09/27(土) 07:51:56.30ID:0L5nCDDl0
4bitは結構性能下がるよ
あとtool coolingはコーディングみたいに1文字間違ったら動かない事が多いから量子化には元々厳しいと思うし
だからはじめから4bitしか公開されてないgptossがあの性能出てるのがすごい
0496名無しさん@ピンキー (ワッチョイ 7b8a-mDdK)2025/09/27(土) 14:01:26.70ID:wwGJW0Qw0
冷やすの?
0497名無しさん@ピンキー (ワッチョイ 8bc7-2yqi)2025/09/27(土) 23:25:17.87ID:LUN7vlE20
>>450
とりあえずclaudeのmaxプランに加入するとええで
レートリミット限界まで使わんと損した気になるから開発も学習も捗る
mcpがチャット版でも使えるのも大きい
特に今見てるブラウザのタブを読めるようにするmcpを使うと「今見てるこれって〜」みたいな質問ができるからドキュメント漁りがメッチャ楽
まぁ何より頭がええんやけどな
よく言われるコンテキスト圧縮問題もserena使えばそんなに問題にならん
0498名無しさん@ピンキー (ワッチョイ 8b85-ah/d)2025/09/28(日) 09:50:05.52ID:nL1wk7TI0
>>493
新参者の面白AI出てきてないからしゃあない
0500名無しさん@ピンキー (ワッチョイ ef27-dUNe)2025/09/28(日) 12:57:36.45ID:6EZ3OtYY0
初期はChatGPTがエロ厳しいからローカルでみたいなモチベーションあったけど
今は色んなサービス増えて規制ゆるくなってるし何なら無料枠でも結構遊べるからな
0501名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/28(日) 20:50:48.48ID:RcruL3Dv0
無知ですいません。おしえてください。EasyNovelAssistantを導入しライトノベルを書かせたいのですが、APIなどで料金が発生するのでしょうか?
レスを投稿する


ニューススポーツなんでも実況