なんJLLM部 避難所 ★9
0469名無しさん@ピンキー (JP 0H6e-MM1T)2025/09/25(木) 21:55:28.51ID:apj1zCrgH
カロリーは脳ミソでもかなり消費するはずだから
エネルギーが要るというのは間違ってはないと思う
お堅い文面でもLLMにぶち込むモノでも頭はけっこう使うし
0471名無しさん@ピンキー (ワッチョイ 4fa3-mwor)2025/09/26(金) 09:41:39.48ID:D5GOUI0s0
【朗報】さくらインターネットのAI、「さくらのAI Engine」の一般提供開始!!国策AIがついに動き出す! [673057929]
http://greta.5ch.net/test/read.cgi/poverty/1758803926/
 
これ一から自前で作ってる国産?
0479名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 17:23:27.60ID:f/GM/BxQ0
>>478
数ヶ月前までRinnaがやってたけどな最近は更新されてないか
0480名無しさん@ピンキー (ドコグロ MMca-YdyK)2025/09/26(金) 17:23:52.17ID:vox1d4RkM
日本語はGLMが優秀だぞ
0483名無しさん@ピンキー (ワッチョイ efd8-gFLl)2025/09/26(金) 20:43:31.02ID:3B4su3U20
予測はLLM使わんでも線形回帰でええやん
0485名無しさん@ピンキー (ワッチョイ bf38-/zn3)2025/09/26(金) 20:47:53.63ID:EP60vsIo0
詐欺メールもだな
0487名無しさん@ピンキー (オッペケ Srd7-l4qr)2025/09/26(金) 22:16:39.04ID:UNdtCLMYr
ROCm 6.4.4リリースでようやっとRyzen AI Max+ 395.がサポートされたみたいね
これからローカルLLMて進展が出てくるの期待だわ
0488名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 23:14:28.18ID:f/GM/BxQ0
llama.cppでもうすぐQwen3 Nextがサポートされそう
0491名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/26(金) 23:31:10.61ID:Gt003hUg0
jpxがなんか予測に使ってたな
0495名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/09/27(土) 07:51:56.30ID:0L5nCDDl0
4bitは結構性能下がるよ
あとtool coolingはコーディングみたいに1文字間違ったら動かない事が多いから量子化には元々厳しいと思うし
だからはじめから4bitしか公開されてないgptossがあの性能出てるのがすごい
0496名無しさん@ピンキー (ワッチョイ 7b8a-mDdK)2025/09/27(土) 14:01:26.70ID:wwGJW0Qw0
冷やすの?
0497名無しさん@ピンキー (ワッチョイ 8bc7-2yqi)2025/09/27(土) 23:25:17.87ID:LUN7vlE20
>>450
とりあえずclaudeのmaxプランに加入するとええで
レートリミット限界まで使わんと損した気になるから開発も学習も捗る
mcpがチャット版でも使えるのも大きい
特に今見てるブラウザのタブを読めるようにするmcpを使うと「今見てるこれって〜」みたいな質問ができるからドキュメント漁りがメッチャ楽
まぁ何より頭がええんやけどな
よく言われるコンテキスト圧縮問題もserena使えばそんなに問題にならん
0498名無しさん@ピンキー (ワッチョイ 8b85-ah/d)2025/09/28(日) 09:50:05.52ID:nL1wk7TI0
>>493
新参者の面白AI出てきてないからしゃあない
0500名無しさん@ピンキー (ワッチョイ ef27-dUNe)2025/09/28(日) 12:57:36.45ID:6EZ3OtYY0
初期はChatGPTがエロ厳しいからローカルでみたいなモチベーションあったけど
今は色んなサービス増えて規制ゆるくなってるし何なら無料枠でも結構遊べるからな
0501名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/28(日) 20:50:48.48ID:RcruL3Dv0
無知ですいません。おしえてください。EasyNovelAssistantを導入しライトノベルを書かせたいのですが、APIなどで料金が発生するのでしょうか?
0502名無しさん@ピンキー (ワッチョイ 4b00-mOlO)2025/09/28(日) 22:31:48.46ID:Ic/L9Cef0
>>501
ローカル=自分のPC内で全て完結するシステムなので料金は一切発生しないよ
ただしPCの性能が求められるので使ってるものによってはPCパーツ交換代がかかる
0503名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/29(月) 00:02:34.73ID:W6AEx9QY0
>>502
返答ありがとうございます。2060spなので不安ですが試してみます
0506名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/09/29(月) 19:17:38.22ID:Rnc8/N8gd
>>505
ツールのGGUF対応を待ってメインメモリへのオフロードを前提にすれば必要なメモリはだいぶ減るで

ワイのメモリ128GB&VRAM24GB環境でもいつかは動くと信じて口開けて待っとるで
0508名無しさん@ピンキー (ワッチョイ 4b8f-L54C)2025/09/29(月) 19:53:11.25ID:Mrcfa+Ng0
ほとんどの人はツール側が対応してくれるの待ちやで。128GBもあればQ8_0でも動かせるやろ
ワイ64GB環境やと高望みしてQ6、実際問題Q4がええとこやろなぁ……
0509名無しさん@ピンキー (JP 0H6f-L54C)2025/09/29(月) 21:22:12.02ID:Pe/CSr+TH
動画生成用に増設したDRAMがここでも役に立つとは嬉しいンゴ
0510名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/29(月) 23:28:05.71ID:OuKsRs/I0
推論中にタスクマネージャ見てるとCPUもGPUも使用率そこまで上がらないんですね
読み込むのに容量が必要なだけで推論自体はそこまでリソース使わないって認識で合ってますか?
0512名無しさん@ピンキー (ワッチョイ 1fba-4W0+)2025/09/29(月) 23:46:12.11ID:7xZP8KOK0
やってる計算はすげー単純だからなLLM
0513名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/30(火) 01:14:40.06ID:z5KqAsk90
command-a-03-2025とqwen3-235b-a22b
近いサイズまで量子化してあるやつを読み込んで推論したら
command-aの方は0.8t/sぐらいなのに
qwen3は5.0t/s出るんですけど
なんでこんなに差があってqwen3の方は早いんですか?
LMstudioでやってます、ロード時のパラメータでcommand-aには無いもの(エキスパート数とか)がqwen3にはありますがこれが影響してるのでしょうか
ローカルLLMに最近手を出したにわかですがご教示お願いします🙏
0519名無しさん@ピンキー (ワッチョイ 1f54-4W0+)2025/10/01(水) 01:16:08.28ID:9fO3SCJ10
アリババってQwenだけだろ
DeepSeekもKimiもGLMも全く別の企業だよ
0522名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 01:21:23.33ID:/m5iPuS8d
>>520
オープンソースAIでアメリカを殴りに行くのが中国の国家戦略だから
ぶっちゃけ現場は有無を言わさずオープンソースにさせられてると思う

俺らにはありがたい話だが
0524名無しさん@ピンキー (ワッチョイ 1f61-dRFZ)2025/10/01(水) 02:23:46.07ID:says+YzV0
アメリカモデルを中国モデルが追い越したら一気に情勢は変わりそうではある
最も賢いモデルにユーザ需要が集中するall or nothingの狂ったLLM市場で性能が劣るモデルがなんとか爪痕を残すためにオープンウェイトにしてるだけだろうしな
0526名無しさん@ピンキー (ワッチョイ 9b03-dRFZ)2025/10/01(水) 02:31:07.78ID:32tNb9ZU0
途中送信すまん
簡体字が文章中に稀に混じるからそれだけで一気に日本語が下手に感じてまうというバイアスもあるんだろうけど中国モデルは合成データ使いまくったバリバリのベンチマーク最適化の影響か文章も硬くて文章表現力もClaude gpt geminiには勝てないって印象
工ロ用途でも全然だし
0527名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 02:35:32.20ID:/m5iPuS8d
>>524
いずれMoEモデルの先に好きなエキスパートをモジュールとして入れ替えられる時代が来ると思う

日本語強化モジュールや翻訳専用モジュール、個人データ特化モジュールetc
今は汎用モデルの強化合戦が続いているが頭打ちになればカスタマイズの話が出てくるだろう
レスを投稿する


ニューススポーツなんでも実況