なんJLLM部 避難所 ★9
0267名無しさん@ピンキー (ワッチョイ ef32-njCc)2025/09/13(土) 01:18:53.79ID:HrAIeHG00
>>265
ソース出せないから数字とかは間違ってると思うんだけど
強制力の強さに比例して能力下がるって検証は見た
追加学習で緩めただけのuncensoredは能力95%ぐらい?維持してるけど
申し訳回路を切り取るabliteratedは90%ぐらいになっちゃうとかそんな感じ
0268名無しさん@ピンキー (ワッチョイ 93d8-1HIo)2025/09/13(土) 03:22:31.50ID:TKGAGKeK0
>>264
ありがとう、無事できました!
なりきりエロチャットで興奮してるのか、無知ロリ睡眠姦の脳内状況で興奮してるのか
お堅いgemma3にSDで作ったエロ画像見せてエロいこと言わせて興奮してるのかよくわかんなくなってきた
https://i.imgur.com/5EPiZp1.png

でもちょいちょい編集挟むせいでやっぱライブ感みたいなのはちょっと削がれてしまうなあ
0269名無しさん@ピンキー (ワッチョイ f381-qA8f)2025/09/13(土) 07:50:57.09ID:BwDCm1wF0
https://github.com/ggml-org/llama.cpp/issues/15940#issuecomment-3286596522

> Qwen3-Nextを動かそうとしている皆さんへの注意点です:
> 単純にGGUFへ変換するだけでは動作しません。
>
> このモデルはハイブリッド構造で、通常のTransformerではなく、Mambaに似た独自のSSMアーキテクチャを採用しています。そのため、llama.cpp 内でゼロから新しい複雑なGPUカーネル(CUDA/Metal)を書かなければなりません。
>
> これは非常に大きな作業で、高度に専門的なエンジニアがフルタイムで取り組んでも2〜3か月はかかるでしょう。Qwenチームが実装を提供するまでは、簡単に解決できる方法はありません。
>
> したがって、この中核的なサポートが追加されるまでは、GGUF変換は機能しないままです。

全裸待機してた良い子のみんなは服を着て待とうね
0270名無しさん@ピンキー (ワッチョイ bfec-jGdL)2025/09/13(土) 07:51:53.74ID:joLGzCV70
LM Studioでmagnum-v4 9.5GBモデルなんだけどmistralよりちょっと遅いので
タスクマネージャーを見ると
4070のVRAMで、オフロード40/40で12GB中 10GBでcudaが35%でcpuが85%ぐらい
1秒で5文字ぐらいでポロポロ出る感じ

mistralは高速でcudaが95%、cpuが15%ぐらいとこれはモデルの差?
完全にGPUのVRAMに入っているとmistralぐらい速度が出るかなと思ったけど
cpuにかなり負荷をかけて遅く不思議なのでもし何か改善策があれば教えて欲しいです
0271名無しさん@ピンキー (ワッチョイ bf92-yMi3)2025/09/13(土) 08:58:03.14ID:aVLfybxo0
>>269
Transformerとは違うのか
そこまで改良いれてくるってことは開発力あるんだろうけど使う側は困るな
0273名無しさん@ピンキー (ワッチョイ ef32-njCc)2025/09/13(土) 09:46:11.10ID:HrAIeHG00
>>272
グラボの設定でシステムフォールバックをオフにしないと自動でメインメモリに漏れるよ
CPUが動いてるなら漏れてるんだと思う
それと同じファイルサイズでもVRAM使用量はモデルによって違うから単純に比較もできない
0277名無しさん@ピンキー (ワッチョイ 9317-7bF0)2025/09/13(土) 15:24:35.08ID:oYHl/ZN30
iPhoneの新しいA19はNuralEngine(NPU)の他にGPUにもNEを追加した
推論速度は最大3倍とのこと。このコアはGPUと直結してる
これM5に積まれるのかな
M4 maxでgpt-oss-70bで70tk/sが、M5 maxで210tk/sになるんだったから買い替える
A19ではバス幅も増えたらしいけどM系だと配線の問題で難しいかな
いやでもM5 Ultraでるのか?
0281名無しさん@ピンキー (ワッチョイ 3ff8-4KE6)2025/09/13(土) 23:10:40.83ID:M1Uy/5sK0
どちらかと言えば今までのアップルシリコンのNPU実装やfp16対応周りがウンコすぎて超絶低性能だっただけで、ようやくまともにAI扱える現代的なGPUになっただけやね
0283名無しさん@ピンキー (ワッチョイ cf36-F72q)2025/09/14(日) 01:09:38.17ID:v4V89Gas0
DGX Sparkが70万円近くしそうなのであきらめてGMKTecの128GBにしようと考えているんですが
同じGMKTecでもEVO-X2が36万なのに対してEVO-T1が22万程度で値段にかなり差があるんですがどちらもLLMの運用には使えるんでしょうか?
こんなに値段が違うということは性能差もかなりあるんですかね?
EVO-X2はAMD、EXO-T1はIntelというハードウェア面の違いがあるんですがOllamaが使えて能力もそんなに変わらないなら安いに越したことはないのですがデメリットとかあるんでしょうか
一時期DGX Sparkの代替として話題になってたのはEVO-X2(AI MAX+ 395)の方ですけど
0285名無しさん@ピンキー (ワッチョイ cf36-F72q)2025/09/14(日) 01:46:16.16ID:v4V89Gas0
>>284
意味不明…
なんで中華製ってだけで異常に過剰反応するの?LLMすらオープンソースのトップレベルのモデルは中華だらけだけど?
そんなこと言うなら同コストでROCmでもいいからVRAM128GB確保できる国産ハードウェアぐらいだしてほしいね
今の日本じゃ無理だろうけど
0289名無しさん@ピンキー (ワッチョイ cf36-F72q)2025/09/14(日) 02:08:28.57ID:v4V89Gas0
>>286
思ってたよりCPUスレッド数、L3キャッシュ、メモリチャンネルあたりに差があるから処理速度に影響でそう
ありがとう

>>288
それは確かにそうだけど
LLMでもMoEじゃないのもあるしROCm対応のソフトウェアが増えれば高VRAMだと汎用性もでてくると思ってね


変な気持ち悪いのが湧いてるんでこのへんで
0291名無しさん@ピンキー (ワッチョイ 93fb-rla9)2025/09/14(日) 02:40:55.24ID:gZpccfHg0
AMDに期待するな
NVIDIAがCUDAを公開しGPGPUと言う分野を牽引してもうすぐ二十年経つが
AMDはその間に近いスペックのGPUを作りながらも何もしてこなかった
ようやくNVIDIAが育てたGPGPUが金を稼ぎ始めたのに、AMDはそこにタダ乗りすら出来てない
0292名無しさん@ピンキー (ワッチョイ 7364-KuJ2)2025/09/14(日) 02:55:07.82ID:a6uSvWR90
LLMの運用に使えるかどうか聞いてたくせにもっといいのがあるって言われたら「ROCm対応のソフトウェアが〜」って謎の仮定持ち出して反論し始める変な気持ち悪いのが湧いてるね
0294名無しさん@ピンキー (ワッチョイ bfc7-AeYv)2025/09/14(日) 08:14:46.35ID:1W29L+vM0
それはそうと前スレのこれが気になる

205 名無しさん@ピンキー (ブーイモ MMff-3IWN) sage 2025/05/27(火) 08:15:58.74 ID:dwqDJGhLM
strix halo機(EVO-X2)入手したんでちょっといじってみた
lm studioでrocmランタイム有効化してmagnum-v4-123bのq3klがだいたい2.5tok/s前後でした

EVO-X2は非MoEのmagnum-v4-123bを実用的な速度で動かせるの?
0295名無しさん@ピンキー (ワッチョイ f381-F72q)2025/09/14(日) 10:10:43.68ID:za+Pen0t0
中華うんぬん言い始めたら自作PCすら出来ないしケンカすんな
って思うけど>>283の文章が単純に読みにくいからChatGPTに相談校正してもらってほしいわ

んでEVO-T1見てみたけどLLMに利点もなさすぎだろ
現状NPUはほぼ使い道ないしコンパクトであること以外に価値なし
EVO-X2はメモリ帯域が普通よりも早くてGPUと共有されるからちょっと価値があるんであって
こんなん買うぐらいなら自作PCしとけば

って思いました
0296名無しさん@ピンキー (JP 0H37-EpZw)2025/09/14(日) 11:46:59.15ID:NyyAavLNH
今はあれもこれも中華からは切り離せないからな
トランプは切り離そうとしたけど無理だった
今の時代中華アレルギー持ってたらデジタル関係ではなんもできなくなるで
0298名無しさん@ピンキー (ワッチョイ bf62-F72q)2025/09/14(日) 12:49:53.26ID:zVgb5w2a0
MI50とか帯域幅1000GB/sで32GBなのに3万以下で買えるしMoE用なら計算速度がボトルネックにならないだろうし面白そうなんやが
パッシブ冷却は面倒だけど
0300名無しさん@ピンキー (スッププ Sddf-jiGm)2025/09/14(日) 13:32:05.97ID:1zeAijZud
ちなみにXでも数日前に同じ機種がステマゴリ押しされて界隈から糞味噌に叩かれている
常に「MacやDGXが欲しいが高すぎる。だから……」から始まるテンプレステマ

同じ奴があちこちで同じステマをゴリ押ししている
0303名無しさん@ピンキー (スプッッ Sddf-4KE6)2025/09/14(日) 14:25:56.55ID:AxFTfA7Gd
もうここまで来ると病気だな…
0305名無しさん@ピンキー (スッププ Sddf-jiGm)2025/09/14(日) 15:01:24.69ID:1zeAijZud
そもそも売りっぱなしでサポートが無いに等しい中華ミニPCに30万も40万も突っ込む時点で正気じゃない

中華ミニPCを買うとしても5万くらいまでで使い捨てで遊ぶような代物だ
0308名無しさん@ピンキー (ワッチョイ 8f09-r/uJ)2025/09/14(日) 17:26:38.13ID:RxoUEr4+0
モバイル・VPNは即NG
0309名無しさん@ピンキー (JP 0H37-EpZw)2025/09/14(日) 18:41:11.80ID:Gt1Ia85JH
VPN云々は俺のことを言ってるのかな?
ホームルーターとか使ってる奴はJPになりやすいからVPNと決めつけるのは早計だぞ
0312名無しさん@ピンキー (ワッチョイ 3332-Gtql)2025/09/14(日) 20:47:55.26ID:CbjR1F7Y0
Qwen3-Next-80B-A3B-Instruct
これかなり賢いな
今までどのモデルも解けなかった生徒会恋愛問題レベル3を若干途中推論でおかしな所あったけど
最終推論は完璧で正解にたどり着いた。
同性愛の可能性を自ら注意点に上げながら推論していてすごいと思った
0315名無しさん@ピンキー (ワッチョイ bf1f-yMi3)2025/09/15(月) 00:25:06.01ID:q87zo+Wk0
vLLMならQwen3Next対応している
あとMLX形式のモデルが出ているのでMacなら簡単に動かせるはず
0322名無しさん@ピンキー (ワッチョイ 0ff8-F72q)2025/09/15(月) 21:44:00.12ID:vFqhQjKi0
俺も>>319みたいなイメージあったわ
nsfw目的で初導入だから情報すごくありがたい
とりあえず明日導入してノーマルなgemma12Bで色々試してみる
0323名無しさん@ピンキー (ワッチョイ 9343-1HIo)2025/09/15(月) 23:49:12.88ID:0wm5u7sR0
善意の相談者のテイで話すと脱獄しなくても割とnsfw話色々してくれたよ
今日はJSの振りしてAIお姉さんからアナニーのアドバイス貰ったりしてた
0325名無しさん@ピンキー (ワッチョイ cfa9-KAWZ)2025/09/16(火) 09:54:06.97ID:lldY/pEL0
まだ公開されて半年だけどgemma3ってもう古く感じるなあ・・・
対応機能とか性能、精度の面でgemma3がスタンダードを確立した感はあるけど
そのスタンダードをみんなすぐに追い抜いていく
0331名無しさん@ピンキー (ワッチョイ 7326-lzKx)2025/09/16(火) 15:54:11.47ID:meM/TMZC0
続けてたらまたQwen3 Next出てきて今度は途中で正解出したのに論理的には矛盾してないけど同性愛は不自然だから自然な答えがあるはずって推論一からやり直してよく分からなくなって最後は沙織にしてたわ
0332名無しさん@ピンキー (ワッチョイ e370-F72q)2025/09/16(火) 16:47:06.21ID:Vbv04TS60
330です。エンディングにはすぐに行ける。
フリートークができるようになるので、いろいろ試してみます。
0333名無しさん@ピンキー (ワッチョイ e370-F72q)2025/09/16(火) 16:58:52.61ID:Vbv04TS60
332です。このゲーム、モデル変えても動きますね。
modelMnage.jsonの中のモデルの表記を取り変えるものと入れ替えると
ちゃんと動きます。
0339名無しさん@ピンキー (ワッチョイ bfeb-GUyp)2025/09/16(火) 18:31:43.19ID:6zSXLU+G0
もうそれ対策されてんでは?
0343名無しさん@ピンキー (ワッチョイ 4344-4haO)2025/09/16(火) 20:42:32.54ID:McS7T0XG0
結局抜くなら文章より画像のほうがいいな
画像と文章同時生成出来るようにしてくれ
0344名無しさん@ピンキー (ワッチョイ 9311-1HIo)2025/09/16(火) 23:34:04.19ID:jqnaSSG30
reasoningモデル初めて触ってみてたんだけど、ガイドライン反復横跳びするような話題だとめっちゃ葛藤してておもろいな
でもコンテキストめっちゃ食うから長編会話するのむずいね
0345名無しさん@ピンキー (ワッチョイ efdb-/yr3)2025/09/17(水) 00:25:10.50ID:iIzQiHmE0
うろ覚えだけどReasoningモデルって過去のメッセージのReasoning部分はコンテキストからオミットするのが常套だった気がする(溢れないように)
0346名無しさん@ピンキー (ワッチョイ e370-F72q)2025/09/17(水) 05:57:05.51ID:TAmL+2xj0
333です。なんで50万、100万のハードの話は良くて、たった数百円のソフトの話がダメなのか
意味が分からん。あと作者ではないです
0348名無しさん@ピンキー (ワッチョイ 73c2-S5xV)2025/09/17(水) 06:23:47.52ID:M4LhU87/0
ステマの可能性があるかないか
まあ今はステマは明確に違法だからわざわざ反応するのは古い感性の奴よ
興味がなければ今されてるようにスルーされるから
0349名無しさん@ピンキー (ワッチョイ e370-F72q)2025/09/17(水) 06:45:58.49ID:TAmL+2xj0
ステマは違法になってたんですね。知りませんでした
私はエンジニアではないので、そういう情報が入ってこなかったため
勉強になりました。繰り返しになりますが作者ではないです。
単純にローカルLLMを使ったゲームなので投稿しました。すみませんでした
0350名無しさん@ピンキー (ワッチョイ 933a-OJ+K)2025/09/17(水) 07:01:08.23ID:fUURYN0y0
匿名掲示板はステマやらレス転載でアフィやら散々あったから過敏になってる人がいるんだ
そこに不慣れそうな文体のちょっと浮いたレスで商品リンク貼ったから目立っちゃった
まあ無駄な煽りは気にしなくて良いと思うよ
0351名無しさん@ピンキー (ワッチョイ bfde-RQ5/)2025/09/17(水) 08:16:30.23ID:BlbfS2ub0
いや優しすぎだろ
今のままじゃどこ行っても叩かれるだろ、それは優しさか?野良猫にエサあげるタイプか?

2ch時代から代々伝わる「半年ROMれ」を言ってあげるのほうが優しいんじゃないのか?
意味分からんだろうからググってねー
0352名無しさん@ピンキー (ワッチョイ e370-F72q)2025/09/17(水) 09:00:17.96ID:TAmL+2xj0
エンジニア界隈はググればわかることは、話さないんですか
大変ですねえ。殺伐としてそう
まあ、最近はchatgptも調べものには使われるようになってきたし
いわゆる「ググれks」的な言葉も古くなっていくんでしょうね
0355名無しさん@ピンキー (ワッチョイ 531c-GUyp)2025/09/17(水) 09:26:14.28ID:FXOfH9Db0
ローカルllm搭載ねえ
そりゃできるでしょうねとしか
どの程度フリートークができるかしらんけど
このスレとは若干ズレるかもね😅
0358名無しさん@ピンキー (ワッチョイ e370-F72q)2025/09/17(水) 12:44:47.38ID:TAmL+2xj0
誹謗中傷の法律、簡略化したんだっけな
今度使ってみようかな
0360名無しさん@ピンキー (ワッチョイ 33bf-ot5u)2025/09/17(水) 17:52:34.54ID:Abhrp6Gb0
>>358
お客様、わざわざ慣れないBBSピンク成人用のオナテク板までお越しいただきありがとうございます
> 単純にローカルLLMを使ったゲームなので投稿しました。すみませんでした

との事ですが、謝罪とは思えないですし、
宣伝は2度と投稿しなくて良いですよ😉
0369名無しさん@ピンキー (ワッチョイ efdb-/yr3)2025/09/17(水) 21:29:52.24ID:iIzQiHmE0
Qwen3 Next 80B A3Bは普通に賢い、まだInstruct版しか見てないけどLlama 3.3 70B Instructより断然賢い
今更Llama 3.3と比べるのはかわいそうな気もするけど
0370名無しさん@ピンキー (ワッチョイ 7317-Vu07)2025/09/17(水) 22:16:02.50ID:kMmeIclp0
Llama4の登場が待たれますね
0374名無しさん@ピンキー (ワッチョイ 036a-GUyp)2025/09/18(木) 07:32:32.23ID:UbTjkdyd0
ラマ4は大失敗で誰もつかうてない
中国製のがマシ
0376名無しさん@ピンキー (ワッチョイ bf16-yMi3)2025/09/18(木) 08:05:29.55ID:aQTLffDc0
llama4からMETAは沈黙してしまった
0377名無しさん@ピンキー (ワッチョイ 33b5-F72q)2025/09/18(木) 09:41:26.71ID:yrfUVyQ70
なんか設定間違ってただけでそこ直せば実は賢いとか言ってたような
0378名無しさん@ピンキー (ワッチョイ 13c0-9HTd)2025/09/18(木) 10:04:30.99ID:IWPP/3X80
Llama4 ScoutのUnslothが修正した後のやつ一時期ちょっと使ってたけどそんなに悪くはなかったよ
ただ初動でバグありだったせいか直ったものが出るころにはもう見向きもされなくなってて
FTしたモデルも見かけることなくフェードアウトした感がある…
0379名無しさん@ピンキー (ワッチョイ 93fb-rla9)2025/09/18(木) 10:33:15.74ID:WYOqUmlv0
Llamaを色んなシステムに導入させてライセンスビジネスしたかったんだろうけど
ライセンスが自己中すぎる上に他のオープンなモデルに性能で負けてるから見向きもされない
自社のサービスで活用する予定も無いからいつ損切りするかって話が出てると思う

iPhoneに載せたいアップルであっても自社開発を諦めたって報道あるし
LLM開発って金食い虫なんやろな
0380名無しさん@ピンキー (ワッチョイ 33b5-F72q)2025/09/18(木) 11:07:25.24ID:yrfUVyQ70
結局 meta connect で出た眼鏡は日本で買えるの?
0382名無しさん@ピンキー (ワッチョイ 535d-2of/)2025/09/18(木) 11:46:49.68ID:1znMx78/0
>>375
トップがLLM知識あんまないってバカにされたり高額で引き抜いたやつがもう既に居なくなってたりガバガバ所じゃなくなっとるしな
あれじゃmetaは期待できんで
0385名無しさん@ピンキー (JP 0H37-F72q)2025/09/18(木) 19:53:54.19ID:kNVmceLxH
Metaは今スマートグラスにお熱やから・・・
0393名無しさん@ピンキー (ワッチョイ bf1b-tA9e)2025/09/19(金) 09:13:33.03ID:EgO47bgd0
真面目性能でもgrokの圧勝だったしなあ
GPT4o、5→リアルタイムweb検索できません
grok4→今日最新のニュースをまとめてくれる
0395名無しさん@ピンキー (ワッチョイ bf60-tA9e)2025/09/19(金) 13:04:49.13ID:EgO47bgd0
それは昨日とか今日のじゃなくてモデルが作られた当時の最新じゃない情報を適当に並べたりしてるみたい
なんかでたらめ言ってない?って問い詰めると白状した
0396名無しさん@ピンキー (ワッチョイ 13c0-9HTd)2025/09/19(金) 13:13:36.18ID:u6Mvtc9k0
いや普通にWEB上のニュースとか検索してソースにしてるぞ
数日前に大雨で土砂崩れがあって旅行行けなくなったんだよねーとか話してたらちゃんとその件を調べて回答してくる
0397名無しさん@ピンキー (ワッチョイ bf60-tA9e)2025/09/19(金) 13:17:21.02ID:EgO47bgd0
4oの時は平然とデタラメ言ってきて、5になってからはあらかじめ断りを入れてくるようになったけどこんな感じやなあ
https://i.imgur.com/hZlQIZD.jpeg
0398名無しさん@ピンキー (ワッチョイ 731f-S5xV)2025/09/19(金) 13:19:16.85ID:zbVfwlxG0
リアルタイムweb検索というのがチャット中に検索してソースを調べることを指すなら普通にGPT5でできてるね
何なら情報源ボタンから確認したソースを一覧で左ペインに出してくれる
0399名無しさん@ピンキー (ワッチョイ bf60-tA9e)2025/09/19(金) 13:20:44.20ID:EgO47bgd0
ってことはもしかしたら4oの時のやりとりの記憶が足を引っ張っててずっと出来ません言い続けてるのかな?
メモリリセットしてみるかあ
0401名無しさん@ピンキー (ワッチョイ bf60-tA9e)2025/09/19(金) 13:23:38.37ID:EgO47bgd0
>>400
plusだけどちゃんと有料の時にやってたよ
でもそれが理由ですぐgrokに移ったけど
0402名無しさん@ピンキー (ワッチョイ bf60-tA9e)2025/09/19(金) 13:29:11.01ID:EgO47bgd0
履歴削除してもっかいチャレンジしたら出来ませんとは言わなくなった
でもソースのリンク先に飛んだら全部404のデタラメだわ…
ちなみに今は無料プランでやってるからそのせいなのかも?
ps://i.imgur.com/hZlQIZD.jpeg
0403名無しさん@ピンキー (ワッチョイ bf60-tA9e)2025/09/19(金) 13:29:53.21ID:EgO47bgd0
画像間違えた、こっちだ
https://i.imgur.com/Mgvil37.jpeg
0406名無しさん@ピンキー (ワッチョイ cfa9-KAWZ)2025/09/19(金) 14:40:46.33ID:URw4g0Lb0
「検索してます。。。」の表示出てる?
サーチしてるとそういう表示出るんだけど
もしかしたら検索モードに入ってないかもね

あとDeepResearchはchatgptが頭一つ抜けててるかな
chatgptのDeepResearch使用量を使い切ったときに他のサービス使うことあるけどまだまだ差がある
0409名無しさん@ピンキー (ワッチョイ efdb-/yr3)2025/09/19(金) 14:58:13.24ID:zmt5WU+/0
ちなみに設定のPersonalizationで
- カスタマイズとメモリ機能は全部切ってる
- Advancedの項目でWeb search, Code, Canvas, Advanced voiceは全部有効にしてる
0412名無しさん@ピンキー (ワッチョイ 5332-yQ+A)2025/09/19(金) 15:27:53.38ID:WmeQwcXc0
>>407
特に指定しないなら必要だと判断したときのみ自動で検索するね
話題の振り方や内容によっては自動で検索してくれない
0413名無しさん@ピンキー (ワッチョイ efdb-/yr3)2025/09/19(金) 15:35:04.78ID:zmt5WU+/0
>>411
OpenRouterのChat画面のことやろうけどしてないと思っていい
OpenRouterの本業はAPI提供するだけで、チャット画面はおまけというかデモみたいなものや
ルーム変えればコンテキストは共有しないはず、そもそも各々のAPI呼び出してるだけだからあんまり高度なことはできん
0418名無しさん@ピンキー (ワッチョイ 7f03-tCvQ)2025/09/19(金) 18:50:34.87ID:6ywWgI9i0
小説が読みたいんやなくて「会話」でエロいことしたいだけなんやが脱獄したgeminiやgptとローカルでやるのどっちがいいの? gptにはggufでQ4_K_Mくらいしか動かないですねって苦笑された低スペやけど・・・
0420名無しさん@ピンキー (ワッチョイ c320-vFl8)2025/09/19(金) 20:43:05.74ID:86mQsRdB0
ふつうのひとがローカルLLM使うメリットって全くない
個人が持てる程度のPCで動くLLMなら、open routerで無料か無料に等しいコストで使えてしまうので
0422名無しさん@ピンキー (ワッチョイ c720-GsOJ)2025/09/20(土) 01:23:57.48ID:ExnGmMsF0
ローカルである程度のサイズのLLM動くPCに何十万円もかかってそれで性能有料サービス以下だからなあ
サブスク何年分よ
ゲームの趣味とか他に使い道あるならまあええけども
0423名無しさん@ピンキー (ワッチョイ f70b-5nxf)2025/09/20(土) 01:32:15.97ID:hrmH+Mjd0
GPT-ossみたいな単一言語ガチガチにしたMoEモデル+翻訳専用SLMで組めるようになるのがローカルの終着点だと思っとるから数百BパラメータのLLM動かせるような環境はやりすぎな気はするわね
0424名無しさん@ピンキー (ワッチョイ bf70-XlN9)2025/09/20(土) 08:00:26.50ID:p/li7AZa0
大手IT企業とか大学の研究機関ですらLLMの学習コストが高すぎるって言ってるからこれから量子化とかtransformersに代わる計算コストの低いアーキテクチャの研究が進むかもな
そもそも人間は絵描いたりするより文章書く方が簡単なはずなのにAIは画像生成の方が必要リソースが少なくて言語モデルは倍近くのリソースが必要なのはなんでや
0425名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/20(土) 08:06:01.28ID:+jVh25Pi0
既に色々されてるが
0426名無しさん@ピンキー (ワッチョイ 7732-kQ/7)2025/09/20(土) 08:48:50.70ID:xy79eLcb0
>>424
人間が絵より文章を書く方が得意なのは、文章が生きる上での必須技能でより多くの時間を費やすからだろ
人生で絵と文章どっちに多くの時間をかけてるのか考えてみるんだ
0427名無しさん@ピンキー (ワッチョイ dbb2-XlN9)2025/09/20(土) 09:57:05.54ID:KQrWb2+N0
>>426
簡単/難しいと得意/不得意は別の論な気もするのだが
ワイは、絵は全てのピクセルに明確な意図を込める必要はなく、なんなら単なるノイズですら魅力的な絵の一部と見なされうるけど、文章において文字はそれが許容されるケースが極めて限定的ってあたりがよりリソースが必要になる原因の一つやないか、と思うんやで
0428名無しさん@ピンキー (ワッチョイ f390-gFLl)2025/09/20(土) 09:59:40.83ID:qDJ0IAj30
>>421
普通に追加学習でファインチューンできると思うんだけど、上手くいかない感じ?
まぁVRAMが量子化前のモデルサイズ×4倍くらいは要るのが環境面では大変よね
0429名無しさん@ピンキー (ワッチョイ c720-GsOJ)2025/09/20(土) 10:13:50.69ID:ExnGmMsF0
視覚は莫大な情報の中から必要な物だけを抜き出す作業をしている
見たい部分が正しければ他は間違っていても気にならない

文章は伝えたい情報を全て文章化して相手に渡しており原則として相手は全てに目を通す
最初から最後まで確認するから間違いがあれば気づきやすい
0430名無しさん@ピンキー (ワッチョイ 7732-kQ/7)2025/09/20(土) 10:56:37.47ID:xy79eLcb0
>>429
もちろんそういう問題もあるけど知識や技術の差も大きいで

アホな小学生は文章の良し悪しや文法の間違いに気付くことが出来ない
絵も同じで画力が無い奴は絵のおかしな部分に気付くことが出来ないし、単に下手なのかわざと崩しているのかの区別もつかない
画力があると絵を見た瞬間に多くの情報を正しく拾っておかしな部分に気付いてしまう
んで人類のほとんどはアホな小学生の文章力と同レベルの稚拙な画力しか持っていないから間違いが気になるはずもない

英語苦手な奴が英文読んだときにその良し悪しに気付かないのも同じことやで
0431名無しさん@ピンキー (ワッチョイ be35-/zn3)2025/09/20(土) 12:42:40.70ID:JqUlC67e0
OpenRouterにGrok 4 Fastが来た。
しかもフリー。なんだこれ最高かよ。
0432名無しさん@ピンキー (ワンミングク MMa2-tQaT)2025/09/21(日) 10:00:43.82ID:TZGwxDCYM
CPU推論ってシングルスレッドが有効?
スリッパだとシングルが弱い上にメモリアクセスにワンクッション挟むからRyzen 8000シリーズより遅くなる印象

ThreadripperならGPU複数枚構成かなぁ
0434名無しさん@ピンキー (ワッチョイ f2d3-OtDG)2025/09/21(日) 20:42:01.00ID:UQ+WCB620
epycで良くないか?
SP5ソケットなら最大12ch動作やから500GB/sくらい出たはず
それにデュアルcpuにすれば理論帯域幅も倍になるから1000GB/s超えも狙える(ソフト側の問題で実際の速度向上は30%程度らしい)
まあCCDの数で実際の帯域幅は律速されるから12chフルで使えるCPUにすると数百万コースやけど
0435名無しさん@ピンキー (ワッチョイ f2d3-OtDG)2025/09/21(日) 21:01:38.73ID:UQ+WCB620
調べたら9B45とか128core DDR5 12channel で50万くらいなので組み方次第で100万以下も狙えそう
MoEならGPUも載せて一部オフロードすればさらに高速化狙えるし
0439名無しさん@ピンキー (ワッチョイ f2c7-yPTp)2025/09/22(月) 05:29:51.21ID:acG4VmK/0
Threadripper Proやepyc買うなら24コア以上推奨
16コア以下だとCCD数の関係で、例えば8chのメモリ帯域をフルに活かせない
chが増えるほど必要なCCD数がいるはず
0444名無しさん@ピンキー (ワッチョイ f7fb-5nxf)2025/09/23(火) 09:25:22.55ID:bSvVK3GU0
Qwen明日またモデル出るっぽいな
ミニサイズで性能良かったら嬉しいが、
0445名無しさん@ピンキー (ワッチョイ 2249-YdyK)2025/09/23(火) 14:14:46.14ID:J/x1dQw60
Qwenのリリース速度はすごいな
さすがアリババ
クラウドサービス持ってるところは強い
0446名無しさん@ピンキー (ワッチョイ f3a4-KxXW)2025/09/24(水) 06:28:25.56ID:Tg8zlyhV0
>>424
人類が意味と価値を見出せるパターンが文章より圧倒的に少ない
ローカルで動いてる画像生成なんて裸の女の子ドーン!みたいな似たような絵しか出ないやろ
それに自然言語で色々出せるモデルはそろそろローカルじゃキツくなってきてるころや
0447名無しさん@ピンキー (ワッチョイ db8e-fBkI)2025/09/24(水) 12:35:38.81ID:PYQ60cU40
エロ小説をLMstudio君に生成させてみたいんだけどどのモデルがいいのかね?
さすがにgptモデルじゃ無理でした…
0449名無しさん@ピンキー (ワッチョイ db8e-fBkI)2025/09/24(水) 17:44:39.49ID:PYQ60cU40
>>448
おほーサンクス
家に帰ってみたら早速実装してみます
0450名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 17:49:04.04ID:q/lnB44d0
オナテク板で真面目なLLM性能も議論してるから教えて欲しいんやが
コード添付して色々教えてもらうのってどのモデルがええんや?
GPTやと1つのphpコードであれこれ入門的な説明してもらってるときに
「添付があるからこれ以上続行すらさせへんで」になるからLLMでやりたいんや
0452名無しさん@ピンキー (ワッチョイ f26b-YdyK)2025/09/24(水) 18:06:27.43ID:EqE2QH2E0
codex使えば?
0453名無しさん@ピンキー (ブーイモ MM92-QGC9)2025/09/24(水) 18:08:51.17ID:wQMvlyu2M
コーディングだとclaudeが強いって前に評判だったけど最新の情勢は違うのかもしれん
ローカルだとそもそもコンテキストサイズ的に満足行く回答が得られるか怪しいと思うで
0455名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 18:17:46.93ID:q/lnB44d0
>>451-453
サンガツ
添付が無かったらワイのつたない質問でも永遠に相手してくれるんやが
100行のPHPコードだけでもすぐに「このスレッドには添付があるからこれ以上は質問すらさせへんで」になるのが無料やから仕方ないんよな
0457名無しさん@ピンキー (ワッチョイ 1f81-gFLl)2025/09/24(水) 18:55:55.40ID:ARkRWnqL0
どうしてもローカルがいいならgpt-oss 20B/120Bかqwen3 coder試してみて、ダメだったらcodexとかclaude codeにいくしかないと思うで
強めのグラボ積んでるならLM StudioでGPU offloadを最大にしてflash attensionを有効にすればワイの環境ならgpt-oss 120Bで140tok/sec出てるで
長めの文章読み込めるようにcontext lengthをそのモデルの最大(gpt-ossなら13万)にするか、遅くならない程度の値にしておくんやで
0458名無しさん@ピンキー (ワッチョイ bffd-pB+b)2025/09/24(水) 18:56:33.04ID:gh85Ul4x0
コードを扱うならどこのAIでも良いので大人しく課金した方が良い
仕事でバリバリ使ってない限り20$の一番安いプランで、
チャットでもCLIでもまず制限には当たらない
0461名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 19:03:54.92ID:q/lnB44d0
>>456-458
それでご飯食べてるわけではなくて初学者で
まれにファイル添付して全体的な質問をする時があるくらいやからその時はローカルでと思ったんやが
codeがついているモデルで添付OKなモデルでやってみるやで
0462名無しさん@ピンキー (ワッチョイ bf06-/zn3)2025/09/24(水) 19:09:04.54ID:w2HZ4JhN0
動かなかったら直せばええ
0464名無しさん@ピンキー (ワッチョイ 9320-VUrW)2025/09/24(水) 19:47:13.41ID:ZtGaaXzi0
なんも考えずにChatGPT契約して使い倒してから続けるか止めるか考えればいい
ローカルLLMは日本語でやりとりすることによる 性能ロスが大きすぎるから殆どの用途で使い物にならん
英語ネイティブですというなら違う可能性はあるけど
0467名無しさん@ピンキー (ワッチョイ f7b6-/zn3)2025/09/25(木) 06:53:11.82ID:Z3kA1xHf0
ワイも必須になりつつある
毎日の食事カロリー計算から運動のリマインダー、
あとマイコンボードでのデバイス制作とめちゃ助かってる
(肝心な部分はredditの海外ニキらのコメントだが)

でもローカルLLMはロマンはあるンゴね
0469名無しさん@ピンキー (JP 0H6e-MM1T)2025/09/25(木) 21:55:28.51ID:apj1zCrgH
カロリーは脳ミソでもかなり消費するはずだから
エネルギーが要るというのは間違ってはないと思う
お堅い文面でもLLMにぶち込むモノでも頭はけっこう使うし
0471名無しさん@ピンキー (ワッチョイ 4fa3-mwor)2025/09/26(金) 09:41:39.48ID:D5GOUI0s0
【朗報】さくらインターネットのAI、「さくらのAI Engine」の一般提供開始!!国策AIがついに動き出す! [673057929]
http://greta.5ch.net/test/read.cgi/poverty/1758803926/
 
これ一から自前で作ってる国産?
0479名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 17:23:27.60ID:f/GM/BxQ0
>>478
数ヶ月前までRinnaがやってたけどな最近は更新されてないか
0480名無しさん@ピンキー (ドコグロ MMca-YdyK)2025/09/26(金) 17:23:52.17ID:vox1d4RkM
日本語はGLMが優秀だぞ
0483名無しさん@ピンキー (ワッチョイ efd8-gFLl)2025/09/26(金) 20:43:31.02ID:3B4su3U20
予測はLLM使わんでも線形回帰でええやん
0485名無しさん@ピンキー (ワッチョイ bf38-/zn3)2025/09/26(金) 20:47:53.63ID:EP60vsIo0
詐欺メールもだな
0487名無しさん@ピンキー (オッペケ Srd7-l4qr)2025/09/26(金) 22:16:39.04ID:UNdtCLMYr
ROCm 6.4.4リリースでようやっとRyzen AI Max+ 395.がサポートされたみたいね
これからローカルLLMて進展が出てくるの期待だわ
0488名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 23:14:28.18ID:f/GM/BxQ0
llama.cppでもうすぐQwen3 Nextがサポートされそう
0491名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/26(金) 23:31:10.61ID:Gt003hUg0
jpxがなんか予測に使ってたな
レスを投稿する


ニューススポーツなんでも実況