なんJLLM部 避難所 ★9
0684名無しさん@ピンキー (ワッチョイ b276-+PAA)2025/10/22(水) 13:05:20.81ID:037+dTYL0
>>682
さすがにPFNじゃねえの
0685名無しさん@ピンキー (ワッチョイ b20d-bihX)2025/10/22(水) 13:06:12.60ID:Tu1GQuPS0
オープンウェイトでないからパラメータ数は関係ないしAPIすら公開されてないから株価対策以外の何物でもない
本当に独自アーキテクチャなら頑張ってほしいけどね
でも比較対象のモデルがころころ変わってるの面白い 型落ちのqwen2.5としか比較してなかったり、それまでgemma3と比較してたのにファインチューニング性能比較では突然gemma2と比較してたり
0687名無しさん@ピンキー (ワッチョイ 9732-xF4I)2025/10/22(水) 13:54:51.67ID:7jgCbN7+0
と思ったらNVIDIAとAIで提携してるし来週の水曜日に1bit量子化のワークフローとか公開するんか
誰でも1bit量子化できるかも、と煽ってるからここから1bit量子化が加速すればいいんだが
0689名無しさん@ピンキー (ワッチョイ 9231-Y5fA)2025/10/22(水) 15:14:50.86ID:iCW594Bb0
正直なんでも量子化すれば良いってもんじゃないしな
0691名無しさん@ピンキー (ワッチョイ 7bd9-v+G5)2025/10/22(水) 16:21:43.94ID:ldEAtW8s0
ayaファンに朗報です。嫁モデルが来ました
ernie-4.5-21b-a3b-pt.ggufはRPが良いです。
中国のモデルでa3bなのでロースペgpuでも動きます
0692名無しさん@ピンキー (ワッチョイ 7bd9-v+G5)2025/10/22(水) 16:24:34.36ID:ldEAtW8s0
691です
abliteratedがまだです
huihuiさんが出してきそうですが
0693名無しさん@ピンキー (ワッチョイ 32ec-aiji)2025/10/22(水) 18:45:58.41ID:0uomRXP00
気になったんやが30Bとか140Bとか
そういうのは第三者がほんとにそれだけ語彙力があると言うのは検証できるんやろか
「数字多く書いときゃええやろ、定量的に計測なんてできんし」なのかなと
0694名無しさん@ピンキー (ワッチョイ b20d-bihX)2025/10/22(水) 20:09:17.92ID:Tu1GQuPS0
>>693
○○Bの○○はモデル内のパラメータの数だからめちゃくちゃ簡単に調べられてpytorchのチュートリアル的な内容だから「pytorch パラメータ数 確認」 で調べれば日本語でもめちゃくちゃ沢山出てくるしLLMで最も定量的に測れる指標や
ベンチマークのことを言っているのであれば詐称はほとんどないけどデータセットにベンチマークの回答を入れてカンニングさせたり、ベンチマーク時だけ微調整モデルを使うとかは残念ながらよくある 
0695名無しさん@ピンキー (ワッチョイ 32ec-aiji)2025/10/22(水) 20:12:48.63ID:0uomRXP00
>>694
サンガツ、語彙量のつもりやったが定量的に調べられるならええやな
中国におんぶにだっこやが、水増しみたいなことあるんかなと思ってたわ
ベンチマークの回答セットは残念やなぁ、ベンチマークの時だけ本領発揮させるandroidみたいやな
0696名無しさん@ピンキー (スプープ Sd52-MOgW)2025/10/22(水) 22:01:39.67ID:T9j98XZld
中国でもBATHクラスの技術力は疑う余地なんか無いよ
アメリカとガチの技術戦争をやってるんだから日本みたいな遅れた国が出る幕はない

中国を疑うなら政治的な検閲や偏り、意図的な情報漏れの方を警戒すべきで
オープンウェイトであることによって西側がチェック・改善す?余地が担保されている

日本はローカライズに徹するのが現実的でエロチューンもその一つ
0697名無しさん@ピンキー (シャチーク 0C73-x2vN)2025/10/23(木) 09:33:38.24ID:iar6DghpC
>>693
ワイの場合はエロ小説書かせて表現力と台詞回しで評価してる
明らかにデカい方がいい
小さいモデルは語彙はあっても整合性が取れてないからチンピクせんw
0698名無しさん@ピンキー (ワッチョイ b27a-Gd7J)2025/10/23(木) 10:03:36.08ID:cV0tHn8Z0
7B辺り使ってると整合性は痛感するよなあ
エロの表現力は30Bより光ってるモデルもたくさんあるんやが
ある程度サイズが大きいモデルを日本語エロチューンする難易度が高すぎるのが真の問題か
0700名無しさん@ピンキー (ワッチョイ c35a-F33h)2025/10/25(土) 16:48:25.64ID:Y05ab8Ho0
DeepSeek-OCRを調べてみてるんだけどトークン圧縮の技術が進んだ感ある
コストが下がって長い文章でもコンテキストに保持できて良いことずくめ
0701名無しさん@ピンキー (ワッチョイ ff24-v33C)2025/10/25(土) 17:31:30.17ID:qi2pIaBd0
エロ小説を書かせるんじゃなくて設定とか展開を相談するのってどのモデルがええんやろ
gpt-ossとかのabliteratedはなんか頭硬い現実の議論みたいな返答で面白くなかったしRP用のモデルだとRPが始まったり小説の内容書き始めちゃうしで丁度いいのって難しいんやな
0702名無しさん@ピンキー (ワッチョイ f3c6-Vqoh)2025/10/25(土) 17:36:11.49ID:1/M2XoWi0
Qwen3-235B-A22B-Instruct-2507でSTのキャラ設定とか世界観とか出してるな
下手にファインチューニングしたモデルやabliteratedモデルより元のモデルに対してシステムプロンプトや応答書き換えで出すほうが個人的には好き
あと温度上げたりサンプラー設定変えてみるといいかも
0703名無しさん@ピンキー (ワッチョイ ff24-v33C)2025/10/25(土) 17:41:06.38ID:qi2pIaBd0
>>702
元のモデルってことは露骨なエロはぼかしたりプロンプト工夫して出してく感じか
流石に235BのモデルはVRAM16RAM128のワイのPCだと結構厳しそうだけどデカめの元モデルでちょい試してみるわ
0705名無しさん@ピンキー (ワッチョイ ff24-v33C)2025/10/25(土) 17:47:00.76ID:qi2pIaBd0
そうなん!?ローカルでLLM動かすのはまだ不慣れやからMoEモデルとそうでないやつの違いとか必要スペックとか詳しくないんや…
早速DLしてみるで!
0707名無しさん@ピンキー (ワッチョイ cfa9-n9/C)2025/10/26(日) 00:27:56.39ID:E/AUDJ7n0
llamacppのqwen3-next対応はみんなに使ってもらって意見もらう段階に入ったようやが
CPU対応のみみたいやな
GPU対応は別途PR立てるって

まだまだ時間かかりそうや
0708名無しさん@ピンキー (ワッチョイ cfa0-n9/C)2025/10/27(月) 09:55:14.75ID:qR3tybIb0
Stable Diffusionでpubic hair standing upright(立体的な陰毛)を指定すると立体的な陰毛を描いてくれるのだけど、
副作用として、ベッドの長さが高確率で半分になる現象が起こる。
謎だわ
0709名無しさん@ピンキー (ワッチョイ cfa0-n9/C)2025/10/27(月) 10:58:44.66ID:qR3tybIb0
pubic hair standing uprightのstandingがベッドを半分にするトリガーになってるな

pubic hair uprightでも意味は伝わるみたいだから、こっちにしよう

バタフライエフェクトなことが起こるなAIは
0711名無しさん@ピンキー (ワッチョイ 8345-fNMY)2025/10/29(水) 07:09:41.91ID:5dW/4rRR0
モデルが大きくて微妙にGPUメモリに載り切らない場合、
何枚かのレイヤーかKVキャッシュだと
どちらを優先してオフロードするのが良いんでしょうか
0712名無しさん@ピンキー (ワッチョイ 3f49-i7NQ)2025/10/29(水) 07:41:59.59ID:UYN1GVnp0
たぶんコンテキストサイズによって変わる
0714名無しさん@ピンキー (ワッチョイ bf6c-SOQn)2025/10/29(水) 10:58:43.19ID:QmT6NWfz0
RTX5080super、ほしいけどどうかな…
0716名無しさん@ピンキー (ワッチョイ bf6c-SOQn)2025/10/29(水) 12:31:45.57ID:QmT6NWfz0
RTX5080シリーズよりLLM動かすのに良いのってある?
5090とかしか思い付かない〜

DGXsparkも検討したけど買うの辞めた…
0717名無しさん@ピンキー (ワッチョイ 7fc7-6qEa)2025/10/29(水) 12:47:57.69ID:vdU6XoEE0
>>716
DGXsparkはメモリ帯域がねぇ
実用面では中古のRTX3090を4台買ったほうが幸せになれる
追加で中古のスリッパとマザボを揃えることになるけど
電気代かかるのと電気契約の見直しがいるかも?

それかメモリ256GB積んでRTX3090以上のグラボでMoEモデル動かすのもありだね
遅いけどGLM4.6の4,5bit量子化モデルが動かせる
0718名無しさん@ピンキー (ワッチョイ 7fbd-qHJp)2025/10/29(水) 13:13:45.57ID:DNQ+zkP90
本当にLLMしか使わないならMac Studioのユニファイドメモリ積みまくり(最大512GB)だろうね
高速・大容量・高価格
150万くらいだよ!

まぁ、128GBなら56万くらいだから割と現実的よ
0719名無しさん@ピンキー (ワッチョイ 8392-GUPc)2025/10/29(水) 13:56:11.14ID:c2orVjYY0
僕は4070Ti SUPER使ってたところに5060Ti買い足しました
ケースの中空いてないからoculink外付けだけど
gemma27Bとかコンテキスト含めると16gbでちょい足りなかった奴が超快適になった
0720名無しさん@ピンキー (ワッチョイ 7fa2-SOQn)2025/10/29(水) 14:33:54.01ID:4cKF8saF0
716だけどありがとう
まずは3090、2つくらいから積んでみようかな…

Macも正直デカイの動かせてノートなのはかなり魅力的
NvidiaもDGXじゃなくてこんなの出さないかな
0721名無しさん@ピンキー (ワッチョイ 7fbd-qHJp)2025/10/29(水) 15:13:16.36ID:DNQ+zkP90
Macは機種によってメモリ帯域幅が違うから、なるべくMac Studioね
https://www.apple.com/jp/mac-studio/specs/
Apple M3 Ultraチップ 819GB/s
Apple M4 Maxチップ 410GB/s

MacBook Proは最上位機種なら410GB/sか546GB/s
https://www.apple.com/jp/macbook-pro/specs/

RTXのxx80やxx90系は900GB/s前後
デスクトップメモリのDDR5がデュアルで90GB/s前後

そしてNVIDIA DGX Sparkは273GB/sでみんなズッコケたと
https://www.nvidia.com/ja-jp/products/workstations/dgx-spark/
0722名無しさん@ピンキー (ワッチョイ 7fa2-SOQn)2025/10/29(水) 15:36:37.32ID:4cKF8saF0
3090ダブルかM3ウルトラかめちゃくちゃ迷い始めた
うわぁぁぁ!
アップル製品ほぼ使用経験ないのが結構ネック…
0723名無しさん@ピンキー (ワッチョイ ff01-jw+d)2025/10/29(水) 15:38:26.40ID:veXpd0eo0
M5 ProとM5 ultraが出てからにしろ
0725名無しさん@ピンキー (ワッチョイ 7fc7-6qEa)2025/10/29(水) 15:51:45.44ID:vdU6XoEE0
動画・画像生成もやるならCUDAが必須だね

補足
VRAM24GB+メモリ256GBなら以下のモデルが動く

・Hunyuan Image3.0のフルモデル(21s/it)
・GLM4.6の5bit量子化モデル(4.5tokens/s)
※メモリ帯域が足りていない

かなり遅いけど、そもそもVRAM24GB+メモリ256GBないと実用的に動かせない

ちなみにHunyuan Image3.0は無劣化で、
25ステップを10分弱で生成できる(RTX5090の場合)

GLM4.6の4bitは文字化けや中国語、英語が混じりやすい
5bitも発生するけどほぼ緩和される

LLMオンリーでいいならMacだね
俺なら512GBを迷わず買う
あっ、そんなお金があるならRTX Pro 6000買うかも?
0727名無しさん@ピンキー (ワッチョイ f302-KtAw)2025/10/29(水) 17:12:08.35ID:SHDbf1WE0
strix haloのソフトウェア周りがもう少し実用的になってくれたらなぁ
CXMTがlpddr5xの量産開始したのでlpddr5xの値段下がるかもって話だけど、この辺使って安価な395+搭載マザーとか出してくれんかな
0729名無しさん@ピンキー (ワッチョイ 6359-cJWp)2025/10/29(水) 19:14:56.68ID:XgbvGioh0
>>722
MiniMax2 が動くのは M3 Ultraだけだよ!
3090ダブルをLLMで動作させると、電子レンジをずっと回してるみたいなもの
mac studioならいって200W。(定格がでっかいのはTB5の電力全力で計算しているから)
LLMまわしてもほぼ無音。MBPは普段は無音なんだけどLLMの時はファンが小さいからうるさくなる

cluade sonet 4.1 Grok4 より賢い
www.minimax.io/news/minimax-m2

待てるならM5 max (Ultraが微妙。RAMも256MBくらいか?) のほうがいい
armもM4からarm9になってCPUコアが根っこから速くなってるし

DGXはない。どの用途で使っても遅くて高い
0732名無しさん@ピンキー (ワッチョイ 3f49-i7NQ)2025/10/30(木) 06:28:17.94ID:kQpOP5EQ0
やっぱりGLMが日本語最強か
0733名無しさん@ピンキー (ワッチョイ 8345-fNMY)2025/10/30(木) 07:46:21.42ID:D55JLrEh0
>>712-713
ありがとうございます、自分の環境でもKVキャッシュを
オフロードしたほうが若干反応が早くなりましたが、
デメリットは無いのか気になります

コンテキストサイズはなんとなくデフォの倍の8192を
設定していますが、モデルや用途によっても
変える必要があるとの事で色々やってみます m(_ _)m
0734名無しさん@ピンキー (ワッチョイ 63a5-cJWp)2025/10/30(木) 18:26:19.16ID:1CoQxC530
セーフガードをコントロールモデルとな
脱獄ワードや履歴改変しなくてもエロいけるか?
(READMEくらい読めって?)

gigazine.net/news/20251030-openai-gpt-oss-safeguard
0738名無しさん@ピンキー (ワッチョイ 3f49-i7NQ)2025/10/31(金) 11:56:45.71ID:pGTYpN4N0
ラーメンに詳しいの?
0741名無しさん@ピンキー (スップ Sd9f-I2Zz)2025/10/31(金) 22:42:24.75ID:HdTgVuN7d
llama.cppでQwen3-VL使えるようになった〜
0742名無しさん@ピンキー (ワッチョイ 2a61-+ixv)2025/11/01(土) 01:02:02.05ID:HZVdy9VR0
LM StudioでBerghofとかMistral Prism使ってシチュボ台本作りたいんだけど、オホ声セリフ出してくれるモデルのおすすめある?
takuyaは淫夢の影響きつすぎて・・・
0743名無しさん@ピンキー (アウアウ Saf6-+ixv)2025/11/01(土) 14:16:40.80ID:b76YuIy1a
>>742
GLM
0746名無しさん@ピンキー (ワッチョイ 2665-1DFx)2025/11/02(日) 01:51:50.77ID:74CmoRUh0
何周遅れか分からんけどgpt-oss-120bとopen Web UIにsearXNGでほぼ一昔前のOpenAIと言っていい環境をローカルで再現出来て満足
これでエロというかセーフガードなければ文句なしなんやがなあ
VRAM16GB+RAM128GB構成だとアクティブパラメータ2血いくとやっぱb闥xいから
gpt-ossとかQwen3 a3bあたりの路線でもっと高性能なの希望や
0747名無しさん@ピンキー (ワッチョイ 3ab7-fId6)2025/11/02(日) 05:39:27.52ID:8sYAEPMe0
RTX買おうと思ってるけど、

128GB (32GBx4) @ 3600MHz
64GB (32GBx2) @ 5600MHz

どっちにするべきかな
やりたいのは動画よりはLLM推論・学習
0751名無しさん@ピンキー (ワッチョイ 77e8-hZw6)2025/11/02(日) 17:17:50.07ID:kWp5afpL0
>>744
単純にチップがクソでかい
AMD Intel NVIDIAより先にTSMC5nm 3nm 2nm使えるからワッパが良くてトランジスタ数も多いCPU・GPUを作れる
高速ユニバーサルメモリもその副産物
0752名無しさん@ピンキー (ワッチョイ 779d-pnhr)2025/11/03(月) 19:19:43.19ID:53Yfauo70
open routerはkimi k2が一応free版があるから使えるかもしれません
0754名無しさん@ピンキー (ワッチョイ 261b-dOm/)2025/11/04(火) 10:07:24.90ID:EYZhdq4g0
kimi2とかってファインチューニングやらloraで脱獄はできんの?🤔
0755名無しさん@ピンキー (ワッチョイ 264b-2gDj)2025/11/04(火) 11:07:38.78ID:BCMENN/Z0
私はkimi k2は本家のapiでしか試したことはないのですが
そもそも脱獄がいらないので、直接エロプロンプトでやってますよ
open routerはapiの方で規制かかってるかもしれませんが
モデル自体は規制はないです
0760名無しさん@ピンキー (ワッチョイ f7c6-qt6D)2025/11/04(火) 12:11:30.05ID:LkQzBAKZ0
俺はredditでわりと評判の良いnano-gpt.comに移行した
月8ドルはまあまあするけど主要なオープンモデルは揃えてるし1日2千or月6万リクエストまで行ける
0762名無しさん@ピンキー (ワッチョイ 9709-/N7+)2025/11/04(火) 15:28:06.63ID:q53557r10
GLM4.5:freeはまだ使えるな
0764名無しさん@ピンキー (ワッチョイ 779d-pnhr)2025/11/04(火) 16:04:52.10ID:MzG+AFLA0
open routerのkimi k2は有料だとinput $0.5,output $2.5と普通のapiと比べれば
割と安いので、$5くらい払えば1か月くらいは遊べそうではあります
0765名無しさん@ピンキー (ワッチョイ eb0b-4eiX)2025/11/04(火) 16:12:15.13ID:2FvKWAHI0
金払っちゃうんだったらKimiよりGLMのがいいけどな
Kimiはガチガチで脱獄しても健全なエロしか書かないけどGLMの方が文章力あってロリでも近親でも何でもあり
0767名無しさん@ピンキー (ワッチョイ 26ce-HzdJ)2025/11/04(火) 20:13:17.49ID:vEjNWt330
>>760
良い物教えてくれてありがとう
ccr、roo-code、continue.devからopenrouterを追放できたわ
0768名無しさん@ピンキー (ワッチョイ 2acb-HzdJ)2025/11/04(火) 21:48:33.12ID:GpX/QgWA0
わいはchutesを使ってるわ
一番安いプランなら月3ドルで1日300回の制限やからチャットだけなら困らん
オープンウェイトのモデルしかないけど有名どころは一通りそろってる
0771名無しさん@ピンキー (ワッチョイ ee05-dW62)2025/11/05(水) 14:04:24.59ID:OoD41Q4X0
grokはllmエロいけるしチャッピーもそのうち解禁だからローカルllmの意義が減ってきてる気がするんだが、このスレ的には何に使ってるの?
0772名無しさん@ピンキー (ワッチョイ 3ef9-mzUR)2025/11/05(水) 15:07:28.71ID:TA+WwrEg0
俺はローカルllmやるで
もはやエロ関係ない(脱獄すればできるし)
ポテンシャルがえぐいんよローカルllmは
0773名無しさん@ピンキー (ワッチョイ ee05-dW62)2025/11/05(水) 15:38:08.65ID:OoD41Q4X0
そうなんか、そう言われるとやってみたくなるな。
5090は近々買う予定なんだけどこれで足りる?nvidia 同士なら分割処理できるみたいだし、でかいモデル用に3060 12g一つ買い足しておいた方がいいかな。ラデオンとの分割は無理っぽいよね。
0775名無しさん@ピンキー (ワッチョイ 3ef9-mzUR)2025/11/05(水) 15:59:53.25ID:TA+WwrEg0
>>773
まんま同士だw
実は俺ももう5090買うところなんだよ
俺個人はグラボ2枚刺しは今のところはやるつもりない、けっこう熱とか電力とか食うみたいだし
まあ動かしたいモデルにもよると思うけど…

ちなみに購入サイトとかまだ決まってなかったら、フロンティアではDDR5メモリ128増設で73万くらいで割りと安く買えるからおすすめかも
0778名無しさん@ピンキー (ワッチョイ 2abd-i8Ja)2025/11/05(水) 16:54:44.38ID:c71WOPVa0
今からやるならPCを分けたほうがいいと思うよ
少し上の方にも書いてあるけどLLM専用としてMac Studio >>721
画像生成用として5060Tiか5070TiあたりのPCを使うとかさ

まぁ、どれくらい本気でやりたいか、どっちを優先したいかだよね
少しやってみたい程度なら5090は十分すぎるけど本気でやりたいならMac Studioには勝てない
0781名無しさん@ピンキー (ワッチョイ 1a49-Sqr1)2025/11/05(水) 17:20:15.77ID:42QIU+Bf0
GLM4.6をフルサイズで動かしたいよなあ
0782名無しさん@ピンキー (ワッチョイ eeca-dW62)2025/11/05(水) 17:40:09.17ID:OoD41Q4X0
>>775
いいね。俺は事情で月末になるけど参考にさせてもらうわ、ありがとう。グラボ2枚はややこしいよなやっぱ。

>>776
たりないのか、一体いくらvram あれば実用できるんだ…

>>779
rpc か、結構ややこしそうだね、ありがとう。

>>774
ちなみにどんな子育ててるん?育て方もよくわかってないけど、育ててみたい意欲はあるんよね。
0783名無しさん@ピンキー (ワッチョイ 6f03-mTOK)2025/11/05(水) 17:41:20.76ID:k3IdEWaf0
高密度モデルだと5090を活かしきれるモデルではメモリが圧倒的に足りない
32GBに収まるモデルだと5090活かしきれないというジレンマ
MoEだとメインメモリに律速されるのでGPUはそれほど変わらない
LLM目的なら5090は正直おすすめしない 
0784名無しさん@ピンキー (ワッチョイ 2aad-mzUR)2025/11/05(水) 18:38:48.77ID:STqbQ0mh0
やっぱmac studioになるのか?
それか30902枚か
0785名無しさん@ピンキー (ワッチョイ 2acb-HzdJ)2025/11/05(水) 18:48:20.18ID:0l4WrV9G0
>>784
200B以上のMoEを最低限の速度でも良いから動かしたいというならmac studioが良いんじゃね プロンプト処理速度は遅いけどdeepseek系でも20t/sくらい出るらしいし
逆にVRAM48GB構成は100BクラスのMoEも載り切らないし、70Bクラスのdenseモデルが最近出てないから微妙になってきてる
0787名無しさん@ピンキー (ワッチョイ 3a65-mzUR)2025/11/05(水) 19:12:26.96ID:a6vKzf2f0
あっもしかしてDGXとおなじやつかコイツ
0788名無しさん@ピンキー (ワッチョイ 2abd-i8Ja)2025/11/05(水) 19:56:03.16ID:c71WOPVa0
RTX xx90系を2枚刺しはあまり現実的ではないよ
1枚で3〜4スロットの厚みがあるし長いからE-ATXくらいのクソデカマザーか外付けじゃないと物理的に取り付けられない(ケースも無理そう)
電源は最低でも1500Wくらいで12V-2x6が2つ必要(それかデュアル電源)
一般家庭は「壁のコンセント」が1500Wまでだから実質的にエアコンみたいな専用コンセントが必要
そして爆音爆熱
xx90系はかなり特殊だから一度しっかり調べたり実物を見に行ったほうがいいよ
0789名無しさん@ピンキー (ワッチョイ eeca-dW62)2025/11/05(水) 19:58:28.59ID:OoD41Q4X0
複数台マシンで分散させて動かすのはあんま流行ってないかんじ?
0791名無しさん@ピンキー (ワッチョイ 3a65-mzUR)2025/11/05(水) 20:30:02.89ID:a6vKzf2f0
うーん775だけどmac再燃しはじめたな
まあゆっくり考えよう
M5は来年だっけ
0792名無しさん@ピンキー (ワッチョイ 33c0-T6rd)2025/11/05(水) 21:38:13.22ID:OnsVW0Ux0
4090x1と3090x3で運用してるけどリミットかけたうえで1500W電源でギリギリだな
ケースに収めることは最初から放棄してライザーカードでにょきにょき生えてる
0793名無しさん@ピンキー (ワッチョイ 7ee0-Rqlm)2025/11/05(水) 23:39:59.89ID:rQAQGwZ50
ええ!?RTX5090を複数刺ししたいって!?

そんなあなたにINNO3DR GeForce RTX™ 5090 iCHILL FROSTBITE

......どう考えてもコンシューマー向け製品じゃないよコレ
0794名無しさん@ピンキー (ワッチョイ 3a53-mzUR)2025/11/06(木) 00:06:48.98ID:H0Wl2rhX0
CUDA互換を取るか…
デカモデルを取るか…
0795名無しさん@ピンキー (ワッチョイ 7fc0-hZw6)2025/11/06(木) 01:01:23.90ID:z3lvHfEh0
MacはM5チップ世代からGPU側に搭載したNeuralAcceleratorでようやくまともなfp16性能が出るようになったんで、今からならM5MaxやM5Ultraを搭載するであろう新型Mac Studioを待ったほうが良いと思われる
0796名無しさん@ピンキー (ワッチョイ 660e-mzUR)2025/11/06(木) 01:05:24.51ID:k5cM56Dk0
Mac m3 って96gbメモリでもファインチューニングとかできるんかな
0797名無しさん@ピンキー (ワッチョイ 13e7-nV2F)2025/11/06(木) 06:07:26.21ID:4cAqsVGl0
5090複数枚狙うぐらいならQuadro系統の方が良くないか?今度出るRTX5000PROが72GBのはずだし。
0800名無しさん@ピンキー (ワッチョイ 2ac7-kIgr)2025/11/06(木) 12:19:41.85ID:4VfcHnuO0
5090の1枚だとLLM用途には非力
大きいモデルを動かすにはMoEになるけどメモリが遅いせいで、5090がフルパワーになることなんてほぼない
200Wから300Wの間で、いいとこ200W付近だな
動画・画像生成ならOC無しで575W付近だな
0803名無しさん@ピンキー (ワッチョイ ef3f-mzUR)2025/11/06(木) 12:42:12.94ID:lMCuk1c10
モデルを学習させたいのならRTX、
大きいのを推論させたいだけならMACでしょう
0804名無しさん@ピンキー (ワッチョイ eeca-dW62)2025/11/06(木) 14:03:53.68ID:5ogRukTi0
みんな一体何を推論させてるんだ…夢は感じるけど具体的に何しようか自分でははっきり定められない。
0806名無しさん@ピンキー (ワッチョイ 3a1a-mzUR)2025/11/06(木) 15:04:13.91ID:H0Wl2rhX0
やっぱ推論だけじゃなくて学習させたいよなー
0807名無しさん@ピンキー (ワッチョイ 1a49-EU/t)2025/11/06(木) 15:12:09.62ID:BwdvnsPb0
学習させようとなるとローカルではさすがにきびしい
サーバーレンタルしたほうが絶対にいい
0810名無しさん@ピンキー (ワッチョイ 3a1a-mzUR)2025/11/06(木) 16:14:40.70ID:H0Wl2rhX0
難しいのかぁ
べつに30Bくらいのを学習できるとは思ってないけど、ちっちゃいのでもやれるといいけど
RAGのことも勉強しなければ
0811名無しさん@ピンキー (ワッチョイ 13e7-nV2F)2025/11/06(木) 17:25:25.55ID:4cAqsVGl0
>>802
Ti SUPER相当のシリーズがRTX Proでも来るってリークあったんよ。そっちの5000PROが72GBという話。6000PRO SUPERが来るならワンチャン128GBもあるかもしれへんね
0812名無しさん@ピンキー (ワッチョイ 131c-0U8u)2025/11/06(木) 20:09:27.05ID:OT25Em3L0
>>804 OpenHands とかで「改良しつづけよ」という雑なプロンプトで自動的にプログラムを改良してもらってる
時間かかるし、途中自分でスナップショットとって失敗に気づいてgit巻き戻して、と人間臭くて笑ってしまう
何度も失敗するから有料API使うと目の玉飛び出す金額になってしまうから、こういう用途はローカル向き

M4 Max 128G でVRAMに120GByte回してるから、python側(推論しない)は mbpで回している
120GByteでギリギリだよ。96Gだと頭の悪いLLMしか動作させられなくて結局成果物ができない
AI Max+ は Linuxなら120GByteくらい回せるらしいからワンチャン動く
0813名無しさん@ピンキー (ワッチョイ 3a5c-mzUR)2025/11/06(木) 21:22:16.20ID:H0Wl2rhX0
96でも頭わるいのかぁ困ったな
金がいくらあっても足らん
今のM3はファインチューニング向いてないらしいけど、M5出たらそこも改善されるといいなあ
0817名無しさん@ピンキー (ワッチョイ 6f03-mTOK)2025/11/06(木) 23:46:10.80ID:VQ2HluPM0
クラウドで微調整するにしても最低3090以上のローカルGPUも欲しい
学習設定やデータセットをテストを小さいモデルでやるにしても全部クラウドでやると無駄に金いくらあっても足りないし微調整後の推論は結局ローカルGPUだし
0818名無しさん@ピンキー (ワッチョイ 2ac7-kIgr)2025/11/07(金) 00:00:29.77ID:ynemYx0F0
火出そうって・・・
マイニング流行ってた頃はパワーリミットしてたとは言え、20枚挿しも珍しくなかったんだから8枚挿しくらい余裕だろ
マンションとかならともかく一軒家ならブレーカー落ちることないし
レスを投稿する


ニューススポーツなんでも実況