なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0389名無しさん@ピンキー (ワッチョイ e32d-xuds)2025/12/21(日) 06:16:19.96ID:4QmB8GeU0
5090+96GB RAMだと今どのモデルがコーディングに良いでしょうか?
0391名無しさん@ピンキー (オイコラミネオ MM37-dPjQ)2025/12/21(日) 11:26:48.79ID:uX1scsJsM
企業や学生さんが新しいパソコン買えずに困ってるのに、くだらん用途にたんまりリソース割り当ててる非国民のスレはここですか?
0392名無しさん@ピンキー (ワッチョイ 8f87-TclW)2025/12/21(日) 12:43:52.89ID:adZUKwHi0
愛国者が国にパソコンを献上する制度があれば皆喜んで差し出しますよ
0395名無しさん@ピンキー (ワッチョイ 3fc7-rc7o)2025/12/21(日) 18:25:02.43ID:B6/89BpV0
>>394
詳しく
神戸や東北の報道を見る限り、みんな助け合ってた風景しか知らない
0398名無しさん@ピンキー (ワッチョイ 3fc7-rc7o)2025/12/22(月) 01:16:54.22ID:ZkZbvAII0
とりあえず、5090在庫ありだったからポチってしまった
納期未定ばかり見ていたから買ってしまった
今更だけど、LLMするにはどんなPC作ればLLMが5090の性能をしっかり引き出して動く?

最悪は今持ってるPC(4年型落ちだが128GB積んでる)とGPUと差し替えるつもりだけど
可能なら今風のPCを1台作ってやりたい、もしくはメモリや本体そのものをオクで買ってケチりたい

>>396
そういえば、混乱期は酷かったっぽいな
0399名無しさん@ピンキー (ワッチョイ 7f67-+S0n)2025/12/22(月) 07:39:36.14ID:sURJg28A0
まずマイニング用のフレームと1200Wの電源を用意します。
0400名無しさん@ピンキー (ワッチョイ 7f67-+S0n)2025/12/22(月) 07:44:01.39ID:sURJg28A0
ライザーカードに挿せる限りのGPUを付けます。
0401名無しさん@ピンキー (ワッチョイ 7f67-+S0n)2025/12/22(月) 07:46:12.61ID:sURJg28A0
後は電力と騒音と排熱との戦い
0402名無しさん@ピンキー (ワッチョイ a36a-9NV1)2025/12/22(月) 10:19:08.68ID:XF+zaIuH0
欲しい時が買い時
買える時に買うのが正解です
0406名無しさん@ピンキー (ワッチョイ b323-Ky+w)2025/12/22(月) 10:56:40.31ID:7F5UFXYj0
ソフト面が多様になるのが一番ありがたいんだけどまあ難しいわな
0407名無しさん@ピンキー (ワッチョイ 8f0f-0si7)2025/12/22(月) 13:51:33.79ID:/SPL55EJ0
Blackwell凄いアピールの時に使われたfp4はどうなったんだよ
0410名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/22(月) 16:54:41.95ID:KaFwJnb80
>>301
Q5K_M以上も出してくれたんで試したが、たしかにQ4より出来はいいな
だが、なんというか意識高い系っていうか、エロなのになんか上品な小説に持っていこうとする傾向あるな
整合性についはもう一歩欲しい
0411名無しさん@ピンキー (スプープ Sd5f-iM94)2025/12/22(月) 18:48:04.06ID:3IAyEDiWd
>>410
他所でも書いたが下品なエロを学習してないから話がどんどん脇道に反れる
中華モデルで顕著に見られる傾向

特にQwen系はすぐSFやメカ展開に持っていきたがるからプロンプトで明示的に抑制する必要がある

下品なエロや隠語をGrokあたりから抜いてプロンプト、LoRA、FTで移植しないと俺らが望むエロモデルにはならない
0412名無しさん@ピンキー (ワッチョイ 3fc7-rc7o)2025/12/22(月) 19:56:53.84ID:ZkZbvAII0
>>409
PL80で使うから大丈夫だと思ってたけど、不安になったから
電源使い回し(コルセア9年目)でHDD沢山積んでるから、
Thermaltake PS-TPD-1200FNFAPJ-L
をポチってみた(AIに聞いたらこれすごく推してきた)
ただ4090ではGPU付属の変換コネクタ使ってるわ 4090も結構まずかったんだろうか

>>399-401
Define使ってるけどサイドを開けて空気清浄機の風当てようかと思ってる
ライザーカードに乗せるのかなり良さそうだね もう1台買おうかと思ったけど5090の在庫がなくってよかった
とりあえず、冷静になって、まずはローカルLLMの性能を使ってみた考えようと思う

あと、ちょびっツじゃないけど、AIを自宅で育てるというかいい感じに改良できないんだろうか?
最近、国分寺稔くんをやたらと思い出す あとKOTOも
ただレイアースの方が遥かに有名みたいでこのSFアニメしてる人が少ないっぽく残念

特に、最近Geminiの品質が向上しすぎてシステム無駄になりそうで不安ある
SDのエロLoRA素材(顔を赤らめてとか怒ってるとか作らせてる)作らせてるけどエロが無理だから素材だけどかなりいいものができてるわ
というかこれnswfで動かしたいがいつになったらローカルで使えるのやら
あとLLM、科学、経済など大学の教官並に詳しくて驚く、これいつになったらローカルで使えるのやら?
0413名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/22(月) 21:03:39.87ID:WaudJre70
追加学習は要求スペックと難易度が高いから海外勢も諦めムード
それに今はDenseモデルを弄るよりMoEモデルをそのまま使う方がいい結果になりやすい
0414名無しさん@ピンキー (ワッチョイ 3fb6-zXIm)2025/12/22(月) 21:49:07.62ID:OMjUm8Lu0
知識(語彙も含む)の追加は学習で最も面倒でLoRAでは無理って言われてるね 
だから海外のRPモデルは最初からそっちの知識が豊富なmistral smallとかnemoをベースにしてる
0416名無しさん@ピンキー (ワッチョイ 3f93-fMZT)2025/12/23(火) 07:43:32.88ID:nDZDWBRS0
GLM4.7来たね
ベンチマークだとGPT5.1くらいのスコアしてる
0417名無しさん@ピンキー (ワッチョイ cfa9-RgzM)2025/12/23(火) 09:30:11.60ID:6o9rYbEn0
GLM4.7、倫理規制厳しくなっていて泣いた
0420名無しさん@ピンキー (ワッチョイ 3f61-RgzM)2025/12/23(火) 11:40:29.62ID:gx75EdUN0
>>419
ローカルじゃないがChutesていうOpenAI互換プロバイダのAPIから使ってみた
多分入力の検閲はやってないとこのはず
0428名無しさん@ピンキー (ワッチョイ a36a-rh7x)2025/12/23(火) 17:57:18.41ID:qshlcN+k0
>>416
ソース
0429名無しさん@ピンキー (ワッチョイ ef04-XkZH)2025/12/23(火) 20:24:52.15ID:j8PFql5i0
このスレ民の評価ってどういう基準なの?
自分は動画生成用のプロンプト推論に使ってるので
ストーリー性は求めるがセリフは求めないって感じ
あとVRAM溢れさせるのがデフォな使い方しとるんか?
メインメモリで推論させてテキストで重厚なストーリー出力って感じ?
0433名無しさん@ピンキー (ワッチョイ cf36-rc7o)2025/12/23(火) 23:44:49.83ID:s0lGjMWv0
RTX6000とRTX5090はVRAMの量が全然違うのに処理速度はあまり違わないと聞いたけど
それなら1つのマザボにRTX6000x1にするよりもRTX5090x2にした方が処理速度は速いということで合ってる?
LLMの推論とかWanの動画の生成速度が倍近く速くなるならVRAMが少なくても後者の方が利点あるかなと思ったんだけど
最近の欠品状態で買えるかどうかは別として
0435名無しさん@ピンキー (ワッチョイ 3f93-fMZT)2025/12/24(水) 01:19:17.31ID:oW+19dlF0
MiniMaxも新しいモデル来てるな
0438名無しさん@ピンキー (ワッチョイ 3f55-lXFC)2025/12/24(水) 11:42:49.04ID:Te1aIUVG0
なんとなく見始めた初心者なんやが4070tiで遊べるんか?
ゴツいグラボの話多くて震えてるわ
0440名無しさん@ピンキー (ワッチョイ 3fc7-SDhK)2025/12/24(水) 12:06:32.13ID:eS2xEZTO0
>>437
コンテキストは全部GPUに振ってるからVRAM次第だけどRTX5090なら46Kまでいけた

以下参考
46K 30.7GB
32K 26.1GB
16K 20.4GB
8K 17.1GB
4K 16.0GB
2K 15.2GB
1K 15.0GB

KVキャッシュの量子化指定無し
LM Studioで確認
0443名無しさん@ピンキー (ワッチョイ 3f9e-ZCHH)2025/12/24(水) 13:34:40.63ID:GdlLH36k0
そういや5090だとGDDR7になったから帯域幅は4090の2倍近いんだっけ
でもグラボに乗り切るサイズならどっちにしろ爆速だからやっぱVRAM量だけ気にしてれば十分なのか
0445名無しさん@ピンキー (ワッチョイ 3fc7-rc7o)2025/12/24(水) 17:48:55.50ID:tBtZ73nT0
5090(購入済み)で今新規にPCを組もうと考えてるんだけどメモリは何GB積めば良い?
DDR5諦めてDDR4なら中古で安く買えるからM/B悩む
あとCPUはどの程度買えばいいだろ?LLMって言うほどCPU使わないよね?
0447名無しさん@ピンキー (ワッチョイ efd0-oKN0)2025/12/24(水) 18:13:04.57ID:0yd84XMF0
>>445
MoEモデルをGPU+CPUでもそれなりに速く動かせるようになって
メインメモリもあればあるほどいい、になっとる
メインメモリが128GBあればVRAM32GBと合わせてQ4のQwen3-235bがコンテキスト減らせば動かせるかもわからん
ワイはそんなハード持っとらんから確認したわけじゃないし実際に動くかはわからんけど
0448名無しさん@ピンキー (ワッチョイ ef93-zXIm)2025/12/24(水) 18:16:41.56ID:KvLJtA0U0
やりたいことはやったらいいけど
古いPCに電源とGPUだけ載せ替えたら?ってくらい時期が悪い
DRAMはDDR4で32〜64GBでもかなりぼったくり
相性問題も起きるジャンルだから保証なしで高額商品に突撃するのはかなり冒険
0449名無しさん@ピンキー (ワッチョイ 9324-VlN3)2025/12/24(水) 18:43:36.66ID:F/+8qqxW0
メインメモリ128GBだとQwen3 235BのQ4は多分無理。Q3になると思う。
積むなら256GBだね。
今ならDDR4のxeonかスリッパでも普通にDDR5-256GB買うより安くなるんじゃね?
知らんけど。
0450名無しさん@ピンキー (ワッチョイ 7332-wNtz)2025/12/24(水) 18:45:28.03ID:KhCbXLY30
今はLLMもAI画像もAI動画も最低128GBは欲しいところ
0451名無しさん@ピンキー (ワッチョイ 3fac-rc7o)2025/12/24(水) 19:26:47.08ID:tBtZ73nT0
>古いPCに電源とGPUだけ載せ替えたら?ってくらい時期が悪い
実は、それするつもりでGPUと電源まで買ったんだけど、いざしようとしたら細かな設定が多すぎて新しく1台作りたくなって今になって悩み始めてる

ボッタクリと言っても今後値上がりするならむしろ安いかと
色々な予想を見ても2027年までは下がらないという話が増えた
中古ならほぼ新品含めてまだ安くあるしDDR4の使えるM/Bも今ならまだ普通に買える DDR5もなんとか買える価格

MoEはMacだけかと思ってたけどWindowsでもそれなりにできるようになってるのか
それで実際どこまで早く動くんやろ?RAMってVRAMと比べて速度遅いし気になる、

あとここまでRAM上がると、場合によっては5090*2でVRAM32*2や他の型番のVRAM多いGPUを複数の方が安くて早いとかもありえるかね?
そういう意味でもRAMをどこまで上げるか悩む

SD(AI画像)やってるけど1280で後で4Kに拡大してるけど32GBで十分と感じてるわ
あと、RAMはVRAMと比べて極端に遅いから溢れて使うことはほぼ無いわ
0453名無しさん@ピンキー (ワッチョイ 9324-VlN3)2025/12/24(水) 19:44:47.62ID:F/+8qqxW0
金有りそうだからryzenAI max+ 128GBにM.2からのoculinkで5090を接続するのを試してほしい
0458名無しさん@ピンキー (ワッチョイ b309-nQdN)2025/12/24(水) 22:07:59.74ID:x2HqbVnJ0
MiniMax M2.1
Gemini 3 ProやClaude 4.5 Sonnetを上回るスコアを記録 とあるけどウソくせー
Qwenもそうだったけど実際に使うとメジャー級とじゃ相手にならん
いつものごとく試験問題の答えを学習しているカンニングモデルの気配
0459名無しさん@ピンキー (ワッチョイ 7f64-ldFF)2025/12/24(水) 22:18:16.45ID:hhjZW9e70
単に日本語応答だと学習量足りなくて雑魚になってるだけかもよ
あと前モデルのMiniMax M2はRedditでもコーディング以外駄目な子扱いされてたな
そのコーディングも絶賛って程じゃなかったがクリエイティブライティングは特に評判悪かった記憶
0460名無しさん@ピンキー (ワッチョイ 93e1-gcTU)2025/12/25(木) 01:14:12.65ID:QQFUgyIz0
>>445
5090おめ
ワイの場合は1か月前だが、5090を買うぐらいならより安い予算でメモリガン積みのPCを新調したほうが良いと思い、
PCIE5.0規格に合わせてCPU,M/B,SSD全部そろえた
結果128GB+16GBでQwen3-235B-Q3が動いて世界が変わったで

というわけで128GBの下は64GBになると思うけどそれだととても勿体ないと思うよ
それにメインメモリに乗せて動かすと、やっぱりCPUパワーもそれなりに使う様だよ
財力があるならDDR4にするとか古いGPU2枚差し(これもやった)とか、変にケチらんほうがええよ
0461名無しさん@ピンキー (ワッチョイ 3fac-rc7o)2025/12/25(木) 03:15:04.72ID:QeIM/0Re0
古いPCでDDR4-128GB(今のPCのGPUを付け替える)にしようかと思ってたけどDDR5にすべき?
メモリってベンチマークでは差が出るけど実際にはDDR4・5変わらないって話を聞いて悩んでる
実際の所どうなんだろ?


>>460
ありがとう ちょっと出遅れたけどキャンセルになることなくなんとか買えてさっき置き配回収した
世界が変わった、そこまでか!DDR5早い?

>>453
取り合えすStable DiffusionがメインでLLMも気になってるくらいだからまだ出せないわ
今のGemini3とnanobababaの品質ならすぐにでも買うけど多分まだまだだよね
ただ、AIさんに来年にはローカルでも同程度になるかと聞いたら、昨今のLLMの進歩を見るとなる可能性が高いとい言ってたw
しかもメモリも節約できるタイプが出るみたいな話で大変楽天的だった
場合によってはそこそこのPCを買って待つのもありじゃないかと思ったりしてる
0463名無しさん@ピンキー (ワッチョイ 7332-s35p)2025/12/25(木) 07:47:15.17ID:b9l9XA760
>>461
DDR4もDDR5もLLM用途だと相対的に見ればたいした差はないよ
DDR5の新品だと今の状況だと2倍以上の価格差になるので128GBまででいいならDDR4にしてその価格差で容量増やしたほうが絶対にいい
というかDDR5の64GBの2枚が30万ってうぇぇぇ・・・・
0466名無しさん@ピンキー (ワッチョイ 7332-wNtz)2025/12/25(木) 09:16:50.67ID:6NV5/cQb0
Gemini liveが手軽なサイズでローカルに降りてくるのはいつになることやら
0467名無しさん@ピンキー (ワッチョイ 83c6-ldFF)2025/12/25(木) 09:21:34.65ID:JzO46wCb0
昔見たPCI-Ex16にM.2 SSDを四枚挿してRAID0でSWAPdisk?だったかでメインメモリの代わりにしてデカいLLMを動かすのがいいかもしれない
PCI-E 5.0なら理論上は512Gbpsの帯域幅あるけど実際のところどうなんだろうね
まあSSDも値上がってるけど
0470名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/25(木) 11:11:27.61ID:AruFNnll0
性能を上げるためにモデルを巨大化した結果、メモリ不足になったわけで
高性能かつ省メモリなモデルができるならメモリ不足も起こってないという
0472名無しさん@ピンキー (ワッチョイ 7332-wNtz)2025/12/25(木) 11:19:17.62ID:6NV5/cQb0
>>470
今まではメモリが調達できる状態だったからその方針で進んでいただけで
調達できなくなったらそれに適応するように方針を変えるやろ
他の分野でも必要なものが調達できなくなってからようやくその部分を代替・効率化する技術が発展するとかよくある話だし
0473名無しさん@ピンキー (ワッチョイ b3ec-+e8j)2025/12/25(木) 11:34:40.98ID:mDnKJNz80
DDR4を入手よりも対応するマザーボードの入手が難しい
CPUやメモリは耐久性高いんだがマザーボードは大量の部品の集まりで故障しやすく中古はハイリスク
0475名無しさん@ピンキー (ワッチョイ 3f9f-1qsg)2025/12/25(木) 13:04:02.45ID:v3s2j4YZ0
5090と192めもりあるから何かに有効活用したいけどやっぱり動画生成に向き合うのがいいのかなあ
0477名無しさん@ピンキー (オッペケ Sr77-Ubo7)2025/12/25(木) 18:22:22.76ID:UhzC7jVkr
なんか急にメモリ不足になってて草
0478名無しさん@ピンキー (ワッチョイ 33c0-VlN3)2025/12/25(木) 19:04:49.75ID:AVrajHLN0
64GBx2の価格が上がりすぎて、静電気怖くてAI用PC弄れん。
0480名無しさん@ピンキー (ワッチョイ cfa9-xxTa)2025/12/25(木) 21:01:08.80ID:gh+hQl730
Mac買い替えるんだけど、流石に128GBとかは買えないから買えて64GBなんだけどローカルのモデル動かすには中途半端なサイズなのかな?
LLMのこと考えなければ64GBなんて全然いらないんだけど今あるRTX5060Ti+128GB(DDR4)の環境より早くなるならありかなって。。
0481名無しさん@ピンキー (ワッチョイ a36a-Ubo7)2025/12/25(木) 21:34:59.18ID:OB673X1y0
何したいか知らんが少ないんでは?
0482名無しさん@ピンキー (ワッチョイ 7332-wNtz)2025/12/25(木) 21:46:29.83ID:6NV5/cQb0
LLM用途で64GBは後悔することはあっても満足することは無いと思うで
0484名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/25(木) 22:26:38.46ID:ViJl0/9F0
うーむ。ようやく化石PCから新調したけど思ったより速度出ないな。

magnum123b iQ3k_mを旧PCで0.17t/s
同Q8_0を新PCで0.41t/s

うーん、なにか設定ミスったかな。まあ、CPUメモリだしなぁ
0486名無しさん@ピンキー (ワッチョイ 8389-r6/A)2025/12/25(木) 23:19:46.06ID:3J/gLz4j0
Nemotron3はなかなか良いね
0488名無しさん@ピンキー (ワッチョイ 93b2-VlN3)2025/12/25(木) 23:43:37.00ID:+4TZHvI30
128GBでQ5で使える170Bくらいの良い感じのモデルが欲しい
レスを投稿する