なんJLLM部 避難所 ★10
0461名無しさん@ピンキー (ワッチョイ 3fac-rc7o)2025/12/25(木) 03:15:04.72ID:QeIM/0Re0
古いPCでDDR4-128GB(今のPCのGPUを付け替える)にしようかと思ってたけどDDR5にすべき?
メモリってベンチマークでは差が出るけど実際にはDDR4・5変わらないって話を聞いて悩んでる
実際の所どうなんだろ?


>>460
ありがとう ちょっと出遅れたけどキャンセルになることなくなんとか買えてさっき置き配回収した
世界が変わった、そこまでか!DDR5早い?

>>453
取り合えすStable DiffusionがメインでLLMも気になってるくらいだからまだ出せないわ
今のGemini3とnanobababaの品質ならすぐにでも買うけど多分まだまだだよね
ただ、AIさんに来年にはローカルでも同程度になるかと聞いたら、昨今のLLMの進歩を見るとなる可能性が高いとい言ってたw
しかもメモリも節約できるタイプが出るみたいな話で大変楽天的だった
場合によってはそこそこのPCを買って待つのもありじゃないかと思ったりしてる
0463名無しさん@ピンキー (ワッチョイ 7332-s35p)2025/12/25(木) 07:47:15.17ID:b9l9XA760
>>461
DDR4もDDR5もLLM用途だと相対的に見ればたいした差はないよ
DDR5の新品だと今の状況だと2倍以上の価格差になるので128GBまででいいならDDR4にしてその価格差で容量増やしたほうが絶対にいい
というかDDR5の64GBの2枚が30万ってうぇぇぇ・・・・
0466名無しさん@ピンキー (ワッチョイ 7332-wNtz)2025/12/25(木) 09:16:50.67ID:6NV5/cQb0
Gemini liveが手軽なサイズでローカルに降りてくるのはいつになることやら
0467名無しさん@ピンキー (ワッチョイ 83c6-ldFF)2025/12/25(木) 09:21:34.65ID:JzO46wCb0
昔見たPCI-Ex16にM.2 SSDを四枚挿してRAID0でSWAPdisk?だったかでメインメモリの代わりにしてデカいLLMを動かすのがいいかもしれない
PCI-E 5.0なら理論上は512Gbpsの帯域幅あるけど実際のところどうなんだろうね
まあSSDも値上がってるけど
0470名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/25(木) 11:11:27.61ID:AruFNnll0
性能を上げるためにモデルを巨大化した結果、メモリ不足になったわけで
高性能かつ省メモリなモデルができるならメモリ不足も起こってないという
0472名無しさん@ピンキー (ワッチョイ 7332-wNtz)2025/12/25(木) 11:19:17.62ID:6NV5/cQb0
>>470
今まではメモリが調達できる状態だったからその方針で進んでいただけで
調達できなくなったらそれに適応するように方針を変えるやろ
他の分野でも必要なものが調達できなくなってからようやくその部分を代替・効率化する技術が発展するとかよくある話だし
0473名無しさん@ピンキー (ワッチョイ b3ec-+e8j)2025/12/25(木) 11:34:40.98ID:mDnKJNz80
DDR4を入手よりも対応するマザーボードの入手が難しい
CPUやメモリは耐久性高いんだがマザーボードは大量の部品の集まりで故障しやすく中古はハイリスク
0475名無しさん@ピンキー (ワッチョイ 3f9f-1qsg)2025/12/25(木) 13:04:02.45ID:v3s2j4YZ0
5090と192めもりあるから何かに有効活用したいけどやっぱり動画生成に向き合うのがいいのかなあ
0477名無しさん@ピンキー (オッペケ Sr77-Ubo7)2025/12/25(木) 18:22:22.76ID:UhzC7jVkr
なんか急にメモリ不足になってて草
0478名無しさん@ピンキー (ワッチョイ 33c0-VlN3)2025/12/25(木) 19:04:49.75ID:AVrajHLN0
64GBx2の価格が上がりすぎて、静電気怖くてAI用PC弄れん。
0480名無しさん@ピンキー (ワッチョイ cfa9-xxTa)2025/12/25(木) 21:01:08.80ID:gh+hQl730
Mac買い替えるんだけど、流石に128GBとかは買えないから買えて64GBなんだけどローカルのモデル動かすには中途半端なサイズなのかな?
LLMのこと考えなければ64GBなんて全然いらないんだけど今あるRTX5060Ti+128GB(DDR4)の環境より早くなるならありかなって。。
0481名無しさん@ピンキー (ワッチョイ a36a-Ubo7)2025/12/25(木) 21:34:59.18ID:OB673X1y0
何したいか知らんが少ないんでは?
0482名無しさん@ピンキー (ワッチョイ 7332-wNtz)2025/12/25(木) 21:46:29.83ID:6NV5/cQb0
LLM用途で64GBは後悔することはあっても満足することは無いと思うで
0484名無しさん@ピンキー (ワッチョイ 5332-s35p)2025/12/25(木) 22:26:38.46ID:ViJl0/9F0
うーむ。ようやく化石PCから新調したけど思ったより速度出ないな。

magnum123b iQ3k_mを旧PCで0.17t/s
同Q8_0を新PCで0.41t/s

うーん、なにか設定ミスったかな。まあ、CPUメモリだしなぁ
0486名無しさん@ピンキー (ワッチョイ 8389-r6/A)2025/12/25(木) 23:19:46.06ID:3J/gLz4j0
Nemotron3はなかなか良いね
0488名無しさん@ピンキー (ワッチョイ 93b2-VlN3)2025/12/25(木) 23:43:37.00ID:+4TZHvI30
128GBでQ5で使える170Bくらいの良い感じのモデルが欲しい
0489名無しさん@ピンキー (ワッチョイ 3fc7-rc7o)2025/12/26(金) 00:22:15.91ID:yMjii2Jm0
LM Studioでとりあえず色々なモデルダウンロードしてるんだけど
ふと思ったがファイルってそもそも安全なんだろうか?
0490名無しさん@ピンキー (ワッチョイ 3f7c-geEI)2025/12/26(金) 00:58:47.21ID:p+OQnC8X0
何も考えずに ollama 使ってたけど直接 llama-server 叩いたほうが速いうえに webui も付いてたんだね
ollama ってなんのためにあるんだ…
0491名無しさん@ピンキー (スッププ Sd5f-iM94)2025/12/26(金) 00:59:59.20ID:qCRoD1VLd
GLMくらいのサイズのMoEで要らないエキスパートを外せれば128GBでも動きそうだが
メモリ128GBの貧乏人のことを真剣に考えてくれる開発元はQwenくらいしかないのが悲しい現実
0492名無しさん@ピンキー (スッププ Sd5f-iM94)2025/12/26(金) 01:02:34.18ID:qCRoD1VLd
米欧中のモデルって中身がほとんど英語と中国語だから
日本語メインのユーザーから見たらスッカスカのsparse状態だよな

もちろん英中を抜いて精度が維持出来るわけではないだろうが
日本人があまりにも不利すぎる
0494名無しさん@ピンキー (ワッチョイ b319-nQdN)2025/12/26(金) 03:41:49.42ID:7grGkI6v0
>>480 予算という制限は最優先だけろうけど64GBはちょっとつらい
Macはメモリ全部をVRAMに回せるんだけど、当然OSの
分が必要なわけで 8から10GByteは少なく見積もったほうがいい

もともとQ4対象とするモデル(gpt-ossとか)じゃないと劣化が激しくて
実用には程遠い(Q1で「動いた!」と夢を見てもねw)

最近MoEが流行ってきたせいで128GByteでもちょいちょい足りない
待てるならM5 maxを待った方がいいよ

M3チップから先のM系CPUは、mlxモデルなら量子化圧縮の他に内部でリアルタイムで
コストなしにメモリー圧縮してくれる
例えば100GByteのモデルだと80GByteくらいになることもある。当然まったく縮まないモデルもある

あと画像動画系はM4maxまでは使いもんにならんので素直にRTXを選択だ
0495名無しさん@ピンキー (ワッチョイ b358-+e8j)2025/12/26(金) 04:19:27.11ID:Wrkd9qpz0
オープンなモデルで見ると中国製はまだ日本語わかる方で英語圏のはマジで日本語知らない
Llamaとかきついね
最初あれを日本語ファインチューニングしてた会社多かったけどqwenの方が日本語分かるってみんな乗り換えたし
0496名無しさん@ピンキー (ワッチョイ cfa0-s35p)2025/12/26(金) 05:52:46.69ID:8zRv1QPC0
DRAM市場は価格変動が激しく、利益率が低いことで知られています。
特に、AIブームによるサーバー向け需要が優先され、PC向け供給が逼迫している現在、
ASUSのようなPCメーカーにとっては調達コストの上昇が深刻です。
噂では、ASUSが2026年に自社DRAM生産ラインを構築(または提携)するのは、
自社製品(ノートPC、デスクトップ)の供給を安定させ、価格転嫁を避けるためとされています。
しかし、この市場はSamsung、SK Hynix、Micronの「ビッグ3」が支配しており、
新規参入は資本集約的で収益化が難しい。台湾企業がこうした市場に手を出すのは、
単なるビジネスではなく、台湾の半導体エコシステム全体の戦略的強化を意図している可能性があります。
台湾政府は半導体を国家安全保障の柱と位置づけ、TSMCのようなファウンドリ(受託製造)だけでなく、
メモリ分野での自立を推進しています。これにより、中国依存を減らし、
米台同盟を強固にする地政学的メリットが生じます。
0499名無しさん@ピンキー (ワッチョイ 5332-Fga2)2025/12/26(金) 12:56:43.48ID:kUso6zPz0
>>498
書き忘れてたわw
iQ3k_mだと1.32t/sやった
Q8でここまで落ちるんかとショックだわ
>>487のニキと何が違うんやろ
多分スペック的には大差ないと思うけど
ryzen7 9800x3d msi rtx5090
メモリcp64g56c46u5✖4 256G
5090怖いんでPL運用
0500名無しさん@ピンキー (ワッチョイ 3fc7-SDhK)2025/12/26(金) 13:33:50.22ID:gBa6xuvc0
>>499
うひゃ、すごいな
俺は4年前のスリッパなんでそこまで性能良くない

俺のスペックはこれ
Threadripper Pro 5955WX(16c32t)
DDR4 3200MHz 32GB@8枚(オクタチャネル)
RTX 5090+RTX 3090@3枚 PCI4.0接続

違いはメモリ帯域かなと思ったけど
5955WXは2CCDという制約があって、メモリ帯域がまだフル稼働してない状態なんよ
実効帯域は半分の90GB/s弱のはず
これだとDDR5のハイエンドデスクトップと変わらんはずなんよね

Magnum v4 123B Q8試してみたけど0.58t/sだったので、GLM4.7ほどの差はない模様
0503名無しさん@ピンキー (ワッチョイ cf4c-gcTU)2025/12/26(金) 21:44:50.00ID:MbwwI/fJ0
openRouterのGLM4.7はプレフィルにここの<think>のやつを入れたらだいだいOKだな
ただreasoningのほうに本文が全部入って帰ってくることになるからapi呼び出しコードとかちょっと修正がいるかも
ttps://www.reddit.com/r/SillyTavernAI/comments/1pv8jto/glm_47_my_holiday_present_to_those_effected_by/
0506名無しさん@ピンキー (ワッチョイ 6ac7-Ls7H)2025/12/27(土) 01:57:05.71ID:HyeodPWU0
ノベルはどこでみんなプロンプト勉強してるんだろ
学習場所みたいなの知りたい
ちなみに、SDはCivitaiなど先人のプロンプトが物凄く役に立った
0507名無しさん@ピンキー (ワッチョイ 6ac7-Ls7H)2025/12/27(土) 01:57:53.57ID:HyeodPWU0
あと、ノベルに限らずLLMへの質問の仕方で回答かなり変わるしイマイチかん所が分からない
0509名無しさん@ピンキー (ワッチョイ e632-4mSN)2025/12/27(土) 07:06:17.86ID:PA+m8zpZ0
>>56
尻タブのキャラクターカードを参考にするといい
https://aicharactercards.com/

ピンキリだけど何の取っ掛かりもなく一人で試行錯誤するよりはだいぶマシだ
0510名無しさん@ピンキー (ワッチョイ e632-4mSN)2025/12/27(土) 07:06:35.15ID:PA+m8zpZ0
>>506だった
0511名無しさん@ピンキー (ワッチョイ cf20-UjAx)2025/12/27(土) 10:47:56.62ID:qjlNvfdb0
モデルの進化に伴ってプロンプトの書き方は意味を失っていって、適切なコンテキストを渡せるかどうかの話になっていくから、今からプロンプト頑張っても1年2年で賞味期限切れになる気がする
0515名無しさん@ピンキー (スッププ Sdee-KwNi)2025/12/27(土) 15:46:43.74ID:JH4k1F+Sd
AntiGravity時代やから的外れなコードやドキュメントを指示出しで軌道修正するスキルが一番大事や

書けない分からないじゃなく出してから考えるんや
0516名無しさん@ピンキー (ワッチョイ 5a02-SbIX)2025/12/27(土) 18:04:07.80ID:GInV4/hz0
GLM4.7を量子化無しで動かしたいなあ
500万円あったら足りるんかね
0518名無しさん@ピンキー (ワッチョイ 6ac7-Ls7H)2025/12/27(土) 18:22:42.46ID:HyeodPWU0
>>509
ありがとう
キャラクター設定を作るまでは分かったけどそれでどう楽しむのかが良く分からない
SDだとシンプルに画像を作ってみて楽しめるけどLLMはどうするん?

>>511
SD、2年やってるけど、プロンプトは基本的に同じだな、ただ関わってると大きな変更があると掲示板で話題になるからその時一部変更してそのまま移行できてる

>>514
そんなことはない、分からなければ聞けばいつまででも教えてくれる
サンプルプログラムを貼り付けるだけのスキルしか無いから、高度なこと(何が高度なのかすら分からない)は無理だと思うけど、
こんなスクリプト作ってと言って、動くまで繰り返したら中身の全く理解できないソフトができたりしてるわ しかも、Perlしか使えないのに、PythonでGUIなソフトまで作ってくれた
時間はかかるけど、どんな物が欲しいのか(可能なら途中の処理がはっきりしてれば)がはっきりすればある程度はできる時代だと思う
ただ、ファイルの読み書きみたいな基本的な事もお任せしてたら、最近それも忘れてきた、AIなしだと何もできなくなりそうな怖さある
0519名無しさん@ピンキー (ワッチョイ 5a02-SbIX)2025/12/27(土) 18:44:41.69ID:GInV4/hz0
>>517
chutesって量子化されてるだろ
0520名無しさん@ピンキー (ワッチョイ e632-4mSN)2025/12/27(土) 19:19:40.12ID:PA+m8zpZ0
>>518
LLMはAIのシステムプロンプトに「あなたはこういう役割だからこういう風に振舞って」と基本ルールを記述しておく。
それとは別に「今からこういうことをして」というユーザープロンプトを与えると、基本ルールに沿った挙動で返信してくれる。

だから例えばAIに対して「あなたはファンタジー小説家です。私はあなたの担当編集者なので私の指示に従って小説を書いてください」という基本ルールを与えておいて
「それでは今から、物語の最初のシーンである勇者が冒険に旅立つ場面を書きましょう」とユーザープロンプトを与えるとファンタジー小説家らしく小説の冒頭を書き始めを生成してくれる。
スクリプト作るときも基本は同じやで。

AI画像生成、特に最近主流のリアスなんかはdanbooru語のプロンプトを与えるだけで良かったけど、LLMはもうちょっと設定の仕方が細かく分けられているって感じ。
さらにAIが理解しやすい記述方法にマークダウン記法とかを使った構造化プロンプトがあるからそれぐらいは覚えておいた方がいい。
構造化プロンプトはZ-image turboでも有効だと判明したからAI生成画像をやる場合でも覚えておいて損はないと思う。
0522名無しさん@ピンキー (ワッチョイ 6aac-Ls7H)2025/12/27(土) 19:43:59.04ID:HyeodPWU0
>>520
これでどうエロに繋げるの?
とりあえず、mistral-small-24b-instruct-2501-abliterated-i1落としてエロ小説にしてと言ったらやってくれたけど、
それなら本でいい気がするが、LLMみんなハマってるし、もっと楽しんでるよね?
いまいち楽しみ方が分からん

あと、プログラム(Perl)だけどやってほしいことを箇条書きや文章で投げるだけばかりだったわ
ただ、AIにプロンプトをお願いしたら###がたくさんあるのを返してくれるな この記法も覚えたほうがいいのか
z-imagaはまだ使ってないけどnanobananaだと誤字脱字無駄な文章ありまくりでもいいものができるし、内部でうまいこと処理してくれてんのかな

>>521
みんなのプロンプト例をあまり見ることがないから知らなかったわ
画像だとあるけど、LLMでもこんなプロンプトでこんな物作ったみたいな例がたくさん乗ってるサイトってあるかね?
そういうのからざっくり勉強(真似)したい
0524名無しさん@ピンキー (ワッチョイ e632-4mSN)2025/12/27(土) 20:30:00.68ID:PA+m8zpZ0
>>522
絵だってAIで生成せずともpixiv見るなり画集やCG集買うなりすればええやろ?
でも自分好みの絵が欲しいからAIで生成しているわけだ
文章も同じで自分好みの小説やキャラとのチャットを楽しみたいからLLMで生成するわけだ
本で満足できるなら別にLLMで生成する必要は無いで

エロに繋げるならエロ小説だけでなく
koboldcppのアドベンチャーモードを使って、プレイヤーの行動を記述することで物語が順番に進むエロTRPGみたいなこともできるし
単にキャラ設定を書いて自分好みのキャラとエロチャットを楽しんでもいい
妄想力とリビドーを働かせて遊ぶんやで
0525名無しさん@ピンキー (ワッチョイ 8d32-0Alr)2025/12/27(土) 21:12:44.85ID:OFD0eLnw0
>>522
自分のお気に入りのキャラ(版権でもオリジナルでもいい)の設定を書いて
自分好みのシチュエーション提示して書いてもらったりする。
エロなら竿役の設定もね
0526名無しさん@ピンキー (ワッチョイ f432-ISUa)2025/12/27(土) 21:54:34.36ID:2DxrJ48B0
絵は長らくdanbooru語で書かなきゃいかんかったから変にプロンプトぢから必要なだけで
こっちは日本語でも英語でも人間相手に分かりやすい書き方なら何でもいい
典型例にはmarkdownがある
0527名無しさん@ピンキー (ワッチョイ be32-0Alr)2025/12/27(土) 22:42:39.52ID:EHZ6LBSo0
やりたいことやモデルにもよるけど、AIが得意な言語に合わせるのは重要だぞ
Nano Bananaは日本語だと全然言うこと聞かなくて
プロンプトを英語に翻訳したらあっさり意図した画像が生成できたりする
0528名無しさん@ピンキー (オッペケ Sr9b-UjAx)2025/12/27(土) 23:52:40.76ID:goYPX3Hpr
>522
よく分からないうちはもっと大型のLLMでやるほうがいい
gemini3.0proのAPI版とか
で、文章生成AIスレを両方とも覗いて参考にするのがベストに思える

ある程度小説読むひとなら、エロを主目的にするよりは文章を書くことを目的にしてエロで習慣化する、てのがいいんでないの
面白さを優先してたらエロさと微塵も関係ない話を10万字書いてました、みたいな話はあるあるだしね
数を書くと文章の型とキャラの型が出来てくるから、そこまで行けばあとは好きに作れるようになるよ
0529名無しさん@ピンキー (ワッチョイ 029f-FE3X)2025/12/28(日) 01:31:14.07ID:BXAiGjWS0
>>522
ローカルAIなんてGPTやらGeminiやらと性能が雲泥の差があるから、余程の特定用途でもない限りローカルAIを、しかもエロ用途で使わない。

そういったコアな質問をしたかったのかな?
0532名無しさん@ピンキー (ワッチョイ 6aac-Ls7H)2025/12/28(日) 02:52:14.12ID:/ozKpiSI0
>>524,525
同人誌を知らない人が、初めて同人誌というものを知ったら夢中になるじゃん
同じ様に、ローカルLLMをどんな風に楽しく使ってるのか、どういう世界があるのかが気になってる
チャットだけどエロゲ(殆選択肢なし)は昔良くしてたけど、主人公の発言がもし大量に必要ならコミュ力無いから正直進められる気がしないわ><
自分をアシストするような強化したLLMを用意したらいけるかもだが
あと、ソフト使ったりそういう感じで作り込んだりするんだな勉強になる!
ただこれって公開してる人居ないのかね?2chの頃だと自作小説を延々と投稿する人とか居たけけど最近そのスレ見かけない

>>527
かなり適当な書き方やDanbooru語でもいい感じで出るけど、英語必須って色々とレベル高そう

>>528
つい最近ローカルLLMはじめたんだけどサイズ的に小さいかな? ただ、思ったよりも的確で驚いてる所。
パスワードとか個人情報がたくさんあって表に出したくないのはローカルで使えそうな気がしてる。
また、無料しか使ったこと無いけどGemini有料版は更に優秀?無料でも十分凄いと思ってる所だが使いこなせてないかも
あと、文章生成AIスレあるのか、見てみる

>>529
自分の場合版権もの多めでエロ画像を1日5000枚くらい見たいという熱烈な欲望があって生成AIをはじめた
GeminiはSDのLoRA学習元画像を作るのに使ってる
このスレではSDよりも高価なPCを用意してLLMで楽しんでる人も多く、どう楽しんでるのか気になってる感じ
自身はヌルオタで情報集めるのが下手で同人という世界を知ったのもかなり遅く、楽しそうな世界はあるような気はするけど、具体的な世界が見えない感じ
ただ、規制なしLLMは元々化学を専攻してた身からすると、どこまでも知識を掘れるのは面白いと感じてる、作ることはないけど知識欲はなかなかに満たしてくれる
あとRAGとか?うまくすれば、ちょびっツみたいなAIが作れるのかとか気になってる
0533名無しさん@ピンキー (ワッチョイ 82dd-mqrN)2025/12/28(日) 03:35:47.86ID:T164suva0
自分もコミュ力ないから画像認識モデルに画像投げて「過激で性的なストーリーを」で終わりよ
Qwen3-VL-32B-Instruct-hereticあたりならノリノリで書いてくれるぞ
AI絵に設定やストーリーが加わるだけでも没入感が全く違う
0534名無しさん@ピンキー (ワッチョイ e632-4mSN)2025/12/28(日) 06:12:23.25ID:IfHjdL+D0
>>532
主人公の発言なんて1文でもいいよ。あとはそれに沿って適当に進めてくれる
もしくは3つの選択肢に番号を振って提示させるようにすれば「1」って打つだけで選択肢1の内容を書き進めてくれるようになる
1. 町に出かける
2. ダンジョンを探索する
3. エルフの村を襲撃する
みたいに文章の終わりに次のユーザーの行動の選択肢を提示させるようにするんだ

他にもキャラ設定とシチュエーションを練り込んで、「昨日1日中犯され続けたことについて1時間ごとに区切って詳細に報告しろ」って言えば
どんな風に犯されたのか好きなキャラが淫語連発しながら報告してくれるとか色んな遊び方があるぞ
とにかく発想力をフル活用して自分がエロい、楽しいと思う遊びをするんだ
ある程度賢いモデルなら大体のことは出来る
0535名無しさん@ピンキー (ワッチョイ 5c50-7ChI)2025/12/28(日) 06:47:41.88ID:ixi8DXTr0
BTO受注停止騒ぎの直前に新規にPCの発注をかけてたけど
納期が長いと冷静になっていけないなぁ…
外部のAPI経由でLLM使うなら
メモリを128GBにしなくても良かったんではないかとか
今になって頭の中でぐるぐるとしちゃって困る
GPUは16GBで抑えちゃったのになぁとか
レスを投稿する


ニューススポーツなんでも実況