なんJLLM部 避難所 ★9

0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

0500名無しさん@ピンキー (ワッチョイ ef27-dUNe)2025/09/28(日) 12:57:36.45ID:6EZ3OtYY0
初期はChatGPTがエロ厳しいからローカルでみたいなモチベーションあったけど
今は色んなサービス増えて規制ゆるくなってるし何なら無料枠でも結構遊べるからな

0501名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/28(日) 20:50:48.48ID:RcruL3Dv0
無知ですいません。おしえてください。EasyNovelAssistantを導入しライトノベルを書かせたいのですが、APIなどで料金が発生するのでしょうか?

0502名無しさん@ピンキー (ワッチョイ 4b00-mOlO)2025/09/28(日) 22:31:48.46ID:Ic/L9Cef0
>>501
ローカル=自分のPC内で全て完結するシステムなので料金は一切発生しないよ
ただしPCの性能が求められるので使ってるものによってはPCパーツ交換代がかかる

0503名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/29(月) 00:02:34.73ID:W6AEx9QY0
>>502
返答ありがとうございます。2060spなので不安ですが試してみます

0504名無しさん@ピンキー (ワッチョイ 1f2a-83xT)2025/09/29(月) 11:07:49.68ID:fgNrT5iD0
中華がCUDA互換のVRAM112GBグラボ出すらしいがこれいくらになるんだ?

0505名無しさん@ピンキー (ワッチョイ 8b64-yVYr)2025/09/29(月) 18:35:32.39ID:o2F/d5is0
Qwen3-Next-80B-A3B-Instruct、これ総量160Gくらいあるやんけ
ワイの24Gなどアリンコやった
試せてるニキらはもう選ばれし者すぎなんよ

0506名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/09/29(月) 19:17:38.22ID:Rnc8/N8gd
>>505
ツールのGGUF対応を待ってメインメモリへのオフロードを前提にすれば必要なメモリはだいぶ減るで

ワイのメモリ128GB&VRAM24GB環境でもいつかは動くと信じて口開けて待っとるで

0507名無しさん@ピンキー (ワッチョイ 8b64-yVYr)2025/09/29(月) 19:37:57.15ID:o2F/d5is0
>>506
サンガツやで
ワイDDR4で上限いっぱい128G搭載済みなんやが総量が足らンゴ
ニキと同じく待つことにする……

0508名無しさん@ピンキー (ワッチョイ 4b8f-L54C)2025/09/29(月) 19:53:11.25ID:Mrcfa+Ng0
ほとんどの人はツール側が対応してくれるの待ちやで。128GBもあればQ8_0でも動かせるやろ
ワイ64GB環境やと高望みしてQ6、実際問題Q4がええとこやろなぁ……

0509名無しさん@ピンキー (JP 0H6f-L54C)2025/09/29(月) 21:22:12.02ID:Pe/CSr+TH
動画生成用に増設したDRAMがここでも役に立つとは嬉しいンゴ

0510名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/29(月) 23:28:05.71ID:OuKsRs/I0
推論中にタスクマネージャ見てるとCPUもGPUも使用率そこまで上がらないんですね
読み込むのに容量が必要なだけで推論自体はそこまでリソース使わないって認識で合ってますか?

0511名無しさん@ピンキー (ワッチョイ 6bdc-foQI)2025/09/29(月) 23:37:59.74ID:euHBUb+W0
LLMは計算量そのものよりもとにかく高速なメモリアクセスがいるって感じ

0512名無しさん@ピンキー (ワッチョイ 1fba-4W0+)2025/09/29(月) 23:46:12.11ID:7xZP8KOK0
やってる計算はすげー単純だからなLLM

0513名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/30(火) 01:14:40.06ID:z5KqAsk90
command-a-03-2025とqwen3-235b-a22b
近いサイズまで量子化してあるやつを読み込んで推論したら
command-aの方は0.8t/sぐらいなのに
qwen3は5.0t/s出るんですけど
なんでこんなに差があってqwen3の方は早いんですか?
LMstudioでやってます、ロード時のパラメータでcommand-aには無いもの(エキスパート数とか)がqwen3にはありますがこれが影響してるのでしょうか
ローカルLLMに最近手を出したにわかですがご教示お願いします🙏

0514名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/09/30(火) 01:24:01.26ID:tCAkB5and
>>513
LLMに聞け

0515名無しさん@ピンキー (ワッチョイ 1f32-ypyi)2025/09/30(火) 03:48:45.53ID:qQvZqTY80
gpuが上がりきらないのは無茶なモデルサイズとかでcpu-gpu間の転送やらメモリ速度やらのボトルネック

0516名無しさん@ピンキー (ワッチョイ 0fa9-dUNe)2025/09/30(火) 13:04:16.47ID:9yGzL4/o0
>>513
モデル名に答え書いてある
Qwenの方は"a22b"だから、計算量は22b

0517名無しさん@ピンキー (ワッチョイ efc4-WlvJ)2025/10/01(水) 00:44:32.62ID:uGN2y/I+0
GLM4.6リリースされてる
https://huggingface.co/zai-org/GLM-4.6

コーディングとロールプレイ強化らしい

0518名無しさん@ピンキー (ワッチョイ 1fec-WBSx)2025/10/01(水) 01:12:14.11ID:ArnNxP8e0
LLMの系譜が多すぎ問題
上を辿ればアリババになるのが多いんやろか
Linuxの系譜みたいに進化図があればわかりすいんやけどなぁ

0519名無しさん@ピンキー (ワッチョイ 1f54-4W0+)2025/10/01(水) 01:16:08.28ID:9fO3SCJ10
アリババってQwenだけだろ
DeepSeekもKimiもGLMも全く別の企業だよ

0520名無しさん@ピンキー (ワッチョイ 1fec-WBSx)2025/10/01(水) 01:19:18.15ID:ArnNxP8e0
そうなんか、知らんかったわ
中国は人数もおるだけに賢い人間の絶対数が桁違いなんやろな

0521名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 01:19:55.41ID:/m5iPuS8d
GLMはAirじゃないと家庭用PCで厳しいのがな

0522名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 01:21:23.33ID:/m5iPuS8d
>>520
オープンソースAIでアメリカを殴りに行くのが中国の国家戦略だから
ぶっちゃけ現場は有無を言わさずオープンソースにさせられてると思う

俺らにはありがたい話だが

0523名無しさん@ピンキー (ワッチョイ ef27-ilf8)2025/10/01(水) 02:22:23.66ID:aLX0Yi960
中国産の方が漢字対応マルチリンガル前提だから日本語にも強い印象

0524名無しさん@ピンキー (ワッチョイ 1f61-dRFZ)2025/10/01(水) 02:23:46.07ID:says+YzV0
アメリカモデルを中国モデルが追い越したら一気に情勢は変わりそうではある
最も賢いモデルにユーザ需要が集中するall or nothingの狂ったLLM市場で性能が劣るモデルがなんとか爪痕を残すためにオープンウェイトにしてるだけだろうしな

0525名無しさん@ピンキー (ワッチョイ 1f61-dRFZ)2025/10/01(水) 02:25:47.66ID:says+YzV0
>>523
自分の中だと完全に逆の印象
簡体字が

0526名無しさん@ピンキー (ワッチョイ 9b03-dRFZ)2025/10/01(水) 02:31:07.78ID:32tNb9ZU0
途中送信すまん
簡体字が文章中に稀に混じるからそれだけで一気に日本語が下手に感じてまうというバイアスもあるんだろうけど中国モデルは合成データ使いまくったバリバリのベンチマーク最適化の影響か文章も硬くて文章表現力もClaude gpt geminiには勝てないって印象
工ロ用途でも全然だし

0527名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 02:35:32.20ID:/m5iPuS8d
>>524
いずれMoEモデルの先に好きなエキスパートをモジュールとして入れ替えられる時代が来ると思う

日本語強化モジュールや翻訳専用モジュール、個人データ特化モジュールetc
今は汎用モデルの強化合戦が続いているが頭打ちになればカスタマイズの話が出てくるだろう

0528名無しさん@ピンキー (ワッチョイ 4b5d-AlTy)2025/10/01(水) 03:49:46.55ID:Zb9PagmX0
GLM-4.6 3bitでもメモリー足りぬ
Sonnet 4.5よりベンチスコアいい(部分がある)とは

0529名無しさん@ピンキー (ワッチョイ 1f32-ypyi)2025/10/01(水) 11:23:33.88ID:5dR6COwH0
>>527
楽しみな予想だ

0530名無しさん@ピンキー (ワッチョイ 0fa9-dUNe)2025/10/01(水) 11:33:17.50ID:6miXLHdc0
llama.cppでのqwen3 next対応はいつ終わるのか推定するのが難しいぐらいくらいにはまだ作業あるのかも
https://github.com/ggml-org/llama.cpp/pull/16095

まぁ最初2、3か月かかる言うてたくらいやからな
気長に待つしかないでな

0531名無しさん@ピンキー (ワッチョイ 4b57-AlTy)2025/10/01(水) 21:01:03.93ID:Zb9PagmX0
mlxならもう動くよ

0532名無しさん@ピンキー (ワッチョイ 0fa9-dUNe)2025/10/01(水) 21:53:15.20ID:6miXLHdc0
ggufじゃなくていいならほかに動くプラットフォームはもうあるのよ

0533名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:45:41.08ID:xyQCKkQp0
https://huggingface.co/fastllm/Qwen3-Next-80B-A3B-Instruct-UD-Q4_K_M
fastllmというどマイナーなバックエンド用だけどこいつで動くやで。

デフォ設定だとエキスパートしかVRAMに置かない思い切った設計のバックエンドだけど、おかげでなんだったらVRAM8GBでもなんとか動く。

うちのVRAM12GB+RAM128GB環境で20tok/s出て、セカンドのGPU1は完全に寝てる。

CUDA13だとcuda認識出来ずにCPUモードで動こうとするから13の人は12.9に落とす必要あるからそこだけ注意かな

0534名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:57:39.05ID:xyQCKkQp0
ただ試しにコード書かせてみたり尻で相手してもらったりした感触は
Qwen3-Coder-30Bの蒸留版や信頼のAratako印のQwen3-30B-ERPあたりと大差ないかやや落ちるかもしんないという個人の感想だから
本番はちゃんと事後学習や蒸留したバリエーションが揃ってからかもねという現状のお気持ち

0535名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/10/02(木) 01:03:06.07ID:akje2Ef70
それ知らんかったからChatGPTにllama.cppとの違い聞いてみたらfastllmは相当尖った実装してるみたいでちょっと面白そうやな

0536名無しさん@ピンキー (ワッチョイ 4b6e-3WT3)2025/10/02(木) 01:08:31.80ID:E0YZ95T60
GLM4.6 80GBぐらいのやつダウンロードしたんですけど
ロードに必要なリソースがTB超えてくるんですけどどういうこっちゃ……
Qwen3-235B-A22Bはモデルのサイズ+コンテキストぐらいのリソースで収まってたので行けると思ったんですが
ちなLMstudioでやってます

0537名無しさん@ピンキー (ワッチョイ 1f32-ypyi)2025/10/02(木) 03:17:03.19ID:n2EnD/2Z0
ファイル壊れてない

0538名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 05:07:22.10ID:xyQCKkQp0
lm studioは裏で安定版lammacpp動いてるわけだが、GLM4.6ってもう対応したっけ?lm studioは枯れたモデル試すのはGUIで楽ちんだけど最新モデルの人柱にはあんま向いてないやで?GLM 4.6がlm studio対応してます!ってきっぱり言ってるならごめんやが

0539名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 19:23:13.30ID:xyQCKkQp0
先にもちょいと書き込んだが、エロに弱いと言われるQwen3だけど、mistralPrismや天照様でエロ事後学習に定評のあるAratako先生のQwen3-30B-A3B-ERPかなり良い。
デフォルトだといつものQwenでこらあかんかと思ったら、繰り返しペナをデフォルトの1.1から1.15から1.17ぐらいにしてやるとかなり良い感じ。
調子に乗って1.2とかにしちゃうとお前bergちゃんかよという感じのキチガイエロ女になるから注意や。
事後学習ってやっぱり大事なんやなって

0540名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 00:35:36.23ID:Mw2/TWWT0
確かそのモデルは継続事前学習してなかったっけ?
そのくらいいじればQwenでもある程度は良くなるってことなんだろうな
数十万くらい作るのにかかってそうだけど…

0541名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/03(金) 00:43:14.91ID:VWimKebjd
235Bのエロチューン誰か頼む

0542名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/10/03(金) 10:40:42.26ID:s3ZkbMor0
ガチでやってるやつはファインチューンじゃなくて追加の事前学習しとるよね
本来なら追加学習というと「追加の事前学習」のことらしい
ファインチューンと何がちゃうのかようわからんが

0543名無しさん@ピンキー (ワッチョイ 1fb7-mOlO)2025/10/03(金) 10:50:15.71ID:0zIDR54k0
ワイはむしろberghofちゃんの隠語マシマシドスケベ女とRPしたいんや
berghof ERPが純粋に賢くなったようなモデルが欲しい

0544名無しさん@ピンキー (ワッチョイ 0fa0-dUNe)2025/10/03(金) 11:14:36.95ID:2by+oA/30
LLMのエロプロンプトで培ったテクニックが動画生成でも役に立つようになるんだろうな

0545名無しさん@ピンキー (ワッチョイ ab83-WlvJ)2025/10/03(金) 12:34:52.66ID:DW4V3EwD0
グラボのメモリ12GBでエロいことできるモデルを教えて

0546名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 17:29:41.25ID:CgPIJRA00
>>542
超簡単に言うと
事前学習:赤ちゃんのbaseモデルにチャットのやり方ぐらいまで教え込むこと。めっさ膨大なコスト(データセット)と時間がかかる
継続学習/継続事前学習:事前学習ではまだわからんちんの子に事前学習と同じやり方でさらにしばく。事前学習ほどではないが相当のコスト
事後学習/ファインチューン:とりあえずチャットなりが出来るようになった子に専門知識(エロとかコード知識とか)を教え込む
事前学習系よりは圧倒的に低コスト

大体こんな感じや、多分Aratako先生がQwenちゃん見て「んー、この子にはもっと躾が必要ですねえ」と判断して特別調教をしてお出しされた牝豚モデルがQwen3-ERPちゃんなわけやな

0547名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 19:45:41.88ID:CgPIJRA00
>>545
Magnum v4血統の12Bの奴でVRAMに収まる奴、もしくは遅くていいならMistral Prism、あるいはメインメモリの方には自信ありニキならQwen3-ERPでええんちゃうか?
大体Aratakoさんのモデルにはハズレ少ないから初心者はあの人のモデルから自分ちのリソースに収まるの探すのがお勧めやで

0548名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 19:53:20.87ID:Mw2/TWWT0
継続事前学習あたりになると個人の金でできる範囲超えちゃうし、金ある会社がエロ継続事前学習してモデル公開してくれるかというと絶対してくれないから結構絶望的だよな

0549名無しさん@ピンキー (ワッチョイ 4b5e-iDFa)2025/10/03(金) 22:40:51.45ID:CgPIJRA00
Aratakoさん、エロ調教用のデータセットは公開してくださるわ、mistral large調教版の天照様は公開してるわで化け物よなぁ

0550名無しさん@ピンキー (ワッチョイ a761-GdyB)2025/10/04(土) 02:14:55.50ID:f0wSaW9L0
今日は8年前に始めて彼女ができた日だ
お互い童貞と処女だったが
結局ヤレずに破局
いまごろどこで何をしてるのかな……

https://youtu.be//6XB6vALjDmg

新着レスの表示
レスを投稿する