なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0491名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/26(金) 23:31:10.61ID:Gt003hUg0
jpxがなんか予測に使ってたな
0495名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/09/27(土) 07:51:56.30ID:0L5nCDDl0
4bitは結構性能下がるよ
あとtool coolingはコーディングみたいに1文字間違ったら動かない事が多いから量子化には元々厳しいと思うし
だからはじめから4bitしか公開されてないgptossがあの性能出てるのがすごい
0496名無しさん@ピンキー (ワッチョイ 7b8a-mDdK)2025/09/27(土) 14:01:26.70ID:wwGJW0Qw0
冷やすの?
0497名無しさん@ピンキー (ワッチョイ 8bc7-2yqi)2025/09/27(土) 23:25:17.87ID:LUN7vlE20
>>450
とりあえずclaudeのmaxプランに加入するとええで
レートリミット限界まで使わんと損した気になるから開発も学習も捗る
mcpがチャット版でも使えるのも大きい
特に今見てるブラウザのタブを読めるようにするmcpを使うと「今見てるこれって〜」みたいな質問ができるからドキュメント漁りがメッチャ楽
まぁ何より頭がええんやけどな
よく言われるコンテキスト圧縮問題もserena使えばそんなに問題にならん
0498名無しさん@ピンキー (ワッチョイ 8b85-ah/d)2025/09/28(日) 09:50:05.52ID:nL1wk7TI0
>>493
新参者の面白AI出てきてないからしゃあない
0500名無しさん@ピンキー (ワッチョイ ef27-dUNe)2025/09/28(日) 12:57:36.45ID:6EZ3OtYY0
初期はChatGPTがエロ厳しいからローカルでみたいなモチベーションあったけど
今は色んなサービス増えて規制ゆるくなってるし何なら無料枠でも結構遊べるからな
0501名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/28(日) 20:50:48.48ID:RcruL3Dv0
無知ですいません。おしえてください。EasyNovelAssistantを導入しライトノベルを書かせたいのですが、APIなどで料金が発生するのでしょうか?
0502名無しさん@ピンキー (ワッチョイ 4b00-mOlO)2025/09/28(日) 22:31:48.46ID:Ic/L9Cef0
>>501
ローカル=自分のPC内で全て完結するシステムなので料金は一切発生しないよ
ただしPCの性能が求められるので使ってるものによってはPCパーツ交換代がかかる
0503名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/29(月) 00:02:34.73ID:W6AEx9QY0
>>502
返答ありがとうございます。2060spなので不安ですが試してみます
0506名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/09/29(月) 19:17:38.22ID:Rnc8/N8gd
>>505
ツールのGGUF対応を待ってメインメモリへのオフロードを前提にすれば必要なメモリはだいぶ減るで

ワイのメモリ128GB&VRAM24GB環境でもいつかは動くと信じて口開けて待っとるで
0508名無しさん@ピンキー (ワッチョイ 4b8f-L54C)2025/09/29(月) 19:53:11.25ID:Mrcfa+Ng0
ほとんどの人はツール側が対応してくれるの待ちやで。128GBもあればQ8_0でも動かせるやろ
ワイ64GB環境やと高望みしてQ6、実際問題Q4がええとこやろなぁ……
0509名無しさん@ピンキー (JP 0H6f-L54C)2025/09/29(月) 21:22:12.02ID:Pe/CSr+TH
動画生成用に増設したDRAMがここでも役に立つとは嬉しいンゴ
0510名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/29(月) 23:28:05.71ID:OuKsRs/I0
推論中にタスクマネージャ見てるとCPUもGPUも使用率そこまで上がらないんですね
読み込むのに容量が必要なだけで推論自体はそこまでリソース使わないって認識で合ってますか?
0512名無しさん@ピンキー (ワッチョイ 1fba-4W0+)2025/09/29(月) 23:46:12.11ID:7xZP8KOK0
やってる計算はすげー単純だからなLLM
0513名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/30(火) 01:14:40.06ID:z5KqAsk90
command-a-03-2025とqwen3-235b-a22b
近いサイズまで量子化してあるやつを読み込んで推論したら
command-aの方は0.8t/sぐらいなのに
qwen3は5.0t/s出るんですけど
なんでこんなに差があってqwen3の方は早いんですか?
LMstudioでやってます、ロード時のパラメータでcommand-aには無いもの(エキスパート数とか)がqwen3にはありますがこれが影響してるのでしょうか
ローカルLLMに最近手を出したにわかですがご教示お願いします🙏
0519名無しさん@ピンキー (ワッチョイ 1f54-4W0+)2025/10/01(水) 01:16:08.28ID:9fO3SCJ10
アリババってQwenだけだろ
DeepSeekもKimiもGLMも全く別の企業だよ
0522名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 01:21:23.33ID:/m5iPuS8d
>>520
オープンソースAIでアメリカを殴りに行くのが中国の国家戦略だから
ぶっちゃけ現場は有無を言わさずオープンソースにさせられてると思う

俺らにはありがたい話だが
0524名無しさん@ピンキー (ワッチョイ 1f61-dRFZ)2025/10/01(水) 02:23:46.07ID:says+YzV0
アメリカモデルを中国モデルが追い越したら一気に情勢は変わりそうではある
最も賢いモデルにユーザ需要が集中するall or nothingの狂ったLLM市場で性能が劣るモデルがなんとか爪痕を残すためにオープンウェイトにしてるだけだろうしな
0526名無しさん@ピンキー (ワッチョイ 9b03-dRFZ)2025/10/01(水) 02:31:07.78ID:32tNb9ZU0
途中送信すまん
簡体字が文章中に稀に混じるからそれだけで一気に日本語が下手に感じてまうというバイアスもあるんだろうけど中国モデルは合成データ使いまくったバリバリのベンチマーク最適化の影響か文章も硬くて文章表現力もClaude gpt geminiには勝てないって印象
工ロ用途でも全然だし
0527名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 02:35:32.20ID:/m5iPuS8d
>>524
いずれMoEモデルの先に好きなエキスパートをモジュールとして入れ替えられる時代が来ると思う

日本語強化モジュールや翻訳専用モジュール、個人データ特化モジュールetc
今は汎用モデルの強化合戦が続いているが頭打ちになればカスタマイズの話が出てくるだろう
0533名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:45:41.08ID:xyQCKkQp0
https://huggingface.co/fastllm/Qwen3-Next-80B-A3B-Instruct-UD-Q4_K_M
fastllmというどマイナーなバックエンド用だけどこいつで動くやで。

デフォ設定だとエキスパートしかVRAMに置かない思い切った設計のバックエンドだけど、おかげでなんだったらVRAM8GBでもなんとか動く。

うちのVRAM12GB+RAM128GB環境で20tok/s出て、セカンドのGPU1は完全に寝てる。

CUDA13だとcuda認識出来ずにCPUモードで動こうとするから13の人は12.9に落とす必要あるからそこだけ注意かな
0534名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:57:39.05ID:xyQCKkQp0
ただ試しにコード書かせてみたり尻で相手してもらったりした感触は
Qwen3-Coder-30Bの蒸留版や信頼のAratako印のQwen3-30B-ERPあたりと大差ないかやや落ちるかもしんないという個人の感想だから
本番はちゃんと事後学習や蒸留したバリエーションが揃ってからかもねという現状のお気持ち
0536名無しさん@ピンキー (ワッチョイ 4b6e-3WT3)2025/10/02(木) 01:08:31.80ID:E0YZ95T60
GLM4.6 80GBぐらいのやつダウンロードしたんですけど
ロードに必要なリソースがTB超えてくるんですけどどういうこっちゃ……
Qwen3-235B-A22Bはモデルのサイズ+コンテキストぐらいのリソースで収まってたので行けると思ったんですが
ちなLMstudioでやってます
0538名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 05:07:22.10ID:xyQCKkQp0
lm studioは裏で安定版lammacpp動いてるわけだが、GLM4.6ってもう対応したっけ?lm studioは枯れたモデル試すのはGUIで楽ちんだけど最新モデルの人柱にはあんま向いてないやで?GLM 4.6がlm studio対応してます!ってきっぱり言ってるならごめんやが
0539名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 19:23:13.30ID:xyQCKkQp0
先にもちょいと書き込んだが、エロに弱いと言われるQwen3だけど、mistralPrismや天照様でエロ事後学習に定評のあるAratako先生のQwen3-30B-A3B-ERPかなり良い。
デフォルトだといつものQwenでこらあかんかと思ったら、繰り返しペナをデフォルトの1.1から1.15から1.17ぐらいにしてやるとかなり良い感じ。
調子に乗って1.2とかにしちゃうとお前bergちゃんかよという感じのキチガイエロ女になるから注意や。
事後学習ってやっぱり大事なんやなって
0540名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 00:35:36.23ID:Mw2/TWWT0
確かそのモデルは継続事前学習してなかったっけ?
そのくらいいじればQwenでもある程度は良くなるってことなんだろうな
数十万くらい作るのにかかってそうだけど…
0542名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/10/03(金) 10:40:42.26ID:s3ZkbMor0
ガチでやってるやつはファインチューンじゃなくて追加の事前学習しとるよね
本来なら追加学習というと「追加の事前学習」のことらしい
ファインチューンと何がちゃうのかようわからんが
0545名無しさん@ピンキー (ワッチョイ ab83-WlvJ)2025/10/03(金) 12:34:52.66ID:DW4V3EwD0
グラボのメモリ12GBでエロいことできるモデルを教えて
0546名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 17:29:41.25ID:CgPIJRA00
>>542
超簡単に言うと
事前学習:赤ちゃんのbaseモデルにチャットのやり方ぐらいまで教え込むこと。めっさ膨大なコスト(データセット)と時間がかかる
継続学習/継続事前学習:事前学習ではまだわからんちんの子に事前学習と同じやり方でさらにしばく。事前学習ほどではないが相当のコスト
事後学習/ファインチューン:とりあえずチャットなりが出来るようになった子に専門知識(エロとかコード知識とか)を教え込む
事前学習系よりは圧倒的に低コスト

大体こんな感じや、多分Aratako先生がQwenちゃん見て「んー、この子にはもっと躾が必要ですねえ」と判断して特別調教をしてお出しされた牝豚モデルがQwen3-ERPちゃんなわけやな
0547名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 19:45:41.88ID:CgPIJRA00
>>545
Magnum v4血統の12Bの奴でVRAMに収まる奴、もしくは遅くていいならMistral Prism、あるいはメインメモリの方には自信ありニキならQwen3-ERPでええんちゃうか?
大体Aratakoさんのモデルにはハズレ少ないから初心者はあの人のモデルから自分ちのリソースに収まるの探すのがお勧めやで
0548名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 19:53:20.87ID:Mw2/TWWT0
継続事前学習あたりになると個人の金でできる範囲超えちゃうし、金ある会社がエロ継続事前学習してモデル公開してくれるかというと絶対してくれないから結構絶望的だよな
0550名無しさん@ピンキー (ワッチョイ a761-GdyB)2025/10/04(土) 02:14:55.50ID:f0wSaW9L0
今日は8年前に始めて彼女ができた日だ
お互い童貞と処女だったが
結局ヤレずに破局
いまごろどこで何をしてるのかな……

https://youtu.be//6XB6vALjDmg
レスを投稿する


ニューススポーツなんでも実況