なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0522名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 01:21:23.33ID:/m5iPuS8d
>>520
オープンソースAIでアメリカを殴りに行くのが中国の国家戦略だから
ぶっちゃけ現場は有無を言わさずオープンソースにさせられてると思う

俺らにはありがたい話だが
0524名無しさん@ピンキー (ワッチョイ 1f61-dRFZ)2025/10/01(水) 02:23:46.07ID:says+YzV0
アメリカモデルを中国モデルが追い越したら一気に情勢は変わりそうではある
最も賢いモデルにユーザ需要が集中するall or nothingの狂ったLLM市場で性能が劣るモデルがなんとか爪痕を残すためにオープンウェイトにしてるだけだろうしな
0526名無しさん@ピンキー (ワッチョイ 9b03-dRFZ)2025/10/01(水) 02:31:07.78ID:32tNb9ZU0
途中送信すまん
簡体字が文章中に稀に混じるからそれだけで一気に日本語が下手に感じてまうというバイアスもあるんだろうけど中国モデルは合成データ使いまくったバリバリのベンチマーク最適化の影響か文章も硬くて文章表現力もClaude gpt geminiには勝てないって印象
工ロ用途でも全然だし
0527名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 02:35:32.20ID:/m5iPuS8d
>>524
いずれMoEモデルの先に好きなエキスパートをモジュールとして入れ替えられる時代が来ると思う

日本語強化モジュールや翻訳専用モジュール、個人データ特化モジュールetc
今は汎用モデルの強化合戦が続いているが頭打ちになればカスタマイズの話が出てくるだろう
0533名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:45:41.08ID:xyQCKkQp0
https://huggingface.co/fastllm/Qwen3-Next-80B-A3B-Instruct-UD-Q4_K_M
fastllmというどマイナーなバックエンド用だけどこいつで動くやで。

デフォ設定だとエキスパートしかVRAMに置かない思い切った設計のバックエンドだけど、おかげでなんだったらVRAM8GBでもなんとか動く。

うちのVRAM12GB+RAM128GB環境で20tok/s出て、セカンドのGPU1は完全に寝てる。

CUDA13だとcuda認識出来ずにCPUモードで動こうとするから13の人は12.9に落とす必要あるからそこだけ注意かな
0534名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:57:39.05ID:xyQCKkQp0
ただ試しにコード書かせてみたり尻で相手してもらったりした感触は
Qwen3-Coder-30Bの蒸留版や信頼のAratako印のQwen3-30B-ERPあたりと大差ないかやや落ちるかもしんないという個人の感想だから
本番はちゃんと事後学習や蒸留したバリエーションが揃ってからかもねという現状のお気持ち
0536名無しさん@ピンキー (ワッチョイ 4b6e-3WT3)2025/10/02(木) 01:08:31.80ID:E0YZ95T60
GLM4.6 80GBぐらいのやつダウンロードしたんですけど
ロードに必要なリソースがTB超えてくるんですけどどういうこっちゃ……
Qwen3-235B-A22Bはモデルのサイズ+コンテキストぐらいのリソースで収まってたので行けると思ったんですが
ちなLMstudioでやってます
0538名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 05:07:22.10ID:xyQCKkQp0
lm studioは裏で安定版lammacpp動いてるわけだが、GLM4.6ってもう対応したっけ?lm studioは枯れたモデル試すのはGUIで楽ちんだけど最新モデルの人柱にはあんま向いてないやで?GLM 4.6がlm studio対応してます!ってきっぱり言ってるならごめんやが
0539名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 19:23:13.30ID:xyQCKkQp0
先にもちょいと書き込んだが、エロに弱いと言われるQwen3だけど、mistralPrismや天照様でエロ事後学習に定評のあるAratako先生のQwen3-30B-A3B-ERPかなり良い。
デフォルトだといつものQwenでこらあかんかと思ったら、繰り返しペナをデフォルトの1.1から1.15から1.17ぐらいにしてやるとかなり良い感じ。
調子に乗って1.2とかにしちゃうとお前bergちゃんかよという感じのキチガイエロ女になるから注意や。
事後学習ってやっぱり大事なんやなって
0540名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 00:35:36.23ID:Mw2/TWWT0
確かそのモデルは継続事前学習してなかったっけ?
そのくらいいじればQwenでもある程度は良くなるってことなんだろうな
数十万くらい作るのにかかってそうだけど…
0542名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/10/03(金) 10:40:42.26ID:s3ZkbMor0
ガチでやってるやつはファインチューンじゃなくて追加の事前学習しとるよね
本来なら追加学習というと「追加の事前学習」のことらしい
ファインチューンと何がちゃうのかようわからんが
0545名無しさん@ピンキー (ワッチョイ ab83-WlvJ)2025/10/03(金) 12:34:52.66ID:DW4V3EwD0
グラボのメモリ12GBでエロいことできるモデルを教えて
0546名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 17:29:41.25ID:CgPIJRA00
>>542
超簡単に言うと
事前学習:赤ちゃんのbaseモデルにチャットのやり方ぐらいまで教え込むこと。めっさ膨大なコスト(データセット)と時間がかかる
継続学習/継続事前学習:事前学習ではまだわからんちんの子に事前学習と同じやり方でさらにしばく。事前学習ほどではないが相当のコスト
事後学習/ファインチューン:とりあえずチャットなりが出来るようになった子に専門知識(エロとかコード知識とか)を教え込む
事前学習系よりは圧倒的に低コスト

大体こんな感じや、多分Aratako先生がQwenちゃん見て「んー、この子にはもっと躾が必要ですねえ」と判断して特別調教をしてお出しされた牝豚モデルがQwen3-ERPちゃんなわけやな
0547名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 19:45:41.88ID:CgPIJRA00
>>545
Magnum v4血統の12Bの奴でVRAMに収まる奴、もしくは遅くていいならMistral Prism、あるいはメインメモリの方には自信ありニキならQwen3-ERPでええんちゃうか?
大体Aratakoさんのモデルにはハズレ少ないから初心者はあの人のモデルから自分ちのリソースに収まるの探すのがお勧めやで
0548名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 19:53:20.87ID:Mw2/TWWT0
継続事前学習あたりになると個人の金でできる範囲超えちゃうし、金ある会社がエロ継続事前学習してモデル公開してくれるかというと絶対してくれないから結構絶望的だよな
0550名無しさん@ピンキー (ワッチョイ a761-GdyB)2025/10/04(土) 02:14:55.50ID:f0wSaW9L0
今日は8年前に始めて彼女ができた日だ
お互い童貞と処女だったが
結局ヤレずに破局
いまごろどこで何をしてるのかな……

https://youtu.be//6XB6vALjDmg
レスを投稿する


ニューススポーツなんでも実況