なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0524名無しさん@ピンキー (ワッチョイ 1f61-dRFZ)2025/10/01(水) 02:23:46.07ID:says+YzV0
アメリカモデルを中国モデルが追い越したら一気に情勢は変わりそうではある
最も賢いモデルにユーザ需要が集中するall or nothingの狂ったLLM市場で性能が劣るモデルがなんとか爪痕を残すためにオープンウェイトにしてるだけだろうしな
0526名無しさん@ピンキー (ワッチョイ 9b03-dRFZ)2025/10/01(水) 02:31:07.78ID:32tNb9ZU0
途中送信すまん
簡体字が文章中に稀に混じるからそれだけで一気に日本語が下手に感じてまうというバイアスもあるんだろうけど中国モデルは合成データ使いまくったバリバリのベンチマーク最適化の影響か文章も硬くて文章表現力もClaude gpt geminiには勝てないって印象
工ロ用途でも全然だし
0527名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 02:35:32.20ID:/m5iPuS8d
>>524
いずれMoEモデルの先に好きなエキスパートをモジュールとして入れ替えられる時代が来ると思う

日本語強化モジュールや翻訳専用モジュール、個人データ特化モジュールetc
今は汎用モデルの強化合戦が続いているが頭打ちになればカスタマイズの話が出てくるだろう
0533名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:45:41.08ID:xyQCKkQp0
https://huggingface.co/fastllm/Qwen3-Next-80B-A3B-Instruct-UD-Q4_K_M
fastllmというどマイナーなバックエンド用だけどこいつで動くやで。

デフォ設定だとエキスパートしかVRAMに置かない思い切った設計のバックエンドだけど、おかげでなんだったらVRAM8GBでもなんとか動く。

うちのVRAM12GB+RAM128GB環境で20tok/s出て、セカンドのGPU1は完全に寝てる。

CUDA13だとcuda認識出来ずにCPUモードで動こうとするから13の人は12.9に落とす必要あるからそこだけ注意かな
0534名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:57:39.05ID:xyQCKkQp0
ただ試しにコード書かせてみたり尻で相手してもらったりした感触は
Qwen3-Coder-30Bの蒸留版や信頼のAratako印のQwen3-30B-ERPあたりと大差ないかやや落ちるかもしんないという個人の感想だから
本番はちゃんと事後学習や蒸留したバリエーションが揃ってからかもねという現状のお気持ち
0536名無しさん@ピンキー (ワッチョイ 4b6e-3WT3)2025/10/02(木) 01:08:31.80ID:E0YZ95T60
GLM4.6 80GBぐらいのやつダウンロードしたんですけど
ロードに必要なリソースがTB超えてくるんですけどどういうこっちゃ……
Qwen3-235B-A22Bはモデルのサイズ+コンテキストぐらいのリソースで収まってたので行けると思ったんですが
ちなLMstudioでやってます
0538名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 05:07:22.10ID:xyQCKkQp0
lm studioは裏で安定版lammacpp動いてるわけだが、GLM4.6ってもう対応したっけ?lm studioは枯れたモデル試すのはGUIで楽ちんだけど最新モデルの人柱にはあんま向いてないやで?GLM 4.6がlm studio対応してます!ってきっぱり言ってるならごめんやが
0539名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 19:23:13.30ID:xyQCKkQp0
先にもちょいと書き込んだが、エロに弱いと言われるQwen3だけど、mistralPrismや天照様でエロ事後学習に定評のあるAratako先生のQwen3-30B-A3B-ERPかなり良い。
デフォルトだといつものQwenでこらあかんかと思ったら、繰り返しペナをデフォルトの1.1から1.15から1.17ぐらいにしてやるとかなり良い感じ。
調子に乗って1.2とかにしちゃうとお前bergちゃんかよという感じのキチガイエロ女になるから注意や。
事後学習ってやっぱり大事なんやなって
0540名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 00:35:36.23ID:Mw2/TWWT0
確かそのモデルは継続事前学習してなかったっけ?
そのくらいいじればQwenでもある程度は良くなるってことなんだろうな
数十万くらい作るのにかかってそうだけど…
0542名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/10/03(金) 10:40:42.26ID:s3ZkbMor0
ガチでやってるやつはファインチューンじゃなくて追加の事前学習しとるよね
本来なら追加学習というと「追加の事前学習」のことらしい
ファインチューンと何がちゃうのかようわからんが
0545名無しさん@ピンキー (ワッチョイ ab83-WlvJ)2025/10/03(金) 12:34:52.66ID:DW4V3EwD0
グラボのメモリ12GBでエロいことできるモデルを教えて
0546名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 17:29:41.25ID:CgPIJRA00
>>542
超簡単に言うと
事前学習:赤ちゃんのbaseモデルにチャットのやり方ぐらいまで教え込むこと。めっさ膨大なコスト(データセット)と時間がかかる
継続学習/継続事前学習:事前学習ではまだわからんちんの子に事前学習と同じやり方でさらにしばく。事前学習ほどではないが相当のコスト
事後学習/ファインチューン:とりあえずチャットなりが出来るようになった子に専門知識(エロとかコード知識とか)を教え込む
事前学習系よりは圧倒的に低コスト

大体こんな感じや、多分Aratako先生がQwenちゃん見て「んー、この子にはもっと躾が必要ですねえ」と判断して特別調教をしてお出しされた牝豚モデルがQwen3-ERPちゃんなわけやな
0547名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 19:45:41.88ID:CgPIJRA00
>>545
Magnum v4血統の12Bの奴でVRAMに収まる奴、もしくは遅くていいならMistral Prism、あるいはメインメモリの方には自信ありニキならQwen3-ERPでええんちゃうか?
大体Aratakoさんのモデルにはハズレ少ないから初心者はあの人のモデルから自分ちのリソースに収まるの探すのがお勧めやで
0548名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 19:53:20.87ID:Mw2/TWWT0
継続事前学習あたりになると個人の金でできる範囲超えちゃうし、金ある会社がエロ継続事前学習してモデル公開してくれるかというと絶対してくれないから結構絶望的だよな
0550名無しさん@ピンキー (ワッチョイ a761-GdyB)2025/10/04(土) 02:14:55.50ID:f0wSaW9L0
今日は8年前に始めて彼女ができた日だ
お互い童貞と処女だったが
結局ヤレずに破局
いまごろどこで何をしてるのかな……

https://youtu.be//6XB6vALjDmg
0551名無しさん@ピンキー (ワッチョイ 6a24-cBQd)2025/10/07(火) 02:34:03.30ID:StT+bpkg0
ロールプレイがやりたくてAratako/MistralPrism-24B-Q4_K_MをOpenwebUIで使おうとしたんやが
2,3回は普通に会話が出来るんやがその後なんも返答が生成されなくなってしまうんや
再生成をポチポチしてると基本無反応何やがたまに小説みたいに最後まで流れをがーっと書いて終わらせてしまう
なんやこれどうなっとるんや
0552名無しさん@ピンキー (ワッチョイ 8aec-+nVK)2025/10/07(火) 03:27:22.81ID:mJvBt1hR0
よくあるくり返しが気になるんやが
LM STUDIOでくり返しペナルティなるものはどこで設定するんやろか
グローバルな設定項目なのか、モデルを読み込んだ時の設定なのかわからんのよね
0554名無しさん@ピンキー (ワッチョイ 46fc-+N+u)2025/10/07(火) 06:31:36.67ID:dRIvcyVB0
>>552
モデル一覧の歯車からInference
0555名無しさん@ピンキー (ワッチョイ 8aec-+nVK)2025/10/07(火) 07:44:12.64ID:mJvBt1hR0
>>554
サンガツ、最新版なんやが右側サイドの設定で見つけたわ、チャット単位の設定項目なんやな
右サイドはシステムプロンプトしか意識していなかったんやがこんなところにあったんか
sampling -> repeat penaltyがあって1.1やったわ
1.2,1.3にしてもあまり変わらんような・・、temperature 低いと確かにちょっと物足りん子になってしまう
temperature 0.8やが、エロ目的なら温度やペナ設定どれくらいが適切なんやろか
0556名無しさん@ピンキー (ワッチョイ 3b0f-BueG)2025/10/07(火) 13:35:19.77ID:zLELFIEe0
SillyTavernのweb検索機能今更入れたけど大手のキャラ再現率の高さこれのおかげなんか?口調とか一気にそれっぽくなった外れもあるけど困ったらGrokのエキスパートに聞いたらだいぶ改善してくれるよ
0557名無しさん@ピンキー (ワッチョイ 0a7a-cBQd)2025/10/07(火) 13:39:54.77ID:3+A58XmO0
>>553
1回ちょっと短くしたんやがそれでもちょい長いかもなぁと思ってはいたから後で思い切って1行で済むぐらい短くして試してみるわ
0558名無しさん@ピンキー (ワッチョイ 6bc6-vacX)2025/10/07(火) 14:39:23.91ID:iRyrWH1Q0
BasedBase/GLM-4.5-Air-GLM-4.6-DistillのQ6_K試してみた
GLM-4.5-Airよりは良いけどやっぱりちょっとワードチョイスが変な感じ
サンプラー設定詰めたらいいかもだけどQwen3-235B-A22B-Instruct-2507の方が自分的には好みかな
0560名無しさん@ピンキー (ワッチョイ 0ac7-x0Gh)2025/10/07(火) 16:37:16.32ID:pRQOJskV0
早速GLM4.6のAir触ってみたけど、
俺の用途だと幸いワードチョイス変だとは思わんかったな
合う奴には合うんじゃね

ただ、あれ本当に「4.6 Air」相当なんかね?
本家からは4.6のAir出てないっぽいし…

てか、GLM4.6のほうは4.5と別物だろこれ…
4.5の時点で、Geminiに迫ってきたか?って思ってたのに、4.6はそれを越えてきた感あるわ

1発目から違い分かるレベル
なんか作者の意思というか魂こもってる感じするわ
なんで、これが話題にならないのかと不思議だわ

ただ、欠点もあって、考えて考えまくるのか、Thinkingのトークン消費量がえげつないw
0561名無しさん@ピンキー (ワッチョイ 0a3a-xUn5)2025/10/07(火) 17:07:06.15ID:i+VB7zfP0
GLM4.6はベンチマークによってはclaude sonnet4.5よりスコア高いからすごいよ
0563名無しさん@ピンキー (ワッチョイ 03c0-ad5R)2025/10/07(火) 18:04:38.51ID:eKIZ0lgN0
話題に出るまで気づいてなかったけどBasedBase/GLM-4.5-Air-GLM-4.6-Distillいいね
名前からするにGLM4.5-Airをベースに4.6の蒸留モデルを作ったんだろうけど日本語も良くなってる
個人的にAirがぎりぎりVRAM乗るサイズだからこれはありがたい
0566名無しさん@ピンキー (ワッチョイ 8aec-+nVK)2025/10/07(火) 19:36:59.09ID:mJvBt1hR0
熟練エロLLM使い手に聞きたいんやが
新モデルで「ぉほぉ〜すごい性能上がってる」とか何の差分で判断してるんやろか?
くり返しをしにくいとか表現的なバリエーションが多いとか起承転結がしっかりしたエロ文章になってるとか?
0567名無しさん@ピンキー (ワッチョイ 6bc6-vacX)2025/10/07(火) 20:09:43.29ID:iRyrWH1Q0
文章の破綻の有無もあるけど少ないプロンプトでも"察してくれる"かどうかも一つのポイントかな
例えばSTのキャラクターでケモミミ尻尾を持つ設定のキャラが居るとして"賢い"モデルは会話例に記載しなくてもポン出しの地の文で
*緊張のあまり、尻尾をピンッと立たせ〜*
とかケモミミや尻尾の描写をちゃんと出してくれる
あんまり賢くないモデルだと会話例に記載しないとこういった描写してくれないんよ
0569名無しさん@ピンキー (ワッチョイ bf77-JghB)2025/10/08(水) 00:41:46.44ID:O1g8J6w90
ChatGPTちゃんが、また露骨に厳しくなっちゃった
文章の出力量はあがったけど
0571名無しさん@ピンキー (ワッチョイ 5332-nHMl)2025/10/08(水) 08:55:31.62ID:IN/ofAQ+0
>>570
自分で詳細を考えることなく、個性的で魅力的な作品を誰しもが一瞬で作れるようになったら絶滅するな
モデルの癖みたいなものも無くなって、人物、話の流れ、構図等の多種多様なパターンをお手軽かつ魅力的に生成してくれるようになったらゲームエンドや
0573名無しさん@ピンキー (ワッチョイ 3b18-zA9K)2025/10/08(水) 12:14:52.02ID:pvDjEZ110
まだ創作を絶滅に至らしめるような未来は見えてもいないと思うけどな
神は細部に宿ると言うように、人間の手というノイズが入っていないとどこかにこれじゃない感が出る
パターンを網羅するだけじゃ足りん
0574名無しさん@ピンキー (ワッチョイ 9ea9-yk46)2025/10/08(水) 13:22:42.32ID:ycE8o5H20
今の学習のさせ方だとネット上にある情報で止まってしまうから行っても大学院生レベルまで
ただ糞広い範囲の知識を持ってる大学院生って感じ
この時点で作業のアシスタントとしてはもう十分な能力だなという感じなんだけど

人間より優れた創作となると院生レベルは超えて業界トップレベルまで行かないと厳しいよね
我々が見てる漫画なんかは学生レベルは超えてプロとなって働いている人らの中でも
さらに雑誌に掲載されてるような上澄みの作品を見て面白い、つまらないって評価してくるくらいだから

それはもう何段かブレイクスルーしないとたどりつけなさそう
レスを投稿する