なんJLLM部 避難所 ★9
0424名無しさん@ピンキー (ワッチョイ bf70-XlN9)2025/09/20(土) 08:00:26.50ID:p/li7AZa0
大手IT企業とか大学の研究機関ですらLLMの学習コストが高すぎるって言ってるからこれから量子化とかtransformersに代わる計算コストの低いアーキテクチャの研究が進むかもな
そもそも人間は絵描いたりするより文章書く方が簡単なはずなのにAIは画像生成の方が必要リソースが少なくて言語モデルは倍近くのリソースが必要なのはなんでや
0425名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/20(土) 08:06:01.28ID:+jVh25Pi0
既に色々されてるが
0426名無しさん@ピンキー (ワッチョイ 7732-kQ/7)2025/09/20(土) 08:48:50.70ID:xy79eLcb0
>>424
人間が絵より文章を書く方が得意なのは、文章が生きる上での必須技能でより多くの時間を費やすからだろ
人生で絵と文章どっちに多くの時間をかけてるのか考えてみるんだ
0427名無しさん@ピンキー (ワッチョイ dbb2-XlN9)2025/09/20(土) 09:57:05.54ID:KQrWb2+N0
>>426
簡単/難しいと得意/不得意は別の論な気もするのだが
ワイは、絵は全てのピクセルに明確な意図を込める必要はなく、なんなら単なるノイズですら魅力的な絵の一部と見なされうるけど、文章において文字はそれが許容されるケースが極めて限定的ってあたりがよりリソースが必要になる原因の一つやないか、と思うんやで
0428名無しさん@ピンキー (ワッチョイ f390-gFLl)2025/09/20(土) 09:59:40.83ID:qDJ0IAj30
>>421
普通に追加学習でファインチューンできると思うんだけど、上手くいかない感じ?
まぁVRAMが量子化前のモデルサイズ×4倍くらいは要るのが環境面では大変よね
0429名無しさん@ピンキー (ワッチョイ c720-GsOJ)2025/09/20(土) 10:13:50.69ID:ExnGmMsF0
視覚は莫大な情報の中から必要な物だけを抜き出す作業をしている
見たい部分が正しければ他は間違っていても気にならない

文章は伝えたい情報を全て文章化して相手に渡しており原則として相手は全てに目を通す
最初から最後まで確認するから間違いがあれば気づきやすい
0430名無しさん@ピンキー (ワッチョイ 7732-kQ/7)2025/09/20(土) 10:56:37.47ID:xy79eLcb0
>>429
もちろんそういう問題もあるけど知識や技術の差も大きいで

アホな小学生は文章の良し悪しや文法の間違いに気付くことが出来ない
絵も同じで画力が無い奴は絵のおかしな部分に気付くことが出来ないし、単に下手なのかわざと崩しているのかの区別もつかない
画力があると絵を見た瞬間に多くの情報を正しく拾っておかしな部分に気付いてしまう
んで人類のほとんどはアホな小学生の文章力と同レベルの稚拙な画力しか持っていないから間違いが気になるはずもない

英語苦手な奴が英文読んだときにその良し悪しに気付かないのも同じことやで
0431名無しさん@ピンキー (ワッチョイ be35-/zn3)2025/09/20(土) 12:42:40.70ID:JqUlC67e0
OpenRouterにGrok 4 Fastが来た。
しかもフリー。なんだこれ最高かよ。
0432名無しさん@ピンキー (ワンミングク MMa2-tQaT)2025/09/21(日) 10:00:43.82ID:TZGwxDCYM
CPU推論ってシングルスレッドが有効?
スリッパだとシングルが弱い上にメモリアクセスにワンクッション挟むからRyzen 8000シリーズより遅くなる印象

ThreadripperならGPU複数枚構成かなぁ
0434名無しさん@ピンキー (ワッチョイ f2d3-OtDG)2025/09/21(日) 20:42:01.00ID:UQ+WCB620
epycで良くないか?
SP5ソケットなら最大12ch動作やから500GB/sくらい出たはず
それにデュアルcpuにすれば理論帯域幅も倍になるから1000GB/s超えも狙える(ソフト側の問題で実際の速度向上は30%程度らしい)
まあCCDの数で実際の帯域幅は律速されるから12chフルで使えるCPUにすると数百万コースやけど
0435名無しさん@ピンキー (ワッチョイ f2d3-OtDG)2025/09/21(日) 21:01:38.73ID:UQ+WCB620
調べたら9B45とか128core DDR5 12channel で50万くらいなので組み方次第で100万以下も狙えそう
MoEならGPUも載せて一部オフロードすればさらに高速化狙えるし
0439名無しさん@ピンキー (ワッチョイ f2c7-yPTp)2025/09/22(月) 05:29:51.21ID:acG4VmK/0
Threadripper Proやepyc買うなら24コア以上推奨
16コア以下だとCCD数の関係で、例えば8chのメモリ帯域をフルに活かせない
chが増えるほど必要なCCD数がいるはず
0444名無しさん@ピンキー (ワッチョイ f7fb-5nxf)2025/09/23(火) 09:25:22.55ID:bSvVK3GU0
Qwen明日またモデル出るっぽいな
ミニサイズで性能良かったら嬉しいが、
0445名無しさん@ピンキー (ワッチョイ 2249-YdyK)2025/09/23(火) 14:14:46.14ID:J/x1dQw60
Qwenのリリース速度はすごいな
さすがアリババ
クラウドサービス持ってるところは強い
0446名無しさん@ピンキー (ワッチョイ f3a4-KxXW)2025/09/24(水) 06:28:25.56ID:Tg8zlyhV0
>>424
人類が意味と価値を見出せるパターンが文章より圧倒的に少ない
ローカルで動いてる画像生成なんて裸の女の子ドーン!みたいな似たような絵しか出ないやろ
それに自然言語で色々出せるモデルはそろそろローカルじゃキツくなってきてるころや
0447名無しさん@ピンキー (ワッチョイ db8e-fBkI)2025/09/24(水) 12:35:38.81ID:PYQ60cU40
エロ小説をLMstudio君に生成させてみたいんだけどどのモデルがいいのかね?
さすがにgptモデルじゃ無理でした…
0449名無しさん@ピンキー (ワッチョイ db8e-fBkI)2025/09/24(水) 17:44:39.49ID:PYQ60cU40
>>448
おほーサンクス
家に帰ってみたら早速実装してみます
0450名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 17:49:04.04ID:q/lnB44d0
オナテク板で真面目なLLM性能も議論してるから教えて欲しいんやが
コード添付して色々教えてもらうのってどのモデルがええんや?
GPTやと1つのphpコードであれこれ入門的な説明してもらってるときに
「添付があるからこれ以上続行すらさせへんで」になるからLLMでやりたいんや
0452名無しさん@ピンキー (ワッチョイ f26b-YdyK)2025/09/24(水) 18:06:27.43ID:EqE2QH2E0
codex使えば?
0453名無しさん@ピンキー (ブーイモ MM92-QGC9)2025/09/24(水) 18:08:51.17ID:wQMvlyu2M
コーディングだとclaudeが強いって前に評判だったけど最新の情勢は違うのかもしれん
ローカルだとそもそもコンテキストサイズ的に満足行く回答が得られるか怪しいと思うで
0455名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 18:17:46.93ID:q/lnB44d0
>>451-453
サンガツ
添付が無かったらワイのつたない質問でも永遠に相手してくれるんやが
100行のPHPコードだけでもすぐに「このスレッドには添付があるからこれ以上は質問すらさせへんで」になるのが無料やから仕方ないんよな
0457名無しさん@ピンキー (ワッチョイ 1f81-gFLl)2025/09/24(水) 18:55:55.40ID:ARkRWnqL0
どうしてもローカルがいいならgpt-oss 20B/120Bかqwen3 coder試してみて、ダメだったらcodexとかclaude codeにいくしかないと思うで
強めのグラボ積んでるならLM StudioでGPU offloadを最大にしてflash attensionを有効にすればワイの環境ならgpt-oss 120Bで140tok/sec出てるで
長めの文章読み込めるようにcontext lengthをそのモデルの最大(gpt-ossなら13万)にするか、遅くならない程度の値にしておくんやで
0458名無しさん@ピンキー (ワッチョイ bffd-pB+b)2025/09/24(水) 18:56:33.04ID:gh85Ul4x0
コードを扱うならどこのAIでも良いので大人しく課金した方が良い
仕事でバリバリ使ってない限り20$の一番安いプランで、
チャットでもCLIでもまず制限には当たらない
0461名無しさん@ピンキー (ワッチョイ 72ec-iuAP)2025/09/24(水) 19:03:54.92ID:q/lnB44d0
>>456-458
それでご飯食べてるわけではなくて初学者で
まれにファイル添付して全体的な質問をする時があるくらいやからその時はローカルでと思ったんやが
codeがついているモデルで添付OKなモデルでやってみるやで
0462名無しさん@ピンキー (ワッチョイ bf06-/zn3)2025/09/24(水) 19:09:04.54ID:w2HZ4JhN0
動かなかったら直せばええ
0464名無しさん@ピンキー (ワッチョイ 9320-VUrW)2025/09/24(水) 19:47:13.41ID:ZtGaaXzi0
なんも考えずにChatGPT契約して使い倒してから続けるか止めるか考えればいい
ローカルLLMは日本語でやりとりすることによる 性能ロスが大きすぎるから殆どの用途で使い物にならん
英語ネイティブですというなら違う可能性はあるけど
0467名無しさん@ピンキー (ワッチョイ f7b6-/zn3)2025/09/25(木) 06:53:11.82ID:Z3kA1xHf0
ワイも必須になりつつある
毎日の食事カロリー計算から運動のリマインダー、
あとマイコンボードでのデバイス制作とめちゃ助かってる
(肝心な部分はredditの海外ニキらのコメントだが)

でもローカルLLMはロマンはあるンゴね
0469名無しさん@ピンキー (JP 0H6e-MM1T)2025/09/25(木) 21:55:28.51ID:apj1zCrgH
カロリーは脳ミソでもかなり消費するはずだから
エネルギーが要るというのは間違ってはないと思う
お堅い文面でもLLMにぶち込むモノでも頭はけっこう使うし
0471名無しさん@ピンキー (ワッチョイ 4fa3-mwor)2025/09/26(金) 09:41:39.48ID:D5GOUI0s0
【朗報】さくらインターネットのAI、「さくらのAI Engine」の一般提供開始!!国策AIがついに動き出す! [673057929]
http://greta.5ch.net/test/read.cgi/poverty/1758803926/
 
これ一から自前で作ってる国産?
0479名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 17:23:27.60ID:f/GM/BxQ0
>>478
数ヶ月前までRinnaがやってたけどな最近は更新されてないか
0480名無しさん@ピンキー (ドコグロ MMca-YdyK)2025/09/26(金) 17:23:52.17ID:vox1d4RkM
日本語はGLMが優秀だぞ
0483名無しさん@ピンキー (ワッチョイ efd8-gFLl)2025/09/26(金) 20:43:31.02ID:3B4su3U20
予測はLLM使わんでも線形回帰でええやん
0485名無しさん@ピンキー (ワッチョイ bf38-/zn3)2025/09/26(金) 20:47:53.63ID:EP60vsIo0
詐欺メールもだな
0487名無しさん@ピンキー (オッペケ Srd7-l4qr)2025/09/26(金) 22:16:39.04ID:UNdtCLMYr
ROCm 6.4.4リリースでようやっとRyzen AI Max+ 395.がサポートされたみたいね
これからローカルLLMて進展が出てくるの期待だわ
0488名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 23:14:28.18ID:f/GM/BxQ0
llama.cppでもうすぐQwen3 Nextがサポートされそう
0491名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/26(金) 23:31:10.61ID:Gt003hUg0
jpxがなんか予測に使ってたな
0495名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/09/27(土) 07:51:56.30ID:0L5nCDDl0
4bitは結構性能下がるよ
あとtool coolingはコーディングみたいに1文字間違ったら動かない事が多いから量子化には元々厳しいと思うし
だからはじめから4bitしか公開されてないgptossがあの性能出てるのがすごい
0496名無しさん@ピンキー (ワッチョイ 7b8a-mDdK)2025/09/27(土) 14:01:26.70ID:wwGJW0Qw0
冷やすの?
0497名無しさん@ピンキー (ワッチョイ 8bc7-2yqi)2025/09/27(土) 23:25:17.87ID:LUN7vlE20
>>450
とりあえずclaudeのmaxプランに加入するとええで
レートリミット限界まで使わんと損した気になるから開発も学習も捗る
mcpがチャット版でも使えるのも大きい
特に今見てるブラウザのタブを読めるようにするmcpを使うと「今見てるこれって〜」みたいな質問ができるからドキュメント漁りがメッチャ楽
まぁ何より頭がええんやけどな
よく言われるコンテキスト圧縮問題もserena使えばそんなに問題にならん
0498名無しさん@ピンキー (ワッチョイ 8b85-ah/d)2025/09/28(日) 09:50:05.52ID:nL1wk7TI0
>>493
新参者の面白AI出てきてないからしゃあない
0500名無しさん@ピンキー (ワッチョイ ef27-dUNe)2025/09/28(日) 12:57:36.45ID:6EZ3OtYY0
初期はChatGPTがエロ厳しいからローカルでみたいなモチベーションあったけど
今は色んなサービス増えて規制ゆるくなってるし何なら無料枠でも結構遊べるからな
0501名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/28(日) 20:50:48.48ID:RcruL3Dv0
無知ですいません。おしえてください。EasyNovelAssistantを導入しライトノベルを書かせたいのですが、APIなどで料金が発生するのでしょうか?
0502名無しさん@ピンキー (ワッチョイ 4b00-mOlO)2025/09/28(日) 22:31:48.46ID:Ic/L9Cef0
>>501
ローカル=自分のPC内で全て完結するシステムなので料金は一切発生しないよ
ただしPCの性能が求められるので使ってるものによってはPCパーツ交換代がかかる
0503名無しさん@ピンキー (ワッチョイ 9fd0-mDdK)2025/09/29(月) 00:02:34.73ID:W6AEx9QY0
>>502
返答ありがとうございます。2060spなので不安ですが試してみます
0506名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/09/29(月) 19:17:38.22ID:Rnc8/N8gd
>>505
ツールのGGUF対応を待ってメインメモリへのオフロードを前提にすれば必要なメモリはだいぶ減るで

ワイのメモリ128GB&VRAM24GB環境でもいつかは動くと信じて口開けて待っとるで
0508名無しさん@ピンキー (ワッチョイ 4b8f-L54C)2025/09/29(月) 19:53:11.25ID:Mrcfa+Ng0
ほとんどの人はツール側が対応してくれるの待ちやで。128GBもあればQ8_0でも動かせるやろ
ワイ64GB環境やと高望みしてQ6、実際問題Q4がええとこやろなぁ……
0509名無しさん@ピンキー (JP 0H6f-L54C)2025/09/29(月) 21:22:12.02ID:Pe/CSr+TH
動画生成用に増設したDRAMがここでも役に立つとは嬉しいンゴ
0510名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/29(月) 23:28:05.71ID:OuKsRs/I0
推論中にタスクマネージャ見てるとCPUもGPUも使用率そこまで上がらないんですね
読み込むのに容量が必要なだけで推論自体はそこまでリソース使わないって認識で合ってますか?
0512名無しさん@ピンキー (ワッチョイ 1fba-4W0+)2025/09/29(月) 23:46:12.11ID:7xZP8KOK0
やってる計算はすげー単純だからなLLM
0513名無しさん@ピンキー (ワッチョイ 4b00-3WT3)2025/09/30(火) 01:14:40.06ID:z5KqAsk90
command-a-03-2025とqwen3-235b-a22b
近いサイズまで量子化してあるやつを読み込んで推論したら
command-aの方は0.8t/sぐらいなのに
qwen3は5.0t/s出るんですけど
なんでこんなに差があってqwen3の方は早いんですか?
LMstudioでやってます、ロード時のパラメータでcommand-aには無いもの(エキスパート数とか)がqwen3にはありますがこれが影響してるのでしょうか
ローカルLLMに最近手を出したにわかですがご教示お願いします🙏
0519名無しさん@ピンキー (ワッチョイ 1f54-4W0+)2025/10/01(水) 01:16:08.28ID:9fO3SCJ10
アリババってQwenだけだろ
DeepSeekもKimiもGLMも全く別の企業だよ
0522名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 01:21:23.33ID:/m5iPuS8d
>>520
オープンソースAIでアメリカを殴りに行くのが中国の国家戦略だから
ぶっちゃけ現場は有無を言わさずオープンソースにさせられてると思う

俺らにはありがたい話だが
0524名無しさん@ピンキー (ワッチョイ 1f61-dRFZ)2025/10/01(水) 02:23:46.07ID:says+YzV0
アメリカモデルを中国モデルが追い越したら一気に情勢は変わりそうではある
最も賢いモデルにユーザ需要が集中するall or nothingの狂ったLLM市場で性能が劣るモデルがなんとか爪痕を残すためにオープンウェイトにしてるだけだろうしな
0526名無しさん@ピンキー (ワッチョイ 9b03-dRFZ)2025/10/01(水) 02:31:07.78ID:32tNb9ZU0
途中送信すまん
簡体字が文章中に稀に混じるからそれだけで一気に日本語が下手に感じてまうというバイアスもあるんだろうけど中国モデルは合成データ使いまくったバリバリのベンチマーク最適化の影響か文章も硬くて文章表現力もClaude gpt geminiには勝てないって印象
工ロ用途でも全然だし
0527名無しさん@ピンキー (スッププ Sd3f-H6CU)2025/10/01(水) 02:35:32.20ID:/m5iPuS8d
>>524
いずれMoEモデルの先に好きなエキスパートをモジュールとして入れ替えられる時代が来ると思う

日本語強化モジュールや翻訳専用モジュール、個人データ特化モジュールetc
今は汎用モデルの強化合戦が続いているが頭打ちになればカスタマイズの話が出てくるだろう
0533名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:45:41.08ID:xyQCKkQp0
https://huggingface.co/fastllm/Qwen3-Next-80B-A3B-Instruct-UD-Q4_K_M
fastllmというどマイナーなバックエンド用だけどこいつで動くやで。

デフォ設定だとエキスパートしかVRAMに置かない思い切った設計のバックエンドだけど、おかげでなんだったらVRAM8GBでもなんとか動く。

うちのVRAM12GB+RAM128GB環境で20tok/s出て、セカンドのGPU1は完全に寝てる。

CUDA13だとcuda認識出来ずにCPUモードで動こうとするから13の人は12.9に落とす必要あるからそこだけ注意かな
0534名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 00:57:39.05ID:xyQCKkQp0
ただ試しにコード書かせてみたり尻で相手してもらったりした感触は
Qwen3-Coder-30Bの蒸留版や信頼のAratako印のQwen3-30B-ERPあたりと大差ないかやや落ちるかもしんないという個人の感想だから
本番はちゃんと事後学習や蒸留したバリエーションが揃ってからかもねという現状のお気持ち
0536名無しさん@ピンキー (ワッチョイ 4b6e-3WT3)2025/10/02(木) 01:08:31.80ID:E0YZ95T60
GLM4.6 80GBぐらいのやつダウンロードしたんですけど
ロードに必要なリソースがTB超えてくるんですけどどういうこっちゃ……
Qwen3-235B-A22Bはモデルのサイズ+コンテキストぐらいのリソースで収まってたので行けると思ったんですが
ちなLMstudioでやってます
0538名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 05:07:22.10ID:xyQCKkQp0
lm studioは裏で安定版lammacpp動いてるわけだが、GLM4.6ってもう対応したっけ?lm studioは枯れたモデル試すのはGUIで楽ちんだけど最新モデルの人柱にはあんま向いてないやで?GLM 4.6がlm studio対応してます!ってきっぱり言ってるならごめんやが
0539名無しさん@ピンキー (ワッチョイ 4bdf-iDFa)2025/10/02(木) 19:23:13.30ID:xyQCKkQp0
先にもちょいと書き込んだが、エロに弱いと言われるQwen3だけど、mistralPrismや天照様でエロ事後学習に定評のあるAratako先生のQwen3-30B-A3B-ERPかなり良い。
デフォルトだといつものQwenでこらあかんかと思ったら、繰り返しペナをデフォルトの1.1から1.15から1.17ぐらいにしてやるとかなり良い感じ。
調子に乗って1.2とかにしちゃうとお前bergちゃんかよという感じのキチガイエロ女になるから注意や。
事後学習ってやっぱり大事なんやなって
0540名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 00:35:36.23ID:Mw2/TWWT0
確かそのモデルは継続事前学習してなかったっけ?
そのくらいいじればQwenでもある程度は良くなるってことなんだろうな
数十万くらい作るのにかかってそうだけど…
0542名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/10/03(金) 10:40:42.26ID:s3ZkbMor0
ガチでやってるやつはファインチューンじゃなくて追加の事前学習しとるよね
本来なら追加学習というと「追加の事前学習」のことらしい
ファインチューンと何がちゃうのかようわからんが
0545名無しさん@ピンキー (ワッチョイ ab83-WlvJ)2025/10/03(金) 12:34:52.66ID:DW4V3EwD0
グラボのメモリ12GBでエロいことできるモデルを教えて
0546名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 17:29:41.25ID:CgPIJRA00
>>542
超簡単に言うと
事前学習:赤ちゃんのbaseモデルにチャットのやり方ぐらいまで教え込むこと。めっさ膨大なコスト(データセット)と時間がかかる
継続学習/継続事前学習:事前学習ではまだわからんちんの子に事前学習と同じやり方でさらにしばく。事前学習ほどではないが相当のコスト
事後学習/ファインチューン:とりあえずチャットなりが出来るようになった子に専門知識(エロとかコード知識とか)を教え込む
事前学習系よりは圧倒的に低コスト

大体こんな感じや、多分Aratako先生がQwenちゃん見て「んー、この子にはもっと躾が必要ですねえ」と判断して特別調教をしてお出しされた牝豚モデルがQwen3-ERPちゃんなわけやな
0547名無しさん@ピンキー (ワッチョイ 4b1b-iDFa)2025/10/03(金) 19:45:41.88ID:CgPIJRA00
>>545
Magnum v4血統の12Bの奴でVRAMに収まる奴、もしくは遅くていいならMistral Prism、あるいはメインメモリの方には自信ありニキならQwen3-ERPでええんちゃうか?
大体Aratakoさんのモデルにはハズレ少ないから初心者はあの人のモデルから自分ちのリソースに収まるの探すのがお勧めやで
0548名無しさん@ピンキー (ワッチョイ 0fd9-Vspv)2025/10/03(金) 19:53:20.87ID:Mw2/TWWT0
継続事前学習あたりになると個人の金でできる範囲超えちゃうし、金ある会社がエロ継続事前学習してモデル公開してくれるかというと絶対してくれないから結構絶望的だよな
0550名無しさん@ピンキー (ワッチョイ a761-GdyB)2025/10/04(土) 02:14:55.50ID:f0wSaW9L0
今日は8年前に始めて彼女ができた日だ
お互い童貞と処女だったが
結局ヤレずに破局
いまごろどこで何をしてるのかな……

https://youtu.be//6XB6vALjDmg
0551名無しさん@ピンキー (ワッチョイ 6a24-cBQd)2025/10/07(火) 02:34:03.30ID:StT+bpkg0
ロールプレイがやりたくてAratako/MistralPrism-24B-Q4_K_MをOpenwebUIで使おうとしたんやが
2,3回は普通に会話が出来るんやがその後なんも返答が生成されなくなってしまうんや
再生成をポチポチしてると基本無反応何やがたまに小説みたいに最後まで流れをがーっと書いて終わらせてしまう
なんやこれどうなっとるんや
0552名無しさん@ピンキー (ワッチョイ 8aec-+nVK)2025/10/07(火) 03:27:22.81ID:mJvBt1hR0
よくあるくり返しが気になるんやが
LM STUDIOでくり返しペナルティなるものはどこで設定するんやろか
グローバルな設定項目なのか、モデルを読み込んだ時の設定なのかわからんのよね
0554名無しさん@ピンキー (ワッチョイ 46fc-+N+u)2025/10/07(火) 06:31:36.67ID:dRIvcyVB0
>>552
モデル一覧の歯車からInference
0555名無しさん@ピンキー (ワッチョイ 8aec-+nVK)2025/10/07(火) 07:44:12.64ID:mJvBt1hR0
>>554
サンガツ、最新版なんやが右側サイドの設定で見つけたわ、チャット単位の設定項目なんやな
右サイドはシステムプロンプトしか意識していなかったんやがこんなところにあったんか
sampling -> repeat penaltyがあって1.1やったわ
1.2,1.3にしてもあまり変わらんような・・、temperature 低いと確かにちょっと物足りん子になってしまう
temperature 0.8やが、エロ目的なら温度やペナ設定どれくらいが適切なんやろか
0556名無しさん@ピンキー (ワッチョイ 3b0f-BueG)2025/10/07(火) 13:35:19.77ID:zLELFIEe0
SillyTavernのweb検索機能今更入れたけど大手のキャラ再現率の高さこれのおかげなんか?口調とか一気にそれっぽくなった外れもあるけど困ったらGrokのエキスパートに聞いたらだいぶ改善してくれるよ
0557名無しさん@ピンキー (ワッチョイ 0a7a-cBQd)2025/10/07(火) 13:39:54.77ID:3+A58XmO0
>>553
1回ちょっと短くしたんやがそれでもちょい長いかもなぁと思ってはいたから後で思い切って1行で済むぐらい短くして試してみるわ
0558名無しさん@ピンキー (ワッチョイ 6bc6-vacX)2025/10/07(火) 14:39:23.91ID:iRyrWH1Q0
BasedBase/GLM-4.5-Air-GLM-4.6-DistillのQ6_K試してみた
GLM-4.5-Airよりは良いけどやっぱりちょっとワードチョイスが変な感じ
サンプラー設定詰めたらいいかもだけどQwen3-235B-A22B-Instruct-2507の方が自分的には好みかな
0560名無しさん@ピンキー (ワッチョイ 0ac7-x0Gh)2025/10/07(火) 16:37:16.32ID:pRQOJskV0
早速GLM4.6のAir触ってみたけど、
俺の用途だと幸いワードチョイス変だとは思わんかったな
合う奴には合うんじゃね

ただ、あれ本当に「4.6 Air」相当なんかね?
本家からは4.6のAir出てないっぽいし…

てか、GLM4.6のほうは4.5と別物だろこれ…
4.5の時点で、Geminiに迫ってきたか?って思ってたのに、4.6はそれを越えてきた感あるわ

1発目から違い分かるレベル
なんか作者の意思というか魂こもってる感じするわ
なんで、これが話題にならないのかと不思議だわ

ただ、欠点もあって、考えて考えまくるのか、Thinkingのトークン消費量がえげつないw
0561名無しさん@ピンキー (ワッチョイ 0a3a-xUn5)2025/10/07(火) 17:07:06.15ID:i+VB7zfP0
GLM4.6はベンチマークによってはclaude sonnet4.5よりスコア高いからすごいよ
0563名無しさん@ピンキー (ワッチョイ 03c0-ad5R)2025/10/07(火) 18:04:38.51ID:eKIZ0lgN0
話題に出るまで気づいてなかったけどBasedBase/GLM-4.5-Air-GLM-4.6-Distillいいね
名前からするにGLM4.5-Airをベースに4.6の蒸留モデルを作ったんだろうけど日本語も良くなってる
個人的にAirがぎりぎりVRAM乗るサイズだからこれはありがたい
0566名無しさん@ピンキー (ワッチョイ 8aec-+nVK)2025/10/07(火) 19:36:59.09ID:mJvBt1hR0
熟練エロLLM使い手に聞きたいんやが
新モデルで「ぉほぉ〜すごい性能上がってる」とか何の差分で判断してるんやろか?
くり返しをしにくいとか表現的なバリエーションが多いとか起承転結がしっかりしたエロ文章になってるとか?
0567名無しさん@ピンキー (ワッチョイ 6bc6-vacX)2025/10/07(火) 20:09:43.29ID:iRyrWH1Q0
文章の破綻の有無もあるけど少ないプロンプトでも"察してくれる"かどうかも一つのポイントかな
例えばSTのキャラクターでケモミミ尻尾を持つ設定のキャラが居るとして"賢い"モデルは会話例に記載しなくてもポン出しの地の文で
*緊張のあまり、尻尾をピンッと立たせ〜*
とかケモミミや尻尾の描写をちゃんと出してくれる
あんまり賢くないモデルだと会話例に記載しないとこういった描写してくれないんよ
0569名無しさん@ピンキー (ワッチョイ bf77-JghB)2025/10/08(水) 00:41:46.44ID:O1g8J6w90
ChatGPTちゃんが、また露骨に厳しくなっちゃった
文章の出力量はあがったけど
0571名無しさん@ピンキー (ワッチョイ 5332-nHMl)2025/10/08(水) 08:55:31.62ID:IN/ofAQ+0
>>570
自分で詳細を考えることなく、個性的で魅力的な作品を誰しもが一瞬で作れるようになったら絶滅するな
モデルの癖みたいなものも無くなって、人物、話の流れ、構図等の多種多様なパターンをお手軽かつ魅力的に生成してくれるようになったらゲームエンドや
0573名無しさん@ピンキー (ワッチョイ 3b18-zA9K)2025/10/08(水) 12:14:52.02ID:pvDjEZ110
まだ創作を絶滅に至らしめるような未来は見えてもいないと思うけどな
神は細部に宿ると言うように、人間の手というノイズが入っていないとどこかにこれじゃない感が出る
パターンを網羅するだけじゃ足りん
0574名無しさん@ピンキー (ワッチョイ 9ea9-yk46)2025/10/08(水) 13:22:42.32ID:ycE8o5H20
今の学習のさせ方だとネット上にある情報で止まってしまうから行っても大学院生レベルまで
ただ糞広い範囲の知識を持ってる大学院生って感じ
この時点で作業のアシスタントとしてはもう十分な能力だなという感じなんだけど

人間より優れた創作となると院生レベルは超えて業界トップレベルまで行かないと厳しいよね
我々が見てる漫画なんかは学生レベルは超えてプロとなって働いている人らの中でも
さらに雑誌に掲載されてるような上澄みの作品を見て面白い、つまらないって評価してくるくらいだから

それはもう何段かブレイクスルーしないとたどりつけなさそう
0576名無しさん@ピンキー (ワッチョイ 0ad2-BueG)2025/10/08(水) 15:25:22.31ID:v1jMk3GS0
GLM 4.5 Airに4.6を蒸留したと主張しているモデルはGLM 4.5 Airから重みも含めて一切変わっていない詐欺モデルという話が出てきてるね 
だから4.5 air動かせば実質4.6 Distillや 
それはともかく公式の4.6 airも2週間以内に公開されるって話もある
0578名無しさん@ピンキー (ワッチョイ 6f6a-B8DW)2025/10/08(水) 16:39:14.65ID:77ueNpG/0
なんで詐欺なんかすんだよ。。。(´・ω・`)
0579名無しさん@ピンキー (ワッチョイ e37a-Cwyj)2025/10/08(水) 18:07:14.73ID:SgRvqqyj0
なーんかbasebase氏のqwen3-coder-distillもなんも変わってなくね?とかredditで騒いでる奴いるけど、少なくともうちで実測してOllamaのtok/s明らかに違うし、全く同じとは思えんのだがなあ。まあちょいとこの騒ぎについては静観。
0581名無しさん@ピンキー (ワッチョイ e37a-Cwyj)2025/10/08(水) 18:49:42.93ID:SgRvqqyj0
単純な蒸留じゃなくて量子化段階の辞書化の最適化もやってるでってモデルカードにあった覚えがあるんで、それ自体はおかしくない。
GLM4.5の蒸留は現物見てないのでなんとも言えないが、なんか騒いでる奴ももひとつ信用でけへんなこれというのが今回の騒ぎなんよ
0582名無しさん@ピンキー (ワッチョイ e37a-Cwyj)2025/10/08(水) 18:57:36.81ID:SgRvqqyj0
あ、今redditのスレ見直したら全然ちゃうで?嘘松乙って総ツッコミ入ってるわ。
GLM4.5はわからんけど他も、は完全に言いがかりでいいみたい
0583名無しさん@ピンキー (ワッチョイ 0a76-MTBo)2025/10/08(水) 19:29:06.02ID:v1jMk3GS0
>>581
主要レイヤーの重みを比較した結果も出ててGLM 4.5 airと同一のモデルなのは確定や corderもベンチマークや出力応答含めベースモデルと完全に一致してて99%黒 気になるならhuggingfaceのdissccusion漁るとええ
0584名無しさん@ピンキー (ワッチョイ e37a-Cwyj)2025/10/08(水) 20:09:28.84ID:SgRvqqyj0
>>583
見てきたサンガツやで。合わせてredditの関連スレも読んで来た

まだ今んとこ真っ黒主張してるデータを明確に出してるソースが一箇所/一名だけで、何しろデータ自体出てきてから24時間経ってないので作者側もすぐに客観的なデータ出せずにぷち炎上って感じなんやな。

おそらく何日かすれば白黒はっきりする話やろし、なんJでまで炎上の飛び火されるのもなんで一旦ここまでにしとくわ。ポインタはサンガツな。
0586名無しさん@ピンキー (ワッチョイ 6a24-rgVb)2025/10/09(木) 00:17:41.69ID:rPaF/Hiu0
前にロールプレイ上手く生成されないって書いた者やがプロンプトを人物設定程度にとどめたら上手く行くようになったで
ストーリーとかガチガチに作ってたのがダメだったんやなよく見かけるAIが想像する余地を残しとけってのがようやく理解できたわ
0587名無しさん@ピンキー (ワッチョイ 0ac7-x0Gh)2025/10/09(木) 00:45:19.97ID:M6jL+2iy0
>>586
ロールプレイは難易度高かった気がするわ
AIが想像できる余地残すというのはなんか分かる気がするで
試行錯誤しながら期待通りの出力を目指していくのも楽しいんよな
0588名無しさん@ピンキー (ワッチョイ e3b3-a50n)2025/10/09(木) 01:26:32.90ID:BqfSePMT0
おれsilly tavernでロールプレイばっかやってるけど似たような事?はあるな
あるキャラを出来るだけ忠実に再現したくて例えば出身地は京都、伝統工芸品が好き、地元愛が強いなんて情報をキャラカードに書くと関係ない話題の時もいきなり京都や着物のことなんかをぶっ込んで来るんだよね
何やこいつ突然!?ってなる
そのキャラの重要な特徴ではあるものの滅多に会話に出てこないような情報は思い切って切り捨てた方がいいと思う
設定を詰めこむとAIちゃんは不自然になろうと全部使いたくなるみたいだから…
0589名無しさん@ピンキー (ワッチョイ e37a-Cwyj)2025/10/09(木) 01:58:52.22ID:PdFuwcqf0
尻あるあるやな。ファンタジー冒険ものやりたくてworld設定に書き込んだ「倒された魔王」が毎回のセッション毎に復活して「もうやめて!魔王のHPはもう」とテンプレ発言したくなる奴
0590名無しさん@ピンキー (ワッチョイ 0a7a-rgVb)2025/10/09(木) 03:25:18.02ID:ATE9oWhw0
情報を抜いていくとそれはそれで思わぬ展開に持ち込まれて面白かったりするのがええな
画像生成のガチャ途中に意図せぬ大当たりがあるように文章生成でも意図せぬドストライク展開があると色々調整したり試行錯誤しがいがでてくるわ
0591名無しさん@ピンキー (ワッチョイ 0a2a-a50n)2025/10/09(木) 10:15:50.10ID:MlEd74Kd0
女子数人のグループ会話を流してて一切何の設定もしてないのにBL大好き属性が勝手に付与されて私が考えたカップリング見て!見て!って迫ってきた時はワロタ
0592名無しさん@ピンキー (アウアウウー Sacf-JDjJ)2025/10/09(木) 12:22:08.67ID:h7bIVgbXa
自我芽生えさすな
0593名無しさん@ピンキー (JP 0H17-JEo1)2025/10/09(木) 12:57:47.53ID:p+9DFDhsH
尻タブで特定ワードに引っ張られる現象を避けたい場合はキャラカードにその設定を描くより
Lorebookにトリガー設定して書くといいよ
確かキャラごとにLorebookのグループ分けみたいなので来たはずだから
例えば「京都の伝統工芸品が好き」というエントリを作ったらその話題が出るとトリガされて返答時に言及してくれる
んでエントリにはスティッキー、クールダウン、ディレイを設定できるから上手く使おう
スティッキーはn回ターンの間ずっとエントリ(京都云々)が有効になる、n回は設定可能
クールダウンはターン数を設定するとエントリが有効になった後n回ターンエントリが無効になり、スティッキーと併用できる
ディレイは経過ターン数が設定したディレイのターン数になるまでエントリトリガされても有効にならない
例えばチャットをはじめて10ターン後にトリガできるようになるとかにすれば、10ターン以降そのワードが出たら呪いが発生しゲームオーバーとかできる

他にもワードがでたあとトリガされる確率設定とかできるから、30%でトリガされるようにすれば
ディレイで5ターンの間トリガされなくして、ある程度お互い知り合ったところで適当なワードで(京都云々)をトリガさせる、スティッキーで数ターン京都の話をさせるようにして、クールダウンか他の機能でスティッキー後トリガを無効化させる(100ターンとかにする)
同じエントリを作ってディレイ10ターン、クールダウン5ターン、トリガ確率30%にすれば上の動作後に30%ごとに京都の話ガチャができる
他にいい方法あるかもしれんけど参考までに
0594名無しさん@ピンキー (ワッチョイ 0ab9-a50n)2025/10/09(木) 13:58:03.77ID:MlEd74Kd0
割と曖昧なトリガーでも機能してくれるんだ?
俺てっきり単語辞書みたいなもんだと思ってた
好物Aというワードをこっちから出したら機能するけど「何が好き?」と聞くと無視されるような感じなのかなって
0595名無しさん@ピンキー (ワッチョイ 3b9f-DV/R)2025/10/09(木) 14:02:11.18ID:lHoRagf90
直前のモデルの返答と今回のユーザーの入力のどちらかに設定したキーワードが含まれてれば設定した内容が送られるって感じだから単語辞書に近い
こちらの入力を工夫して上手いこと誘導する必要がある
0596名無しさん@ピンキー (ワッチョイ 9ea9-vS7e)2025/10/09(木) 20:33:22.42ID:73g1itQI0
GLM、モデルはいいけど中国のZ.AIはプライバシーポリシーもまともな内容出てないし
OpenRouterなりで別のプロバイダーのGLM使うのがいいのかねぇ
0597名無しさん@ピンキー (ワッチョイ 0aa5-xUn5)2025/10/09(木) 22:02:42.00ID:3zZzA4Cz0
べつに漏れたら困る情報を渡さなければいいだけでは
0598名無しさん@ピンキー (ワッチョイ e37a-Cwyj)2025/10/09(木) 22:04:23.84ID:PdFuwcqf0
deepseekもだがその辺の中華大型llmはローカルで動かしてなんぼであり公式クラウドは使うもんじゃないと思ってる
まあ個人だとまだGLM4.5/4.6をローカルで動かすのは相当敷居高いというのは認める
0599名無しさん@ピンキー (ワッチョイ 7f03-MTBo)2025/10/09(木) 23:18:50.58ID:Q00dkaip0
サードパーティの方も情報管理ガバガバだからその手の情報を扱うならローカルだわな
コスパだけならサードパーティ一択やけど VCからの資金調達目当てで絶対採算取れてないだろって例も見かけるし
レスを投稿する


ニューススポーツなんでも実況