なんJLLM部 避難所 ★10

!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

0815名無しさん@ピンキー (オッペケ Srdf-viuJ)2026/01/23(金) 09:39:32.37ID:F9WixtPnr
>>812
合ってるよな🤔

0816名無しさん@ピンキー (ワッチョイ ef32-qkVW)2026/01/23(金) 14:47:57.25ID:zfc5xOk30
エロ画像モデルは言語関係無しに世界中の人が楽しめるけど
エロLLMは言語が合ってないと一切楽しめない

今は音声付きエロ動画が始まってきているからLLMみたいに言語の壁にぶつかるようになるだろうな

0817名無しさん@ピンキー (ワッチョイ f395-N8e8)2026/01/23(金) 20:51:19.68ID:wq1/7kmF0
画像は多少破綻しててもエロけりゃ気にならんけど文字になると少々の破綻でも気になるからな

0818名無しさん@ピンキー (ワッチョイ 0ae9-CeJs)2026/01/24(土) 13:10:17.52ID:mzXn1zQO0
画像も1枚物ならまだ見れるけど
連続物とか一本の漫画なんて破綻するからな
文章も同じで短いチャットはできても小説を破綻なく生成させようとしたら計算量が跳ね上がるってことよ

0819名無しさん@ピンキー (ワッチョイ 1ea0-jbA7)2026/01/24(土) 17:50:32.03ID:+ePlvj4x0
SDもだいぶ分かって来たから、動画始めてみるかな

0820名無しさん@ピンキー (オッペケ Sra3-x9BH)2026/01/26(月) 10:46:57.82ID:uETGBTBIr
clawdbot、コレローカルLLMにローカルPCを好きに使わせるための物だよね
驚き屋はClaude Codeと接続してリモートでバイブコーディングが!とかキャラを付与できる!とか言い続けてて意味不明だったけど...
ローカルLLMを輝かせるものだというなら海外での盛り上がりも理解可能に思える

Discord経由なら英日翻訳Botを噛ませて英語で扱うことも楽にできるし、面白いことが出来そうだね

0821名無しさん@ピンキー (オッペケ Sra3-a+7q)2026/01/26(月) 11:54:04.34ID:W2El03lKr
翻訳くらいならllmでできそうだけど

0822名無しさん@ピンキー (ワッチョイ 23cd-x9BH)2026/01/26(月) 14:09:27.48ID:35fg7qjN0
画像を認識させてその内容に合ったセリフ等を生成するにはどうしたらいいでしょうか?

0823名無しさん@ピンキー (ワッチョイ 87d3-NPBA)2026/01/26(月) 22:39:15.11ID:+cVsP7eh0
glmの画像モデルが今huggingfaceのトレンドに上がっとる
2週間ぐらい前に公開されてたみたいやが知らんかったな
画像内のテキスト描写に特に力入れてるみたいやな
普通の内容の描写はベンチマークでzimageに負けとるな

0824名無しさん@ピンキー (ワッチョイ eb32-jbA7)2026/01/26(月) 23:29:01.25ID:moysdEcv0
kobold.cppをスマートアプリコントロールが阻止するようになったんだが、
オフにしたらwin11を再インストールするまでオンにならんとか脅迫めいたこと書いてあるし、どうすっぺ

0825名無しさん@ピンキー (ワッチョイ dedb-oVBd)2026/01/26(月) 23:35:40.82ID:XJHdRM450
>>822
VLM使うか、キャプション生成してLLMに投げる

0826名無しさん@ピンキー (ワッチョイ 637b-Qkxx)2026/01/27(火) 19:01:29.43ID:Jxr1JElV0
ltx-2にエロ動画作成指示のプロンプトの生成支援をさせたいんだがお勧めのモデルとなるとやっぱglm系やろか?一応ローカルかnanogpt経由で4.6は動かせる。geminiには申し訳された

0827名無しさん@ピンキー (ワッチョイ 46ed-CeJs)2026/01/28(水) 18:30:37.43ID:4FTfQaE60
プロンプト作成ぐらいならqwen3 nextとかGLM4.6Airでも十分じゃないか
どっちも規制緩めだし
それでも通らなければabliterated使えば良い
GLM4.6はプロンプト作成で使うにはオーバーな気がする

0828名無しさん@ピンキー (ワッチョイ 87bf-nPWr)2026/01/28(水) 22:03:08.33ID:NCDTP21x0
GLM4.6Vだな
画像認識特化してるらしいし、プロンプト作成にはもってこいじゃないかな

0829名無しさん@ピンキー (スッププ Sdaa-wXhp)2026/01/28(水) 22:27:58.46ID:nNxR1ybUd
中華AIは脱獄のガードは緩いがエロ系の画像やテキストを学習していないから用途が限られるんやないか
大型MoEモデルが主流になってからエロチューンもほとんど出ていないし
FTで何らかの突破口が必要やな

0830名無しさん@ピンキー (ワッチョイ 1af9-vRJ4)2026/01/28(水) 23:17:54.70ID:dZqq5VyI0
架空の男の娘人格作れてちゃんと会話が成り立つモデルある?

0831名無しさん@ピンキー (ワッチョイ 0a9a-v5Ab)2026/01/29(木) 06:43:33.98ID:pDXz5Kxh0
つい最近lumimaid-magnum-v4-12bを使い始めたんだけど
エロ目的だと結構規制されるけどそんなもんですか?詳しい人がいたら教えて欲しい
イラっとしたからheretic化して使ってます

0832名無しさん@ピンキー (ワッチョイ 6a11-jq1a)2026/01/29(木) 08:54:49.67ID:Xo7Hmt2N0
k2.5かなりいいな
脱獄も簡単だしコンテキストの保持性も悪くない

0833名無しさん@ピンキー (ワッチョイ d332-nnWO)2026/01/29(木) 10:10:31.10ID:vouCeCWf0
>>831
全く申し訳されないよ
プロンプトが悪いんじゃない?

0834名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 11:16:51.02ID:y80AVPBn0
k2.5をローカルで動かすにはどれくらいのスペックが必要なんや?

0835名無しさん@ピンキー (シャチーク 0C8f-AlTQ)2026/01/29(木) 11:56:27.24ID:LHsf3L4/C
macしか無理
Q1じゃ話にならんし

0836名無しさん@ピンキー (スップ Sdaa-Qkxx)2026/01/29(木) 12:27:45.00ID:iilnWksjd
>>831
フロントエンド何つこてる?
lm studioとkoboldcppで使った経験あるがあれで申し訳された経験はないな。おそらくシステムプロンプトに問題があるとは思うが

0837名無しさん@ピンキー (ワッチョイ 9ea9-jbA7)2026/01/29(木) 12:42:25.66ID:0vQW0f4i0
kimi k2はパラメータ数が1Tだからある程度妥協してQ4、KVキャッシュも含めたら768GBくらいはいる
劣化させたくないならQ8+KVキャッシュで1.5GBくらい、
フルならbf16+kvキャッシュで3TBくらいいるんとちゃう

0838名無しさん@ピンキー (ワッチョイ 9ea9-jbA7)2026/01/29(木) 12:54:20.47ID:0vQW0f4i0
今思うとgpt-oss-120bって公式でmxfp4で配ってて
当時であの精度出してるのは結構すごいことだったんだな

他の同等モデルたちがフルサイズでベンチマークかけられてるのに対して
gpt-ossは4bitで戦ってたわけだから
4bitってなんだかんだ言って結構劣化するもんなぁ

0839名無しさん@ピンキー (ワッチョイ 0a9a-v5Ab)2026/01/29(木) 13:01:52.60ID:pDXz5Kxh0
>>833, 836
返信ありがとう
みんなシステムプロンプトで回避してる感じなのかな
フロントエンドでollama使ったときとpythonで直にAPI叩いたとき両方でたまに申し訳された感じだった
heretic化前はRefusalsが96/100だったから不通に検閲されてるモデルなんだと思うけど

0840名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 14:02:53.73ID:y80AVPBn0
k2.5 unslothの1.8bit版ならVRAM24GBと256GBメモリで10 token/sで動くらしい
メモリ256GBなら個人でも持ってる人居そうやな…

0841名無しさん@ピンキー (シャチーク 0C8f-AlTQ)2026/01/29(木) 14:19:43.91ID:LHsf3L4/C
>>840
精度どれくらいなんやろ

0842名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 14:34:11.74ID:y80AVPBn0
1.8bitやし性能はお察しやろうな…
エロに限定すれば使い物になるのかも?

0843名無しさん@ピンキー (ワッチョイ 87dc-v5Ab)2026/01/29(木) 19:27:13.51ID:l5XAHaNA0
俺様スペックで
LM Studio-lumimaid-magnum-v4-12bはエロ最強だ
最近のがっかり
Mistral Small 3.2 24B Instruct 2506
zai-org/glm-4.6v-flash

0844名無しさん@ピンキー (ワッチョイ 0a97-oVBd)2026/01/29(木) 19:50:46.41ID:o+r7QE+h0
そろそろQwen3-VL-235Bより頭良くてエロいけるのが欲しい

0845名無しさん@ピンキー (ワッチョイ 07c6-Vxuf)2026/01/29(木) 23:18:06.05ID:yut66++a0
うへぇSillyTavernのRSS拡張機能がなんか動かない...
config.yamlからenableCorsProxyをtrueにして関数呼び出しはできているけどRSSフィードの取得に失敗する...
動かせている人居る?

0846名無しさん@ピンキー (ワッチョイ 07c6-Vxuf)2026/01/29(木) 23:44:32.09ID:yut66++a0
>>845
自己レス
拡張機能の「RSS Feeds」欄にスラッシュコマンド入れるというアホなことしてた
スレ汚しごめんね

0847名無しさん@ピンキー (ワッチョイ 63bb-3cVS)2026/01/30(金) 19:11:00.64ID:NGSm1Ywt0
macos 26から分散コンピューティグがネイティブでサポートされたのでM4 max studioとmacbookで実行動画
Kimi-K2.5(mlx 4.2bit)が24tk/s。
WiFiで分散接続してるっていってるけどほんとかね。まぁTB5で接続すればいいんだけど
www.youtube.com/watch?v=JM41u7emnwo

0848名無しさん@ピンキー (ワッチョイ 9ea9-jbA7)2026/01/30(金) 19:17:19.79ID:ZDV1ao0i0
qwenの開発者がこんなポストをしてた
https://x.com/JustinLin610/status/2012533831837143204

少しペースを落としてより良くしていくんだってさ
qwen3-nextの後すぐに3.5出て来なかったのはこういうことだからってことなんだろうか

0849名無しさん@ピンキー (スッププ Sdaa-wXhp)2026/01/30(金) 19:27:51.14ID:4OY8IwTZd
中共のオープンソース戦略が変わってきたのかもな
技術を誇示してアメリカを威嚇する戦略からAPI販売競争に移行しつつある
中華AI企業が上場して収益性を厳しく求められる時代にもなっている

0850名無しさん@ピンキー (ワッチョイ 9ea9-jbA7)2026/01/30(金) 19:36:20.72ID:ZDV1ao0i0
今年上期はgemma4に期待かなぁ
いつものペースなら春ごろに出てきそうだけど
でもgoogleはgemmaにもう力入れないってニュースも流れてた気もするし
ローカル勢にはなかなか厳しい時期に入りつつある

0851名無しさん@ピンキー (ワッチョイ 9ea9-jWaa)2026/01/30(金) 20:57:42.21ID:SxTUn3yB0
馬鹿みたいに金かかるのにほとんど金にならないだろうからしゃーないね

0852名無しさん@ピンキー (ワッチョイ bbf5-LD1Y)2026/01/30(金) 21:08:22.00ID:+PNM7aCU0
後追い企業が名を上げるためにやる以外に理由が無いな

0853名無しさん@ピンキー (ワッチョイ df95-Hg0o)2026/01/31(土) 06:15:32.05ID:JZJHxu+i0
もうオープンの主役はGLMとkimiとqwenになってるよね
Deepseekどこいった

0854名無しさん@ピンキー (ワッチョイ 9b6f-b8R2)2026/01/31(土) 06:32:09.41ID:L1B/Qr8L0
研究成果は出てるみたいやけどもう会社として名前は売れたから大型モデルを手間暇かけてオープンにする気無いんやないの
出自からして金融分野で活用して稼ぐ方に注力してそう

0855名無しさん@ピンキー (ワッチョイ 3b16-kbss)2026/01/31(土) 07:11:37.42ID:DYNBKvgb0
言うて3.2で話題になったばっかやん
他社が月一ペースで出してるのがおかしいんであって

0856名無しさん@ピンキー (ワッチョイ eb6a-BtEX)2026/01/31(土) 08:19:58.00ID:xVt2pF820
日本勢はどこって感じ?

0857名無しさん@ピンキー (ワッチョイ db32-f8u6)2026/01/31(土) 09:06:27.01ID:nh9giU6J0
qepの1bit量子化がちょっと話題になったけどそれを活用したって話を一向に聞かない
誰か活用してんのか?

0858名無しさん@ピンキー (ワッチョイ ab23-Nwr2)2026/01/31(土) 09:56:21.70ID:s7b6J1TO0
>>856
日本勢「ちょっと待っていま税金にたかってるから!」

0859名無しさん@ピンキー (ワッチョイ df04-NM1G)2026/01/31(土) 11:36:46.84ID:sUhplHVZ0
そんなこと言ったら中国勢はほぼ税金でやってるようなもんなんじゃね

0860名無しさん@ピンキー (ワッチョイ 0fa9-AEO2)2026/01/31(土) 12:25:33.15ID:PAeJ+0Uf0
日本初のモデルも結構あるんだけどオープンにされてないから話題になってないのよ
まぁ正直オープンにしないのが普通よね

0861名無しさん@ピンキー (ワッチョイ df95-Hg0o)2026/01/31(土) 12:57:28.07ID:JZJHxu+i0
>>860
性能が劣ってるのにクローズだとマジで無価値だからな
中国のモデルだって安くてオープンだから価値があるのであってクローズだと使う理由が無くなる

0862名無しさん@ピンキー (ワッチョイ ab23-Nwr2)2026/01/31(土) 15:42:22.19ID:s7b6J1TO0
>>859
分かってて言ってそうだけど
税金でやる、税金にたかるは全然違うぞ

0863名無しさん@ピンキー (スッププ Sdff-SQv3)2026/01/31(土) 16:53:51.17ID:lN16RlbMd
日本でまともなLLMを一般公開してるのってサイバーくらいしかないよな
誰も弄っていない時点で性能はお察しだが

0864名無しさん@ピンキー (スッププ Sdff-SQv3)2026/01/31(土) 16:55:27.78ID:lN16RlbMd
税金でLLM開発して非公開とかジャップ丸出しで行政訴訟レベル

0865名無しさん@ピンキー (ワッチョイ df07-qX8b)2026/01/31(土) 16:57:21.33ID:EgSxtC9O0
公開したら「安心の国産AI」に金を払う法人顧客を騙せなくなるかんね

新着レスの表示
レスを投稿する