0815名無しさん@ピンキー (オッペケ Srdf-viuJ)2026/01/23(金) 09:39:32.37ID:F9WixtPnr
エロ画像モデルは言語関係無しに世界中の人が楽しめるけど
エロLLMは言語が合ってないと一切楽しめない
今は音声付きエロ動画が始まってきているからLLMみたいに言語の壁にぶつかるようになるだろうな
画像は多少破綻しててもエロけりゃ気にならんけど文字になると少々の破綻でも気になるからな
画像も1枚物ならまだ見れるけど
連続物とか一本の漫画なんて破綻するからな
文章も同じで短いチャットはできても小説を破綻なく生成させようとしたら計算量が跳ね上がるってことよ
clawdbot、コレローカルLLMにローカルPCを好きに使わせるための物だよね
驚き屋はClaude Codeと接続してリモートでバイブコーディングが!とかキャラを付与できる!とか言い続けてて意味不明だったけど...
ローカルLLMを輝かせるものだというなら海外での盛り上がりも理解可能に思える
Discord経由なら英日翻訳Botを噛ませて英語で扱うことも楽にできるし、面白いことが出来そうだね
0821名無しさん@ピンキー (オッペケ Sra3-a+7q)2026/01/26(月) 11:54:04.34ID:W2El03lKr
翻訳くらいならllmでできそうだけど
0822名無しさん@ピンキー (ワッチョイ 23cd-x9BH)2026/01/26(月) 14:09:27.48ID:35fg7qjN0
画像を認識させてその内容に合ったセリフ等を生成するにはどうしたらいいでしょうか?
glmの画像モデルが今huggingfaceのトレンドに上がっとる
2週間ぐらい前に公開されてたみたいやが知らんかったな
画像内のテキスト描写に特に力入れてるみたいやな
普通の内容の描写はベンチマークでzimageに負けとるな
kobold.cppをスマートアプリコントロールが阻止するようになったんだが、
オフにしたらwin11を再インストールするまでオンにならんとか脅迫めいたこと書いてあるし、どうすっぺ
>>822
VLM使うか、キャプション生成してLLMに投げる ltx-2にエロ動画作成指示のプロンプトの生成支援をさせたいんだがお勧めのモデルとなるとやっぱglm系やろか?一応ローカルかnanogpt経由で4.6は動かせる。geminiには申し訳された
プロンプト作成ぐらいならqwen3 nextとかGLM4.6Airでも十分じゃないか
どっちも規制緩めだし
それでも通らなければabliterated使えば良い
GLM4.6はプロンプト作成で使うにはオーバーな気がする
0828名無しさん@ピンキー (ワッチョイ 87bf-nPWr)2026/01/28(水) 22:03:08.33ID:NCDTP21x0
GLM4.6Vだな
画像認識特化してるらしいし、プロンプト作成にはもってこいじゃないかな
中華AIは脱獄のガードは緩いがエロ系の画像やテキストを学習していないから用途が限られるんやないか
大型MoEモデルが主流になってからエロチューンもほとんど出ていないし
FTで何らかの突破口が必要やな
0830名無しさん@ピンキー (ワッチョイ 1af9-vRJ4)2026/01/28(水) 23:17:54.70ID:dZqq5VyI0
架空の男の娘人格作れてちゃんと会話が成り立つモデルある?
つい最近lumimaid-magnum-v4-12bを使い始めたんだけど
エロ目的だと結構規制されるけどそんなもんですか?詳しい人がいたら教えて欲しい
イラっとしたからheretic化して使ってます
0832名無しさん@ピンキー (ワッチョイ 6a11-jq1a)2026/01/29(木) 08:54:49.67ID:Xo7Hmt2N0
k2.5かなりいいな
脱獄も簡単だしコンテキストの保持性も悪くない
0833名無しさん@ピンキー (ワッチョイ d332-nnWO)2026/01/29(木) 10:10:31.10ID:vouCeCWf0
>>831
全く申し訳されないよ
プロンプトが悪いんじゃない? 0834名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 11:16:51.02ID:y80AVPBn0
k2.5をローカルで動かすにはどれくらいのスペックが必要なんや?
>>831
フロントエンド何つこてる?
lm studioとkoboldcppで使った経験あるがあれで申し訳された経験はないな。おそらくシステムプロンプトに問題があるとは思うが kimi k2はパラメータ数が1Tだからある程度妥協してQ4、KVキャッシュも含めたら768GBくらいはいる
劣化させたくないならQ8+KVキャッシュで1.5GBくらい、
フルならbf16+kvキャッシュで3TBくらいいるんとちゃう
今思うとgpt-oss-120bって公式でmxfp4で配ってて
当時であの精度出してるのは結構すごいことだったんだな
他の同等モデルたちがフルサイズでベンチマークかけられてるのに対して
gpt-ossは4bitで戦ってたわけだから
4bitってなんだかんだ言って結構劣化するもんなぁ
>>833, 836
返信ありがとう
みんなシステムプロンプトで回避してる感じなのかな
フロントエンドでollama使ったときとpythonで直にAPI叩いたとき両方でたまに申し訳された感じだった
heretic化前はRefusalsが96/100だったから不通に検閲されてるモデルなんだと思うけど 0840名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 14:02:53.73ID:y80AVPBn0
k2.5 unslothの1.8bit版ならVRAM24GBと256GBメモリで10 token/sで動くらしい
メモリ256GBなら個人でも持ってる人居そうやな…
0842名無しさん@ピンキー (ワッチョイ af6b-qxTp)2026/01/29(木) 14:34:11.74ID:y80AVPBn0
1.8bitやし性能はお察しやろうな…
エロに限定すれば使い物になるのかも?
0843名無しさん@ピンキー (ワッチョイ 87dc-v5Ab)2026/01/29(木) 19:27:13.51ID:l5XAHaNA0
俺様スペックで
LM Studio-lumimaid-magnum-v4-12bはエロ最強だ
最近のがっかり
Mistral Small 3.2 24B Instruct 2506
zai-org/glm-4.6v-flash
そろそろQwen3-VL-235Bより頭良くてエロいけるのが欲しい
うへぇSillyTavernのRSS拡張機能がなんか動かない...
config.yamlからenableCorsProxyをtrueにして関数呼び出しはできているけどRSSフィードの取得に失敗する...
動かせている人居る?
>>845
自己レス
拡張機能の「RSS Feeds」欄にスラッシュコマンド入れるというアホなことしてた
スレ汚しごめんね macos 26から分散コンピューティグがネイティブでサポートされたのでM4 max studioとmacbookで実行動画
Kimi-K2.5(mlx 4.2bit)が24tk/s。
WiFiで分散接続してるっていってるけどほんとかね。まぁTB5で接続すればいいんだけど
www.youtube.com/watch?v=JM41u7emnwo
中共のオープンソース戦略が変わってきたのかもな
技術を誇示してアメリカを威嚇する戦略からAPI販売競争に移行しつつある
中華AI企業が上場して収益性を厳しく求められる時代にもなっている
今年上期はgemma4に期待かなぁ
いつものペースなら春ごろに出てきそうだけど
でもgoogleはgemmaにもう力入れないってニュースも流れてた気もするし
ローカル勢にはなかなか厳しい時期に入りつつある
馬鹿みたいに金かかるのにほとんど金にならないだろうからしゃーないね
0852名無しさん@ピンキー (ワッチョイ bbf5-LD1Y)2026/01/30(金) 21:08:22.00ID:+PNM7aCU0
後追い企業が名を上げるためにやる以外に理由が無いな
0853名無しさん@ピンキー (ワッチョイ df95-Hg0o)2026/01/31(土) 06:15:32.05ID:JZJHxu+i0
もうオープンの主役はGLMとkimiとqwenになってるよね
Deepseekどこいった
0854名無しさん@ピンキー (ワッチョイ 9b6f-b8R2)2026/01/31(土) 06:32:09.41ID:L1B/Qr8L0
研究成果は出てるみたいやけどもう会社として名前は売れたから大型モデルを手間暇かけてオープンにする気無いんやないの
出自からして金融分野で活用して稼ぐ方に注力してそう
言うて3.2で話題になったばっかやん
他社が月一ペースで出してるのがおかしいんであって
0856名無しさん@ピンキー (ワッチョイ eb6a-BtEX)2026/01/31(土) 08:19:58.00ID:xVt2pF820
日本勢はどこって感じ?
0857名無しさん@ピンキー (ワッチョイ db32-f8u6)2026/01/31(土) 09:06:27.01ID:nh9giU6J0
qepの1bit量子化がちょっと話題になったけどそれを活用したって話を一向に聞かない
誰か活用してんのか?
0858名無しさん@ピンキー (ワッチョイ ab23-Nwr2)2026/01/31(土) 09:56:21.70ID:s7b6J1TO0
>>856
日本勢「ちょっと待っていま税金にたかってるから!」 そんなこと言ったら中国勢はほぼ税金でやってるようなもんなんじゃね
日本初のモデルも結構あるんだけどオープンにされてないから話題になってないのよ
まぁ正直オープンにしないのが普通よね
0861名無しさん@ピンキー (ワッチョイ df95-Hg0o)2026/01/31(土) 12:57:28.07ID:JZJHxu+i0
>>860
性能が劣ってるのにクローズだとマジで無価値だからな
中国のモデルだって安くてオープンだから価値があるのであってクローズだと使う理由が無くなる 0862名無しさん@ピンキー (ワッチョイ ab23-Nwr2)2026/01/31(土) 15:42:22.19ID:s7b6J1TO0
>>859
分かってて言ってそうだけど
税金でやる、税金にたかるは全然違うぞ 日本でまともなLLMを一般公開してるのってサイバーくらいしかないよな
誰も弄っていない時点で性能はお察しだが
税金でLLM開発して非公開とかジャップ丸出しで行政訴訟レベル
公開したら「安心の国産AI」に金を払う法人顧客を騙せなくなるかんね