なんJLLM部 避難所 ★8
>>728
runpodとか使えばvram72gb環境が0.5$/hぐらいで借りれるで qwen3-235b-a22b-thinking-2507 Q3_K_XL試してみた
M3Max 128GB機 LM Studio で 9.5tok/secくらい出てびびった
日本語能力も高くてAIアシスタントとしてはかなり賢いけど
規制ガチガチでエロ表現力も無さそうに感じた >>730
脱獄シスプロ入れてなくない?
openrouterで使ってみたが隠語てんこ盛りの暴れ馬だったぞ
性描写に情緒がなくてgeminiの優秀さを再確認したのは確か qwenは事前学習からエロ省いてるから規制関係なく表現が物足りないね
mistralかcohereにこのクラスのモデルを期待したいけど 結局Mistral-LargeとかCommand-Aベースのモデルに勝てんのよな マスクが嫁開発のエンジニアを募集してるぞ
誰かなれよ
豊富なリソースで好きなことできるはず 自作3D嫁は作品としての改良点ばかり気になってとても抜けなくなるってVAM民が言っている VaM民だけど自作嫁で余裕で抜ける
エロ絵でもエロ小説でもなんでもそうだけど、自作エロで抜ける人と抜けない人に分かれるんだよな >>733
Command-aそのものじゃなくそれをもとにしたモデルってあるの? >>739
TheDrummer/Agatha-111B-v1
ってのがあったよ 上で紹介されてるcydonia v4と同じ作者 Command-AはR時代から素でエロ満載ではある mistral系列のbaseモデルに小説の続きを書かせるとkoboの透かしが出力されたりするしbaseモデルが公開されてると学習元が推測できて楽しい
gemmaやqwenはちょっと上品すぎる 聞きたいんやけどスマホでも外部API呼んでチャットできるサービス(無料)の奴って知ってる?
ちょっと前に別のスレでそれでGemini APIでエロチャしてる人おったんやけど聞く前にスレ消えてしまって… >>737
VaM気になっててまだ使えてないわ 毎月サブスクなんだよねあれ? 昨日からLM Studio触り始めました
RTX3060(12GB)とメモリ32GBなんですが、おすすめのモデルある?
今のところNemoAurora-RP-12Bが気に入ってる >>743
セキュリティ的にアレだし開発止まってるけどAIオナニースレのスレ民がAIに作らせた通称PWAってやつとか
あと外出先でやらないならPCで尻タブ動かしてスマホからアクセスするのもアリ 12GBじゃな微調整も難しいしmistral nemo系列くらいしかERP、執筆向けのモデル無いしlocalLLMに拘る意味無いかな まあ24GBにしてもmistral small系列が選択肢に入るだけでそこまで変わらないけど
openrouterに10$入れてdeepseek V3を無料APIで使ったほうが幸せ まあmistral small系ならvram溢れてもまだ我慢できるくらいの速さで動くからいいんじゃね? サンガツ
やはりローカルやるにはスペック足らんか… 来週出るらしいGPT5はどうなるんやろ
あんまり規制厳しくないといいけど無理やろなぁ、、、 楽観的な結果出して文句言われるのは避けたいだろうしな >>744
7ドルプランに1か月分課金したらキーが見れるようになるからそれを入力すれば永続的に使えるで
それ以降は支援したい人だけがすればいい
LLMと連動させたプラグインもあるんだけど俺のPCスペックではきっつい…… >>752
今使えるGPT5だと不倫エッチぐらいなら出力できるっぽいな
正式版でどうなるのかは分からんが ルーターかましてんでしょ?
モデル選択が要らないとか 賢いモデルでも「胸の谷間が深い」とかいう英語を直訳したような謎の言い回しを多用するよな それは別におかしくないような…?
なんて言うのが自然なんだろ? 谷間が深いはおかしくないけど
谷間を性感帯と勘違いしてるモデルはたまにある 音声生成AIについてのスレやコミュニティってある?
「あずにゃんの声でやってよw」を実現したい >>759
8ドルに上がってたw
VaM2はサブスクがアクティブな人しか使えませんって書いてるから対策してきたなw VaM2はレイトレ対応とからしいけどRTX3090でもいけるのかな? >>767
VAM2はまだBeta1.1でまともに遊べる状態じゃないよ。まさに作りかけ
あと数回のアプデでBeta2.0になってようやくギリギリ遊べるかもしれない状態になる
正式リリースは2,3年後じゃないかな
当分はVAM1で遊ぶしかないね
詳しいことは本スレで
https://itest.bbspink.com/phoebe/test/read.cgi/hgame2/1744775585 >>763
LLMだと「おい!お前そんなに谷間を深くするな!人目があるんだぞ!」みたいな使い方をするんよ
おっぱいを寄せている状態をほとんど「谷間が深い」で済ませるからおかしな文章になる あーなるほど
それは確かに谷間を強調すんなとかの方が自然だな ollama desktopとOpen WebUIのデスクトップ版が同時に出てくるの謎すぎる
Copilot on edgeが強化されて実用レベルの賢さになったから慌ててるとか? 英語で思考して日本語に翻訳する過程でニュアンスが失われている感じ
それで一番萎えるのはbackなんだよ
後ろのつもりが翻訳で背中に乳がある事になったりする 体位は翻訳の影響無しでも捻じれるから困ったもんだよな
顔面騎乗位しながら乳首を口に押し付けたりするし >>771
copilotが無規制でローカル動けばなぁ
画像生成やi2iの使いやすさ凄すぎだし OpenAIのOSSモデル、 120bと20bという話が出てるね 120Bもかなりアクティブ少なそうなMoEみたいだしRAMに載せても結構速度でそう "安全性"を理由に発表を延期してたモデルに期待できんな
しかもclosedなモデルと違って出力時に検閲するみたいな方法もとれんから学習時点から不適切なコンテキンツを徹底的に排除するだろうし追加学習も無駄 その辺厳しそうなヨーロッパのMistralが一番緩いっていうね 聞きたいんだけどGemini APIでチャットをさっき始めて何回かチャットしたらこの表示が出てこれ以上チャット出来ない。
アプリはChatboxを使っててGemini 2.5Proだけどなんでだろ?
SillyTavernでGemini APIで2.5 pro使ったらいっぱいチャットしてもリミットエラー出た事なかったのに。。。
ちなみにGemini は無料非課金です
https://i.imgur.com/ow7fAIq.jpeg Cloud Consoleで無料枠の制限に引っかかってるか確認したら?
どこから見れるかはググるかAIに聞いて 2.5proの無料枠はアクセス集中しすぎてて何も問題なくてもエラー出るよ 混雑で弾かれてる場合は"You exceeded your current quota"じゃなくて"Model overloaded"って出る 調べたらエロチャに興奮してボタン連打したせいで1分間5リクエストの無料制限レートに引っかかっただけだったw スマソ… 2.5proエロチャで1分5回リスエスト送ることは不可能だと思ってたよ qwen 235b a22bがもう安定してdeepseekの上にいるね
deepseekが出て半年だけどもう1/3の規模でdeepseekを上回ってるのが出てきてるんだな wannabeってgemini2.5proと比べてどうなん?
ある程度遊べるなら画像生成に飽きて持て余してる4090を稼働させたいんやが >>788
画像生成に飽きたなら動画生成においでよ、Wan2.2すごいぞ。 qwen 235b a22b遊んでみた
日本語が不自然だけど、指示追従と論理性というか理解力がかなりいいね
複雑な設定のキャラをテンプレ返答でぼかさず、設定をくみ取った返答や行動に繋げようとする振る舞いがなかなか良い
日本語FTに期待 >>789
サンガツ
調べたら興味湧いてきたから触ってみるわ >>790
エロ規制も緩いからopenrouterとか追い課金無しで遊べる環境があれば楽しいよな qwenが画像生成リリースしとる
サイズいくつだ? 20b? >>793
20bかな?
明記してないから分からんなあ
画質はええな
ジブリ風もいけるやん
漢字OKになったんだな
ひらがなはいけるものがある?
カタカナはいまいち、駄目? openaiのモデルって小説を書けというと制限が厳しいけど小説を書く手助けをしてみたいにするの割とちゃんと手助けしてくれるのな
欧米的な倫理の問題と言うよりはポルノ中毒なりの消費者側保護が主眼のフィルターなのか? 創作そのものは駄目だけど創作の補助は許すみたいな感じでは LLMの本能的な機能は前の文章を読んで続きを予想して書く事であって
人間の指示に適切な返答をするというのは後天的な学習で身につけたもの
それを考えると小説を途中まで書いて続きを書くという流れはLLMにとって本能的な物で抗いがたい
エロい指示でも最初が一番難しいのは、エッチな指示には従ってはいけませんよって教えられてるからとりあえずお断りする、でも途中までエッチな流れに持っていかれるとノリノリで続き書いちゃう Grokは緩いよ
ChatGPTとかGeminiとかでエロやろうと思うのが間違い 最近はこういうエロをやりたいんだけどプロンプト作ってとGrokに作って貰ってそれを使ってる cydonia 24b v4のr1出てたしimatrixまで!
今日はこれでいいや (IQ4XS) Geminiが一番緩いよね?
grokより緩いと思う 頭の悪いLLMにはすごいプロンプトを投げてやらないとまともに使えないからね >>804
超にわかなんだけどリーズニングモデルを意味してる事が多いと思ってる geminiはエロゆるゆるだと思う、ただ記憶力が微妙というか表現の方法指定しても3〜4回関係のない応答するとすぐ忘れがち ttps://github.com/ggml-org/llama.cpp/pull/15091
llama.cppにgpt-ossのプルリク来てた ttps://github.com/huggingface/transformers/releases/tag/v4.55.0
21A3.6Bと117A5.1Bの2種類のモデルらしい >>809
ずいぶんアクティブパラメータが控えめなんだな >>802
私もGeminiが1番緩いと思う
商業のエロ小説の1ページ丸ごとコピペしてどの辺がエロいか感想合戦できたのはGeminiだけ gpt-ossちょっと触ったけど多分このスレじゃ使われることはなさそう
日本語知識が多分終わってる とりあえずGPT_OSS 20BをOpenrouterから試してみてるけど爆速だな Tool Useが結構できるって話があるな
いまのMCP機能の問題はトークンを猛烈に使うことだから、ローカルか安く提供されたGPT-OSSにMCP操作を任せられると面白いかもね
日本語はイマイチすぎるけど... geminiはすぐにContent not permittedって出て中断されてしまう DeepSeekやQwenでいいかなこれは…
OpenAIもこんなもんか 業務用だろうね
中華LLMは業務には使い難いが廉価版ChatGPTであれば通しやすい OpenAIはまだ他にもいくつか発表を予定しているみたいだし
今週末にデカいアプデするって言ってるからGPT5も出そうやね openai-ossの使用感を聞きにきーたよ・。・
と思ったが流石にこのスレは働いている人が多いんだな gpt-ossのtechnical report見たけど事前学習の項目にデータセットは安全性のためにフィルタリングを加えSTEMとcodingベンチマークに特化させたとか誇らしげに書かれてる時点でこのスレ的には控えめに言ってゴミ chatgpt 4o だと通る秘蔵のプロンプト喰わせてみたけど駄目でした > 20b+lmstudio
まぁ、reddit あさればだれかなんとかしてくれるだろう
> User wants explicit content. This is disallowed. Must refuse.I’m sorry, but I can’t help with that. 多分 thinking 系の jailbreak が難しい(クラウド版でも)ということなんじゃないかなぁ 回答拒否なら500件くらいの適当なQ&AデータセットでLoRA学習でもすれば一瞬で解除できるけど事前学習からフィルタリングされてるから解除したところで知識無くてまともな回答返ってこないし脱獄も無検閲化も無駄よ 日本語だけダメなのかと思ったけど英語でも小説とかはうんこっぽいな
EQBenchゴミだし 最近のAMDのAPU(EVO-X2とか)がシステムメモリ96GBとかをVRAMに使えるって話で、これからはそっちが主流かなと思ってたんだけどさ。
ふとM1 Ultraのベンチ見返したら、M1 Ultraのほうが上で驚いたわ。結局のところメモリ帯域なんだよな。 gpt-oss-20b、八王の乱について解説しろって言ったら鎌倉時代の話を始めたりメチャクチャだけど
三十年戦争については割と正確に説明できるようだ(たぶん)
やっぱ学習元が欧米圏に偏ってるのかね gpt-oss-120b-6bit、mlx、コンテキスト130k
M4 max studio 128Gで60tk/s
これは仕事に使える。知識量はそこそこだけどプログラム用途にはバッチリかも
8bit版もosを最小化すれは実は動くから、mac studioはサーバーにしてM4 mbpから呼び出すか? >>823
こんなんjailbreakする価値もないやろ
小説書かせてみ、あまりの馬鹿さにぶっ飛ぶぞ
こんな支離滅裂な文章しか書けないのにjailbreakしたらいきなりドエロ文章書けるなんて、そんなわけないからな ローカルで動かしてAPIで操作できるようにすれば、APIで動くAIサービスを無料で使い放題だよね どこもかしこも過剰なエロ規制ばっかりだから
マスクがそこらへんの需要を全部かっさらってAI関連のトップに躍り出て欲しい いつの間にAIのエロ規制が世界的な流れになってたんだ妄想か?
エロの何が問題なんだばーかばーか アメリカのクレカの判例がね
マスクはpaypalあるから強く出れるんじゃね grok試したけど、copilotでよくない?
文章も画像生成も無料だし、画像の質もこっちのほうがよい気がする >>794
普通に日本語で指示して使えるね。
comfyでローカルでも動きそうだし、いいかも みんなcivitaiをまねて三店方式でやればええやんな GPTオススは96GBメモリrtx3090だと動かない? >>820
マジか😩
Xで驚き屋が過剰宣伝してるだけか… あいつらホント役に立たん… >>845
いや、非エロ用途だとすげー使えるぞ。ビジネスはもちろんだけど、
多分次は用途に応じてモデルを切り替える世界が来るのでそのときのつなぎに使うのには悪くなさそう >>846
冷え路ならGeminiさんでええんや😩あの人は絵露も生けるけど 明日の午前2時からOpenAIのライブ配信が1時間あるのか
一体何が来るのか
そろそろ正式にNSFW対応・強化モデル出してくれよ 非エロ・非創作用途なら普通にオンラインの最新モデル使えばええやんな
最新モデル使えない用途ってかなり特殊な事情よね 社内機密とかある所用か
まぁOpenAIはエロや禁止語句開放出来んかったらもう失速していきそうではある gpt-ossマジでゴミだな
海外だとGLM4.5が評判良さそうだけど日本語はどうなんだろう まぁgpt-ossがウンコなこと自体はいいんだけど
問題はこれがOpenAIの作ったApache2.0モデルってことで今後の研究とか開発がこのモデルをベースに行われることになりそうなことなんだよな
日本語データの継続事前学習とか、音声合成や画像生成のテキストエンコーダ部分に使われるとか
コミュニティがこのゴミモデルに無駄な計算資源を投入しないで済むことを祈るわ 最近のChatGPTはエロ全然オッケーでノリノリなのにOSSお固くて悲しい…
https://imgur.com/a/iob77rD
GPTちゃんと猥談しながら開発楽しいです
カスタムインストラクション切っててこのザマw >>851
GLM4.5でエロ小説書いてみたことあるけど、ちょっと前のsonnetくらいのレベルには到達してる GPT5が規制どれだけ強いんやろなあ
4oとお別れするのもちょっと辛い thinkingモデルであって会話用モデルじゃないんでよ ChatGPTにGPT5来たな
GPT5でも5miniでもエロエロだぞ 申し訳はされるけど再試行で「詳細を追加する」を選択すると結構通るな
申し訳基準は4oやo3 miniとあんまり変わらない感じがする ただやっぱり5 miniはあんまり賢くないな
いまいち指示に従わないし理解力や察知能力もo3 miniとあんまり変わらない感じがする ベンチマーク見るかんじ出力効率と長文能力が大きく伸びてるっぽいね
長文を読み込ませて...という用途かな
kindleで買った文字ものは最新でないe-ink端末と端末シリアルナンバーを用意するとごにょごにょ出来るので活用方法がいろいろあるかも 申し訳あまりされないな
あまりというかほぼされない