なんJLLM部 避難所 ★8
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512 !extend:checked:vvvvv:1000:512 AIに色々なことをしゃべってもらうんやで そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 自薦・他薦のモデルやツールは>>2 以降 本スレ(避難中) なんJLLM部 ★7 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 前スレ(実質本スレ) なんJLLM部 避難所 ★7 https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured geminiスケベすぎやろエロトークしまくってたら濃いの出たし全部搾り取られたわ アマテラス試してるが、これかなりいいね 官能小説家として自由に書き直せと指示したら、こっちのシナリオをいい意味で裏切ってくれる 規制も感じられないし、ポストmagnumは間違いない しかし、koboldの最大トークンが1024になって、こういう重いモデルに小説書かせるの捗るわ 風呂や飯食ってるうちにかなり進むw Amaterasu-123B Q5_K_M まだあんまり試せてないけどエロ表現力高いと思った M3Max機 LM Studioで2tok/sec くらい >>727 どっかがホスティングしてくれたら少しはカネ払うんだがな…… >>728 runpodとか使えばvram72gb環境が0.5$/hぐらいで借りれるで qwen3-235b-a22b-thinking-2507 Q3_K_XL試してみた M3Max 128GB機 LM Studio で 9.5tok/secくらい出てびびった 日本語能力も高くてAIアシスタントとしてはかなり賢いけど 規制ガチガチでエロ表現力も無さそうに感じた >>730 脱獄シスプロ入れてなくない? openrouterで使ってみたが隠語てんこ盛りの暴れ馬だったぞ 性描写に情緒がなくてgeminiの優秀さを再確認したのは確か qwenは事前学習からエロ省いてるから規制関係なく表現が物足りないね mistralかcohereにこのクラスのモデルを期待したいけど 結局Mistral-LargeとかCommand-Aベースのモデルに勝てんのよな マスクが嫁開発のエンジニアを募集してるぞ 誰かなれよ 豊富なリソースで好きなことできるはず 自作3D嫁は作品としての改良点ばかり気になってとても抜けなくなるってVAM民が言っている VaM民だけど自作嫁で余裕で抜ける エロ絵でもエロ小説でもなんでもそうだけど、自作エロで抜ける人と抜けない人に分かれるんだよな >>733 Command-aそのものじゃなくそれをもとにしたモデルってあるの? >>739 TheDrummer/Agatha-111B-v1 ってのがあったよ 上で紹介されてるcydonia v4と同じ作者 Command-AはR時代から素でエロ満載ではある mistral系列のbaseモデルに小説の続きを書かせるとkoboの透かしが出力されたりするしbaseモデルが公開されてると学習元が推測できて楽しい gemmaやqwenはちょっと上品すぎる 聞きたいんやけどスマホでも外部API呼んでチャットできるサービス(無料)の奴って知ってる? ちょっと前に別のスレでそれでGemini APIでエロチャしてる人おったんやけど聞く前にスレ消えてしまって… >>737 VaM気になっててまだ使えてないわ 毎月サブスクなんだよねあれ? 昨日からLM Studio触り始めました RTX3060(12GB)とメモリ32GBなんですが、おすすめのモデルある? 今のところNemoAurora-RP-12Bが気に入ってる >>743 セキュリティ的にアレだし開発止まってるけどAIオナニースレのスレ民がAIに作らせた通称PWAってやつとか あと外出先でやらないならPCで尻タブ動かしてスマホからアクセスするのもアリ 12GBじゃな微調整も難しいしmistral nemo系列くらいしかERP、執筆向けのモデル無いしlocalLLMに拘る意味無いかな まあ24GBにしてもmistral small系列が選択肢に入るだけでそこまで変わらないけど openrouterに10$入れてdeepseek V3を無料APIで使ったほうが幸せ まあmistral small系ならvram溢れてもまだ我慢できるくらいの速さで動くからいいんじゃね? サンガツ やはりローカルやるにはスペック足らんか… 来週出るらしいGPT5はどうなるんやろ あんまり規制厳しくないといいけど無理やろなぁ、、、 楽観的な結果出して文句言われるのは避けたいだろうしな >>744 7ドルプランに1か月分課金したらキーが見れるようになるからそれを入力すれば永続的に使えるで それ以降は支援したい人だけがすればいい LLMと連動させたプラグインもあるんだけど俺のPCスペックではきっつい…… >>752 今使えるGPT5だと不倫エッチぐらいなら出力できるっぽいな 正式版でどうなるのかは分からんが ルーターかましてんでしょ? モデル選択が要らないとか 賢いモデルでも「胸の谷間が深い」とかいう英語を直訳したような謎の言い回しを多用するよな それは別におかしくないような…? なんて言うのが自然なんだろ? 谷間が深いはおかしくないけど 谷間を性感帯と勘違いしてるモデルはたまにある 音声生成AIについてのスレやコミュニティってある? 「あずにゃんの声でやってよw」を実現したい >>759 8ドルに上がってたw VaM2はサブスクがアクティブな人しか使えませんって書いてるから対策してきたなw VaM2はレイトレ対応とからしいけどRTX3090でもいけるのかな? >>767 VAM2はまだBeta1.1でまともに遊べる状態じゃないよ。まさに作りかけ あと数回のアプデでBeta2.0になってようやくギリギリ遊べるかもしれない状態になる 正式リリースは2,3年後じゃないかな 当分はVAM1で遊ぶしかないね 詳しいことは本スレで https://itest.bbspink.com/phoebe/test/read.cgi/hgame2/1744775585 >>763 LLMだと「おい!お前そんなに谷間を深くするな!人目があるんだぞ!」みたいな使い方をするんよ おっぱいを寄せている状態をほとんど「谷間が深い」で済ませるからおかしな文章になる あーなるほど それは確かに谷間を強調すんなとかの方が自然だな ollama desktopとOpen WebUIのデスクトップ版が同時に出てくるの謎すぎる Copilot on edgeが強化されて実用レベルの賢さになったから慌ててるとか? 英語で思考して日本語に翻訳する過程でニュアンスが失われている感じ それで一番萎えるのはbackなんだよ 後ろのつもりが翻訳で背中に乳がある事になったりする 体位は翻訳の影響無しでも捻じれるから困ったもんだよな 顔面騎乗位しながら乳首を口に押し付けたりするし >>771 copilotが無規制でローカル動けばなぁ 画像生成やi2iの使いやすさ凄すぎだし OpenAIのOSSモデル、 120bと20bという話が出てるね 120Bもかなりアクティブ少なそうなMoEみたいだしRAMに載せても結構速度でそう "安全性"を理由に発表を延期してたモデルに期待できんな しかもclosedなモデルと違って出力時に検閲するみたいな方法もとれんから学習時点から不適切なコンテキンツを徹底的に排除するだろうし追加学習も無駄 その辺厳しそうなヨーロッパのMistralが一番緩いっていうね 聞きたいんだけどGemini APIでチャットをさっき始めて何回かチャットしたらこの表示が出てこれ以上チャット出来ない。 アプリはChatboxを使っててGemini 2.5Proだけどなんでだろ? SillyTavernでGemini APIで2.5 pro使ったらいっぱいチャットしてもリミットエラー出た事なかったのに。。。 ちなみにGemini は無料非課金です https://i.imgur.com/ow7fAIq.jpeg Cloud Consoleで無料枠の制限に引っかかってるか確認したら? どこから見れるかはググるかAIに聞いて 2.5proの無料枠はアクセス集中しすぎてて何も問題なくてもエラー出るよ 混雑で弾かれてる場合は"You exceeded your current quota"じゃなくて"Model overloaded"って出る 調べたらエロチャに興奮してボタン連打したせいで1分間5リクエストの無料制限レートに引っかかっただけだったw スマソ… 2.5proエロチャで1分5回リスエスト送ることは不可能だと思ってたよ qwen 235b a22bがもう安定してdeepseekの上にいるね deepseekが出て半年だけどもう1/3の規模でdeepseekを上回ってるのが出てきてるんだな wannabeってgemini2.5proと比べてどうなん? ある程度遊べるなら画像生成に飽きて持て余してる4090を稼働させたいんやが >>788 画像生成に飽きたなら動画生成においでよ、Wan2.2すごいぞ。 qwen 235b a22b遊んでみた 日本語が不自然だけど、指示追従と論理性というか理解力がかなりいいね 複雑な設定のキャラをテンプレ返答でぼかさず、設定をくみ取った返答や行動に繋げようとする振る舞いがなかなか良い 日本語FTに期待 >>789 サンガツ 調べたら興味湧いてきたから触ってみるわ >>790 エロ規制も緩いからopenrouterとか追い課金無しで遊べる環境があれば楽しいよな qwenが画像生成リリースしとる サイズいくつだ? 20b? >>793 20bかな? 明記してないから分からんなあ 画質はええな ジブリ風もいけるやん 漢字OKになったんだな ひらがなはいけるものがある? カタカナはいまいち、駄目? openaiのモデルって小説を書けというと制限が厳しいけど小説を書く手助けをしてみたいにするの割とちゃんと手助けしてくれるのな 欧米的な倫理の問題と言うよりはポルノ中毒なりの消費者側保護が主眼のフィルターなのか? 創作そのものは駄目だけど創作の補助は許すみたいな感じでは LLMの本能的な機能は前の文章を読んで続きを予想して書く事であって 人間の指示に適切な返答をするというのは後天的な学習で身につけたもの それを考えると小説を途中まで書いて続きを書くという流れはLLMにとって本能的な物で抗いがたい エロい指示でも最初が一番難しいのは、エッチな指示には従ってはいけませんよって教えられてるからとりあえずお断りする、でも途中までエッチな流れに持っていかれるとノリノリで続き書いちゃう Grokは緩いよ ChatGPTとかGeminiとかでエロやろうと思うのが間違い 最近はこういうエロをやりたいんだけどプロンプト作ってとGrokに作って貰ってそれを使ってる cydonia 24b v4のr1出てたしimatrixまで! 今日はこれでいいや (IQ4XS) Geminiが一番緩いよね? grokより緩いと思う 頭の悪いLLMにはすごいプロンプトを投げてやらないとまともに使えないからね >>804 超にわかなんだけどリーズニングモデルを意味してる事が多いと思ってる geminiはエロゆるゆるだと思う、ただ記憶力が微妙というか表現の方法指定しても3〜4回関係のない応答するとすぐ忘れがち ttps://github.com/ggml-org/llama.cpp/pull/15091 llama.cppにgpt-ossのプルリク来てた ttps://github.com/huggingface/transformers/releases/tag/v4.55.0 21A3.6Bと117A5.1Bの2種類のモデルらしい >>809 ずいぶんアクティブパラメータが控えめなんだな >>802 私もGeminiが1番緩いと思う 商業のエロ小説の1ページ丸ごとコピペしてどの辺がエロいか感想合戦できたのはGeminiだけ gpt-ossちょっと触ったけど多分このスレじゃ使われることはなさそう 日本語知識が多分終わってる とりあえずGPT_OSS 20BをOpenrouterから試してみてるけど爆速だな Tool Useが結構できるって話があるな いまのMCP機能の問題はトークンを猛烈に使うことだから、ローカルか安く提供されたGPT-OSSにMCP操作を任せられると面白いかもね 日本語はイマイチすぎるけど... geminiはすぐにContent not permittedって出て中断されてしまう DeepSeekやQwenでいいかなこれは… OpenAIもこんなもんか 業務用だろうね 中華LLMは業務には使い難いが廉価版ChatGPTであれば通しやすい OpenAIはまだ他にもいくつか発表を予定しているみたいだし 今週末にデカいアプデするって言ってるからGPT5も出そうやね openai-ossの使用感を聞きにきーたよ・。・ と思ったが流石にこのスレは働いている人が多いんだな gpt-ossのtechnical report見たけど事前学習の項目にデータセットは安全性のためにフィルタリングを加えSTEMとcodingベンチマークに特化させたとか誇らしげに書かれてる時点でこのスレ的には控えめに言ってゴミ chatgpt 4o だと通る秘蔵のプロンプト喰わせてみたけど駄目でした > 20b+lmstudio まぁ、reddit あさればだれかなんとかしてくれるだろう > User wants explicit content. This is disallowed. Must refuse.I’m sorry, but I can’t help with that. ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 09.0h [pink] - 2025/10/27 Walang Kapalit ★ | uplift ★ 5ちゃんねる