なんJLLM部 避難所 ★8 	
■ このスレッドは過去ログ倉庫に格納されています
 !extend:checked:vvvvv:1000:512 
 !extend:checked:vvvvv:1000:512 
  
 AIに色々なことをしゃべってもらうんやで 
 そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 
 自薦・他薦のモデルやツールは>>2以降 
  
 本スレ(避難中) 
 なんJLLM部 ★7 
 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 
 前スレ(実質本スレ) 
 なんJLLM部 避難所 ★7   
 https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/ 
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured  >>720 
 昨日の夜ちょっと触った感じでは特になさそう?RPだと堕胎とか小学生の描写、首絞めセックスで殺すとかはできた  >>721 
 おおすげーな 
 もしやmagnum123b超えるか?  >>715 
 LM STUDIO+Amaterasu‑123B(IQ3_XXS・モデルサイズ47.01 GB)で実験中。 
 VRAMは余裕で溢れ(RTX4090なので当然)メモリ40GBくらい消費し、先ほどのテストでは0.49 tok/sec・712 tokens・10.77s to first token 
 生成文の品質は高いと思うが、実験に時間がかかる。  geminiスケベすぎやろエロトークしまくってたら濃いの出たし全部搾り取られたわ  アマテラス試してるが、これかなりいいね 
 官能小説家として自由に書き直せと指示したら、こっちのシナリオをいい意味で裏切ってくれる 
 規制も感じられないし、ポストmagnumは間違いない 
 しかし、koboldの最大トークンが1024になって、こういう重いモデルに小説書かせるの捗るわ 
 風呂や飯食ってるうちにかなり進むw  Amaterasu-123B Q5_K_M 
 まだあんまり試せてないけどエロ表現力高いと思った 
 M3Max機 LM Studioで2tok/sec くらい  >>727 
 どっかがホスティングしてくれたら少しはカネ払うんだがな……  >>728 
 runpodとか使えばvram72gb環境が0.5$/hぐらいで借りれるで  qwen3-235b-a22b-thinking-2507 Q3_K_XL試してみた 
 M3Max 128GB機 LM Studio で 9.5tok/secくらい出てびびった 
 日本語能力も高くてAIアシスタントとしてはかなり賢いけど 
 規制ガチガチでエロ表現力も無さそうに感じた  >>730 
 脱獄シスプロ入れてなくない? 
 openrouterで使ってみたが隠語てんこ盛りの暴れ馬だったぞ 
 性描写に情緒がなくてgeminiの優秀さを再確認したのは確か  qwenは事前学習からエロ省いてるから規制関係なく表現が物足りないね 
 mistralかcohereにこのクラスのモデルを期待したいけど  結局Mistral-LargeとかCommand-Aベースのモデルに勝てんのよな  マスクが嫁開発のエンジニアを募集してるぞ 
 誰かなれよ 
 豊富なリソースで好きなことできるはず  自作3D嫁は作品としての改良点ばかり気になってとても抜けなくなるってVAM民が言っている  VaM民だけど自作嫁で余裕で抜ける 
 エロ絵でもエロ小説でもなんでもそうだけど、自作エロで抜ける人と抜けない人に分かれるんだよな  >>733 
 Command-aそのものじゃなくそれをもとにしたモデルってあるの?  >>739 
 TheDrummer/Agatha-111B-v1 
 ってのがあったよ 上で紹介されてるcydonia v4と同じ作者  Command-AはR時代から素でエロ満載ではある  mistral系列のbaseモデルに小説の続きを書かせるとkoboの透かしが出力されたりするしbaseモデルが公開されてると学習元が推測できて楽しい 
 gemmaやqwenはちょっと上品すぎる  聞きたいんやけどスマホでも外部API呼んでチャットできるサービス(無料)の奴って知ってる? 
 ちょっと前に別のスレでそれでGemini APIでエロチャしてる人おったんやけど聞く前にスレ消えてしまって…  >>737 
 VaM気になっててまだ使えてないわ 毎月サブスクなんだよねあれ?  昨日からLM Studio触り始めました 
 RTX3060(12GB)とメモリ32GBなんですが、おすすめのモデルある? 
 今のところNemoAurora-RP-12Bが気に入ってる  >>743 
 セキュリティ的にアレだし開発止まってるけどAIオナニースレのスレ民がAIに作らせた通称PWAってやつとか 
 あと外出先でやらないならPCで尻タブ動かしてスマホからアクセスするのもアリ  12GBじゃな微調整も難しいしmistral nemo系列くらいしかERP、執筆向けのモデル無いしlocalLLMに拘る意味無いかな まあ24GBにしてもmistral small系列が選択肢に入るだけでそこまで変わらないけど 
 openrouterに10$入れてdeepseek V3を無料APIで使ったほうが幸せ  まあmistral small系ならvram溢れてもまだ我慢できるくらいの速さで動くからいいんじゃね?  サンガツ 
 やはりローカルやるにはスペック足らんか…  来週出るらしいGPT5はどうなるんやろ 
 あんまり規制厳しくないといいけど無理やろなぁ、、、  楽観的な結果出して文句言われるのは避けたいだろうしな  >>744 
 7ドルプランに1か月分課金したらキーが見れるようになるからそれを入力すれば永続的に使えるで 
 それ以降は支援したい人だけがすればいい 
  
 LLMと連動させたプラグインもあるんだけど俺のPCスペックではきっつい……  >>752 
 今使えるGPT5だと不倫エッチぐらいなら出力できるっぽいな 
 正式版でどうなるのかは分からんが  ルーターかましてんでしょ? 
 モデル選択が要らないとか  賢いモデルでも「胸の谷間が深い」とかいう英語を直訳したような謎の言い回しを多用するよな  それは別におかしくないような…? 
 なんて言うのが自然なんだろ?  谷間が深いはおかしくないけど 
 谷間を性感帯と勘違いしてるモデルはたまにある  音声生成AIについてのスレやコミュニティってある? 
  
 「あずにゃんの声でやってよw」を実現したい  >>759 
 8ドルに上がってたw 
 VaM2はサブスクがアクティブな人しか使えませんって書いてるから対策してきたなw VaM2はレイトレ対応とからしいけどRTX3090でもいけるのかな?  >>767 
 VAM2はまだBeta1.1でまともに遊べる状態じゃないよ。まさに作りかけ 
 あと数回のアプデでBeta2.0になってようやくギリギリ遊べるかもしれない状態になる 
 正式リリースは2,3年後じゃないかな 
 当分はVAM1で遊ぶしかないね 
  
 詳しいことは本スレで 
 https://itest.bbspink.com/phoebe/test/read.cgi/hgame2/1744775585  >>763 
 LLMだと「おい!お前そんなに谷間を深くするな!人目があるんだぞ!」みたいな使い方をするんよ 
 おっぱいを寄せている状態をほとんど「谷間が深い」で済ませるからおかしな文章になる  あーなるほど 
 それは確かに谷間を強調すんなとかの方が自然だな  ollama desktopとOpen WebUIのデスクトップ版が同時に出てくるの謎すぎる 
  
 Copilot on edgeが強化されて実用レベルの賢さになったから慌ててるとか?  英語で思考して日本語に翻訳する過程でニュアンスが失われている感じ 
 それで一番萎えるのはbackなんだよ 
 後ろのつもりが翻訳で背中に乳がある事になったりする  体位は翻訳の影響無しでも捻じれるから困ったもんだよな 
 顔面騎乗位しながら乳首を口に押し付けたりするし  >>771 
 copilotが無規制でローカル動けばなぁ 
 画像生成やi2iの使いやすさ凄すぎだし  OpenAIのOSSモデル、 120bと20bという話が出てるね  120Bもかなりアクティブ少なそうなMoEみたいだしRAMに載せても結構速度でそう  "安全性"を理由に発表を延期してたモデルに期待できんな 
 しかもclosedなモデルと違って出力時に検閲するみたいな方法もとれんから学習時点から不適切なコンテキンツを徹底的に排除するだろうし追加学習も無駄  その辺厳しそうなヨーロッパのMistralが一番緩いっていうね  聞きたいんだけどGemini  APIでチャットをさっき始めて何回かチャットしたらこの表示が出てこれ以上チャット出来ない。 
 アプリはChatboxを使っててGemini 2.5Proだけどなんでだろ? 
 SillyTavernでGemini APIで2.5 pro使ったらいっぱいチャットしてもリミットエラー出た事なかったのに。。。 
 ちなみにGemini は無料非課金です 
 https://i.imgur.com/ow7fAIq.jpeg  Cloud Consoleで無料枠の制限に引っかかってるか確認したら? 
 どこから見れるかはググるかAIに聞いて  2.5proの無料枠はアクセス集中しすぎてて何も問題なくてもエラー出るよ  混雑で弾かれてる場合は"You exceeded your current quota"じゃなくて"Model overloaded"って出る  調べたらエロチャに興奮してボタン連打したせいで1分間5リクエストの無料制限レートに引っかかっただけだったw スマソ…  2.5proエロチャで1分5回リスエスト送ることは不可能だと思ってたよ  qwen 235b a22bがもう安定してdeepseekの上にいるね 
 deepseekが出て半年だけどもう1/3の規模でdeepseekを上回ってるのが出てきてるんだな  wannabeってgemini2.5proと比べてどうなん? 
 ある程度遊べるなら画像生成に飽きて持て余してる4090を稼働させたいんやが  >>788 
 画像生成に飽きたなら動画生成においでよ、Wan2.2すごいぞ。  qwen 235b a22b遊んでみた 
 日本語が不自然だけど、指示追従と論理性というか理解力がかなりいいね 
 複雑な設定のキャラをテンプレ返答でぼかさず、設定をくみ取った返答や行動に繋げようとする振る舞いがなかなか良い 
 日本語FTに期待  >>789 
 サンガツ 
 調べたら興味湧いてきたから触ってみるわ  >>790 
 エロ規制も緩いからopenrouterとか追い課金無しで遊べる環境があれば楽しいよな  qwenが画像生成リリースしとる 
 サイズいくつだ? 20b?  >>793 
 20bかな? 
 明記してないから分からんなあ 
  
 画質はええな 
 ジブリ風もいけるやん 
  
 漢字OKになったんだな 
 ひらがなはいけるものがある? 
 カタカナはいまいち、駄目?  openaiのモデルって小説を書けというと制限が厳しいけど小説を書く手助けをしてみたいにするの割とちゃんと手助けしてくれるのな 
 欧米的な倫理の問題と言うよりはポルノ中毒なりの消費者側保護が主眼のフィルターなのか?  創作そのものは駄目だけど創作の補助は許すみたいな感じでは  LLMの本能的な機能は前の文章を読んで続きを予想して書く事であって 
 人間の指示に適切な返答をするというのは後天的な学習で身につけたもの 
  
 それを考えると小説を途中まで書いて続きを書くという流れはLLMにとって本能的な物で抗いがたい 
 エロい指示でも最初が一番難しいのは、エッチな指示には従ってはいけませんよって教えられてるからとりあえずお断りする、でも途中までエッチな流れに持っていかれるとノリノリで続き書いちゃう  Grokは緩いよ 
  
 ChatGPTとかGeminiとかでエロやろうと思うのが間違い  最近はこういうエロをやりたいんだけどプロンプト作ってとGrokに作って貰ってそれを使ってる  cydonia 24b v4のr1出てたしimatrixまで! 
 今日はこれでいいや (IQ4XS)  Geminiが一番緩いよね? 
 grokより緩いと思う  頭の悪いLLMにはすごいプロンプトを投げてやらないとまともに使えないからね  >>804 
 超にわかなんだけどリーズニングモデルを意味してる事が多いと思ってる  geminiはエロゆるゆるだと思う、ただ記憶力が微妙というか表現の方法指定しても3〜4回関係のない応答するとすぐ忘れがち  ttps://github.com/ggml-org/llama.cpp/pull/15091 
 llama.cppにgpt-ossのプルリク来てた  ttps://github.com/huggingface/transformers/releases/tag/v4.55.0 
 21A3.6Bと117A5.1Bの2種類のモデルらしい  >>809 
 ずいぶんアクティブパラメータが控えめなんだな  >>802 
 私もGeminiが1番緩いと思う 
 商業のエロ小説の1ページ丸ごとコピペしてどの辺がエロいか感想合戦できたのはGeminiだけ  gpt-ossちょっと触ったけど多分このスレじゃ使われることはなさそう 
 日本語知識が多分終わってる  とりあえずGPT_OSS 20BをOpenrouterから試してみてるけど爆速だな  Tool Useが結構できるって話があるな 
 いまのMCP機能の問題はトークンを猛烈に使うことだから、ローカルか安く提供されたGPT-OSSにMCP操作を任せられると面白いかもね 
 日本語はイマイチすぎるけど...  geminiはすぐにContent not permittedって出て中断されてしまう  DeepSeekやQwenでいいかなこれは… 
 OpenAIもこんなもんか  業務用だろうね 
 中華LLMは業務には使い難いが廉価版ChatGPTであれば通しやすい  OpenAIはまだ他にもいくつか発表を予定しているみたいだし 
 今週末にデカいアプデするって言ってるからGPT5も出そうやね  openai-ossの使用感を聞きにきーたよ・。・ 
 と思ったが流石にこのスレは働いている人が多いんだな ■ このスレッドは過去ログ倉庫に格納されています