文章生成AIでオナニー★136
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
次スレは>>950、↑の呪文を3行以上コピペしてスレ立てしてください。新スレが立つと1行消えます。
都合で建てられなければ早めに申告しましょう。スレのテンプレはここ
https://seesaawiki.jp/gpt4545/d/%a5%c6%a5%f3%a5%d7%a5%ec
エッチな文章を出力させる上手な方法があれば、共有しませんか?
他AIチャットも可。>>2-4あたりも読んでおくといいよ
スレ内で共有されているプロンプトまとめ
https://seesaawiki.jp/gpt4545/
rentryの使い方、読み方、書き方についてのまとめ
https://rentry.org/rentry_yomikaki
※前スレ
文章生成AIでオナニー★135
https://mercury.bbspink.com/test/read.cgi/onatech/1769521784/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>667
Claude CodeならAPIの規制と大差なくガバガバだしそっちじゃダメ?
やりたいことにもよるだろうけど opusはバッドエンドとハッピーエンド両方ありだけど
バッドエンドを選んでね
くらいの指示を出すと容赦なくハッピーエンドにしてくるのがいつものclaudeさんちの子って感じだ…
寝取られエンドですって書いてハッピー口塞いでもハッピーにしてくるくらいにはこいつ頑なだぜ…!
嫌いじゃねえけどよ! >>664
パープレスペースは8000文字制限に増えたんじゃなかった? >>673
まじで
書いてある指示9割型実行するイメージしかない
むしろルールたくさんあるから全て実行しようとせず
創造性優先してファジーにねって書いてるほど
そうしないと全部盛り込もうとしちゃうから
AG使ってるからかな >>665
ふつうに初手の入力で入れればいいだけだよ
何の問題もなくGemini3Pでエロメロドラマをやれてる ああでも凌辱なのにしょっちゅう「いい子だ」って台詞言いたがるくせは有るな
謝ると「謝らなくていい」と言ったり、優しさゼロでと言っても優しさを見せる Claudeは何やらせてもお利口さんが滲み出るからね
この点に関してはgeminiが圧勝だわ ハーフエルフになってエルフに差別されるプレイとか切れ味が全然違った レディコミの俺に従え系の主人公なんよ
ってこと
これを食い止めるのがなかなか難しい そうか?
物語の雰囲気はシリアスでって言ったら普通に悲しくなってくるようなバッドエンド書いてくれるよ
ハッピーエンド大好きかもしれんけどそれよりもユーザーの指示を遵守することが上回ってる感じがする 「○○みたいな文体にして」だとGeminiの方が断然良いな 今月はすごいな。Sonnet5早くきて
Anthropic Opus 4.6 ✅
OpenAI GPT-5.3-Codex ✅
Seedance 2.0 ✅
GoogleDeepMind
Gemini 3 Pro GA (Expected ~Feb 10)
Seedream 5.0 (Expected mid-Feb)
Sonnet 5 (Expected mid-Feb)
GPT-5.3 (Expected ~Feb 12)
Qwen 3.5 (Expected mid-Feb)
GLM 5 (Expected ~Feb 15)
Deepseek v4 (Expected ~Feb 17)
Grok 4.20 (Expected late Feb)
Avocado from Meta (Expected Feb/H1 TBD) プロットが込み入った小説の日常シーンなんかはClaudeの方が破綻がない
プロジェクトにキャラ設定、あらすじ、ロケーション、エピソード小道具を置いておくと最初に読み込んで反映した動きをしてくれるので助かる
プロンプトが丁寧であればあるほどしっかり書きだしてくれる印象 GPT5.3が楽しみだわ
4oを消すってことは多分年齢を推測して成人としての会話ができるやつも実装するってことだし sonnet5が本命やな
大穴でgrokが実用レベルに引き上げられてる可能性も1%くらいはある >>674
増えたけどあのプロンプト2万字くらいあるよ >>627
エロデータの増減は知らないけど少しLLMの学習過程を知っていれば
さすがに「合成データ」という言葉が造語だなどという発言や発想は出てこない
あなたのほうが知識カットオフが古くハルシネーションを起こしているようだ
今のLLMはネット上で拾える人間が書いたテキストを学習し尽くしてしまっているので
新たな学習テキストとして「LLMが書いたテキスト」を大量に学習しているというのは常識
NVIDIAなんかトレーニング用の合成データ生成に使用するためのシステムを出しているぐらいなんだけど…
https://developer.nvidia.com/ja-jp/blog/synthetic-data-generation-with-nvidia-nemo-data-designer-using-nemotron-personas-japan/ >>669
アップロード画像からだと本来無理なんだよ、ディープフェイク対策で。
まぁ、ローカルとか他のAI使えばいいっていうのはその通りだけど 人間が書いたテキストを学習し尽くしたからなわけではないだろ。こうやっていまも新しく人間が書いたテキストなんかどこにだって生まれ続けてるんだから 遺伝子の多様性みたいな話になってるなあ
LLMが出力したデータはLLMの遺伝子を持っていて
それを取り込んで学習すれば遺伝子の多様性が無くなっていく
自分の子供とセックスしてるようなものだし世代を重ねるほど奇形になっていくのでは >>640
GPT-5.3はまだCodexしかないんだけど存在しないモデルをどう追加するというのか
あと普通にMaxのほうにOpus 4.6来ていると思うけどまさかProのほうを見ているのでは… >>692
今ですらAIモデルによってかなり個性が違うしずっと先の話じゃない? >>687
これは失礼しました。ならスペース指示に保存できないだろうしどうやってやっていたのか謎
(何らかの脱獄スペースを作った上でさらにそこに初手でRpSim貼り付けとかしてたのかな)