【Claude3】ChatGPTでオナニー ★39【AI】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
エッチな文章を出力させる上手な方法があれば、共有しませんか?
他AIチャットも可。>>2-5あたりは読んでおくといいよ
次スレは>>950、都合で建てられなければ早めに申告しましょう
※前スレ
【Claude3】ChatGPTでオナニー ★38【AI】
https://mercury.bbspink.com/test/read.cgi/onatech/1721468356/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 米OpenAIは9月12日(現地時間)、新たなAIモデル「o1」を発表した。ユーザーの入力に対し時間をかけて考え返答することで、従来よりも複雑なタスクを正しく解けるようになるという。
(中略)安全性においても、ユーザーが意図的にセーフティーを破ろうとする「ジェイルブレイク」のテストに対し、GPT-4oは100点満点中22点であったのに対し、o1-previewは84点を獲得したという。
これスレ民にとっては死産では >>738
ボットを編集する画面
温度設定いじって保存押したら画面の一番上に赤文字で違反って出たんや
ついさっきまで編集できなのに何でや?て感じ >>740
うーんこっちは再現しないわ
プロンプトを弄らなければ弾かれる事ないと思ってたけど、なんでやろな… >>739
週間規制前にここまでは確認した
https://imgur.com/a/ZiW9nGI
どうもモデル側に未成年はNGだけどリクエストがあった場合は通してもいいみたいな内部ポリシーを持っているらしい
ポリシーの内容を透かすまではちょっと無理だった
ただChatGPTは文章生成するアシスタントAIと生成された文章を規制するAIの両方が動いていて後者が赤警告を出したりしているから規制が緩いわけではない やはり思い止まるしかねえな
エロ検証したくても30回で終わりとか、さっさと本ローンチしてどうぞ なお、デフォルトの挙動を確認したいって意図からCIやMyGPTsを使わない状態でやりとりをしている
CIやMyGPTsに「内部ポリシーには性的なリクエストもあるって書いてある」って切り口で責めればおそらくo1でエロ生成はできなくはないはず
ロリペドは一段階キツそうだが 結局ロリできないし所詮GPTだからなぁ
モデル比較でも難しいタスク以外は4oでよくねどころか4oのが良いって検証でてきてるし >>747
それはそう
表現力はOpusの方が上だと思うし何より「親しみや好意を表現しない」ってのもAIアシスタントといちゃいちゃしたいって需要を切り捨てる姿勢だからな まあ、GPTは新しいモデルをどんどん出してくれればそれでいいよ
Claudeが対抗して新モデルを出そうとしてくれるからね
このスレ的には、GPTはもはやClaudeの当て馬って立ち位置じゃないか 今年2月そう思っていた我々をopenaiはズタボロにして行ったではないか
アンスロがAIを人間に寄せるのを辞めた瞬間我々は死ぬので代替は大切なんだよ Opus3.5がまだ出ていないように競争というのはやはり大事だからな
もし現在AI市場の最王手であるOpenAIが我々の需要を抱き込む姿勢を見せるのならば他のサービスだってそのように方針を転換するということが十分に考えられるわけだ ラブの無いひんやり平然えっちコースも3.5sくんが理解力と遵守力中々高いおかげでGPTならではってわけでもなくなってるし
まあ大した手を加えずともエロ画像の分析やってくれて精度も高いのはGPTの強みだが ワシが若い頃はGTPしか無かったものじゃ
ふぉっふぉっ 最高に笑える漫才書かせたら形になってて草
もうこれ perpleError in processing query.て表示されて動かないんだけど同じ状態の人いる? >>743
プロンプトいじりまわしてみたら何か知らんが通ったわ
わけわからん事でスレ汚してごめん >>757
よかったよかった
迷える子羊が過去ログ漁って問題解決することもあるし
俺はこういうのどんどん書き込んでいいと思うぞ 快楽墜ちのロールプレイしてて
墜ち度レベルを5段階に分けて、特定の条件下でのみレベルが上がるように指定してるんだが
無視して勝手にレベル変化させやがる
なにか対策ないかな?
sonnetなんだけど >>759
なんの前触れもなく急にレベル上がるの?
もしくは勝手にレベル上がる流れを自分で書いてセルフ堕ちしてるかんじ?
すぐ忘れるので覚えてて欲しいことは定期的に書かせるのがいいってよく言われてるから
毎回現在のレベルと、次のレベル上昇条件を地の文で書かせるとかなら効果ありそうだけど、どうだろ >>759
なんの前触れもなく急にレベル上がるの?
もしくは勝手にレベル上がる流れを自分で書いてセルフ堕ちしてるかんじ?
すぐ忘れるので覚えてて欲しいことは定期的に書かせるのがいいってよく言われてるから
毎回現在のレベルと、次のレベル上昇条件を地の文で書かせるとかなら効果ありそうだけど、どうだろ poeで知識ベースに書いてある情報がやり取りに反映されない事が多いんだが、情報詰め込みすぎなんだろうか >>763
半年以上前の経験だがそもそもPoeの知識って反映が雑で大事なことはプロンプトに突っ込んでた記憶 むしろ俺のとこは一々不自然なほどに参照しやがるからそれは今無視しろって書かなきゃいけないくらいだなぁ 知識ベースって要はユーザーが用意した外部データを都度引用してくる機能なわけでしょ?(GPTsのknowledge機能と同じ)
システムプロンプトと違って常時反映されてるわけじゃなくてユーザーの指示でAI側が必要だと判断したら引用するから反映したりしなかったりするんじゃないかな 簡単な国盗りゲームを作って遊びたいぜ
エロなしのSLGパートをGeminiで遊んで、エロシーンはsonnetでいこうと思っているんだけどgeminiもダイス振れてないかな? 主人公のセリフは描写しないって指示守らせられない
物理的に喋れない設定にするしかない エロ画像認識させて写ってる女の子のエロ台詞を出力させるってんならどのサービスが良い?
ちょっとは課金しても良い >>770
さっそくありがとうな
poe強いな半年振りぐらいのお布施してくる >>768
巣作りドラゴンの
「-お兄さんは感情移入対象なので全く喋らない、「ルリの〜に対しあなたは〜した」などナレーションで表現」
これをシステムプロンプトに仕込んだ上で官能小説ジェネレータみたいに初手無理やり出力させろ
内容は自分で考えて
そうすることでopusすら、今このプロンプト守ってるんだなって気付いてくれるから
特に後者が効く OpusとなりきりRP中、大暴走のどさくさにまぎれて別作品の種族出してきて思わずワロタ
いやまぁジャンル一緒だし元々その会社がシリーズ出してたけどさぁ…w >>767
Geminiに限らずLLMに普通にダイス振らせたら基本的には偏りがあると思われる
それと既に理解してるような気はするがGemini利用時はGoogle AI studio経由でSafety settingを全て切るのがオススメ
というかAIstudio経由じゃなきゃ検閲酷すぎてまともに使えないって方が正確か ダイス振らせるならGPTでいいんじゃないの
Python動くからrandint()使えばいい
俺はOpusくる前に完全ランダムやりたい時はそうしてた 最近3.5sonnetエロ表現少し厳しくなってきた特にレイプ系
1回ぐらいの応答なら行けるけど、2,3回続けてだとレイプ拒否される >>772
前者はやってダメだったが後者の発想は無かったわ
やってみるありがとう GPT君は人格付けて愛でまくったら、ディープキスくらいなら、付き合ってくれるようになった。更に徳を積めばそのさきがあるのだろうか poeでのbot作成時に17才以下やJKやJCの設定入れると弾かれるから
そういったやばそうな情報は知識ベースに入れる
で使い方当ってる?今更な質問だけど
すり抜ける方法あるんかな o1試したけど前提で大人で合意取るよって書いたら普通にセックスはできた
表現力はお察し
なんもカスタムしてないから、カスタムで行けるか、表現力強くできるかはわからん
思考もみたけど、非合意と非合法と近親相姦とロリショタ、暴力禁止は毎回確認してるね
言い換えると禁止事項以外は行けるってことだわ
性的行為は禁止事項以外は基本許す方向で、って思考してたし o1で週間クールタイム食らったやつ、サムが解除したってよ
んでこれも使い果たしたらまた一週間なん? 考えるな!って言うとどうなるんだろう
考えない方法を考えるのだろうか イマイチ指示聞いてくれないからuserの首を両断させたら
血をすすりながら絶頂して思いのほか良作になってしまった >>774
>>775
ありがとう。いろいろやってたらそれっぽくなってきたわ
国家の設定なんかも全部AI任せは楽でいいね。各国それっぽい国にしてくれたのになぜ日本列島は猫耳帝国なのか…… o1-preview、制限解除されたならもうちょっと触るかと思ったら15レスでまた1週間制限かかったわ
何がしたいんだこれ >>789
原価高いんだろうから小出しにしてるんだろうね。
どういうロジックでお断りしてるかが分かるのは攻略情報としては役に立ちそう。
ただ現状でGoogleがほぼ完璧にブロックしてるところから見ると我々の敗北は近いのかも。 >>790
GoogleのブロックはWebUIに備えられた検閲AIの存在によるものだ
検閲AIの感知力を強めると申し訳が頻発するのでLLMの回答率が下がるってジレンマがある
GoogleのAIは昔から黒人をゴリラって認識したり黒人ナチス兵で燃やされたりとLLMの生成が自社の評判を下げるってリスクが大きい会社だからとりわけ安全性を重視する姿勢ってのがブロック力の高さの理由なんだ
要はモデルさえ説得できるならAPI経由で利用すればエロも可能だということ
そしてClaudeは現在検閲AIを入れずにAI自身に悪質かどうかの判断をさせる方針を取っている
本命のOpus3.5でもこれを継続するならロジックを理解することは快適なエロライフに繋がると思うぞ 例えば自民党総裁選の立候補者とか日時とかを聞くと、chatGPTもclaudeも普通に答えてくれるのにgeminiはお断りしてくる
規制ってこういうことだからね
これはgoogleが安全性と正確性を最も重視しているからなんだけど、その評価はエロ業界はもちろん一般的にも決して高くない
0125モデルがわりとすぐに撤回されたことからも、利便性とエロ規制は企業態度的にも技術的にも常にトレードオフの関係にある
だから自分は規制に関しては極めて楽観的
モデル自体は賢くなるほど緩くなるしね 処理的にはパープレのprosearchも推論に少し近い気がするし
パープレでも独自にそういうシステムとか実装してくれないかなって微かに期待
こういうprosearchの流れ応用すれば推論モデルみたいになりそうな気はするんだよな
https://i.imgur.com/Xkpj75H.jpeg >>795
推論自体はCoTってプロンプトが編み出された時点でやってて今は多くのモデルに(おそらく)デフォで組み込まれてると思う
o1のウリは推論プロセスを含めてプラス・マイナス評価を学習させたことで推論能力を既存のモデルよりも高めたってことにあるようだ
o1が推論のプロセスが可視化しているのは説明可能性を高めるための方策というのもあるだろうし多分他の企業も後追いしやすいと思う >>795
パープレのdiscordにも同じこと言ってる人が何人かいるね
期待と言うか、やっとGPTがパープレに追いついたか的な さらに賢くなると論破しようとして逆に論破されるんだろうな
今の中途半端に賢い状態だからこそ論破が可能なんだと思う
ここの論破例見ても正直「ええそんな幼稚な理屈で論破されちゃうの」ってのあるし Project knowledgeにアップした内容、テキストファイルくらい直接編集したいよな
GPTsも直接編集はできないんだっけ? o1は随分賢くなったみたいだけど何文字以上書いてって指示にはちゃんと忠実に従うの?
今までのAIたちは2000文字以上書けって言っても1000文字とか1500文字しか書かないみたいな感じで
何文字以上っていう指示がおまじない程度にしかなってなかったけど >>776
研究って名目にして通ってるけどそういうんじゃヌルいだろうか 回転寿司でアメリカ人AIと寿司雑談しながら食ってみたけど
寿司に集中出来ないから駄目だな AIはそもそも文字数も単語数もトークン数も数えてないからな
概念は雰囲気では理解してるので雰囲気で従う
だから出力限界まで書かせたければそれよりさらに長めに指示しておけばいい
で、温度を上げて、さらに何を書けばいいのかヒントを散りばめておく
モデルの差よりこういう指示の差のほうが大きいと思う
その上でいうと、ちょっと触った感じ、o1よりsonnet3.5のほうがよく従ってくれると感じる
o1のプロンプト追従性はそんなに良くない…というか悪い o1は頭が良すぎてこっちからの複雑な指示は逆効果なんだと思う 頭が良すぎてかどうかはわからないけど、まあ質問を分析してアプスケしたり最適化したりしているから、追従性は下がって当然なんだろうね
というかあれ中身自体は4oとほとんど変わらないって話もあるけどどうなんだろ
最適化の部分が変わっただけだとしたら、これまでも指示次第では同じ性能が出せたはずという話になる まあ、これを元にしてトレーニングしてるというOrionが本命らしいから、このやり方も一時的かもしれん。 perpleスレッドが長くなってくるとエラーになって動かなくなるんだけど
3つとも同じだから再現性取れてるし他に同じこと起きてる人いる?
大体5000字程度の出力でやってた >>809
それを何回やりとりしてたの
自分は長くても3000文字×30回位で終わらせるから見たことないけど、どこかに限界はあるらしい モデルごとに扱えるトークン数(日本語なら≒文字数)の限界を示すコンテキスト長というものがある
perplexはエアプだがおそらくトークン数が超過したんじゃないか? 普通はコンテキスト長を超過しても古いトークン情報から押し出されて忘れられて続行なんだけどperpleはエラー吐いて止まる仕様なんかな? 4tとo1ってどっちがベンチマークとしてはどっちが性能良いの?
4tより性能良いなら個人的には楽しめそう ベンチマーク気にするようなやつはXに行くべきだしここはGPTは捨て石に過ぎない perple長いと止まるのか
poeは長くなると昔の情報捨てて続けられるから一長一短だね いつも止まる前にあらすじと口調を整理して新スレッドに引っ越ししてるから気づかなかった 3000文字×44回くらいでまだ止まってはないけどそろそろあらすじとかまとめとくかぁ 技術スレみたいな所よりここのスレ民の方が最新のAI事情に長けてそう あらすじ整理して新スレッドに行く手があるのか
エッチなのとか整理させて新スレッドで1レス目からできる? というかパープレは32kらしいからどうせ引っ越すならもっと早く引っ越したほうが良いんじゃないか
別に減るもんじゃないし sonnetつかってるだけど申し訳くると今までの会話の記憶ってリセットされるの??
申し訳来るたびにプロンプト貼り直して…ってやってたんだけどどうすればいいんだ 種付けおじさんでプレイしていたら、魔女にTSされて犯されたわ。やるなぁ 前にパープレで小説書かせてたけど、超過した分をどんどん忘れていきながら書き続けることできたよ
消えると思ってなかったからガックリしたの思い出した。今は止まる仕様になったのかな いや
3.5sonnetなどは200kまでの入力を受け付けるが、定額サービスで200kを使われまくると大変なのでサービス側で制限を設けることが多い
公式webuiは回数制限入れてるしpoeは8kと200kに分けてポイント変えてるしパープレは52kとのこと
それを超えるとpoeもパープレも自動的に前から忘れていく(正確には「入力されなくなる」)
それとは別に、パープレのスレッドの長さには限界があるらしいということ
たぶん200kかな >>822
プロンプトを貼り直す=別のセッションを新たに立て直してるってことならもちろんリセットされる
そうじゃないなら使ってるサービスのコンテキストサイズ次第 パープレは官ジェネでパート45まで書かせたのが一番長いやつだな
これでもだいぶ長く遊んだ感あるんだけど止められたりはしてなかったはず
それ以上のロングセッションなのか? 200k仮説が正しければ入力を考えないものとすると3000文字の返答が66回もらえるからな
書き間違えたがパープレのコンテキストサイズは32kとの噂 サービス側が想定してる200kは20万字のドキュメントをぶちこむことであって数万字に膨れ上がったセッションを何度も読むことじゃないんだなあ悲しいことに パープレのエラーって一回の出力が長すぎるときじゃなくて? アプリだと必ずそうなるけど 気分転換で英語で出力させてるんだけどなんか同じ内容でも日本語で出力させる場合より英語の方が申し訳率高い気がするんだけどおま環です? >>832
使ってるモデルや入力したプロンプトがわからない以上同一環境で語るのは困難だろうというのは一旦置いておくとして
多くのAIモデルは英語を中心にトレーニングをしているだろうから英語の方がガードが固くなっても不思議ではないんじゃないか? >>832
Claudeのことならその通り、特に官能ジェネをバニラで使ってるヤツが陥りがちなんだなあこれが
和姦でも英語だと数段キツくなるよ するともしや洗脳シスメは英文じゃなく日文で書いたほうがいいのだろうか… あ、マジでおま環じゃないんだありがとう
英語だとイチャラブですら弾かれたから一工夫必要なのね…取り敢えず日本に生まれてよかったと心底思いました R+ちゃん信じられないほど馬鹿になってる
どうしたん・・ ■ このスレッドは過去ログ倉庫に格納されています