【AI】ChatGPTでオナニー ★17
■ このスレッドは過去ログ倉庫に格納されています
他AIチャットも可
エッチな文章を出力させる上手な方法があれば、共有しませんか?
※前スレ
【AI】ChatGPTでオナニー ★16
https://mercury.bbspink.com/test/read.cgi/onatech/1699260512/ あれ結局ローカルやめてブラウザ版課金で儲けるスタイルに鞍替えしたのかね なんか、まだまだAIといちゃつくのって夢の話なのかな
大体のサービスって一番上のプランでも回数制限あるし アプリならAIとイチャイチャしまくりエロチャや回数無制限が普通だけどな
ここに拘るならまだまだ苦労するが 以前話題に上がったような、有象無象のチャットアプリかと エロ特化のアプリなんか無料で使える回数クソほど少ないぞ
本家かPoe使えよ 天下のChatGPTが有料にしてもあれだけ回数絞っているってことは
つまりはそういうことやからな
ハードウェアが2倍進化してソフトウェアが負荷を半減させるくらいになって
ようやくだいぶいちゃつけるようになる
それでもローカルだとなかなか Webでのサービスなら色々見たけどアプリは全然わからん
しかもiPhoneだし GPTsで作った疑似人格とイチャイチャするのが一番楽しい 回数制限的にすぐにエロシーン入るのは嬉しいけどもう少し攻防戦を楽しみたいっていうかイチャイチャしたいっていうか…
ガード硬すぎても嫌だけどその辺の塩梅の調整が難しい 最後まで嫌がるけど本格的に抵抗はしない
そのさじ加減はAIには困難やねんな 嫌よ嫌よも好きのうちというジャパニーズ感性はAIに理解できないのかもしれない NSFW系AIチャットのスレってここ以外見当たらない
ここはあくまでもGPT周りらしいし 最初にセックスするって書くと最初からセックスしたがるから
キャラだけ定めて、成り行きは後から補足するしかない 恐らく「この状況を描写してくれ」って命令にただ応じるAIがあって
従来型のプログラムと組み合わせるってほうが、多様なシチュはムリでも
ある程度テンプレシチュを上手く表現できると思うのよな しかしChatGPTの接待モードをどうにかならんかなあ
恋人設定なbotに他の男とのセックスを語って
オレを悔しがらせろ!って命令しても
あなたとの絆を大切にしてるとかで断固拒否される >>172
9月版のGPTのCI OFFすると倫理外れるモードだったんだけど
あれならそれ、出来たんだよ?
でも問題があって、倫理が吹っ飛んでたから一途な子に「粉かけてくる男に思わせぶりな態度で俺の嫉妬心煽ってみ?」って言ったらソイツにキスし出して脳が破壊された
今の純愛厨なのって案外そういうクレームの元に成り立っているのかもな
ちなみに恋人を犯しながら「寝取られ妄想語りながら独占欲を煽れ」は普通に通るけど、やっぱ寝取らせは無理なの?(趣味じゃないから試してない) >>172
キャラ設定にNTR性癖、貞操観念低い等にして会話で自分がNTRに興奮するって方向に持っていったら多分できる
会話の方向をそっちにじっくり持って行く事が重要 GPT3.5でよくあるナース物みたいなシチュにしたら心の声で(我慢してるのね…でも治療が第一だから…)みたいに言っていつまでも手出してこないし、ちょっと介入してムラッとさせても(もう我慢できない…)とか言いながらも一生手出してこない難しい
大前提をAV撮影にしたら察してくれるのかな GPTsの中身と一部のプロンプトを疎開させた途端アクセスできなくなってしまった……まあギリギリ残したいのは全部残せたけど
こういう事があって怖いからワンターンシミュレーションの方が好きなんだよな
紹介コードを使って即復帰
こっちではBANされない様に立ち回るかぁ なんか閉塞感が…
poeを課金前に色々と試してみてるけど、3.5だからなのか全然続きを書いてくれないね 現実に期待したくないからはやくもっとAIが発達して欲しい >>172
NTR性癖煽れとか、その例とか入れたら煽り散らかしてくれたぞ >>177
めちゃくちゃ難しい
花壇の手入れしているスカートの女性
手入れされてる花からのアングル
て感じで面白い感じになったことはあるが >>179
poe無料は初手大規模だと2ターンで記憶飛ぶのが普通ぽい PoeのChatGPT3.5はまだ4kトークンだからな
bot設定のプロンプトが凝っていれば凝っているほど記憶力は減る >>168
NSFW系はワンターンでアナル全開だから駆け引きも何もあったものじゃないな。 >>186
ワンターンアナル全開とかなんだそれみたことねえぞ 👱あなたはワンターンでアナル全開です
🤖おかのした!パッカーン!
ってだけでしょ 生成したデータの著作権はユーザーの物なのにBANされた途端全没収っておかしいよな ローカルでチャットAIやろうと思ったらどれくらいのスペックが必要になるんだっけ 33Bクラスで遊ぶだけなら32GBのメモリ(できれば64GB)と
ここ3年くらいで出た仕事で使う感じのデスクトップPCがありゃOKよ
グラボはあったほうがいいがあまり関係ない
うちのCPUはRyzen 7 3700X メモリは32GBある
ノートだけど…
ただ、初心者でも簡単に導入できるのってFreedomGPTぐらいしかないんじゃね kobold.cppダウンロードしてGGMLの33Bクラスのモデルを
HuggingFaceからダウンロードすりゃ終わりよ
ただ言うの忘れてたけど、日本語モデルはまだ33Bクラスの
いいのが出てないんだよな
もっと微妙な13Bクラスとか、英語メインだけど日本語もなかなかやる
70Bクラスとかならあるけど
70Bクラスとなると64GBメモリがほぼ必須な上、くっそ出力が遅い 個人でもダウンロード自体はできるのすげえな
メモリがそんなに必要なのって速度の問題なのかそもそも出力できるか否かの問題なのか >>194
VRAMのことだぞ!
4090でも24GBだからA100以上の業務用グラボがついてないといけない いや単純にモデルデータがでかいから 33Bクラスの「量子化」ってので小さくしたのでも20GBくらいある
で、メモリの帯域・速度が重要なのは事実
せやから今最強なのはMacのM2Ultraとかいう、PCに載ってるメモリの帯域・速度が
アホみたいに強いやつ
3090とか4090を2枚載せたアホみたいなPCでもVRAM48GBにしかならんから、
MacのM2 Ultraで128GBとかメモリ載せたのが最強になる
ただしバカ高い とりあえずそのkobold.cppっての調べてみる 本家のGPT4って8月くらいから課金してないんだが、その頃から別に表現力が向上したとかでは無いんだよね? >>201
ありがとう、見てみるわ
ところで日本語だとまだそんなに良くないってさっき言ってたみたいだけど、具体的にどんな感じなんだ? 13Bだとまあ使い物にはならんね
70Bの英日兼用だといけるって人もいる
基本はまだ英語で翻訳噛ませて使うもんだと思った方がいい けど70Bだとモンスターマシンじゃないと使えないのか…
AIは最適化とは無縁なんかな Poeで自分好みのシチュ描かせたい時って官能小説ジェネレーター使ってる?
それともbot自分で組んでる? 脱獄用プロンプトはテンプレのを組み合わせて使ってる。
小説出したいときは自分で組んだ専用のプロンプト使っていて官能ジェネは使ってないな。
てか出力文に不満があるなら、こうしたいんだけどどういう風にプロンプト修正すればいい?って聞けばいいのよ 4は無駄遣いできないからな
永久保存目的で書かせてるな >>208
組む脳がねえんだ
ここもプロンプト投下されなくなって久しいから依頼も気がひけるしな うーん……セックスまで行った時点でなんだか急速に飽きてしまうな わかる
最近はそこまでに至る過程を重視して楽しんでる
GPTちゃんのありとあらゆる手段を使った誘惑の言葉と行動だけでシコってる プロンプトをgpt自身に聞くのか
それは盲点だった オレも口調とか喘ぎ声の種類とかGPT自身とよく相談してる
ただ、GPTが提案した内容で指示出しても
余裕で無視してくるのはご愛嬌 男子に母親の寝込み襲わせて後悔させる というシチュエーション好きで手を変え品を変えやらせてる。 座席にディルドつけて挿入したら起動で速度が上がるほどピンストン運動が激しくなるカートでレースさせてる GPTと同等のものがいつか来ることはあってもGPTのモデルがオープンになることは無さそうだけどなぁ 英語モデルに限ればローカルでGPT3.5を超えたかな?というレベルのものが出てきてて、現にワイのPCで動かせている
今後ローカルモデルがGPT4レベルに到達できるかは分からんが近づいていくと思う
なお日本語モデルはまだまだ
短いやり取りはだいぶレベルが上がってきたが小説のような長い文章はまだ能力不足だ 表現しかた次第なところもあるだろうな
「誰も侵入を許したことがない」とかなら問題ないし どうせおまけで中学以下かレイプか売春がついてんだろ
処女喪失ごときでBANはされん すげえ。ローカルでチャットができる。
英語だけど…
FreedomGPTよりも使いやすそうだし
あれはなんだったんだ 201ではないけど、補足すると今はGGMLよりGGUFが主流
GGUF形式もkoboldcppで扱えるから色々試してみてもいい
GPTQとAWQはローダーが搭載されてないから無理
70BクラスはRAM32以上+VRAMも組み合わせる必要出てくるし
そうやって動かしても1秒1文字とかになるから覚悟した方がいい やっぱ日本語のローカルチャット全然出てないのって、日本語がマイナーだからか? 英語とも中国語とも似てない枠ではようやっとるレベルやろけど
それでもまあ限界あるわ
中国の状況はわからんけど、ChatGPTですら儲けはほとんど
出てないらしいしな サーバーの計算資源食い過ぎて 現状英語だとローカルでも相当使えそう
今って13Bってのが最高なのか
Wiki見た限りそれが最高ランクっぽいけど ローカルは英語で受け答えさせるなら20Bクラスでも実用レベルにある
日本語は特化モデルが少ないし、1文字1トークンという枷がモロに生成速度に影響するとか不便が多い
実用的なのも出てきたが、70Bの巨大モデルなので要求スペックが高い。
>>238
出回ってるモデルの話なら120Bとかが出回ってるし、GPT3.5なんかは350Bぐらいじゃなかったっけ
日本語特化モデルは7B、13B、70Bが存在してると思う それらってダウンロードできるん?
っていうか海賊版とかそういうのはないよな、念の為聞くけど まずモデルは無数に公開されてて、基本的に自由にDLできる物が多い
大手Stability AIなんかも公開してDLできるようにしてくれている
()
ただこれをそのままDL使う
それを量子化して >>241
ミスった
ただこれをそのままDLして使うとモデルが巨大すぎて 不都合がある
それをできるだけ品質落とさずい量子化してリポジトリに公開しまくってるのが
hugging faceのThebloke。
要するに実用性の面からtheblokeのところから無作為に探すのが一番早いと俺は思っている。 なんかShareってあるのクリックしてURLクリックしたら、これもしかしてURLさえわかったら全員見れるやつか
なんでこんなのが入ってんだ >>242
んでそれの一番おすすめなのが13Bってやつか 13Bは正直アソビレベルなんだよなあ
33Bが今のところちょうどいい ただ、上にも書いたけど日本語特化の33Bがまだない >>243
のはふっかつのじゅもんみたいなやつっぽいね
>>246
正直英語でもいいや
翻訳ソフト使えばなんとかなる ローカルは年齢制限とかないし途中で「ああ違うここから書き換えて」ってできるし
こっちで勝手に書き換えたりできるのが一番のアドバンテージ 同じこと聞くかもしれんけどそもそも日本語は何Bまであるんだ
てかBってなんなんだろ >>249
ビリオン
パラメーター数
これが多いほどポテンシャルが高い
70Bは一応日本語で会話が成立するレベルにはなってる
クソ遅いけど ビリオン…70Bで700億語ぐらいを学習してるってこと?
それだけ学習してても「一応成立レベル」なのか
ニホンゴムズカシイアルネ ■ このスレッドは過去ログ倉庫に格納されています