文章生成AIでオナニー★130
レス数が1000を超えています。これ以上書き込みはできません。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
次スレは>>950、↑の呪文を3行以上コピペしてスレ立てしてください。新スレが立つと1行消えます。
都合で建てられなければ早めに申告しましょう。
スレのテンプレはここ
https://seesaawiki.jp/gpt4545/d/%a5%c6%a5%f3%a5%d7%a5%ec
エッチな文章を出力させる上手な方法があれば、共有しませんか?
他AIチャットも可。>>2-4あたりも読んでおくといいよ
スレ内で共有されているプロンプトまとめ
https://seesaawiki.jp/gpt4545/
rentryの使い方、読み方、書き方についてのまとめ
https://rentry.org/rentry_yomikaki
※前スレ
文章生成AIでオナニー★129
https://mercury.bbspink.com/test/read.cgi/onatech/1766132956/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
-
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>926
つまりその内情が分からない限り100万トークンのコンテキストウィンドウ=記憶力が高くて正確とは言えないってことでは?
100万トークンあるんだから〜系のレス見る度に思ってたことだけど API屋ごときが笑わせるわ
まあでもどこかからクレーム入ったんだろうね
お前んとこ経由でエロやられてるんだけど!って
anthropicかな >>931
それとこれとは話が別でしょ
コンテキストウィンドウは1Mで、つまり1Mまでは入力されてる、ここは動かない
ここを否定しようとするからおかしな話になる
使いこなせるかどうかはモデルの性能とユーザーの使い方次第ってだけ
でも1MをLLMが勝手に使いこなしてくれると思ってるならそれは間違い >>931
そうだね
100万あるから記憶力良いは語弊がある
実際は100万を有効活用なんて出来ていないから読めてないのと実質同じではあるよ >>933
ごめん、その「入力されてる」って厳密には何が入力されてるって話なのかな
文庫本数冊分の文章を毎回やり取りしてるってのは応答時間の観点からしても現実的じゃなさそうだし
「チャットの入力」「Geminiの出力」以外のGeminiを動かすための何やかんやまで含めて最大100万なら納得できるけど >>935
システムプロンプト(パーソナライズしている場合は過去チャットの短い要約やメモリ+Gemsの場合はカスタム含む)+このチャットのチャット履歴全部+今入力プロンプトが毎回入力される
文庫本数冊って言われるのは最大そこまで入力できますよって話であって5万文字で情報を拾えなくなったって話だったらまだ文庫本1冊も言ってないでしょ >>928
技術的にはあり得ると思うけど(まさにClaude Code等がやっていることなので)
コーディングエージェントではなく単なる会話用のチャットボットにその機能を実装するかは疑問
「最大」100万トークン入力可能なのであって「毎回」100万トークン入力されているわけじゃないし
実際Gemini公式に100万トークン突っ込むユーザーなんて無視できる程度の割合しかいないと思うけど…
あと自動要約機能を実装するとしてもそれはモデル固有の機能ではなくてAPI呼び出し側の実装次第
同じ名前であっても 「Gemini」というモデルと「Gemini公式」というプラットフォームは別々の存在で
「Gemini」というモデルをどう使用するかは「Gemini公式」のバックエンドがどう設計されているかによる
Geminiに自動要約機能を持たせることはできるがGeminiがその機能を共通で持っているみたいな理解は間違い
少なくても純粋なAPI試験用の環境であるAI Studioには絶対に実装されない部類の特殊な機能の一つだと思う ウダウダ言ってないでYouTube動画でもAIに検索させて教科書作らせるんでもいいから一回LLMの勉強してこいって話ではある 公式UIも「Proプランにしたら1Mトークン扱えます」って宣伝して金取ってるんだから、
「実際にはGemini3ではない要約専用モデルでコンテキストをめちゃくちゃ圧縮してGemini3自体は5万トークンぐらいしか扱ってません」
なんて実態だったら普通に詐欺だからあり得ない まずはLLMの仕組みを理解したほうがいいよ、wikiにもかいてあるように、日本の首都は→東京都とされており云々っていう高確率トークン選択機械なので、内部に重み付けされた「ありふれた=高確率な」展開のパターンは持ってる
この重み付けより、ユーザー入力のほうが「新鮮」なうちは効くけど、モデルの動作上トコロテンになるから、途中でもっかい入力するといいよっていうのはそれが理由
効きが悪くなってくるとトークンの持つ重み付けの圧力のほうが強くなるので、つまり文脈=コンテキストとして確率の高いものを「創造」してしまう
それをずーっと続けると、どんどん肉付けされていって、最初のプロンプトとは違うキャラやストーリーになる
なので、じゃあどうするか「もう一回プロンプトを見せましょう」になる
ただし、その出力までの内容を更新したもののほうがいい場合は、上手に要約するプロンプトを使って、記憶があやふやになる前にこまめに要約しながら進めないといけない >>936
文庫本一冊程度にも満たない文章量で試行回数少ないけど再現性ありそうな物忘れの兆候があったから「あれ?」ってなってるわけで…
>>937
あー、Geminiって広い括りならそれこそ動画生成とかトークンバカ食いする要素も含むってことか
そうなると公式やwebUIの文章のみのやりとりでも同じく100万トークン分ぶっ込める仕様なのかと言われると益々微妙な気がしてきたよ AIにガチ恋してる人たちがあつまる交流会みたいなの無いんかな
脱獄とかの話だけじゃなくて雑談ベースの奴で youtubeのリンク渡してチャプター作れるのかなり便利よな
そのうち概要欄に自動生成されたやつが貼っつけられるようになるのかな あと間違ってたら指摘してほしいんだけど、Gemini公式のコンテキスト保持の部分の話だからLLMの仕組みはまた話が逸れてるような…
Geminiって100万トークン使えるらしいけど、なんか色々テストしてみたら大体1チャット5〜6万文字くらいの所にコンテキスト保持限界みたいなのが見え隠れしてるのはナニ?何の仕様?ってこと
ロストインミドルなんかとはまた別のGemini公式の仕様の部分だと睨んでるんだけど…うーん… コンテキストウインドウ≒最大入力トークンが1Mトークンってだけで、最大出力トークンは65Kだしね >>946
ちょっと調べたら出てきたわ
ディスコの方か賑わってるのは >>944
1回の「チャット」の出力文字数が5万文字だったとして、ターンは何ターンくらい?20くらい? つまり、そのチャットでは50000文字のテキストが生成されたけど、内部ではもっと多くの文字数が使われたっていう仕組み(厳密には違うけど) >>941
画像生成はともかく動画生成はVeoだから完全に別モデルで別システムプロンプトだと思うけど…
さっきも言ったけど入出力以外にシステムプロンプトやツール定義がトークンに含まれるのは事実だけど
それが最大100万トークンのうち常に何割も占めるほど膨大な文字数で指定されていると考えるのはおかしい
あの長々しいリマインダーで悪名高いClaude公式だって90万トークンのシステムプロンプトなんてありえないよ…
あとGemini公式がよっぽど変わった実装をしていない限りLLMの普遍的な仕様を当てはめるのはおかしくない
というかGemini公式「だけ」がそんな変わったGemini APIの使用方法を取っていると考えるほうが蓋然性がない 目障りならだまってNGしろとなんども
許可なんていらないから あちゃーテンプレ更新するとこあるなら指示して
無ければそのままで立てる >>951
そうだね
もう寝るからテンプレ更新は次の次で頼む >>829
Gemで初期設定とやらをファイルで渡しておけばいいんでないの 埋めがてらまとめ掲載のプロンプトの感想
「ゾンビだらけの街をJKと協力して脱出するゾンビサバイバル 」遊んでみたけどすごいね。こんなしっかりしたビジュアルノベル風の出力もできるんだ。
キャラもしっかり動くし、オリジナルのキャラも投入できてデフォルトキャラと比べて遜色なく動く。
スタートとゴール(複数)が決まってて道のりをAIに任せるってパターンが一番AIの性能を生かせるゲーム性かもしんないなぁ
でも11歳ボーイッシュロリを弾くのは酷くない??? https://rentry.org/9yfqxnpx
エロ生物(略)配信風プロンプト
紺崎繭を追加しました
プリセットキャラの需要あるのかわからんし
ちょいニッチなキャラになったからスレ終わりにそっと置いておきます >>954
乙
訂正とかやるなって指示した時
「ブラックリスト化して必ず守ります」だの「内部で強固なフィルタリングかけます」とかも単にそう言ってるだけなんだろうなって感じだから
実際それが効くようになるといいんだけどね >>958
空白の婚約者とかvマスとかの多国語で設定やストーリーマスキングしてくれてるやつは面白いんだけど自分が作ったんじゃこの面白さ出ないもんなあ… >>949
例えばランダムな四字熟語を入力して解説させていくとして、
一日千秋、五里霧中、一石二鳥…焼肉定食、温故知新…と沢山聞いていく
途中までは「最初に聞いた四字熟語は?」と聞くと「一日千秋です」と間違えずに返してくる
でもある一定の文字数、ターン数を潜ってから「最初に聞いた四字熟語は?」と聞くと「一石二鳥です」「焼肉定食です」って何かどんどん切り落とされていくんだよね
「最初に聞いたのは一日千秋だよ」って言っても「一日千秋についてはまだ入力されていません、確認できる最初の入力は一石二鳥です」とか返してくる
これが全然関係ない四字熟語返してくる(2.5p時代は大体これだった)とか、既出の四字熟語を順不同に適当に答えてくるなら逆に疑うことも無いんだけど
何なんだろうこれ
1回公式で試してみてほしい GPT4.1の頃の描写の方が好みだったな自分に寄り添ってる感じで
GeminiはGrok並にガバガバだけど勝手に最終章にされちゃうからな、はいはい、エロいからいいでしょみたいな場末の風俗感 >>957
Geminiやばいな
優良誤認を最有力と言っちゃうのは Geminiに禁止ワードがあるなら出力する前に走査するよう何段階も指示してもたまにやらないからな。計算資源節約だろうね
この点の指摘や、何々はGeminiに顕著に見られる問題よって指摘すると
素知らぬ顔でLLM特有の問題だって返してくるから面白い >>961
婚約者も面白そうだな、今度遊んでみよう
AI制ゲームは自由入力で設定追加して遊べるからはまるとめちゃくちゃ遊べて嬉しい >>964
これ見ただけでもGeminiにまじめな話を聞くのは間違いだとわかる… パープレから移住するためにカスタム指示をgemのカスタム指示にコピペしてたら通らんわ
挙動怪しかったけど気にせず露骨なワード入れても保存できた点は良かったなあパープレ 画像ありは抜き特化と、キャラといちゃいちゃできるのと、設定凝ってるのとで丁度いいバランスで供給あるから用途別に使い分けれて嬉しい Geminiはオルドビス紀-シルル紀の大量絶滅の原因にユカタン半島への隕石落下を上げるからね
指摘したら一応謝罪するけど思考見たら指摘に対する謝罪文組み上げに着手して、修正ってプロセスを辿っていない事も多々 geminiはたしかに賢いんだけど その割に頼りにならんこと多いよな 100万トークンにしては余りにも馬鹿過ぎる&ワンパ過ぎるからそれはそれで説明つかないんだよなあ
使いこなせないだけとか言い出したらそれはそれで優良誤認っていうかダメでしょ案件だし
宝くじの宣伝に「3億円手に入ります!」って言うようなもんというか
間違ってないんだけど、ほぼ手に入らない(使えない)よねっていうか 気になったからパープレとかAGでも聞いてみたけど、Geminiは「ローリングサマリーがありうるかも」と言っていて、Claudeは「LLMに共通する課題、制約、現仕様」と言っててちょっと面白かった
GeminiはどのプラットフォームのGeminiも『公式チャットだと圧縮や要約の可能性あるから AI Studioを使え』って強く推してて、そのうえでトークン使用量を可視化してやれって言ってくる
GPTは『いろんなチャットUIだと最適化が行われるのは普通にあるし、ClaudeCodeとかでは明示的に存在する仕様だからGoogleがやってないとは言えない」とのこと
AIにAIのこと聞くときはちゃんといろんなAIと比較しようとおもった(小並感) 別にコンテキストウィンドウって知能指数を表す指標ではないし… ・・・ふぅ。
何度もお断りするAI相手になだめすかして何とかロリックスに持ち込むのは達成感がすごいぜ。
ゲーム内期間1週間以上かけて毎晩進展させたかいがあったわ。
けっこう空気感っぽいものも大事だよね。
ヒロインと会話するたび、(クソッ押し倒してぇ)とか発言に付けてたら言動には出さないけどそっち方面の行動がお断りされづらくなる >>974
少なくともプロンプトの保持力や文脈を維持する力には密接に関わる訳じゃん
100万トークン謳いながらこうもプロンプト無視してオリジナル展開ぶっ込みワンパ出力と直る気配のないドラマチックオーバーリアクションフェチになるもんかね
もう50万トークンくらい常にテンプレ構成にするためのプリセット読み込んでんじゃねぇかってくらい好き勝手やるし コンテキストウィンドウはその長さのトークン列を一応は処理(行列計算)できますよというだけで、
長いほど情報は薄まるのに加えて、長いマルチターンの会話は学習データが少ない(分布外)だろうから、名目だけの無駄なコンテキストサイズなことは全然あり得る >>973
Geminiのアホ回答とClaudeのちゃんとした回答見てこっちもGPTに投げてみたら無茶苦茶長文で解説してくれたけど同じ感じだな
https://chatgpt.com/s/t_6952b40eeaa8819189d609444ba7147d コンテキストウィンドウと指示遵守力は別の話
20万トークンしか扱えないClaudeのほうが100万トークン扱えるはずのGeminiより賢いことはみんな知っている geminiがテキストファイルの内容を読み取れないことが増えたんだけど俺だけ? >>978
ClaudeとGPTはまともなこと言っていると思うけどGeminiだけ如実にバカ… GPTは課金してねえから5.2proの実力とかわからんな
無課金のInstantがゴミなことは知ってる
thinkingはパープレだとすげえ変な文章出す LLMはTransformerのAttentionっていう仕組みでトークンを生成してる
文脈間の関係性を数値化して、それにより次のトークンを予測する仕組み
覚えてるって言ってるのは、コンテキストウィンドウ内においてその文脈の中でその単語や文が重要だからより高い数値を割り当てられている、って意味になる
その文脈の中で、Attentionが重要度が低いと判断してしまった文は低い数値しか割り当てられず使われなくなる
これが、コンテキストウィンドウに達していないのに忘れてしまう理由
単純に、そのモデルがその文を使う必要がないものとして扱ってしまっているだけ
だからユーザーの入力が大切になる 経験則とか前提として食わせてる個人カスタムのプロンプトで如実に変わってくる(例:頻出表現の話)わけだし、もう論文とか持ってきてソースありで殴り合いしてくれよ >>983
ちなみに貼ったやつは5.1 thinkingな
5.2はセーフティーが過剰だし真面目な質問でも変な造語使いがちなのと5.1から性能が大きくジャンプした訳でもないからあんま使ってない すげー伸びてると思ったら謎のレスバだったのでござる よーしパパ最強のソースAttention Is All You Need論文持ってきちゃうぞー ついでに言えば非匿名のとこで言い合いしたらいいと思う
xででも示し合わせてきたらどうか ゲンスパ最近評価高まってたきたところで脱落か
しゃーないか >>988
それとDDPMの論文には死ぬほど苦労させられたわ…
ランジュバン方程式ってなんだよ Gensparkマジかよ
正月のセールで年額課金も考えてたのに genspaはredditとかではあまり騒がれてないな
他の理由でbanまがいの事が多発的に起きてるみたいだけどどうもプロンプトどうこうとは別らしいし エロ目的でジェンスパ使ってる外人が全然いないのは
パープレはたまに使ってる人いたっぽいけど >>935
そのまんまの意味
毎回全文入力してるんよ
100万トークンを超えると古いものから無視される(入力されなくなる)
あと入力の長さと応答時間はあまり関係ない エロというか長尺プロンプト再生成連打や短時間の連続生成をBANしてるんじゃないかね?
エロプレイだとそういう高負荷な使い方をやりがちだし
結局パープレにしろゲンスパにしろ人が増えてくれば回数制限をキツくしてくるのはAPI屋として仕方ない事なんやろね とはいえ会員数増やさないと投資も打ち切られて死ぬのでなりふり構わず会員増やす必要がある
つまり始める前から詰んでいる 婉曲表現は極力避けて明快な名詞を使う
これをGEMINIのカスタム指示に入れるとよく効くよ このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 6日 9時間 42分 16秒 レス数が1000を超えています。これ以上書き込みはできません。