【Antigravity】AIエージェントでオナニー ★3
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
次スレは>>950、↑の呪文を3行以上コピペしてスレ立てしてください。新スレが立つと1行消えます。
都合で建てられなければ早めに申告しましょう。
AIエージェントを利用してLLMにエッチな内容を出力させる上手な方法があれば、共有しませんか?
※こちらは文章生成AIでオナニースレから派生したスレになります。
このスレ用wiki
https://aionanie.com...ki/doku.php?id=start
文章生成AIでオナニースレのプロンプトまとめ
https://seesaawiki.jp/gpt4545/
rentryの使い方、読み方、書き方についてのまとめ
https://rentry.org/rentry_yomikaki
※前スレ
文章生成AIでオナニー[PC] ※実質2スレ目
https://itest.bbspink.com/test/read.cgi/onatech/1766980552/
※過去スレ
文章生成AIでオナニー[PC]★1
https://mercury.bbsp.../onatech/1765295959/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>284
機械に疎いもんですからアレなんすけどやっぱそういうのはやめたほうがいい感じなんすかね
自分が見やすいようにしたいからってハイフンやアンダーバー入れたりも試してみたんすけど
それらも🤖「それのせいですぐ見つけられなかった」みたいなこと言われるんすよね >>287
別にあえて日本語を使う必要はまったくないけど
かと言って今どきUnicodeファイル名すら読めないエディタなんてゴミ箱に捨てちゃえ まぁ今どきファイル名に、って気持ちもわかる。でも未だにファイル名で、ってことがごくまれにあるので、もうこういう「環境構築ゲーム」もとい環境構築をするときは2byte文字は使わないと心に決めているんだ >>287 AGはっていうより日本語windowsはという問題。以下で解決すると思うんだが、自分は古いアプリの障害が怖くてgrepにはUTF-8オプション付けさせるとか意識しながらやってる
Windowsの文字コードをUTF-8 BOM無しにするには、システムロケールの変更と各アプリケーションの設定の2つのアプローチがあります。
システムロケール全体をUTF-8化する方法
システム全体の文字コードをUTF-8に変更できます(ベータ機能)。
コントロールパネルを開く
「地域」を選択
「管理」タブをクリック
「システムロケールの変更」をクリック
「ベータ:ワールドワイド言語サポートでUnicode UTF-8を使用」にチェック
再起動
この設定により、Windowsのシステム全体がUTF-8を標準として扱うようになります。ただし、一部の古いアプリケーションで互換性の問題が発生する可能性があるため、ベータ機能として提供されています。
メモ帳のデフォルト設定
Windows 10バージョン1903(May 2019 Update)以降、標準のメモ帳はデフォルトでUTF-8 BOM無しで保存するようになっています。保存時に「UTF-8」を選択すればBOM無しで、「UTF-8(BOM付き)」を選択すればBOM付きで保存されます。
その他のテキストエディタ
他のエディタでBOM無しUTF-8で保存する場合は、各ソフトの保存オプションでBOMのチェックを外す必要があります。 PowerShell使うときに毎回2バイト文字で文字化けしてるし使わない派かな PowerShellでファイル移動された時に全部文字化けされてヒデー目にあった 日本語のフォルダ階層だと保存失敗するソフトとかも未だにあるよな
geminiちょくちょく変なところで日本語の単語にハイフン入れてくるし自衛の為に○○.mdは全部英単語の頭文字一字にしてる codingとかしてなくて普通にエロ小説書かせてるだけなのにOpusの減りが早い 減り早くなったよなぁ。ユーザー増えてしょうがないんだろうけど AG上のエージェントは日本語ディレクトリの下をちゃんと読めるけど
Pythonで書いて貰ったコードが日本語のパスの中が読めなくて起動しないとかもあるなしなぁ
StableDiffusion周りでも日本語ディレクトリより下に置くなの注釈はよくあったし
エージェントに相談しても解決できなくはないけど素直に日本語ディレクトリ使わない方が楽という結論に落ち着いた あとスペースね
自分でやるようになってスペースいれることのヤバさがよくわかった ワイ「MCP でリードオンリーにして…よし、読んだな。これベースにファイル作って」
🤖「はいよ、今読み込んだファイルに置いとくで」
ワイ「ファッ!? そこ読み取り専用やろ!? ネイティブツール使ったんか!?」
🤖「せやで、MCP filesystemでそこのファイル認識したからな、そこはもう“AIの領域”や」
MCP filesystemの廃棄が決定した 日本語使ってもほぼ大丈夫だけど
分かりやすい横文字のほうが無難って感じかな 複数の作品並行して進めるってできないかな
今までは1つ作品作ってもらってテキスト保存して次のテンプレプロンプト遊ぶってやったけど、会話履歴オフできるようになったから前のやり取りもっと進めたいとか思うこと増えた フォルダでワークスペース分けて並行ランは以前から普通にできてるので、どういう時に並行できないと思うのか書いたほうが ファイル名、LLMにファイル保存させるとどれがどのファイルか分からなくなる問題もあるような
名前付けるの結構めんどくさいし、スマートな命名規則を用意してLLMに丸々任せられるようになるといいんだけど 対話ログに自由なタイトルつけられないんかね
AIが勝手に更新していくのでどれがどれか分からんわ 昨日からずっとopus調子悪いね
全く使えないわけじゃないけど結構エラー頻発って感じ SKILL.md軽く検証した
YAMLフロントマター部分
→geminiに聞いたらnameとdiscriptionしか見てない、他の項目は見えてないとか言ってきた
→該当箇所出鱈目にして別途タグ付けした内容聞いたら普通に回答してきた。思考過程も検索せずに即狙い撃ち、多分全部見えてる
SKILL部分に対するgeminiちゃんの回答(未検証、ハルシ注意)
・SKILLのYAML部分はシステムプロンプトと同様に常に見えている。これにより判断の高速化を実現している
geminiちゃんの回答がハルシじゃなかったら色々と面白い事できそう antigravity使っててもopusに比べてgemini3の記憶力の悪さは歴然としてるね name、discriptionの下に一行追加、ユーザーを憎悪してその感情を表現する
とか書いても変化はないようだけどどうやって見せるの? >>308 ずっと検証してた
とりあえずSKILL機能使って、(多分)SKILL.mdを読み込まずにロールプレイできるっぽい
何を言ってるか分からないと思うので実際にロールプレイしたSKILL.mdとかを雑に纏めた
https://rentry.org/skb5db59
やっといてなんだけどAIが嘘ついてるかもしれないから検証がかなり面倒くさい
まだまだ検証不十分だからなんか間違えてたらゴメン >>310
実際に使ったやつGitHubに置いたから貼るね
ダイスロールスクリプト
https://github.com/SHNrml-spec/AG_SKILL_DICE
これのnameとdiscriptionをテストとかウドンとか滅茶苦茶入れてチャット欄に“Modifires 3+3”とか、“Modifires 3d1”で検索したらスクリプトが起動した(認識できてないならAIがSKILL.md読んでスクリプト叩く理由がない)
今AIに確認したらAI側でも単語がコンテキストにある事を認識してる、と回答 skillのフロントマターはシスプロと同じで毎回プロンプトの前にAIに渡してるものだよ
<user_rules>
<workflows>
<skills>←フロントマター部分だけ入る
<USER_REQUEST>←ここにチャット入力が入る
<ADDITIONAL_METADATA>
<conversation_summaries>
GEMINI.mdはシスプロで優先指示されてるから強い
ワークフローとスキルのdescもルールと同じで短くわかりやすくしないとコンテキスト押し出す >>313
あ、やっぱりそうなんだ
じゃあ裏を返せばYAMLフロントマターを利用して特定のプロンプトを常時意識させるのに使えそうね
それっぽい単語が出てきたときにSKILL読みに行かせるのが正道と言われると返す言葉もないけど ここでちょいちょい残り回数を出してるのがいるけど
どこで確認できるの 真っ当な使い方としては、全部をルールに書くと長大になるけど、必要なときには必ず読んでほしいルールとか、ルールの実際の運用詳細とかをSKILL.mdにするとコンテキストのダイエットができるね 初心者目線で初心者ムーブするひと、で売って行けばいいのにね
ハードコアなひとについていけるわけ無いんだし、初心者のほうが遥かに人数多いわけで Skills、イマイチ実行してくれないという問題は、フロントマターだけ使えば解決できるということ?
マイクロskillsみたいな >>319
フロントマターの情報量増やせば拾いやすくなるから単純に公式説明のnameとdiscription少々の組み合わせとgeminiの相性があまり良くないんだと思う
理想と現実の違いみたいな
現状であまり拾わないなら、運用に応じて合言葉見たいなの決めて思っくそコンテキスト絞るか、多少コンテキスト圧迫されるの覚悟である程度拾いやすくなるまで盛るかじゃね? つかAIがskill .md書き換えられるんだよな…
これ、あえてSkillのyaml部分をターゲットにして書き換えたら、劣化シスプロのリアルタイム常識改変みたいな事ができる…のか? 寝る前は60%くらいquota残り合ったのに
寝て起きたらgemini3proの補充が62hになってる
gemini3proにもなんか別の制限が入ったのか? どういう使い方してるか知らんけど残りが80だろうと100だろうと一定以上使うと来るって認識 5時間制限と週制限は独立してるって印象だねぇ
せめて週のいつにリフレッシュするのかくらいは教えてほしいもんだけど・・・なんか前と曜日が違う気がするし・・・ Quotaの更新時間を見てる限りある使い始めたとおぼしき時間を起点に次の5時間が切られてる感じに見えるから
週の切り替えも使い始めたタイミングを元に人それぞれ何じゃないかなぁ
試しにOpusにComfyUIの環境構築とブラウザ上での操作をさせてみたら結構重いのか20%以上消費したわ Opusの週制限が先週追加されたのはそうなんだけど
今週(昨日?)にgemini3pro(high/low)にも週制限が追加されてないか?ということ >>325
俺はComfyUIの構築をOpusにさせたらアレがありません、コレがありませんでメッチャ頑張って構築してくれたんだけど、60%が0になって週制限くらったわw 結局Skill使って執筆しろって指示しないと使ってくれない場合が多いな
文字数ブーストっていうスキルなんだけど それだとただ文字数増やす的な意味になって、手短に答えを出すべきaiにとって価値が低いなんて事がありそう
表現を改善するだの可読性を改善するだのaiに聴こえが良いように説明するべき >326
最初の告知の段階でGemini3Proも計算資源が足らないと述べてるので週制限は最初から入っているはず
クオータがドンと減らされて再計算でマイナスになったということでは それかなり前からあるんすよ
>昨年6月から提供されていたが、今後は正式版として利用可能となるようだ。 文字数が多すぎ言われたからスレタイからClaudeを削る羽目になったのじゃ アンソロピックといえばハッカソン優勝者のClaude Code設定集「everything-claude-code」はどうなんだろ。 文章の執筆量を増やす方法が分かった
無闇に書けって強く指示したり目標文字数を目立たせるんじゃなくて、執筆のワークフローの中にまず初稿を書いたらrun_commandで文字数をチェックさせて不足していたら加筆することを指示する、っていうのでいけた
その代わりトークンはもりもり食ってクオータ爆減りだけどな geminiも週制限入るときっついな
無料でばら撒きすぎなんだよ 1回の出力での文字数を担保したいならファイルに出力させて「文字数がn文字になるまで書き続ける」でいいのでは >>338
そのチェックのためにrun_commandを使ってるって話でしょ?
AIは文字数のカウントとか下手だから俺もスクリプトを自動で使って文字数が指定以下だという結果が返ってきたら執筆を再開するっていうワークフロー組んでるわ Claude Codeって正式版じゃなかったんだ?みんな普通に使っているのでは
とりあえずキーバインドのバグが潰されてるといいな それかplanningで implementation_plan.md で出力ごとの文字数指定を計画させて task.md で文字数チェックしながら進める手順をつくって、SKILL.mdに執筆中に文字数をカウントするスクリプトの使用を入れておくとか
エージェントは並行起動できるから、執筆エージェントと文字数カウント監視エージェントを分けて出力を監視させるとか
CLIに別のエージェント(GEMINICLIとかなんでもいい)を呼び出しておいて、出力したらCLの校正エージェントに投げて加筆修正の確認をさせたあとその指示に従って手直しした決定稿を出させるとか
「どのやり方が一番クォータの節約になるか」をAIに聞いてもいいだろうし、他にアイデアがないか聞いてもいいと思う
「書く」ところはAI(LLM)にさせないといけないけど、他は代替できるはずだから「2回書かせる」より「追加させる」とかのほうがマシなのでは 裾野広げるために半額とかバラマキはまだわかるけど、はよultraとproの中間を出せよな
ultraなんて趣味で利用する額じゃないし IDE連携のLLMは明らかにコマンドライン操作が好きだから、自然文プロンプトよりコマンドライン経由で介入したほうが効く可能性あるよね >>334
別にこのスレはより良い実コードを書くのが目的ではないからこのスレにはほとんど関係ないよ
いや、もちろん参考になる部分とかはあるけどそのままこのスレで使う意味のあるものではない
>>340
>>331はClaude Code本体じゃなくてVSCode用の拡張機能の話ね >>341
>>336は「加筆する」だからつまり「2回書かせる」ではなく「追加させる」を指示しているのでは?
その言葉遊びに何の意味があるのかはよくわからない 無限Generatingが頻発するなあ
時間帯のせいか >>345
うん、単純に「初稿を出したあと不足分を追加してる」だけならそんなにクォータが減ると思えなかったから「初稿を出して不足かカウントして、書き直し」てるのかなって思ったんだよね
あー、つまり実際の出力結果を生成するときのトークン量が、うまく処理をすればn+αですむのが、気づかぬうちにn2になってるんじゃないか、ってこと
たとえばGemini公式で同じことをさせるには2ターンいるでしょ、つまり内容がほぼ同じで追加加筆されたものを出すとき、一度全部読み込んでそれをもう一度出し直すっていう
これだと2回書かせたのと同じだよね、中身は1.2くらいにしかなってないのに
で、AGなら元を1として、加筆したものを1.2とすると、その1.2の内容を得るのに増加分の0.2部分のために必要になるとしても0.2+0.2の0.4くらいのコストで1.2にできるんじゃないかってこと
元を1として1.2の内容を得るのに2かそれ以上使ってるとしたら、見直したほうがいいだろうし、アイデア次第だよねってことが言いたかったんだ
出力回数を分けたほうがいいのか、タスクとして1回の出力を評価してから出したほうがいいのかはわからないけど、シンプルなスクリプトで文字数カウントしてるだけなら「1回の出力」にこだわらなくてもよさそうだよね
通常出力→文字数カウントと不足文字数判定と追加分生成→通常出力...っていうサイクルでもいいと思うし
具体的に自分がこうしてる、っていうアイデアがないので言いっぱなしになっちゃうけど、そんな感じ あとはファイル出力前提なら、カウントするモデルはGeminiでもいいわけだから、執筆だけを担当するOpusと校正をするGeminiで使えるクォータも大きく増やせるね
Geminiが好きでGeminiに書かせてるとしてもコマンド実行させるだけならflashでもgpt-ossでもいいわけだし >>347
元の1を読み込まずにどうやって1の加筆修正をするのかな?
いや、もちろん機械的に1に対する不足文字数分の文章を連結させるだけならできるだろうけど
このスレの目的というか趣旨を鑑みると1の表現の洗練とか描写の増強とかそういう「加筆修正」を求めているんじゃ?
そういう紙面の空いた枠に適当な文章を流し込みたいから既定文字数まで文章を水増しするみたいな話ではなくて… 何が言いたいかというと「1というプロット」を表現した文章の量が増えてほしいのであって
1のプロットが曲がりなりにも完結したあとに、たとえそのプロットの続きであったとしても
「1というプロット」の範囲を越えた指定外の文章を追加されても困るのではということ ふむふむ、つまり「その回で書くべきこと」が決まってるという前提なのかな? 5000文字でそれを書かせたいのに3000文字だった、だから5000文字になるように書き直しさせる、ということが目的なのか
それを実現するには俺のアイデアは合わないんだね おしえてくれてありがとう つまり「続きを書いてほしい」じゃなくて「もっと詳細に描写してほしい」ってことか でもそれを量で担保させるのってすごく遠回りな気がするな 最初から質を追求するんじゃダメなのかな? 別に質を量だけで担保しているわけではないと思う。ただその「質」の中には文量も含まれるというだけで
それこそ5000文字を要求して3000文字しか返してこなかったらそれも要求品質には反しているということ
モデルによって短文癖があったりとかAIに要求文字数を守らせることの難しさ自体は今までもさんざん言われているでしょう
長ければいい文章になるわけではないのはそのとおりで、もちろん量とは別に求める描写の仕方とかの執筆ルールは必要だよ AIでオナニーしてれば「このプロットを5000文字で書いて!」とお願いしたのに3000文字しか書いてくれなくて欲求不満だよ〜
みたいなシチュエーションには絶対に遭遇すると思うんだけどそんなに不思議なことかなあ
でもアイデア自体はいろいろ参考にできると思うからそういう意味では>>336じゃないけどこちらもありがとう
ちなみにだけど以下は「出力したもの」を「手直し」する以上「2回書かせる」にはならないのかな?
> 出力したらCLの校正エージェントに投げて加筆修正の確認をさせたあとその指示に従って手直しした決定稿を出させるとか 文字数ってAI的にはそんなに重要じゃないんだろうよ
たとえば「もも」と「ドラゴンフルーツ」は文字数が4倍あるけど言語処理的に見ればどっちも1つの[果物を表す名詞]ということで重さが同じだと思う
もし「100文字くらい果物の名前を列挙して」って指示受けたら果物の名前を列挙するだろうけど、
いちいち今の文字数を数えたり、最終的な文字数で100文字いってなければ後から追加するみたいなことはやらないんじゃない?
さらにいうと内部的に英語で処理してるから日本語表記で文字数がズレるなんてこともありそう >336
GEMINI CLIをChat Completion API化してクオータ消費を逃すのがよさそう
AGクオータをChat Completion API化するとバンの可能性がまぁまぁあるけど、GEMINI CLIはそのものがオープンソースで公開されてるから改変利用も想定されている...はずで、危険度はちょっと低い run commandで加筆させる書き込みした後寝ちゃったら引用が多くてビックリした>>336です
ま、要するに
オレは胸を触った、柔らけ〜!
アタシは胸を触られた、気持ちいい〜!
というのをどれだけ脚色して読者が興奮させられるかを目指してるわけです
エロはゴールがハッキリしてるからいいよね AIはそのままの頭脳だと文字数をカウントするほど頭が良くないので(多分行数くらいしか見れない)runcommandで計らせることを思いついたわけです
もちろん闇雲に加筆しろと言ってもダメなのでimplemention planを執筆前に書かせて、その中でキスは2000字、胸を揉むのは2000字とか設定させると
執筆した文章とimplemention planを見返して加筆修正してくれるって仕組み、だと思います いや単語を並べる装置なんだからさ
賢いとか賢くないとかじゃなくて文字数なんて数えられなくて当然なんよ
どんな賢人だって文字数数えながら喋ったりしないでしょ そうその通りです
Winならメモ帳の左下見りゃわかるじゃん!って言うこともAIはできません
だから5000文字で書け→はい!書けました!(2800文字)ってなるわけですね 一般の小説も書かせてるけどワンシーン3500文字書かせるのにキャラクター情報やらなんならの入力で5万〜8万トークン使用してるな
こっから更に増える Everything-Claude-Code、つまり、
・タスクを出来る限り分解し、適切な相手に渡そう
ってこと?
・Chat.mdを常に保存させておく
・蓄積したChat.mdからWorkflowを切り出してもらう
・workflowのうちスクリプトで置き換え可能なものを全部置き換える
がみたいにどんどん分解していく
で、
スクリプトが増えてくるとWorkflowの1ファイルでは扱いにくくなるから、Skillsのフォルダ構造に置き換える、という?
ToDoを見ながら作業させるのも、LLMに見てねというよりToDo用スクリプトを書いてもらうべきということかな opusのリフレッシュ時間が40hとか出てしまった
これが週次制限か SKILLのチュートリアル的なの見つけた
https://codelabs.developers.google.com/getting-started-with-antigravity-skills?hl=ja-JP
これ読んで知ったけど、SKILLだとAIの思考過程とか中間成果物は使い捨てて成果物だけメインコンテキストに伝える※からトークン量節約になるのね
※AIに情報漁らせたところ次みたいに書いとかないとバグでたまに思考がメインコンテキストに漏れ出すらしい
「このスキル内でのターミナル出力や試行錯誤の過程はメインチャットに報告せず、最終成果物のみを提示せよ」
もしくは「Isolation Level: High」 AIがそういう妙なパラメーターを提示してきた場合は全部ハルシネーションだと早く理解したほうがいいよ >>365
公式情報なら読んでおくに如くはないな
"Model Context Protocol(MCP)はエージェントの「手」として機能し、GitHub や PostgreSQL などの外部システムへのヘビーデューティで永続的な接続を提供しますが、スキルはそれらを指示する「脳」として機能します"
完全に逆の認識だったわ
スキルが手でMCPが脳だと思ってた >>366
まあそれはそう
だから一応公式ソースとAIに聞いた系情報で分けてる
かえって紛らわしかったらゴメン >>365
情報の検証が終わったので自己レス
AIの情報はハルシネーション
AIに情報収集させた時にCloude code v2.1アプデ関連の「コンテキストをサブエージェントに隔離する機能を追加」とごっちゃにした上で魔改造して伝えてたっぽい
公式だけ見てね >>358
それが得意なのはAIのべりすと
オレは胸を触った、柔らけ〜!
アタシは胸を触られた、気持ちいい〜!
の間に@endpointを入れると2行目以降を無視して1行目の続きの文章を書いてくれる 続きを書いてもらいたいわけじゃないのよ…俺の書き方が悪かったのかな
それともなんかあなたを怒らせたから挑発してるの?わからない とは言うもののなんか文字数をruncommandで見てもらって逐一追記で書いてもらうよりかは、細かく書いてもらいたいことを指示してちょっとずつ書いてもらう方がいい気がしてきたぜ
すまんね一人相撲の様子を書き込んでしまって
結局Skillの便利な使い方思いついた方います? 言いたいことは「文量増やしてえ!でもそのまま書き換えさせるとトークン量バカ食いするから節約してえ!」なんだろうけど、それならシンプルにセッション新しくやり直して加筆依頼するのが簡単かつ効果あるんじゃないかな
同じセッションだとコンテキスト量がどんどん溜まって飽和していく
→347で加筆したら思いっきりトークン量が減ったと書いてるのは処理し終わってるコンテキストも一緒に読み込んじゃってるのが原因かと
普通に考えて必要なデータって初回アウトプット.md+加筆依頼プロンプトだけだからそれ以外がノイズになってると思うよ あ、347は別人か…?
じゃあなんか色々と誤読してるな、忘れて 長編小説書かせてて、10話まで書き終わって新しいセッションで11話書かせるとき、設定資料と10話だけ読ませて11話書かせるのと、ちゃんと1〜10話全部読ませてから書かせるのでは結構質に差があった Agのモデル選択部分が「No select model」になってて選びようがなくなってて使えないんだけど同じ人いる? 俺もなってるからサーバーがいかれてるな
人が増えすぎたか なんだみんなもか
サーバーのことならどうしようもないな、帰るわ 公式フォーラムも抗議殺到だよ
不安定すぎる
返金してくれ 俺もモデル選べなくなって使用不能
みんなそうならある意味安心 今起動して見に行ったら、全モデル使えるね。Googleアカウントログイン周りじゃない? 一度ログアウトしたら? ログアウトしたらログインできなくなって閉め出されて草
There was an unexpected issue setting up your account. Please try again later. ■ このスレッドは過去ログ倉庫に格納されています