>>322
一応、ローカルの話出てたので興味あれば。
手元にあるモデルをkoboldで試してみたけど、別にエロ向けに微調整されたモデル使わなくても、ほとんどのモデルは不同意、口リ、近親通るっぽい。
ただ、モデルによって癖があるっぽくて、あるllama3系のモデルに対して、プロンプトにllama3のテンプレート使うと拒否されて、Mistral系のテンプレート使ったら通った。
最近はabliterateっていう技術?ファインチューンの手法?がじわじわ広がってて、検閲されてるモデルの回答拒否率を下げるみたい。
実際にaya-expanse-32b(Q3量子化)の普通バージョンとabliterateバージョンを比較したら、abliterateは通るようになった。
エロ向けのモデルは、予め淫語がインプットされてるからいっぱい淫語を用いてくれる点と、性交の冗長な描写が特徴的。
調整されてないモデルだと、性交の様子もこっちで考えてプロンプトに組み込まないと、さらっと「性交したよ〜」っていう一文で終わったりする。
70Bまでいけばそこそこ書いてくれる気がするけど、結局、「モデルによる」としか言えない。
ローカル勢は、プロンプトよりも、みんな温度とかMin-pみたいなSamplersをいじってると思う。
でも、モデルや使う人によって適切な値変わるし、いちいち共有するものでもない感じ。
ChatGPTなんかもAPIからならTempuretureとtop_pは変更できるはず。
昔はhyperparametersっていうのがあって、そこでtop_kとかRepetition Penaltyとか色々設定できたらしいけど、今は使えなくなった。多分。