なんJLLM部 避難所 ★8
新しいセッションにしたら変な日本語だけどそれっぽいのが出たわ
お騒がせしました >>381
俺が試した限りではQwQ-32Bの方が良かったよ
Qwen3-32Bは複雑なプロンプトだと/think指定しても返答精度が低くなる模様
検閲もQwQより厳しくなってて、abliterated版でもエロ無理だった >>388
キャラ設定の項目や最初の会話の項目はちゃんと埋めてる?
設定を全く書いていない状態だとお断りされるモデルもあるよ qwenはそっち目的だと激弱という印象
回答拒否以前に学習時点でデータ排除してるっぽいから追加学習含め何しても無駄
baseモデル比較すると大体傾向が見えるけどmistral系が一番良かったよ ST使うと5ターン程会話したら同じ文を出力して会話にならないのはなんで?
どのモデルでもなる… >>392
長文すぎて設定したコンテキストサイズ超えてない? バックエンド側でコンテキストシフト的な機能を有効化してないとか? 一応huihuiAIのqwen3:8bQ5_K_Mだと
脱獄必要なくまぁまぁのエロ小説は出力されるかな
日本語よりは不便なの否めないけど >>389
やっぱり通常版より無臭版の方が色々イケないセリフも言ってくれるのかな?試してみよう >>393
設定凝りまくってるのが原因かもしれない。もう少し圧縮してみる 2025年06月18日 11時43分
世界最長のコンテキストウィンドウ100万トークン入力・8万トークン出力対応にもかかわらずたった7800万円でトレーニングされたAIモデル「MiniMax-M1」がオープンソースで公開され誰でもダウンロード可能に
https://gigazine.net/news/20250618-minimax-m1-open-source/ llama4が10Mトークンなのに世界最長を謳う時点で信用できん magnamの12,22,72まで試したけど72の性能は遅いけどけっこういいな
割とちゃんとした日本語でエロ小説書いてくれる
123は読み込んだら落ちるから使えなくて残念 chatGPTに比べたらGROKの方が倫理フィルター弱くていいな
エロプロンプト生成器として使える >>406
説明で800字
最初のメッセージで250字
キャラノート、人格の要約で各200字
対話例1800字
対話例を削ってみようと思ってるところ >>407
めっちゃ主観だけど:
文字数は余裕な気がするね
内容別で数えてるあたりセクション分けもちゃんとしてそう
例文に引っ張られてる感じなら例を減らすアプローチで合ってそう 例文やキャラ設定が多くても全く同じ文の繰り返しになったりはしないはずだからなんか基本設定がおかしいと思う 自分も比較的繰り返しになるケースある。例文というか指示文以外が多い時。あと特定のケースで起こり安くレアなシチュエーションの学習不足なのかもとか感じてる 何ターンも同じようなシーンが続くと繰り返しに陥りがち
ここらへんはgemma3が頭抜けてる
規制?知らない子ですね VIDraft/Gemma-3-R1984-27B
じゃいかんのか?