>>139
その組合せは試してない。理由としては以下のように進行したからです。

素のchatntq-ja-7bを試したが、こちらの指示通りに書かないことがある
→ChatVector適用するとどうなる?出力がおかしくなるか?求めるものに近づくか?
→ChatVector適用済モデル(MoE化前)で実験、好みの動作に近づいたと判断

なので適用済をMoEの素材にした。Antler-7Bも同様

今回の処理について自分が期待していたことは、

ChatVector: Instruct強化をすると、ユーザーの指示に従いやすくなったり、話を理解しやすくなるのではないか
MoE化: パラメータ数の増加による基本能力の向上と、7Bモデル同士の短所の補強及び長所の相乗効果(言葉合ってる?)

いろいろなモデルでマージしてしばらく遊んだ個人的経験から、上記2点の可能性を見たので試して、偶然できたのが今回のモデルです
LLMはkarakuriが公開されたころ(今年2月?)に触れたばかりで、理論的なことは正直さっぱりだったりする