>>795 いま下の軽量版は走らせてみたんだけど、ripgrepでマルチワード引っ掛けるより精度悪かったよ。 2.5GBのcuda版落としてる所

モデル        多言語対応(日本語)  意味理解 次元数  所感
multilingual-e5-large (1.3GB)  高い   非常に強い 1024  ニュアンスや行間を読むのが得意。ロールプレイの雰囲気検索向き。
MiniLM-L12-v2 (470MB)   中程度    浅め   384   キーワード一致に近い挙動になりがち。細かい感情の機微を拾いにくい。