0263名無しさん@ピンキー (ワッチョイ 9f6e-S0xV)2025/12/11(木) 16:25:58.84ID:NSpHm0ci0 >>261 なるほど、確かにそんな感じがする llama.cpp使うのが一番良さそうかなと思ってるけど、winで使いたい時はwslでコンパイルして使う形でいいのかな? wslとかdockerだと使えないレベルのオーバーヘッドがあるとかないかなーとか気になってる