0756名無しさん@ピンキー (ワッチョイ 9b11-JU9y)2024/05/30(木) 09:45:02.95ID:1vf3Gqc90 元のStreamingLLMはコンテキストの上限を超えても(ある程度性能を保ちつつ)無限に生成を続けられる実装になってるんだけど、oobaの方でも同じようになってるのかは気になる