高レベルの話してもついてこれないくせに

LLMについてはローカルで動かすくらいには詳しいよ
ローカルだと700Bのモデルでも量子化されたGGUFならRAM64GBあれば十分乗る
gitの知識やターミナルも最低限扱えないといけないので君らにはちと難しいかもね
スケーリング側では学習が一定を超えると急に賢くなると言われててメガテックのモデルに比べてローカルはまだまだなんだけど
それでもチャットするには十分だったりするよ
CUDAのGPU(RTXとか)がいるし君らのPCじゃ無理かな?
賢さ(パラメータの大きさ)より日本語のデータセットをどれだけ食ってるか、つまり日本語に特化してるかのほうが話してるときの雰囲気が出てて楽しいかに直結してると思ってる
文字で抜ける民にとってはLLMの情報を追い、どう活用していくかが重要な課題

このレベルの簡単な話でも君らにはちんぷんかんぷんなんでしょ