なんJLLM部 避難所 ★10
RAM64GBだと、50GBクラスのモデルはctx8192とかにしないと厳しいかもね。 DRAM活かすならMoEモデルだから確かにこのへんか /mradermacher/Qwen3-Next-80B-A3B-Instruct-abliterated-GGUF 30Bは全然エロで出てこなくて画像解説させるためにVLの解除版使っても全然ダメだったんだけど Next 80Bはエロ自体の学習はしてる感じなんだな 繰り返しペナルティ強めてるせいでどんどん言い換えてくるの面白い コンテキスト長を増やすとどんどん性能が落ちるのは最新モデルでも変わらないので小説やロールプレイなどの用途では128K対応モデルだろうと8192推奨みたいやで 用途に合わせて仕方なく12Kやそれ以上にしてねって感じ エロエロ特化のllmレンタルなら商売になるんでは? macのlm-studioでしか試してないけど 1. モデルをダウンロード 2. フォルダーマークでダウンロードした translategemma-27b-itを探して、右の歯車クリック 3. Loadタブのコンテキスト量はmaxにした(8192では試してない) 4. Prompotタブの上 (Jinja)のところを下に入れ替える(---は無視) --- {{- bos_token }} {%- for message in messages %} {%- if message['role'] == 'system' %} <start_of_turn>user {{ message['content'] }} {%- elif message['role'] == 'user' %} {{ message['content'] }}<end_of_turn> <start_of_turn>model {%- elif message['role'] == 'assistant' %} {{ message['content'] }}<end_of_turn> {%- endif %} {%- endfor %} --- 「システムプロンプト」欄に --- You are a professional English (en) to Japanese (ja) translator. Your goal is to accurately convey the meaning and nuances of the original English text while adhering to Japanese grammar, vocabulary, and cultural sensitivities. Produce only the Japanese translation, without any additional explanations or commentary. Please translate the following English text into Japanese: --- lm-studio再起動、モデルを指定 あとはチャット欄に英文を入れるだけ。Jinjaのプロンプトで2行空行は必須。 今の俺にはRAM256GBは夢のまた夢だが、RAM256GB積めばGeminiと遜色のない小説文章を出力してくれる? Geminiは0から生み出すというよりも、元の殴り書きから小説文章を生み出すのに秀でているが、これがローカルLLMでも出来たら強いなあと 今ローカルで使える最強のモデルでもgemini 2.5 flashあたり 今の最新のgemini超えるにはメモリがどうとかって話ではなくて不可能 あのgrok2さんが500GBぐらいあるからね まあサイズが性能ではないけど >>779 Gemini2.5fでも魅力的だが、その場合は256GB? GLM4.7を想定して書いたけども もとにしたベンチマークはおそらくbf16で動いてるやろうから1TBになるやね Q8ならおそらくそこまで劣化ないやろうからほぼ同等の性能が512GBでおそらくいける それより下の量子化になるとベンチマークでは数値下がってくると思うやで ノベルAIがGLM4.6だっけ?ゲミニと比べたらゴミみたいなもんだし厳しいな GLM 4.5ならともかく、4.6か4.7ならGemini2.5fは越えてるだろ >>774-776 おおきに macOS上LM Studioでちゃんと翻訳できましたわ
read.cgi ver 09.0h [pink] - 2025/10/27 Walang Kapalit ★ | uplift ★ 5ちゃんねる