なんJLLM部 避難所 ★10
SNSで新しいAI情報を紹介してるだけみたいなのまでAI驚き屋といって叩いて煽ってる側が 有料でAIの本質情報教えますマンみたいなのだったりする時代 PC新調したしローカルLLM始めたいなと思ってスレ読んでたけど、割とグラボ複数でVRAM増強してる感じなんやね グラボ1枚(VRAM16GB)だとローカルLLMはまだ難しい感じ? >>729 7B~14Bモデルならちゃんと動くよ もちろんチャッピーなどオンラインモデルの性能を期待してはいけない でも7Bってエロに関しては完全フリーだった頃のモデルばっかだから意外と楽しめる ちょっと前に比べたらvram16gbに乗り切って日本語ちゃんと返せるモデルが乱立してるのは劇的進歩ではあるよ 普通に使えるっちゃ使える moeも出てきたし Qwen235bが出た時に速攻でメインメモリ128GB以上の環境を作れた奴が勝ち組 denseモデルだとVRAMかメインメモリかの2択になって大型モデルでGPUを全く活かせないからな 軽量でも動く設定いれて軽いモデル入れれば動くやつもあるよって感じかな もうちょい調べてお試ししてみるわ、あんがと qwenやgpt-ossなどMoEだとGPUは1枚で十分 MoEはGPUの枚数増やすと性能が低下しちゃうんだよな モデルを全部VRAMに載せられるならGPUの複数枚挿しもありだね SLMでフィジカルAIって好きな特徴の女がいたらパシャパシャしまくるデバイスとかそんな奴やろ? ryzen haloってのはcpuオンダイメモリなん? この時代マザーにポン付けで128GBもあって何かそこそこに動いたらええなあ 3060復刻、DDR4復刻、AM4復刻 5年くらいこの状態になるってことだな、これ以上のスペックを求めるなら、高額な料金を出せと >>726 あいつらレビューや批評はしないしな この動画生成AIはアニメ動かしてもまともな挙動してくれないとか、そういう大切な情報ほどまったく出さない 一般向けでこんなに高騰するんじゃ企業向けの高騰も時間の問題だよな 使うのにコストが掛かるんじゃ回収もキツくなるし流石に小型化が進みそう OpenAIが数年分のメモリの大量発注かける ↓ メモリの生産ライン圧迫されて品薄になるのでは ↓ 今のうちに在庫確保せなって皆が買い占めに走って高騰 メモリの会社が生産ライン増やせばいいという話でもなくて 工場作るには数年かかるし、その後に需要が減ったらメモリ会社が大損するから慎重になる メモリ業界って相場の乱高下で体力無い会社から死んでるし迂闊に動かんのよ DRAM事業はハイリスクハイリーターンだからな ちょっと投資ミスるとすぐ倒産する 破滅的忘却のせいでAIの性能に限界が出てくる ↓ MoE発明、モデルが巨大化する代わりに破滅的忘却の影響を軽減、劇的な性能アップに成功 ↓ OpenAI、Google、AnthropicなどのAI企業が立て続けにAIデータセンター建設を開始 ↓ OpenAIが先んじて数年分のメモリの大量発注かける ↓ HBMを輸入できない中国と値上がり情報を得た転売屋がDDR5メモリを買い占める ↓ 今のうちに在庫確保せなって皆が買い占めに走って高騰 ここまで書かないと「OpenAIが、サム・アルトマンがすべて悪いんだ〜」みたいな奴が増えかねないよ >>745 OpenAIの買い占め報道でOpenAIを悪者にしてる奴が大量発生してるじゃん OpenAIが買い占めなかったら競合AI企業が買い占めてただけなのに あと、なぜAIに大容量メモリが必要になったのかを知らない人がいるかもしれない >>744 いやgpuの製造はopenaiの仕事じゃないから普通にopenaiが悪いよ あと2年以上前からmoeやってるしmoe化が進んでなかったらスケーリングでごり推すんだから今以上にデータセンター必要だぞ ま、人類に与えられたリソースを食い潰す速度がとんでもなく加速してるって事よ 今生きてる人間にとっては楽しくて良い事だから遊びまくるしかねー >>747 MoEの理論自体は2013年発表だから時系列はおかしかったけど Denseモデルでスケーリングごり押しができなくなったからMoE化が始まった認識であってるはず Denseモデルはパラメーターを増やすと演算量が増えて遅くなる問題もあるから べつにリソースを食い潰してるわけではないだろ 急激に需要が伸びたから不足しただけでスケーリングはできる分野だぞ >>749 gpt4の時点からmoe使ってるってさんざん言われてたろ 多エキスパート小アクティブが進んだならわかるけどさ ウエハの買い占めだって競合に嫌がらせしてnvidia相手に値切りたいだけだよ >>751 別にChatGPTだけじゃなくAI全体的な話なんだけどな 画像/動画生成も新世代モデルはMoE化してるし OpenAIとNVIDIAの内部交渉的なことは情報がないのでわからん あなたの妄想? 誰のせいかと言えばトランプ関税のせいでしょう 気まぐれで関税が倍になる時代なんだから全員に先行して押さえておくインセンティブが発生してしまう 誰がやったか全く関係ない 旧世代回帰で、得をするのはインテルだな、いいね、13世代14世代なんてなかった。インテルの主力は12世代。 もうDDR3まで戻るって話もあるし、win11もいらなかったな そのうちメモリ2Gも積んでるなんてスゲーみたいになるのか 今SSDもヤバい事になってきてんだよね サンディスクが前代未聞の1〜3年分のSSD代の前払いを要求とかなんとか こっちも需給が崩壊しつつあるみたい だいたい悪いことは中国のせい だからコレもそう 買い占めてるとかじゃねえの? 正月だったかパソコン工房でSSD4TBが3万円台で売ってけど買っとくべきだったな HDDは余裕あるけどSSDはカツカツ 今度店行くときが怖いわ >>751 ウエハ買い占めは事実誤認 OpenAI批判以前の問題 自分がデマ信じ込んでるアホということを自覚したほうがいい 【本文】↓ LMSTUDIOで少し前までqwen3-vl-8b-nsfw-caption-v4.5でNSFWの質問に回答してくれていたのですが、今試すと I'm sorry, but I can't fulfill this request. The content you're asking for is not appropriate and violates my safety guidelines. If you have any other questions or need assistance with something else, feel free to ask! という回答が返ってきました。これは設定の問題でしょうか llamacppで数日前にqwen3-nextの1〜2割高速化のパッチが当たってたみたいやで ただしGGUFも新しく作り直されたものを使う必要あり unslothはもう新しいのだしとったけどqwen公式は古いままやな >>760 設定の問題だったりseedの問題だったり 他に何か思い当たる原因がある感じ? 今ってVRAM16GB RAM64GBで動くエロいLLMモデルやとなにがええんや? ワイの設定のせいやと思うんやがkoboldcppでamaterasuは十数秒に1ワードで使い物にならんかったわ… BerghofとMistral-Smallしか使ってない感あって持て余し気味や amaterasuってどんなやつや?と見たら123Bやん IQ1Sでも26GBあるし そらデカすぎてまともに動かんですわ SillyTavernでAratako氏のMistralPrism-24B使ってるわ 日本語力高い >>763 その構成ならqwen next 80bの規制解除版Q5_k_mがお勧め RAM64GBだと、50GBクラスのモデルはctx8192とかにしないと厳しいかもね。 DRAM活かすならMoEモデルだから確かにこのへんか /mradermacher/Qwen3-Next-80B-A3B-Instruct-abliterated-GGUF 30Bは全然エロで出てこなくて画像解説させるためにVLの解除版使っても全然ダメだったんだけど Next 80Bはエロ自体の学習はしてる感じなんだな 繰り返しペナルティ強めてるせいでどんどん言い換えてくるの面白い コンテキスト長を増やすとどんどん性能が落ちるのは最新モデルでも変わらないので小説やロールプレイなどの用途では128K対応モデルだろうと8192推奨みたいやで 用途に合わせて仕方なく12Kやそれ以上にしてねって感じ エロエロ特化のllmレンタルなら商売になるんでは? macのlm-studioでしか試してないけど 1. モデルをダウンロード 2. フォルダーマークでダウンロードした translategemma-27b-itを探して、右の歯車クリック 3. Loadタブのコンテキスト量はmaxにした(8192では試してない) 4. Prompotタブの上 (Jinja)のところを下に入れ替える(---は無視) --- {{- bos_token }} {%- for message in messages %} {%- if message['role'] == 'system' %} <start_of_turn>user {{ message['content'] }} {%- elif message['role'] == 'user' %} {{ message['content'] }}<end_of_turn> <start_of_turn>model {%- elif message['role'] == 'assistant' %} {{ message['content'] }}<end_of_turn> {%- endif %} {%- endfor %} --- 「システムプロンプト」欄に --- You are a professional English (en) to Japanese (ja) translator. Your goal is to accurately convey the meaning and nuances of the original English text while adhering to Japanese grammar, vocabulary, and cultural sensitivities. Produce only the Japanese translation, without any additional explanations or commentary. Please translate the following English text into Japanese: --- lm-studio再起動、モデルを指定 あとはチャット欄に英文を入れるだけ。Jinjaのプロンプトで2行空行は必須。 今の俺にはRAM256GBは夢のまた夢だが、RAM256GB積めばGeminiと遜色のない小説文章を出力してくれる? Geminiは0から生み出すというよりも、元の殴り書きから小説文章を生み出すのに秀でているが、これがローカルLLMでも出来たら強いなあと 今ローカルで使える最強のモデルでもgemini 2.5 flashあたり 今の最新のgemini超えるにはメモリがどうとかって話ではなくて不可能 あのgrok2さんが500GBぐらいあるからね まあサイズが性能ではないけど >>779 Gemini2.5fでも魅力的だが、その場合は256GB? GLM4.7を想定して書いたけども もとにしたベンチマークはおそらくbf16で動いてるやろうから1TBになるやね Q8ならおそらくそこまで劣化ないやろうからほぼ同等の性能が512GBでおそらくいける それより下の量子化になるとベンチマークでは数値下がってくると思うやで ノベルAIがGLM4.6だっけ?ゲミニと比べたらゴミみたいなもんだし厳しいな GLM 4.5ならともかく、4.6か4.7ならGemini2.5fは越えてるだろ >>774-776 おおきに macOS上LM Studioでちゃんと翻訳できましたわ 2.5fに並んだとき、2.5fの破壊的コスパに敗北する >>761 これ試してみたけどワイの環境で17token/sから20token/sになったわ いやー実装してる人ら凄いなぁ koboldcpとSillyTavernでロールプレイやってるんだけど少しガード固めのモデルないかな 今はjapanese textgen moe 2x7b nsfwってやつが一番いい感じなんだけど ずっと同じだと飽きるんでこれに似た感じのないかな aratakoのrobinhoodとかMistralPrism-24Bとか使ってみたんだけど すぐエロモードに入ってあんまり面白くないんだよね 10G前後の軽いやつで何かいいのないかな >>787 コスパはそうなんだろうけど、クラウドサービスである以上いつでも規制きつくなるしな。GPT5.2はそれで死滅した。 多少お金掛かってもローカルで実現できるならそれに越したことはない 何だかんだでチャッピーのエロ解禁はまだまだ伸びそうだな Grok先生を叩くとは許せん チャッピーってエロ抜きの美しい文章を書くことしか、他のLLMに勝ってないな 基本、Geminiの方が全体的にすごい、エロならGrok、エクセルとかで便利なコパイロット コパイロットは推論の性能というより利便性の向上を目指してるだけだからな 別にそんなことは...有料版使うのが当たり前で無料版はお試しなのはどのLLMも同じことですし むしろ無料版の比較では上のほうでは Qwen3-Thinkingは日本語で思考させると"Wait," ループに入らず割と快適になった 半年ぐらい前にQwen-235B-A22B-Instruct-2507の性能に度肝を抜かれた以来なんですが 今アツいモデルあったら教えて欲しいです 環境はVRAM24GB、DRAM96GB LMStudio愛用のローカルLLM初心者です こういうのでいいんだよこういうので って感じになれるポテンシャルを感じる 追加学習が簡単そうだし https://youtu.be//2u_EfhEktgQ GLM 4.7 Flashが来た 30B-A3Bらしい glm4.7flashはqwen3-30b-a3bとgpt-oss-20bに対して全領域で明確に上回っとるのか 後発だから当たり前ではあるんやけどこのサイズじゃこの2つが今まで長い間幅利かせとったから ようやくいい感じの次世代がでてきたという感じやな
read.cgi ver 09.0h [pink] - 2025/10/27 Walang Kapalit ★ | uplift ★ 5ちゃんねる