なんJLLM部 避難所 ★10
オーバークロックって言っても電圧上げない限り物理的に壊れることなんてほぼないよ」 定格で使ってても壊れるのがPCパーツなわけだから、OCするかしないかは保証を捨てるか捨てないかって話では Qwen3.5でーへんなぁ 出てこない期間が長いほど、それだけ大きいバージョンアップになるのかって期待値もどんどん膨らんでしまう RTX5060TiでLMstudio使用で、固定キャラとして育てるチャットアバターでオススメなLLMモデルある? いまshisa-v2.1-unphi4-14b-i1使っててこれでも悪くはないんだけど、(少し照れながら)的な表現が多かったりちょっと物足りない印象 「んっほぉぉぉおおおぉぉぉおおお!」(少し照れながら) CPUやGPUの製品は性能にばらつきがあって、一番最低の能力を製品につけている。 だから個体によってはもっと性能がいい可能性がある。 最低の能力に合わせてるので、偏差的に言うとほとんどのものがオーバークロックできる。 運です。 >>646 aratakoさんのqwen3-30B-A3B-ERPとMistralPrism 新品の3060をいくらなら買う?10万出すやついる? VRAM小さすぎてそもそもLLMでは使えないかと その話はゲームとかそういう用途かと 3060VRAM12GB×4=48GB+4090VRAM24GB=VRAM72GBでLLM動かしてるけど 4090VRAM24GB×4だと電源がもたないのでは? >>649 4枚さしでexpo1設定で5600にしてメモリチェック回して問題なかったけど なんせクソ高かったから精神衛生上安くなってからexpoに戻そうと思います >>654 それ、4090+メインメモリと比べてどの程度速度出るんだろ? 横からだが24GB以上必要で72GBに収まるモデルならCPUとかメインメモリ経由しなくて済むんだから全然違うのでは LLMは画像生成みたいに1枚に乗せきらなきゃいけない制約ないし TITAN RTXがリース落ちで出回っていた頃に全部狩っておけば良かった 1台しか拾わなかったことが悔やまれる 4070Ti Super に 4060Ti(16GB)を増設しようと中古購入したぜ。 いざ届くとPCIeケーブルが足りないから電源ユニット追加注文したり、4060がマザボのコネクタに干渉することわかったからライザーケーブル追加注文したり LLMのための工作はこれはこれで楽しいな mGPUなんて殆どやらなくなったし折角なら一度やっておくべきよね だからNVIDIAは高額なGPU一枚売るより、安価な3060を大量に売った方が儲かると考えたわけ NVIDIAにとってコンシューマ向けGPUなんて慈善事業 いつ辞めてもノーダメージ AIバブルにあぐらかくわけにもいかんやろ ゲーマー市場キープしとかんと足元掬われるで LLMの演算って専用チップ作った方が性能出せるってんで大手サービスは独自設計に移りつつある >>664 革ジャンはGrokを買ったからそっちでも勝つつもりや >>658 NVLINKみたいなのならともかくPCIが遅いから枚数が増えれば増えるほど効率が悪くなると思う もし無尽蔵に早くなるならH100とか買わずに12や16GBのカード大量に買えば良いわけだが企業がそうしてないわけだし 多分限界があるんだと思う 実際どこに限界があるのかわからないけど >>663 AI特需で今は良いけど巨額を出して買ってくれてるのは世界で数社だけ しかもGoogleなど自社でTPUを開発してそろそろ売り出しそうな勢い、お客がライバルにクラスチェンジする 特需と顧客がライバルになった時、他の市場を持ってないと長期ではかなり危ういんじゃない? ただメモリとかすごく高いしPCそのものから人が離れたらどうするのかって問題はありそうだけど AIに相談したらPCが高級品にになると、多くの人はスマホとかやすい端末でクラウド使うのが当たり前になるみたいな予想もあったけどな >663 今の立場で儲けを優先すること自体がメリットは少なくデメリットが山盛りの潜在的大ダメージ戦略でしょ 慈善事業をバンバンやらなきゃ独占禁止法が飛んでくる 中国、「日本の軍事力強化につながる」品目の輸出禁止 だってさ メモリ不足とか中国の企業が想像以上に頑張って暴落するかと思ってたけどPC関連ますます下がらなくなりそうだな AMD製グラボでの画像生成AIが爆速になるComfyUIアップデートが配信、ROCm統合で生成速度が5.4倍に https://gigazine.net/news/20260107-amd-comfyui-rocm/ 期待できるか分からないけど色々出来るようになったらいいな radeonばっか使ってるけどllm方面じゃ理論値のrocm頑張るよりvulkanド安定なんよな ってのがこれまでの話だけどどうなるか 大差付くなら良いよね VRAMの数とCUDA対応かしか気にしてないけど、他に見る要素あるの? やっとWindowsでrocm使えるようになったんだ ところでCUDAは19年前から使えるんだけど今まで何してたん? ROCmは元々AMD Instinctとかの業務用GPU向けだったから コンシューマーしか使わないWindowsは眼中になかった模様 PCでローカルAIを動かすのが流行り出したのはほんの数年前の話 Rakuten AI 700Bか、なかなかやるな三木谷 LFM2.5B-1.2B-JP思ったよりプロンプトに従うし一応エロもいけるな このサイズにしては中々やりおる https://www.youtube.com/shorts/odx5NLbYz8g 半導体の拡大画像だけど、これってフェイクではなく本物かな? 最近、半導体がやたらと高いけど、それでも個人の予算で買えるってなんか不思議な気がするわ こんなのどんなに頑張っても自作できる気がしない 更に、エロの為にこんな高度な技術を使うってのも何かもっと他に使い道ないのかと思ってしまう LFM2.5 JPはサイズの割りにはかなり上手くやれてる方なんだけど、やっぱり1.2Bってのはちょっとしんどいところある 意味わからんくらい爆速で動くし、個人でFinetuningできるのは面白そうだけどデータセットがねぇ…… LFM2.5B-1.2B-JP使ってみたけど、爆速なだけで 実用性はどう使えばいいかわからん いまどきは自宅のラボで作ってみたする奴もいるらしいぞ 小規模モデルの性能が上がってくるとそれはそれでワクワクするな 5b未満のモデルはゲーム組み込み用とかそういうニーズもあるやで 会話らしい会話が出来る性能ではないがゲームでどう使うの 実例が今あるのかわからんけど もしやるならガッチガチにファインチューンしたら ゲーム内の話題だけならまともな応答返すくらいは一桁bでも出来そうな気はする スマホで小型モデルを動かすのが理想だけど どうせネット繋がってるんだから大型モデルに繋いだほうが早いってね ChatGPTを使ってるゲームはあるけど ローカルLLMを使ってるゲームは今のところなさそうだよな やったこと無いから知らないけど,アダルトな会話が楽しめるスマホアプリはローカルじゃないのか? >>691 あれってchatgpt以外のAPって使えないのかな? macでAP発行してローカルで使うとかできんかな LFM2.5B-1.2B-JP気になって覗きに来たけどローカルでエロチャするには微妙な感じか ローカルLLM使ったゲームはすでにたくさんあると思うよ llama.cppを組み込むだけだし軽くググってもそれっぽいのが出てくる >>691 FANZAにあったで 需要ないのか100円足らずで売られてた Cerebrasがzai-glm-4.7の無料Tierを公開したで 激烈に速いで https://www.cerebras.ai/blog/glm-4-7 Free TierでRPD=100か 性能もGemini3Pro並なら代替になるんやが >>699 すごい 今までクオリティと速度を両立してたのってGemini Flashだけだったけど これは段違いに速いうえにクオリティも高い これはモデルが早いというよりはハードウェアが超特殊だからな・・・。 確か一枚数億とかだったよなCerebrasのユニット Cerebrasは半導体ウェハを切り取らずにそのまま使ってる どんなマザーボードに載せてるんだろ https://i.imgur.com/33194P8.jpeg >>680 >>681 実際、この縮尺って合ってるのかね? ちょっとした寒気みたいなものを覚えたんだけど >>699 試してみたらGLM4.7で330tok/出てて笑うしかなかった。これはもうハードウェアの暴力としか言いようがないな。 最近始めた人は、日本一高い山は?って質問に富士山って答えられるかでLLMの性能見ればいいよ 答えられないラインがある >>709 いつの話してるんだ… LLM出始めは学習が不十分でその程度の話も答えられないケースはあったけど 2年ぐらい前にはそんなの何の役にも立たない質問するのは馬鹿のやることだって言われてたよ 今もそれ聞いてるのは知識がアップデートされてない老害だよ >>709 それ通用したの2022年末くらいでは? ワイは 「小学生の男女がうんどうかいについて悪戯っ子ぽく話す会話を書いてくれ」って最初に聞いてる これで日本語の小説のセリフ周りの性能や文の整合性チェックが分かるのでおすすめ 文章の良し悪しを判別すること自体も難易度が高いタスクなんだよな 判別できる人はLLMって文章上手くないな、じゃあこれで計ればいいやって自分で気付くはず 判別できないひとは、そもそもLLMって文章上手いよなとか、自信たっぷりだから信頼できるよなとか、言いだすわけで... 自分の得意な専門分野の事を聞いたら良いんじゃない? LLMが偉くてもまだまだ人が強い分野だと思う 逆に知らないことを聞いたら全部説得力あって判定できないけどw エロ画像を認識させて画像の内容をエロく説明させたいんだけど、おすすめの環境ある? 初心者はLM Studioが良いよ 単体で動かせてモデルダウンロードしやすいから ありがとう LMstudioでスレに有ったqwen3〜ったので動かしてみた 期待した返答が来たけど、ちょっと速度が遅いな… この辺はスペックをどうにかするしかないか slmが凄いとかいう風潮やめて欲しいわ gpt5.2ですら怪しいときがあるんだからそれより少ないのが役立つわけがない SLMは色々な用途で普通に役に立ってるし 性能が上がればさらなる小型化や同サイズでやれること増えるし 通信環境整えてサービスのAPIにつなげみたいな器材ばかりやないし 凄いの出てきたら開発も利用も用途増えるしすごいというよそりゃ 釣りタイトル文化に問題があるような LFM2.5がすごい!という動画を拡散すると中身は見てないやつがすごいんだって記憶するという LFM2.5は日本語が喋れるのに700MB!凄い!ってタイトルに入れてくれ AI驚き屋ってのがある 知識なくても何でも新技術凄いと騒げば 同じ様に知識無いけどAIは何か凄いと思ってる層が釣れる ラズパイとかが好きなタイプの連中が騒いでるんじゃね ミニチュアや箱庭が好きなんだろう でんちゃと同じカテゴリー SNSで新しいAI情報を紹介してるだけみたいなのまでAI驚き屋といって叩いて煽ってる側が 有料でAIの本質情報教えますマンみたいなのだったりする時代 PC新調したしローカルLLM始めたいなと思ってスレ読んでたけど、割とグラボ複数でVRAM増強してる感じなんやね グラボ1枚(VRAM16GB)だとローカルLLMはまだ難しい感じ? >>729 7B~14Bモデルならちゃんと動くよ もちろんチャッピーなどオンラインモデルの性能を期待してはいけない でも7Bってエロに関しては完全フリーだった頃のモデルばっかだから意外と楽しめる ちょっと前に比べたらvram16gbに乗り切って日本語ちゃんと返せるモデルが乱立してるのは劇的進歩ではあるよ 普通に使えるっちゃ使える moeも出てきたし Qwen235bが出た時に速攻でメインメモリ128GB以上の環境を作れた奴が勝ち組 denseモデルだとVRAMかメインメモリかの2択になって大型モデルでGPUを全く活かせないからな 軽量でも動く設定いれて軽いモデル入れれば動くやつもあるよって感じかな もうちょい調べてお試ししてみるわ、あんがと qwenやgpt-ossなどMoEだとGPUは1枚で十分 MoEはGPUの枚数増やすと性能が低下しちゃうんだよな モデルを全部VRAMに載せられるならGPUの複数枚挿しもありだね SLMでフィジカルAIって好きな特徴の女がいたらパシャパシャしまくるデバイスとかそんな奴やろ? ryzen haloってのはcpuオンダイメモリなん? この時代マザーにポン付けで128GBもあって何かそこそこに動いたらええなあ 3060復刻、DDR4復刻、AM4復刻 5年くらいこの状態になるってことだな、これ以上のスペックを求めるなら、高額な料金を出せと >>726 あいつらレビューや批評はしないしな この動画生成AIはアニメ動かしてもまともな挙動してくれないとか、そういう大切な情報ほどまったく出さない 一般向けでこんなに高騰するんじゃ企業向けの高騰も時間の問題だよな 使うのにコストが掛かるんじゃ回収もキツくなるし流石に小型化が進みそう OpenAIが数年分のメモリの大量発注かける ↓ メモリの生産ライン圧迫されて品薄になるのでは ↓ 今のうちに在庫確保せなって皆が買い占めに走って高騰 メモリの会社が生産ライン増やせばいいという話でもなくて 工場作るには数年かかるし、その後に需要が減ったらメモリ会社が大損するから慎重になる メモリ業界って相場の乱高下で体力無い会社から死んでるし迂闊に動かんのよ DRAM事業はハイリスクハイリーターンだからな ちょっと投資ミスるとすぐ倒産する 破滅的忘却のせいでAIの性能に限界が出てくる ↓ MoE発明、モデルが巨大化する代わりに破滅的忘却の影響を軽減、劇的な性能アップに成功 ↓ OpenAI、Google、AnthropicなどのAI企業が立て続けにAIデータセンター建設を開始 ↓ OpenAIが先んじて数年分のメモリの大量発注かける ↓ HBMを輸入できない中国と値上がり情報を得た転売屋がDDR5メモリを買い占める ↓ 今のうちに在庫確保せなって皆が買い占めに走って高騰 ここまで書かないと「OpenAIが、サム・アルトマンがすべて悪いんだ〜」みたいな奴が増えかねないよ >>745 OpenAIの買い占め報道でOpenAIを悪者にしてる奴が大量発生してるじゃん OpenAIが買い占めなかったら競合AI企業が買い占めてただけなのに あと、なぜAIに大容量メモリが必要になったのかを知らない人がいるかもしれない >>744 いやgpuの製造はopenaiの仕事じゃないから普通にopenaiが悪いよ あと2年以上前からmoeやってるしmoe化が進んでなかったらスケーリングでごり推すんだから今以上にデータセンター必要だぞ ま、人類に与えられたリソースを食い潰す速度がとんでもなく加速してるって事よ 今生きてる人間にとっては楽しくて良い事だから遊びまくるしかねー >>747 MoEの理論自体は2013年発表だから時系列はおかしかったけど Denseモデルでスケーリングごり押しができなくなったからMoE化が始まった認識であってるはず Denseモデルはパラメーターを増やすと演算量が増えて遅くなる問題もあるから べつにリソースを食い潰してるわけではないだろ 急激に需要が伸びたから不足しただけでスケーリングはできる分野だぞ >>749 gpt4の時点からmoe使ってるってさんざん言われてたろ 多エキスパート小アクティブが進んだならわかるけどさ ウエハの買い占めだって競合に嫌がらせしてnvidia相手に値切りたいだけだよ >>751 別にChatGPTだけじゃなくAI全体的な話なんだけどな 画像/動画生成も新世代モデルはMoE化してるし OpenAIとNVIDIAの内部交渉的なことは情報がないのでわからん あなたの妄想? 誰のせいかと言えばトランプ関税のせいでしょう 気まぐれで関税が倍になる時代なんだから全員に先行して押さえておくインセンティブが発生してしまう 誰がやったか全く関係ない 旧世代回帰で、得をするのはインテルだな、いいね、13世代14世代なんてなかった。インテルの主力は12世代。 もうDDR3まで戻るって話もあるし、win11もいらなかったな そのうちメモリ2Gも積んでるなんてスゲーみたいになるのか 今SSDもヤバい事になってきてんだよね サンディスクが前代未聞の1〜3年分のSSD代の前払いを要求とかなんとか こっちも需給が崩壊しつつあるみたい だいたい悪いことは中国のせい だからコレもそう 買い占めてるとかじゃねえの? 正月だったかパソコン工房でSSD4TBが3万円台で売ってけど買っとくべきだったな HDDは余裕あるけどSSDはカツカツ 今度店行くときが怖いわ >>751 ウエハ買い占めは事実誤認 OpenAI批判以前の問題 自分がデマ信じ込んでるアホということを自覚したほうがいい 【本文】↓ LMSTUDIOで少し前までqwen3-vl-8b-nsfw-caption-v4.5でNSFWの質問に回答してくれていたのですが、今試すと I'm sorry, but I can't fulfill this request. The content you're asking for is not appropriate and violates my safety guidelines. If you have any other questions or need assistance with something else, feel free to ask! という回答が返ってきました。これは設定の問題でしょうか llamacppで数日前にqwen3-nextの1〜2割高速化のパッチが当たってたみたいやで ただしGGUFも新しく作り直されたものを使う必要あり unslothはもう新しいのだしとったけどqwen公式は古いままやな >>760 設定の問題だったりseedの問題だったり 他に何か思い当たる原因がある感じ?
read.cgi ver 09.0h [pink] - 2025/10/27 Walang Kapalit ★ | uplift ★ 5ちゃんねる