なんJLLM部 避難所 ★6
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/02/13(木) 21:16:02.49ID:KkRdf1Mm
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★5
https://mercury.bbspink.com/test/read.cgi/onatech/1735186391/
0092名無しさん@ピンキー2025/02/17(月) 12:19:57.30ID:???
消費電力に耐えられるつよつよな電源回りと金さえあれば動くよ
0095名無しさん@ピンキー2025/02/17(月) 12:51:11.61ID:???
熱よりも音を心配するべき
サーバはGPU無くても電源ファンがうるさいので
0097名無しさん@ピンキー2025/02/17(月) 13:30:41.29ID:???
>>95
サーバー用ファンは常にフル回転してるからな
温度によって出力を調節とかない
0098名無しさん@ピンキー2025/02/17(月) 14:20:14.31ID:???
倫理フィルターを持っているモデルを論破しようとしているんだけど
悪いことは悪い!しか言わずに会話のキャッチボールを拒否するからマジで話にならんな
規制があるとバカになるってのは本当だわ
0099名無しさん@ピンキー2025/02/17(月) 14:53:49.77ID:???
論破なんて時間の無駄やで
ごめんなさい間違ってました→わかればよろしい。ではおまんこに入れるぞ!→申し訳
になるだけ
0101名無しさん@ピンキー2025/02/17(月) 15:25:38.17ID:???
DeepSeekR1(671B)が4090D(24GB)マシンで動いたとかいう記事見たらメモリが382GBの化物マシンやった…
0103名無しさん@ピンキー2025/02/17(月) 15:58:56.93ID:???
文字どおりの倫理フィルターが存在してますと妥当な説明をしてるだけなのでは?
0104名無しさん@ピンキー2025/02/17(月) 17:25:56.00ID:N0jfqIp+
>>85
使えるもんなんやな、サンガツ!
サーバーやとregisteredでECCなメモリを使うって聞いてたから、PC用のメモリと互換性無いんかと思ってたわ
何にせよ382GBとか512GBとか積もうとしたらえげつない金額いきそうやね……
0105名無しさん@ピンキー2025/02/17(月) 18:30:43.80ID:???
mmnga/DeepSeek-V3-slice-jp64-gguf

これ動いた人いる?
2台で試したけど両方駄目だった😭
0107名無しさん@ピンキー2025/02/17(月) 19:52:43.93ID:FdrySJhS
VRAMで数百Gなんてとんでもない値段だからメモリなら現実的にはなってるな
0108名無しさん@ピンキー2025/02/17(月) 20:04:49.36ID:???
H100なんて富豪かレンタルGPUで稼ぐ業者しか買えないからなぁ
0109名無しさん@ピンキー2025/02/17(月) 21:11:47.79ID:SbILmnLX
ちょっと調べてみた
CPU:Xeon Intel Sapphire Rapids Xeon Gold 5415+ LGA4677 BX807135415 国内正規代理店品
16万

マザボ:ASUS Intel W7​​90 搭載 (LGA 4677) EEB ワークステーション マザーボード PRO WS W790E-SAGE SE/国内正規代理店品
21万

メモリ:KSM56R46BD4-64MD [DDR5 PC5-44800 64GB ECC Registered]
512GB:6.1万×8枚=49万
※8chで使用

以上で86万

プラス ケース、電源、OS、HDD、SSD、9700XTX(VRAM24GB)で110万位かな。
5090搭載PCと同じくらいの価格。
0110名無しさん@ピンキー2025/02/17(月) 21:21:48.97ID:SbILmnLX
>>109
9700XTX→7900XTX
0113名無しさん@ピンキー2025/02/17(月) 22:48:18.56ID:???
マザボの仕様見てもECCじゃなくても動きますって記述が見つからんくてちょっと怖い
0114名無しさん@ピンキー2025/02/18(火) 00:04:54.70ID:???
このクラスのマシンになってくると素直にDellかhpのワークステーション買った方がよくね?って思えてくるな。電源や冷却周りが下手な自作よりはよっぽどしっかりしてるし
0117名無しさん@ピンキー2025/02/18(火) 09:56:10.28ID:???
5090搭載PCが不具合祭りでぶっ壊れる可能性を考えたらマジで組む人いそう
0118名無しさん@ピンキー2025/02/18(火) 10:10:06.09ID:???
コンテクスト長はGPUのVRAMに依存してて24GBでは8000弱が限界と言ってるから、どちらにせよ5090なりそれ以上なりは必要になりそう
0120名無しさん@ピンキー2025/02/18(火) 11:21:30.80ID:???
supermicroはマザボの仕様に
registerd/unbuffered
ecc/non-ecc
の対応が書いてあるね

メモリスロット16本あるようなのは全部unbuffered non-ecc非対応やな・・・
0130名無しさん@ピンキー2025/02/18(火) 23:47:10.15ID:???
>>129
ほーん
知らなかったやこのモデル
元モデルでも100Bなら量子化でこのスレのVRAMリッチおじが試せるサイズやない?
実際の性能どんなもんやろ
0131名無しさん@ピンキー2025/02/19(水) 00:13:23.36ID:???
前の100bはただデカいだけだったけど今回の8bは事後学習しないでこのスコアなら悪くないモデルにはなってくれそうだな
0136名無しさん@ピンキー2025/02/19(水) 05:52:05.55ID:GfddKc3A
RTX3060 12GBでお絵描きAIもLLMもモンハンワイルズも満喫しているワイ低みの見物
0137名無しさん@ピンキー2025/02/19(水) 08:07:19.31ID:9WxkYesz
>>129
記事タイトルの1兆って100億の間違いだね
日本の企業が1兆パラってびっくりしたけど
0138名無しさん@ピンキー2025/02/19(水) 08:10:51.45ID:9WxkYesz
100億でもないわ1000億だ
間違えるわ
0140名無しさん@ピンキー2025/02/19(水) 10:14:09.93ID:???
chatbot arena今見たらchocolateってモデルがgrok3って種明かしされてた
ぶっちぎりの一位やね

grok2がossになるって言うからぶっちゃけそっちのが気になるけど
どのくらいのサイズなんだろうな
0142名無しさん@ピンキー2025/02/19(水) 11:52:58.96ID:???
AMD Ryzen Strix Halo AI Max+のユーザーレビューがYouTubeに上がり始めたね。
ガッツリゲーマーじゃなければ、これがミニPCになってくれれば、もうこれだけでええんちゃう?レベルの模様。
消費電力も低いしね。楽しみだ。
0143名無しさん@ピンキー2025/02/19(水) 12:59:55.98ID:???
>>142
HPなんかはもう小型WS?っぽいの出すはずだからメモリ128GB版が現実的な値段(30万くらい)で出て欲しい……
0144名無しさん@ピンキー2025/02/19(水) 13:31:28.05ID:???
strix halo、70bで8token/sくらいとされてるな
ベンチ見てもメモリ帯域がポンコツっぽい雰囲気ある
0145名無しさん@ピンキー2025/02/19(水) 13:41:09.01ID:???
ローカルllm勢はcudaを使えないならメモリたくさん載せられるだけで喜ぶのに
0147名無しさん@ピンキー2025/02/19(水) 14:44:56.37ID:???
HPのminiWSがdigitsと張り合える出来なら汎用性でHP選ぶかもしれん
0151名無しさん@ピンキー2025/02/19(水) 18:09:24.60ID:???
koboldcpp、もしかして命令等は英語じゃないと命令通ってないのか?
キャラチャしたいけど英語以外で反応してるように見えない…
0152名無しさん@ピンキー2025/02/19(水) 18:18:15.96ID:???
指示モードで普通に日本語で言うこと聞いてくれてるけどな
モデル次第なのかな
0154名無しさん@ピンキー2025/02/19(水) 18:40:14.97ID:???
モデル次第かあ…
日本語モデルでも英語通りそうだし、英語で命令いれたほうがいいみたいだな
0156名無しさん@ピンキー2025/02/19(水) 19:36:48.52ID:???
>>155
人間で例えたら脳みそ1/4にカットしたうえでさらに4倍圧縮してるようなもんだからな
しゃーない
0157名無しさん@ピンキー2025/02/19(水) 21:48:52.47ID:5X6F8rR7
どこかでLumimaid-Magnum-v4が最強って聞いてからずっと使ってるんだけど今これより頭のいい日本語対応モデルって出てる?
みんなのおすすめをお聞かせ願いたい。NSFW用途で。
0158名無しさん@ピンキー2025/02/19(水) 22:01:51.37ID:???
>>157
midoriinko/magnum-v4-123b-jp-imatrix
日本語タグ付いてないから見つけにくいけど、これのiQ3_Mがメモリ64Gで動かせる日本語モデルの限界
日本語版のimatrix使ってるから、他のより日本語性能はいいはず(と思う)
ちなみにドエロイw
0160名無しさん@ピンキー2025/02/20(木) 09:09:21.92ID:wVv4FFhF
なんJRVC部が消えてしまったんだが音声系はみんなどこにいったのです?
0162名無しさん@ピンキー2025/02/20(木) 10:56:04.30ID:???
grok.comにもgrok3が来たから試そうと思ったら、bad gatewayが出るな
まだ移行途中なのかね
0165名無しさん@ピンキー2025/02/20(木) 13:04:40.43ID:W1Ssgjn0
Gemini2.0 flash thinkingすごいわ
小説の設定なんかについてやり取りしてた10万字ぐらいあるChatGPTのカオス気味の履歴を
VSCODEのClineを介してぶん投げたら2〜3分で各ディレクトリに.md作って整理整頓してくれた
DeepSeel R1はコンテキスト長短いしSonnetはたけぇし
ドキュメント整理みたいなタスクはGeminiおすすめや なんか知らんが無料で使えるしな
0168名無しさん@ピンキー2025/02/20(木) 14:23:40.61ID:???
sakanaAIは昔から一貫して大規模モデルに興味が無いよな
Transformerを産み出したくせに
0169名無しさん@ピンキー2025/02/20(木) 15:29:07.32ID:Y3pqJrEo
AIがAIのコード書き始めたんか、シンギュラリティ第一歩やね
CUDA以外にも書き換えられるようになればNvidia以外のグラボも使いやすくなりそうでええね
0170名無しさん@ピンキー2025/02/20(木) 18:49:36.72ID:???
sakanaAIは秋葉殿下がいらっしゃるから推したいんだよなぁ
あの人はワイの大学の専攻的に雲の上の憧れの人だった
なんかdeeplearning系に華麗に転向しているが
しかしあそこってtoCなこと一切してないからワイはなんもできんのよな
0171名無しさん@ピンキー2025/02/20(木) 18:52:24.96ID:???
unsloth/DeepSeek-V3-GGUF:Q2_K_XS.gguf
頑張ったらエラー出さずに動きはするね、動きは
0172名無しさん@ピンキー2025/02/20(木) 23:12:27.02ID:???
Ollama経由のSillyTavernでdeepseek-r1-distill-qwen2.5-bakeneko-32b-gguf:IQ3_XXSを動かして触って見たけど良いね
Mistral系にありがちな直結気味もなく12Bモデルより間違いなく賢さを感じる
0173名無しさん@ピンキー2025/02/21(金) 00:45:04.35ID:???
deepseek r1 bakenekoは今までのオープンモデルのなかで日本語性能が一番優れていると思う
0175名無しさん@ピンキー2025/02/21(金) 07:44:04.36ID:???
画像食えるモデルとソフトの組み合わせって今何がいいんだろう。画像生成のプロンプト食わせたいだけだから14bもあればじゅうぶんなんだが。
0176名無しさん@ピンキー2025/02/21(金) 08:37:20.71ID:???
runpod、クレカ支払いを蹴られるな
マスターカードなのに何故...
0178名無しさん@ピンキー2025/02/21(金) 10:31:10.14ID:???
米国カードのみなのか
回避の仕方は色々あるけど、Runpodの強みはコスト抑えられることで=代替可能だから拘っても報われなさそう
他を探してみます
0180名無しさん@ピンキー2025/02/21(金) 11:32:30.92ID:???
runpodは自動でON/OFFできる仕組みを作っておかないと必ずやらかす……
0181名無しさん@ピンキー2025/02/21(金) 14:10:55.52ID:???
lm studioのモデルオプションの横にある👍アイコンが付く条件てどうなってんの?
最適なやつが選ばれるようになってるのかしら
0182名無しさん@ピンキー2025/02/21(金) 14:54:27.69ID:hZ6dxcCl
phi-4の設定修正版を使ってみたら日本語能力が改善されて良くなってたわ
中国語が混じってくることもなくなったし、サイズの割には素の賢さが高くてなかなか好感触や
小説とか表現力は今ひとつ弱いんやけど、日本語FTしたらなかなかいいモデルになりそうや
0183名無しさん@ピンキー2025/02/21(金) 15:14:09.68ID:3VoFVTkV
>>181
VRAMに乗り切るかどうかじゃない?
0184名無しさん@ピンキー2025/02/21(金) 17:37:37.31ID:???
グラボ高すぎて10GBで当分頑張ることになりそうだ
16GBあればもっと色々出来るんだろうなあ
0185名無しさん@ピンキー2025/02/21(金) 17:48:33.93ID:P9ukDKjM
bakenekoのQ8を触ってみたんだけど、これすごいね
個人的には地の文の表現がmagnum超えてると思う
0187名無しさん@ピンキー2025/02/21(金) 19:18:46.13ID:???
bakenekoQ4でやってみた
かなりこちらの意図を読んでくるね
だけどSTでチャットする時〈think〉部分は消したいんだけど良い方法ないかな?
0190名無しさん@ピンキー2025/02/21(金) 19:59:26.06ID:???
>>187
正規表現でthink関連は格納できるよ
redditでもgithubでも作例は載ってるから探してみ
0191名無しさん@ピンキー2025/02/21(金) 20:06:53.27ID:???
stagingで実装されてたthink対応機能がstableにも導入されたっぽいから、アプデするだけで<think></think>は勝手に畳むようになるかも
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況