なんJLLM部 避難所 ★8 	
■ このスレッドは過去ログ倉庫に格納されています
 !extend:checked:vvvvv:1000:512 
 !extend:checked:vvvvv:1000:512 
  
 AIに色々なことをしゃべってもらうんやで 
 そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 
 自薦・他薦のモデルやツールは>>2以降 
  
 本スレ(避難中) 
 なんJLLM部 ★7 
 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 
 前スレ(実質本スレ) 
 なんJLLM部 避難所 ★7   
 https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/ 
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured  >>133 
 あれ傑作よなワイも低俗で上質なデータセット欲しい 
 無駄に理屈的(小説的)じゃない言い回しが臨場感あってよい 
 ハートマーク多用する低俗な言い回しも合ってる 
 漫画の絡み中の短いセリフとかを学習させまくってるのかな  多分そうだと思う 
 小説から学習させたのがNSFWでエロ同人から学習させたのがERPなんじゃないかな 
 喘ぎ声のバリエーションが豊富で他のモデルみたいに出し惜しみせず喘ぎまくるし 
 しかもアナルを責めた時だけおほっ♡とか、んおおっ!?って言い出すのほんと解像度高くて笑う  20万くらいでgpt4クラスが動くようにしてくれ 
 チューニングできるなら3.5でもいいけど  3.5レベルならもうローカルで動かせてるんでは?🤔  >>133 
 >>134 
 データセットはHuggingFaceにJSONで公開してるやろ  とりあえずリグ組めたからサブPCからA770外してリグに組み込んだらA770認識しなくて草 
 草じゃないが  「リグ続き。 
 A770に続いて手持ちのRTX2070も認識せず。 
 押し入れから引っ張り出してきたGT710とGTXX660は問題なく動作する。 
 GT710とGTX660を同時にPCIe x16に接続しても両方認識する。 
 ライザーカードのPCIe電源ライン用にSATA電源を接続しているのだが、 
 電源供給が足りないのだろうか。 
 電源供給量が多いライザーカードを探してみないと。 
 見つかるかな?」 
 この文章をバイオハザードの研究員の日記風に改変してください。  申し訳ありませんが、そのリクエストにはお答えできません。  そもそもの電源が強くないとな1000W電源は用意した方がいい  kobold AIってLoRA使える? 
 インストールして起動してみたものの使い方わかんねぇ 
 検索しても情報少ないのな  DGX Spark、台湾系のメーカーが大体扱ってくれるみたいだから入手性は良さそう 
 https://pc.watch.impress.co.jp/docs/news/event/2015129.html 
  
 256GB版出してくれへんかなぁ  >>148 
 DGX sparkはGPUがかなり強い(3090以上)からチャンネル数を倍増して欲しいよね 
 メモリ量も帯域幅も倍になるはずだし  >>128 
 協力どころか現実は規制規制のオンパレードだから中国で盛り上がるのも当然と言えば当然かも  intel arc 48GBがマジで売られそう 
 48GBで1000$以下らしい 帯域幅は456GB/sと狭いけどryxan AI maxよりは実用的かも  google ai studioで全然Androidの仕様とかわかってないのに個人使用では実用レベルのスマホアプリ作れちまった 
  
 ハルシネーション起こして正しくない文字列で参照してたり、何度手直してもダメな実行順で関数記載しちゃったりとかはあったけど 
 バグ部分の違和感さえ人間が気づければほぼリライト任せる形でここまで作れちゃうの革命すぎる  >>151 
 ask、円安>ちわ〜っす 
 _人人人人人_ 
 > 17万 < 
  ̄Y^Y^Y^Y ̄  システム的にはにどう認識されるのか気になる 
 単なる24GB x2として認識されるのかちゃんと単一のGPUという扱いになるのか 
 例えば古のRadeon R9 295X2だとGPU間をpcie gen3 x48で繋いでたらしいから同じような仕組みなのかな pcie gen5 x48だとしたら6000Gbps 750GB/sだから単一GPUとして48GB使えてもおかしくない 
 帯域幅的にLLM的だとゲームチェンジャーにはならないと思うが動画勢にとっての救世主やろな 画像生成の3060的なポジション  B580のままだろうから接続は 
 B580 x16 ブリッジ x16 B580 
 だと思うよ。 
 PCIeインターフェースの面積も馬鹿にならんし。  仕様でてた 
 { 
 2基のArc Pro B60はそれぞれPCI Express 5.0 x8で接続されるため、利用に際してはマザーボード側がPCI Express 5.0 x16からx8 + x8へのレーン分割をサポートしている必要があります 
 } 
 内部ブリッジすら無さそうね 前のSSDが積める4060tiのGPU版か  リグを組むのが簡単になる感じね。良いね。 
  
 リグ続き。 
 2枚あるAcer Predator BiFrost Intel Arc A770 OC 16GBが極端に気難しい疑惑が出てきた。 
 何か気に食わないことがあるとすぐに安全増値が働くっぽい。 
 昨日届いたマイニング用のx1ライザーだとRTX2070は動くようになった。 
 このライザーにはPCIe6ピン電源端子があり、電源供給が改善されたからだと思う。 
 でもAcer Predator BiFrost Intel Arc A770 OC 16GBは動かない。 
 もう何も分からないから分割とかしない普通のライザーを尼でポチッた。 
 これで動くと良いなぁ。  >>158 
 昔のRadeonが同じ事やってたな 
 1つのボードに2つGPUのせるやつ  ベンチ待ちかなあ 
 48GBで20万以下なら十分競争力あると思うわ  Azure AI FoundryとWindowsのMCP対応によって、MCPを上手に扱えるローカルLLMのニーズが出てきそう 
 日本語FTしたLLMのニーズってどこにあるのか 謎だったけど、ココにあるのか  同じVRAM48GB族の中古A6000が50万 RTX 8000が25万 PRO5000が新品80万だから20万以内なら革命だな 
 逆に24GB版はFP8がいらない用途なら値段含め中古のRtx3090で良さそう  >>161 
 俺もMCP対応待ち。自分の技術では無理だから偉い人に期待。 
 一応こんなのもあるけど、内蔵してほしい。github.com/infinitimeless/LMStudio-MCP  DGXはドライバーが不安だ。いまデータセンター用のBlackWellでも大混乱中 
 あと128Gじゃ足りないんよ。256G以上の出してくれ。バス幅が足りないのはこの際おいといて 
 でもマザー直付けなら1024bitくらいほしい 
 PS2が4096bitなんだからできる筈? 
 HMBのメインメモリ用の改良が進んでるからDDRからの脱却も期待、とはいえ個人用だと2年後くらいか?  Ryzen AI Max+ 395がmac studio並に800GB/s超の帯域幅あったら 
 最強だったのに  mac studioはNUMAみたいになってるからな  >>165 
 HBMはコスト割に合わないからRadeonのVEGAでコンシューマから消えたわけでもうエンプラからは降りてこないと思うで  GDDR6を512bitならGDDR7を512bitよりハードル低いだろうから、 
 GDDR6の512bit両面実装で2GBx32の64GB積んだ奴が欲しいですね。  なんかこの感じだと来年にはさらにVRAMがたくさん載った製品がどこからか出てきそうではある 
 でもまぁ来年以降までのつなぎとしてさっさとDGX Spark買って128GBのようなVRAMを使ったLLMに慣れとくって感じかなぁ・・・  エロ用途じゃなくて仕事でも実用的に使えるローカル動かしたいわ  128GB構成だとRyzen AI Max+ 395のノートpcと MacBook proどっちがええんや?  >>173 
 LLMだけならMacBook proかな 
 帯域幅(m4 max)がryzenの倍だからLLM推論も倍になる 
 ネイティブwindows やlinuxに魅力を感じるならryzenもあり  M4 Max縺ョMBP縺ェ繧峨Γ繝「繝ェ蟶ッ蝓溷ケ縺軍yzen縺ョ蛟阪□縺九iLLM縺ッMac縺ョ譁ケ縺梧掠縺繧薙§繧縺ェ縺  gemma3-12b-itの調整してみようとcolabでロードしたらgpuメモリバカ食いして 
 A100でもほぼまともに動かないんだけどgemma3の仕様? 
 他のモデルの同規模モデルならこんなメモリ使わないんだけどな  Berghof-NSFW-7Bでエロエロ小説を生成してるんだけど、このモデルはどんな要求でもこなしてくれるんだけど、コンテキスト長が4096なのだけが唯一の不満点。 
 こういうほぼなんでもOKのモデルで最大コンテキスト長がもっと大きいモデルってあるんかな  ローカルだとqwq 32Bがロングコンテキストのベンチが良かった気がするからqwq系かね  掲示板の書き込みでshift-jisとutf8の変換で文字化けしているようです。 
 以下のメッセージを、意訳せず論理的に元の日本語に戻して。 
 前後の話題としては、M4 MaxのMacBookPro(MBP)とRyzenでLLMを動作させる話題があったのでその関係かも。 
 >>175 を渡す 
  
 Qwen3-32b 
 M4 MaxのMBPではLLMがMacで実行できるが、Ryzen搭載機でもLLMをMac上で動作させる。 
  
 c4ai-command-a-03-2025 
 M4 MaxのMBPはまだ高嶺の花ですが、Ryzenの方がLLMはMacの壁が厚そうですね。 
  
 一応 GPT4.1 
  M4 MaxのMBPで動かすのとRyzenの自作機でLLMを動かすのは、Macの方が有利だったりする? 
   
 ちなみに文字化け変換サイトで正解がでるよ。暗号解読が得意なLLMってあるんかな?  llmを解読の補助に使うなら復号までは機械的にやって意味の通る物が吐き出されたかどうかの判定に使うのが良さそう  いつの間にかrpcがまともに動くようになってたんで24b級のモデル探してるんだけどRP用途で皆のおすすめのモデルある?  Project Wannabeでロリエロ小説生成に向いたモデルってどのあたりでしょう? 
 VRAMは16GBx2です。  mistral nemo 12bベースのwanabi mini 12bを公開したぞ  12GBもあれば快適に動くとようになったはずや 24B版も前の宣伝から更新しているので合わせて見てほしいで 量子化の種類も増やしたで 
 https://huggingface.co/kawaimasa/wanabi_mini_12b_GGUF 
 特定の形式に特化したFTモデルだからkobold経由の以下のGUI以外では多分まともに動かないので注意や 
 https://github.com/kawaii-justice/Project-Wannabe 
 学習時のコンテキスト長は32Kである程度長い文章でも扱える+チャット形式の生成ではないためマルチターンによる性能低下も発生しないから小説生成にはこの方式が最適やと思ってるで 
 とりあえず試したい人はベンチマーク代わりにお気に入りの小説を本文欄にコピーしてレーティングだけを設定して続きを書かせてみてほしいで結構良い線いってるはずや 自分の所感やが12B版は24B版よりも低い温度にするとちょうど良いで  >>185 
 wanabi 24B v03から初めてみることをおすすめするやで 
 試してはいないけどデータソースが年齢関係の表現に無頓着だから学習はしているはずや  SillyTavernでGoogle APIの時は日本語で会話できるんだけど、LM Studioサーバーに繋いでポート経由でQwen3 30B A3B使ったら全部英語になった…なぜ?  >>189 
 SillyTavernのSystem Promptに、「日本語でチャットして」みたいなのを入れてもダメなのかい? 
 Qwen3は、知らんけど  Ryzen AI MAXはMACのM1 MAXみたいな性能でもしょうがないけど 
 Radeon AI PRO R9700は2枚挿したら画像生成能力もRTX 5090に近いものになって欲しいな 
 今のところは無理そうだけど  そもそもAMDのGPGPU環境が糞なのに 
 今更AI特化ですとか言われてもってなる  デカいモデルは自然言語に強いし小さいモデルはアホ 
 以上  ここで今RDNA4対応のROCm 6.4.1の速度検証中みたいなんで 
 良い結果が出ればRadeon AI PRO R9700の購入を検討したいところ 
 https://github.com/ROCm/ROCm/issues/4443  AMDの技術力を信じられないので後数年は待ちたい 
 長い間WSLでなら動くからwindows対応した!とか言ってた連中やし  今年後半にはWindowsネイティブ対応します(できるとは言ってない)ってgithubのissueのどれかで言ってたような  mistralnemoとmistralsmallのロールプレイの指示プロンプトってどういうのが良いんだろ? 
 ちょっと進めるだけでセリフとか行動が繰り返しの展開になるよね  同じ表現繰り返しがちなのはMistral系の宿命や 
 Mistral Largeは違うかも知れんけど動かせてないから分からん  一応言っとくと温度を推奨よりちょっと上げてそのままだと支離滅裂になるから代わりにmin_pもちょい上げるとマシにはなる  strix halo機(EVO-X2)入手したんでちょっといじってみた 
 lm studioでrocmランタイム有効化してmagnum-v4-123bのq3klがだいたい2.5tok/s前後でした  乙 
 こっちは発送が6/6に延びた...はよ触りたいわ  >>205 
  
 乙やで羨ましい 
 ワイも再来年にはそっち側にいきたいで 
  
 録画サーバーとひとまとめにしたいから 
 ITXでも出してくれんかなあ  lmスタジオ触り始めたワイに最近ホットなエチエチモデルこっそり教えて  >>209 
 ホットやけど個人で使えるレベル超えてないか?ワイの3090tiでも無理そうなんやが  magnum-v4-27bとか色々使ってみたけどエロ会話どころか日本語も安定しないな画像生成AIみたいに日本語強いモデルとエロモデルでマージみたいな事は簡単には出来ん感じ?  >>210 
 メモリ積めば動くで 
 日本語でエチエチ目的なら、今のところこれを超えるモデルはない  >>211 
 gemmaみたいな規制強いモデルにエロファインチューンすると使ってるデータの言語に過剰適合しちゃう感じ 
 mistral系ならちゃんとした日本語返してくれるよ  色々試してberghof-erp-7bが今ん所エチエチの解像度高く正確にレスポンスしてくれるんやがコレより更にいいモデルってなるとある?  サイズにこだわらなければMistral系列のもうちょい大きめなやつベースのモデルが良いんじゃない? 
 BerghofもMistralベースだしmagnum-v4-123bもそうだしMistral系列は俺たちみたいな用途の人間にとっては最強なイメージ 
  
 日本産モデルでどっかがエロテキストとかフィルタせず食わせまくってるとかあればポテンシャルは高そうだけどないのかな  スプレッドシートとか使ってスレ民で寄り合ってチマチマデータセット作るとかも考えたことあるが  >>216 
 やばいの書き込まれてGoogleアカウントBANされそうやなw  >>217 
 それがあるから代替案模索しとるんやけどなかなか 
 正直文章程度でbanとかふざけんなよって思うけどそもそものLLMのエロ規制も含め世知辛い  DeepSeek R1ってまともにローカルで動かせるんけ?  蒸留してなくてもKTransformersを使うとそこまで難易度高くない 
 800GBくらいのDRAMとRTX4090が1つあれば動く  R2かと思ったら違った 
 しかしファイルサイズでかいな……  plamo-2-8bをローカルで動作させられた人いますか?  >>205 
 すいません 
 購入を考えているのですが 
 AI最適化済みのWIN11って普通のものと何か違ってましたか 
  
 用途によるんでしょうが、radeonで困ることってありますか  >>227 
 きちんと検証した訳じゃないけど多分普通のwin11じゃないかな 
 radeonで困ることはおそらくあると思う 
 lm studioでrocmランタイム有効にするのも一手間かかったし 
 ユーザー増えて対応進むといいなと思ってる(他力本願)  Ai(LLM)で人物とかの設定と細かいストーリーラインを指示して小説風に仕上げることを繰り返して物語を作りたいのですが、おすすめありますか?  DeepSeek-R1-0528-Qwen3-8Bがあるらしいけどまだ公開されてないな  >>220 
 デモ試してるが、日本語でthinkするようになってるね  >>228 
 返信ありがとうございます 
 cudaがないとやはり一手間かかるんだと思いますが 
 それも楽しそうですね  >>231 
 日本語性能がかなり上がったように見える  RADEONてローカルLLMで使えるんでしょうか? 
 メモリ容量だけ見るとNVより有利に見えるけど... ■ このスレッドは過去ログ倉庫に格納されています