なんJLLM部 避難所 ★8 	
■ このスレッドは過去ログ倉庫に格納されています
 !extend:checked:vvvvv:1000:512 
 !extend:checked:vvvvv:1000:512 
  
 AIに色々なことをしゃべってもらうんやで 
 そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 
 自薦・他薦のモデルやツールは>>2以降 
  
 本スレ(避難中) 
 なんJLLM部 ★7 
 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 
 前スレ(実質本スレ) 
 なんJLLM部 避難所 ★7   
 https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/ 
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured  plamo-2-8bをローカルで動作させられた人いますか?  >>205 
 すいません 
 購入を考えているのですが 
 AI最適化済みのWIN11って普通のものと何か違ってましたか 
  
 用途によるんでしょうが、radeonで困ることってありますか  >>227 
 きちんと検証した訳じゃないけど多分普通のwin11じゃないかな 
 radeonで困ることはおそらくあると思う 
 lm studioでrocmランタイム有効にするのも一手間かかったし 
 ユーザー増えて対応進むといいなと思ってる(他力本願)  Ai(LLM)で人物とかの設定と細かいストーリーラインを指示して小説風に仕上げることを繰り返して物語を作りたいのですが、おすすめありますか?  DeepSeek-R1-0528-Qwen3-8Bがあるらしいけどまだ公開されてないな  >>220 
 デモ試してるが、日本語でthinkするようになってるね  >>228 
 返信ありがとうございます 
 cudaがないとやはり一手間かかるんだと思いますが 
 それも楽しそうですね  >>231 
 日本語性能がかなり上がったように見える  RADEONてローカルLLMで使えるんでしょうか? 
 メモリ容量だけ見るとNVより有利に見えるけど...  >>234 
 RADEONだとローカルLLMはVulkanを利用する事になるだろうけど、 
 画像生成までしたいのならZLUDAでCUDA互換環境を作るとか苦労するだろうね  RadeonはLinuxかWindowsかでも結構変わってくる 
 Linuxのほうが開発が進んでいる 
 Linuxが扱えない人には難易度高い  Ryzen AI MAX ならミニPCやろうし 
 LinuxでLLM動かして 
 普段はWinのメインPCからリモートで扱う感じになるんかねえ  これ誰か量子化してくれないかなぁ? 
 pfnet/plamo-2-translate ・ Hugging Face 
 https://huggingface.co/pfnet/plamo-2-translate  >>238 
 そもそもmac以外で動作するの?という話  >>239 
 Mac関係あるの?ああ、サイズ大きいんじゃないかって? 
 Model size 9.53B params, Tensor type BF16 でも大きい?  >>240 
 mamba-ssm問題が解決してなかったと思う  >>238 
 ていうかSambaモデルがMacというかMLXで動くのか 
 実はApple Silicon Mac持ちなのでMLXで動くなら動かせるんよ 
 で、中の人がtranslateの方もMLX用の量子化モデルを作ってくれていたので動かせた 
 (Model treeのリンクが間違っているので量子化モデルの存在に気付けなかった) 
 https://x.com/mitmul/status/1927960884103762302 
 https://huggingface.co/mlx-community/plamo-2-translate  >>238 
 これ精度低いよ 
 bleuも公開できないほど  AmazonでRyzen AI Maxの128GBのが22万円のセールやってるな  deepseek-R1-0528のIQ2_XXS動かしてるんだけど日本語は自然になってるね 
  
 でも小説書かせてみたらmagnum-v4-123bほどではないんだけどそんなもんかな?  >>249 
 てゆうかエロ小説でこれを超えるモデルそろそろ出て欲しいんだわ  小説性能ってベースモデルの事前学習時点で決まる感じやから当分は来ないやろね 
 qwenやgemmaは明らかに学習データをフィルタリングしてるしmistralも最近はSTEM重視の姿勢でクリエイティブ性能落ちてる 
 deepseekはかなり緩めだけどそれで越えれないなら厳しい   magnum-v4-123b使うときGPUとRAM何GB消費してる? 
 RTX3060 12GBと32GBしか積んでなくて、どれくらい増せばよいのか知りたい  >>252 
 メモリは最低でも64Gないと動かん 
 64GでもIQ3_Mの量子化が限界 
 96GあればQ5_K_Mが動くが、メモリで動かすと絶望的に遅いからお勧めしない 
 ワイは64Gで動かしてるが、プロンプト打ち込んだら、別の事して30〜40分掛かって512トークン終わる感じだわw 
 3080tiの12GのVRAMは一応使ってるが、あっても無くても変わらんレベル 
 しかもmagnum123Bは日本語トークン対応してないみたいで、1文字2トークン使うから、対応してる70Bの体感3倍遅いwww 
  
 RTX6000proQ-Maxが欲しいいいいいいい 
 このグラボでフルスペックの512G mac買えるけど画像AIにも使えるしマジ悩むw  magnumは最近のモデルで作ってほしいよね 
 123bってMistral Largeだしちょっともう古いよね 
  
 今ならCommand-Aが元からゆるゆるだしよさそうやが  >>252 
 ありがトン 
 じゃあとりあえず32GBx2買うかあ 
 最低64GB、相性運よけりゃ4枚刺しで96GBで。現代もメモリの相性問題があるのかは知らんけど・・・  Ryzen AI Max期待してたんだけど微妙なの?  数値あげてくれとるニキおるからそれ参考にしてもろて  >>257 
 70B以上のモデルでも普通のPCのメインメモリに載せて動かすよりは速いのと省電力性が良いって感じかな  Ryzen AI Maxは128GBメモリを使えるPCでは一番安いのが強みではある 
 そこに良さを感じないなら微妙かもね  結局マシンスペックに帰結するんだよな 
 もっと手軽に高品質な官能小説出したいだけなのに  楽しみながらデータセット無限生成編始まった一粒で6度美味しい 
 こういうのみんなで出し合ったらデータセット簡単に作れそうやけど情報偏りそう 
 https://i.imgur.com/AYt6MwY.png  >>262 
 キャラチャット用のFT手順一式が欲しいわ 
 今はUnslothとかいうのを使うのか?  最近ローカルでLLM使えるの知って今日始めてSilly Tavernでオリキャラと会話して遊んでるけど 
 なんか緊張して関係性進展しなくて草 
 でも昔恋愛シュミレーションゲームやってて選択肢をどっちにするかとか考えて楽しかったけど 
 こっちは無限にいろんな分岐があるゲームをやってるみたいで更に楽しいね  Project-Wannabeの作者様へ 
  いつも使わせていただいております 
  ありがとうございます 
  
 要望なのですが 
  ・出力されたものは全てパラメータjsonやkcppsと共に 
 logとして残しておくことはできないでしょうか 
  ・デフォルトの生成パラメータ数値ヘ簡単に戻すことはできないでしょうか 
  ・出力時に1行ずつ空白行を挿入(改行)されてしまうことが多いのですが、 
 それをさせないようにすることはできないでしょうか  >>263 
 unslothのcolabノートブック使ってみるといいよ 
 わかりやすいし何より無料  学習データって>>262のように同じテーマで口調を変えただけのものを用意するのと 
 バラバラなテーマで口調を変えたものを用意するのとどっちが適してるのかな 
 もちろんトータルのデータセット数は同じだと仮定した場合ね 
 前者でいいなら楽にデータセット用意できるけど後者だと内容考えるだけでも大変なんだけど  後者のほうが良いよ 
 基本多様であれば多様なほど良いと思って良い 
 テーマのリストとか口調のリストとかをGeminiとかで大量に書かせてリスト化してランダムに組み合わせてLLMに合成させる感じとかでそれなりに多様にはできると思う  shisa-ai/shisa-v2-llama3.1-405b-GGUF 
  
 だれか試せる人おらんかな? 
 moeじゃない405Gの日本語finetune  >>271 
 おおサンキュ! 
 早速試したが、R1並みにいいかも 
 webだから規制入ってるけどローカルならどうなんだろ  ちょっと試しただけだけどllama3.1はもう古い感じがした 
 計算リソース食ってる割には...他のLLMの進化が早すぎるんよ  >>275 
 70Bなんか動かせるマシン持ってるやつ少ねえよってのと最近は性能大幅に落としてもいいからエッジデバイスでいかにそれっぽいのを動かせるかに研究が移ってるっぽいからなあ  >>269 
 やっぱりそうかぁ 
 以前、内容や名詞をスクリプトで自動的に組み合わせて生成した金太郎飴みたいなデータセット1万件ぐらいを使ってLoRA作成したんだけど 
 推論結果が同じく金太郎飴みたいになってて全く使い物にならなかったんよ 
 質問文は自力で頑張って用意してそれをLLMに蒸留させてデータ作成するのが一番現実的そうやね 
 ただOpenAIは蒸留に対する検知厳しくなったみたいだしローカルLLMで蒸留させるしかないのかな  Gemma3の70Bくらいが欲しいよね 
  
 Llama3.1 405Bの位置が低すぎる 
 huggingface.co/blog/gemma3  >>281 
 Instruct版のSpaceあったので遊んでみたけど、ハルシネーション抑制、ってあったけどInstruction Followig、Groundnessともに怪しい感じでこれで4o越えは評価のスコープを思いい切り絞らないと、って印象 
 文体は自然でそこそこなので惜しい感じ 
 フルスクラッチ日本語モデルって点では今後に期待 
 111B多言語対応のCommand-a越えを期待してたんだけど...  >>282 
 それ古い方じゃないかな? 
 今回のはマルチモーダルモデルなので用途が違うかな  >>283 
 あ、そうかも 
 いまもう一回検索したらStockmark-2-VL-100BではSpace出てない感じだった 
 楽しみが増えた、ありがとう  Stockmarkは…うん…界隈の人だとある程度察すると思う  GENIACにオルツが入ってるから何でも胡散臭く見える  >>285 
 以前試したが小説目的だとまさしく話にならないレベルで速攻消した思い出  >>286 
 別になんか悪いことしてるとかではないんだけど、シンプルにこのスレ民的には全く期待しなくて良いと思うというお話  世間一般ではダメじゃないかもしれんがスレの評価が低かっただけ 
 でも、どんなベンチマークの評価よりこのスレの評価の方が参考になるんだわw  Aratako/NemoAurora-RP-12B 
  
 これLumimaidとかMagnum-v4とか混ざってるから良さげな雰囲気あるな 
 仕事終わったら試してみるわ  一応モデル作るだけ評価は出来るが比較対象のレベル低すぎてお察し 
 なんで100Bと14B並べてイキってんねん  Aratakoってワイの一番のお気に入りのcalm3-22b-RP-v2作った神か? 
 NemoAurora-RP-12B触ってみるわ  NemoAuroraちょっと試したがかなり饒舌な感じで淫語とかも普通に出やすいな 
 この人のモデルにしては珍しく小説系とかそっち寄りな感じがする 
 この辺はHimeyuri-12Bとかをマージしてる影響かな?エロ系はかなり自然な感じ 
 その分何回も会話してるとだんだん応答が長くなって行きがちだから適度に過去会話をカットしてあげると良さそう(SillyTavernとかなら楽) 
 README読むとコンテキスト長32kで学習されてるみたいだけど実際そこまでいけるならかなり実用性ありそう  エロokの配信サイトとか最近やと何処がええんやろ?ワイのAIライバーをニキらのオモチャにしてみたい  fc2とかええかなって思ったけどツールでコメント拾う手法が確立されてないんか  EVO X2届いた 
 とりあえず窓の認証済ませてからLinux入れるか  Aratako/NemoAurora-RP-12B(Q3_K_S)触ってみた。 
 ・一から書かせるのは微妙…?やっぱすぐ「以下省略」とか記号連発とかしてくる。 
 ・チャット時の性格は、変な頑固さがなくて割と素直かも。法律・倫理に反する嘘を理詰めで教え込むのに成功した。 
 ・なんか「NHK」好き過ぎん?よく出るような。あんまり脈絡なく「それで、NHKがNHKのNHKによるNHKのためのNHKNHKNHKNHK...」とか出た時は吹いた。 
 ・既存短編を読み込ませて架空の読者コメントを書かせた場合の自然さ、理解力、多様さは過去一かも。  >>307 
 小説書かせてる感じ?RPって付いてるしこの人の後悔してるデータセットとか見ても基本はロールプレイ用じゃないかな 
 読者コメント書かせるのはある種のRPなのか…?  >>308 
 読み込ませたのは過去の簡易TRPGリプレイ。 
 一応RPだけど、GM(AI)やNPC(AI)と自分の発言以外に地の文も有りで、ラノベ的。 
  
 >>309 
 CPU(Ryzen 5 7530U)+メモリ16GB(DDR4 8GB*2)のサブノートPC。 
 GPUが安くなったらメインPC(13年使用)組み直そうと思ってるが安くならんな… 
 その予算50万あるんで今でもそこそこの組めそうなんだが、今は時期が悪い。  magistralはqwqやqwen3と違って日本語ネイティブ推論できるっぽいしクリエイティブ用途だと悪くなさそうね  >>310 
 2年後くらいにはミニPCの進化でグラボよりええかもしれんね 
  
 いまスマホでもメモリ16Gでてきてるし 
 SoCもAI対応うたってるのあるしなんならLLMも積める言うてるし 
 シャオミも独自SoC作ったし 
 スマホもどうなるやろなあ  AndroidならすでにGemma-3nがそこそこまともに動いてびびった  Mistral自体のMediumも公開されてないから無さそう  なんかこう、知識はないけど賢いモデルってのは出てこないもんかね 
 8Bくらいだけどfunction callingしてネットなりを検索して勝手に小説なりを読んで応用効かせて書いちゃうみたいな 
 そんなことできる頃にはシンギュラっちゃってるだろうが  賢くない奴がネットで得た知識だけで語るって地獄やんけ 
 ネット検索自体がゴミになっててそこから正しい情報吸い上げるには常識が必要なんちゃうか  >>315 
 Large出すタイミングでMediumを解放すると期待してる  知識はないけど理解力と推論力が凄い、ってのは魅力ある 
 それこそが真の意味での知性ではないかと  言語モデルである限り理解力=知識ベースだから難しいのでは 
 言語に頼らずニューロンをシミュレーションするモデルが必要だ  redditでスレが立ってたshisa-ai/shisa-v2-llama-3.1-405bって日本語最強モデルはどうなんだろ 
 東京にスタジオがあるらしいけど初めて知った 
  
 方言とか口調や人称ニュアンスが再現できる方向に進化してほしいな  賢さ自体をよそから手に入れればよさそう 
 MCP時代のモデルは、何が分からないのかを判断する能力と、どこで聞けば良いのかだけを持っていればいいのかもしれん  >>321 
 デモで試したが悪くはなかったよ。 
 でもmagnum123bは超えてない感触だった  NvidiaのProRLって方法で1.5Bが7Bレベルの推論出来るようになったって話があるし 
 言語モデルは単純に記憶してるだけじゃなくて概念を理解して学習してるとかの話もあって 
 中小規模モデルでももっと賢くできそうな気配あるよ ■ このスレッドは過去ログ倉庫に格納されています