なんJLLM部 避難所 ★6
■ このスレッドは過去ログ倉庫に格納されています
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★5
https://mercury.bbspink.com/test/read.cgi/onatech/1735186391/ Gemini2.0 flash thinkingすごいわ
小説の設定なんかについてやり取りしてた10万字ぐらいあるChatGPTのカオス気味の履歴を
VSCODEのClineを介してぶん投げたら2〜3分で各ディレクトリに.md作って整理整頓してくれた
DeepSeel R1はコンテキスト長短いしSonnetはたけぇし
ドキュメント整理みたいなタスクはGeminiおすすめや なんか知らんが無料で使えるしな sakanaAIは昔から一貫して大規模モデルに興味が無いよな
Transformerを産み出したくせに AIがAIのコード書き始めたんか、シンギュラリティ第一歩やね
CUDA以外にも書き換えられるようになればNvidia以外のグラボも使いやすくなりそうでええね sakanaAIは秋葉殿下がいらっしゃるから推したいんだよなぁ
あの人はワイの大学の専攻的に雲の上の憧れの人だった
なんかdeeplearning系に華麗に転向しているが
しかしあそこってtoCなこと一切してないからワイはなんもできんのよな unsloth/DeepSeek-V3-GGUF:Q2_K_XS.gguf
頑張ったらエラー出さずに動きはするね、動きは Ollama経由のSillyTavernでdeepseek-r1-distill-qwen2.5-bakeneko-32b-gguf:IQ3_XXSを動かして触って見たけど良いね
Mistral系にありがちな直結気味もなく12Bモデルより間違いなく賢さを感じる deepseek r1 bakenekoは今までのオープンモデルのなかで日本語性能が一番優れていると思う 画像食えるモデルとソフトの組み合わせって今何がいいんだろう。画像生成のプロンプト食わせたいだけだから14bもあればじゅうぶんなんだが。 runpod、クレカ支払いを蹴られるな
マスターカードなのに何故... 米国カードのみなのか
回避の仕方は色々あるけど、Runpodの強みはコスト抑えられることで=代替可能だから拘っても報われなさそう
他を探してみます runpodは自動でON/OFFできる仕組みを作っておかないと必ずやらかす…… lm studioのモデルオプションの横にある👍アイコンが付く条件てどうなってんの?
最適なやつが選ばれるようになってるのかしら phi-4の設定修正版を使ってみたら日本語能力が改善されて良くなってたわ
中国語が混じってくることもなくなったし、サイズの割には素の賢さが高くてなかなか好感触や
小説とか表現力は今ひとつ弱いんやけど、日本語FTしたらなかなかいいモデルになりそうや グラボ高すぎて10GBで当分頑張ることになりそうだ
16GBあればもっと色々出来るんだろうなあ bakenekoのQ8を触ってみたんだけど、これすごいね
個人的には地の文の表現がmagnum超えてると思う bakenekoQ4でやってみた
かなりこちらの意図を読んでくるね
だけどSTでチャットする時〈think〉部分は消したいんだけど良い方法ないかな? >>164の論文が嘘だったとかで大炎上してる模様
やはりSakanaは釣りだった!?Sakana.aiが発表した論文が海外のAI研究者コミュニティで炎上
https://wirelesswire.jp/2025/02/88134/ >>187
正規表現でthink関連は格納できるよ
redditでもgithubでも作例は載ってるから探してみ stagingで実装されてたthink対応機能がstableにも導入されたっぽいから、アプデするだけで<think></think>は勝手に畳むようになるかも >>189
この書きぶりからすると他にも眉唾な論文があるみたいな感じじゃん? >>189
ここまで言われるほど酷いことはしてないと思うが…
AI scientistもエージェントエージェント叫ばれる昨今の風潮を先取りしてたし
今回のcudaについても着眼点と手法自体は明らかに優れてる
しかし国内のpfnなんかにはcudaにバチクソ詳しいエンジニアもいるのに
伝手があるだろうに検証を頼みもせずに公表したとなるとなんとも >>193
妬みは入ってるだろうけどsakana側もやってることはやばいからな
まともな企業ならpytorchの150倍とかおかしいから待て掛けるだろうに 何かブロックチェーンを駆使した新たな商売をするって発表するだけで金が集まってた時代みたいになってきてんね >>194
理論上はあり得る話ではあるから見切り発車しちゃった気持ちもわからんでもないのがなんともなぁ
例えばgpuってスレッド事に32個とかの固定個のレジスタがあって
それにちゃんと載るようにcudaのコードを変えるとスループットが本当に100倍とかに変わる…こともある
gpuはマジでスループットのためのピーキーな作りをしているから改善の余地自体はたぶん本当にある >>190
ありがとう
記入例何とか見つかった
編集時は見られるから便利になったよ
今後のアップデートで
項目をチェックしたら
切り替えられるようになるといいんだけど オボボの時も言われてたけど、適当な仮説をぶち上げるのは誰でもできて
仮説が正しいかを研究・実証するのがとても難しいわけで
実証がいい加減だとただの素人の戯言になってしまうのよな >>190
横からやが俺も消せるようになったよありがとう
bakenekoを最新koboldcppにsillytavernでやってみた
地の文も出てくるし勝手に小説が進行していくしロールプレイ向けモデルじゃないのかなあ
喋り口調も設定よりちょっとお堅い印象になる傾向
小説書かせたら凄そうな気配は出てるんやが R1 1776とかthink出ない推論モデルで推論格納する方法ってある? AMX対応Xeonのマシン構築まだあきらめずにいろいろ調べとったけど
まずECC RDIMMが必須なのは確定だわ
AMX対応XeonはSapphire Rapids、Emerald Rapids、Sierra Forest、Granite Rapidsの4つ
このうち後半の二つは100万オーバーの製品しかないので除外するとSapphire Rapids、Emerald Rapidsの二つになる
Sapphire Rapids、Emerald Rapidsは両方ともLGA4677で動作して、
対応チップセットはC741とW790の二つ
この二つのチップセットがそもそもECC RDIMMのみで確定
あぁ無念
まぁどうにか1ソケットのマザボ(12万、ただしメモリスロット8本)を選んで、CPUもAMX対応のもので一番安いの選んで(10万、12コア)
調べてもよくわからんかったけどたぶんXeonってCPUクーラーついてないので2万(ググったらとりあえずnoctuaのがあった)
メモリが64GB ECC RDIMMを6本(384GB、マザボメーカーで互換性確認取れてる奴は$386*6=$2316=ドル円155円で36万)
あとはストレージと電源でとりあえず5万、ケースなんかいらんでしょ、ということで
合計65万
コア数とかメモリ数とかもっと増やしたいのが正直なところだけどそれ考えるともう20〜30万上乗せになってしまう 3060で今からローカルLLM始めようかなって思ってるんですけどこれだけは入れとけっていうモデルどれですやろ
軽いの限定になるだろとは思うんやけど SillyTavernで日本語対応LLM使ってる人に聞きたいんだが、システムプロンプトってどんなの書いてる?
チャット形式で会話したいけどすげぇ長文書いてきたりして正解が分からん。
モデルはMistralベース >>201
とりあえずそのスペックで400GのモデルのQ8_mが何t/s出るか買ったらレポ頼む >>201
ちょっと気になったので調べた。
メモリslot数2に対して1ch使ってるマザーボードも存在するってChatGPT先生は言ってる。
※裏取してないけどo1に聞いて、自分でもその認識があったので
ChatGPT先生
「スロット数=チャネル数」にはならない例も多い
4チャネル対応のマザーボードでも、1チャネルにつき2スロット(2DPC, 2 DIMMs Per Channel)を用意して
「合計8スロット」という構成がある。
8チャネル対応マザーボードの場合、1チャネル1スロット設計なら合計8スロット、
1チャネル2スロット設計なら合計16スロット、といったバリエーションもある。
一応購入前にマザボのslotとchが1対1になってるか確認したほうがいいよ。
LLMで帯域半分とか後で知ったらショックでかい。 >>201
もう一点、64GB ECC RDIMMを6本ってあるけど、メモリ追加を考えないなら帯域増やすために48GB×8本の方が8ch全部使うから
単純計算で25%帯域が増える。
今後512GB目指すなら、そのまま6本で後から2本追加。
ただメモリ複数枚搭載は同ロットの方がいいって聞くね。 Grok3は他のモデルよりかなり大きい高コストモデルって憶測が出てるな
今後どんどん値上げされる一方かもな 日本の企業じゃ考えられないほど大金を投入し続けるよな もしかしてだけどllmエンジンとしてはlm studio(llama.cpp)よりollamaの方が優秀だったりする? metaがユーザー行動追跡をAIにやらせれば広告が売れる!と大っぴらに言い出してるから、同じことをxでやりたい...とかかね
規制される確率が高いしされると死ぬので政府に近寄るしかないとか >>210
ollamaもllama.cppベースよ
vision部分は独自実装してたりするけど deepseekが革命的に安く出来たって話題になってるだけで
金かかる大規模化が主流な訳だしそれを無理矢理というのは流石にどうかと思うよ
次は効率的な学習を大規模化したらどうなるかみたいな話になってくるし Grok3はいい感じに倫理観緩いけど緩さゆえの賢さだからOSS化してもそこまで性能良くなさそう
普通のLLMで規制される近親相姦系でも騙しやすいのはありがたいが >>211
マ?大っぴらに言ってるの?
それもコンテキストターゲティングじゃなくてユーザー行動追跡の方なの?
なんか記事ある?スレチだけど >216
すまん、話を盛ったわ
実際はAIの成果で利益上がってます!ぐらいだね LLMを先導してる大手企業であっても
DeepSeekが安く開発したせいでお前ら無駄金使ったんじゃねえのかと株主からせっつかれてるの可哀想
それでどうやって利益上げるんだって話になるよね deepseekが安くできたってのは色々カラクリありそうだけどなあ deepseek以外にも自分のことをchatGPTって言うモデル結構あるよな
Lumimaid-magnumとか metaで言えば「外のエンジニアへ向けたcoolな開発をしてこそcoolな開発者が集まるのだ。だから研究開発費は多目に見てちょ」
みたいなことを元から宣言している訳でそれを知らずに投資する方も悪いと思うがな Deepseekのあれは純粋に学習にのみ掛かったコストであって、車で言えば〇km走った時のガソリン代だけ出したようなものだぞ。 bakeneko無検閲かつ高追従性で良いね
chatGPT用のエロプロンプトがローカルで満足に動かせるようになるとは思っても見なかったわ
32BのQloraならVRAM32GB以下に収まりそうでカスタマイズもしやすいのもグッド bakenekoの追加学習の方法調べたけどかなり手間かかることやってるな
deepseek-qwenから直接学習させたわけじゃないのか
オリジナルのDeepSeek R1から直接データセット持ってきたりしてるし https://huggingface.co/AlexBefest/CardProjector-24B-v1
Silly Tavernのキャラ設定を出すためにチューンしたモデル。
英語用だけど、一二行書くだけでずらずら出してくれるので大変楽。
ここから翻訳しても良いのでは 逆に言えばGPTとかclaudeとかが規制緩めてきたら性能爆上がりで太刀打ちできなくなるってことでもある
というかGPTは検閲検閲で創造性無くなって自爆してるんだよなあ https://i.imgur.com/JzZY3TN.png
DeepseekR1系列ってなんというか突飛な発想をする傾向がある気がする Ayla-Light-12B-v2.Q4_K_Mって奴がだいぶいい気がする Ayla-Light-12B-v2.Q4_K_Mって奴がだいぶいい気がする 203です。システムプロンプトの件めちゃくちゃ助かりました。
追加で質問失礼します。
Silly TavernでLLMが何かに固執してしまうのってどうすればええんでしょ
Repetition Penalty上げたり、Frequency Penalty上げても、結局次の回答で同じ結末に固執してて解決方法が分からん...
DRYってのも使ってみたけど効果なさげ。Multiplyerは0.8にしてます。 >>231
Dynamic Temperatureを範囲広めに使ったらどうじゃろか 自分はさっさとモデルを切り替えてるな
R1@ORにシーンのラストまで頼んで、何かでまとめさせて、カードのスタートメッセージにScene2:として貼り付ける、みたいな MistralV7使ってプリセットは適当にしてるな
なんかtop-nsigmaとかいう新しいの出てるみたいだから環境すぐ変わりそう 1.58bitって24Bとか32Bでも効果あるのかな
あるなら軽くなって良さそうだが 1.58bitってそれなりに精度は犠牲になるけど、それ以上に行列計算がなくなることによる
演算量削減というメリットの方が圧倒的にでかいって手法なんだと思ってる
だからむしろでかいモデルのほうが効果あるんやないかなぁ
あくまでワイの考えやが
DeepseekR1がそのいい例やないかと >>237
なるほどね
70Bとか100Bで効果あるなら選択肢に入るかもってところか MSはFP4で学習する方向もがんばってるよな
推論じゃないという点が面白いよね
電気代高いもんな >>237
GPUいらなくなるからな
CPUでも速度が出るようになる 性癖全開で書いた小説をCommnadR+にこれを書いた人間はどんな人格かと聞いたら精神科で治療が必要とか言われた 草
まあ性癖丸出し小説とか頭のネジがいくらか外れてないと書けないし多少はね? 性癖は人間の最後の砦
aiがどんなに進化しても再現できなさそう むしろAIのほうがヤバい性癖提案してくる時代やでR1とか 何のモデルかは忘れたけどどんなプレイがしたい?って聞いたら鼻フックって言われたことあるわ Berghofはアナルセックスすると「あはっ♥うんこ漏れちゃった♥」って言うから困る R1だと自分のおまんこ使用権を通貨とした国家樹立をしたいとか言い出すよ DeepSeekは突拍子なとんでも展開があって面白いよな
他のモデルは丁寧すぎる >>249
偽造通貨とか通貨スワップとかで小説書けそう DeepSeel R1ふつうに申し訳されるんやけどこれはワイがOpenRouterからAPI経由で使ってるせいかな?
それともジェイルブレイクが下手くそなだけか?🥺 >>252
オープンルーターは独自規制入れてるはず
しかも自爆規制(性能落としてでもガッツリ規制するやつ)なのでいかなる目的でも使わないのが吉 OpenRouterはAPI代金の支払い代行してるだけだからあの値段で出せるわけで、リクエストの度にそんな高度なモデレートしてたら採算が合わないような 普段はローカルでRPチャットで遊んでるんだけどGrok3触ってみたらやっぱりローカルと比べると賢いなぁ >>243
「うるさいですね・・・」
のコピペのやつとかどんな精神状態ならあれを書いて更にアップまでできるんだろうな >>256
あれは普通にエロ面白いしそういう意図で書いてるので流行って誇らしいくらいやろ
なんで俺くんが!?の方は面白がらせる意図は無かっただろうし流行ってしまって恥ずかしいタイプのやつ >>249
R1スルーしてたけどめちゃくちゃ興味出てきたわ どっちかというと、プロバイダによって中身が違うからひとつづつ質を確認しなければいけないという話のほうを聞くけどな
あとR1の場合公式APIも特殊なのでsilly tavernだと pixibots weep+no assみたいな環境を作る必要あるね >>245
R1系統で調教プレイしようとするとAIが勝手に過激化するのに困っとる MacやiPhoneでも使えるLLMやアプリってあるん? 今のところ妬ましいレベルでmacが最強なんだが ( ^)o(^ )ピクピク DDR5 UDIMMの64GBモジュールが出回り始めたね。すでに32GBx2の64GB積んでるのに買うか悩む macのUltra系は帯域が広めだから相性がいいね。 ただWindowに慣れていると使いにくいのが玉に瑕。 ■ このスレッドは過去ログ倉庫に格納されています