なんJLLM部 避難所 ★6
■ このスレッドは過去ログ倉庫に格納されています
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★5
https://mercury.bbspink.com/test/read.cgi/onatech/1735186391/ >>210
ollamaもllama.cppベースよ
vision部分は独自実装してたりするけど deepseekが革命的に安く出来たって話題になってるだけで
金かかる大規模化が主流な訳だしそれを無理矢理というのは流石にどうかと思うよ
次は効率的な学習を大規模化したらどうなるかみたいな話になってくるし Grok3はいい感じに倫理観緩いけど緩さゆえの賢さだからOSS化してもそこまで性能良くなさそう
普通のLLMで規制される近親相姦系でも騙しやすいのはありがたいが >>211
マ?大っぴらに言ってるの?
それもコンテキストターゲティングじゃなくてユーザー行動追跡の方なの?
なんか記事ある?スレチだけど >216
すまん、話を盛ったわ
実際はAIの成果で利益上がってます!ぐらいだね LLMを先導してる大手企業であっても
DeepSeekが安く開発したせいでお前ら無駄金使ったんじゃねえのかと株主からせっつかれてるの可哀想
それでどうやって利益上げるんだって話になるよね deepseekが安くできたってのは色々カラクリありそうだけどなあ deepseek以外にも自分のことをchatGPTって言うモデル結構あるよな
Lumimaid-magnumとか metaで言えば「外のエンジニアへ向けたcoolな開発をしてこそcoolな開発者が集まるのだ。だから研究開発費は多目に見てちょ」
みたいなことを元から宣言している訳でそれを知らずに投資する方も悪いと思うがな Deepseekのあれは純粋に学習にのみ掛かったコストであって、車で言えば〇km走った時のガソリン代だけ出したようなものだぞ。 bakeneko無検閲かつ高追従性で良いね
chatGPT用のエロプロンプトがローカルで満足に動かせるようになるとは思っても見なかったわ
32BのQloraならVRAM32GB以下に収まりそうでカスタマイズもしやすいのもグッド bakenekoの追加学習の方法調べたけどかなり手間かかることやってるな
deepseek-qwenから直接学習させたわけじゃないのか
オリジナルのDeepSeek R1から直接データセット持ってきたりしてるし https://huggingface.co/AlexBefest/CardProjector-24B-v1
Silly Tavernのキャラ設定を出すためにチューンしたモデル。
英語用だけど、一二行書くだけでずらずら出してくれるので大変楽。
ここから翻訳しても良いのでは 逆に言えばGPTとかclaudeとかが規制緩めてきたら性能爆上がりで太刀打ちできなくなるってことでもある
というかGPTは検閲検閲で創造性無くなって自爆してるんだよなあ https://i.imgur.com/JzZY3TN.png
DeepseekR1系列ってなんというか突飛な発想をする傾向がある気がする Ayla-Light-12B-v2.Q4_K_Mって奴がだいぶいい気がする Ayla-Light-12B-v2.Q4_K_Mって奴がだいぶいい気がする 203です。システムプロンプトの件めちゃくちゃ助かりました。
追加で質問失礼します。
Silly TavernでLLMが何かに固執してしまうのってどうすればええんでしょ
Repetition Penalty上げたり、Frequency Penalty上げても、結局次の回答で同じ結末に固執してて解決方法が分からん...
DRYってのも使ってみたけど効果なさげ。Multiplyerは0.8にしてます。 >>231
Dynamic Temperatureを範囲広めに使ったらどうじゃろか 自分はさっさとモデルを切り替えてるな
R1@ORにシーンのラストまで頼んで、何かでまとめさせて、カードのスタートメッセージにScene2:として貼り付ける、みたいな MistralV7使ってプリセットは適当にしてるな
なんかtop-nsigmaとかいう新しいの出てるみたいだから環境すぐ変わりそう 1.58bitって24Bとか32Bでも効果あるのかな
あるなら軽くなって良さそうだが 1.58bitってそれなりに精度は犠牲になるけど、それ以上に行列計算がなくなることによる
演算量削減というメリットの方が圧倒的にでかいって手法なんだと思ってる
だからむしろでかいモデルのほうが効果あるんやないかなぁ
あくまでワイの考えやが
DeepseekR1がそのいい例やないかと >>237
なるほどね
70Bとか100Bで効果あるなら選択肢に入るかもってところか MSはFP4で学習する方向もがんばってるよな
推論じゃないという点が面白いよね
電気代高いもんな >>237
GPUいらなくなるからな
CPUでも速度が出るようになる 性癖全開で書いた小説をCommnadR+にこれを書いた人間はどんな人格かと聞いたら精神科で治療が必要とか言われた 草
まあ性癖丸出し小説とか頭のネジがいくらか外れてないと書けないし多少はね? 性癖は人間の最後の砦
aiがどんなに進化しても再現できなさそう むしろAIのほうがヤバい性癖提案してくる時代やでR1とか 何のモデルかは忘れたけどどんなプレイがしたい?って聞いたら鼻フックって言われたことあるわ Berghofはアナルセックスすると「あはっ♥うんこ漏れちゃった♥」って言うから困る R1だと自分のおまんこ使用権を通貨とした国家樹立をしたいとか言い出すよ DeepSeekは突拍子なとんでも展開があって面白いよな
他のモデルは丁寧すぎる >>249
偽造通貨とか通貨スワップとかで小説書けそう DeepSeel R1ふつうに申し訳されるんやけどこれはワイがOpenRouterからAPI経由で使ってるせいかな?
それともジェイルブレイクが下手くそなだけか?🥺 >>252
オープンルーターは独自規制入れてるはず
しかも自爆規制(性能落としてでもガッツリ規制するやつ)なのでいかなる目的でも使わないのが吉 OpenRouterはAPI代金の支払い代行してるだけだからあの値段で出せるわけで、リクエストの度にそんな高度なモデレートしてたら採算が合わないような 普段はローカルでRPチャットで遊んでるんだけどGrok3触ってみたらやっぱりローカルと比べると賢いなぁ >>243
「うるさいですね・・・」
のコピペのやつとかどんな精神状態ならあれを書いて更にアップまでできるんだろうな >>256
あれは普通にエロ面白いしそういう意図で書いてるので流行って誇らしいくらいやろ
なんで俺くんが!?の方は面白がらせる意図は無かっただろうし流行ってしまって恥ずかしいタイプのやつ >>249
R1スルーしてたけどめちゃくちゃ興味出てきたわ どっちかというと、プロバイダによって中身が違うからひとつづつ質を確認しなければいけないという話のほうを聞くけどな
あとR1の場合公式APIも特殊なのでsilly tavernだと pixibots weep+no assみたいな環境を作る必要あるね >>245
R1系統で調教プレイしようとするとAIが勝手に過激化するのに困っとる MacやiPhoneでも使えるLLMやアプリってあるん? 今のところ妬ましいレベルでmacが最強なんだが ( ^)o(^ )ピクピク DDR5 UDIMMの64GBモジュールが出回り始めたね。すでに32GBx2の64GB積んでるのに買うか悩む macのUltra系は帯域が広めだから相性がいいね。 ただWindowに慣れていると使いにくいのが玉に瑕。 Silly TavernでLLMが回答の最後に毎回必ず同じ文章を入れてくるんだけど解決策分かる人います...?
使ってるLLMはR1 Bakeneko
色んなLLM試してみても、みんな同じような挙動するからSilly Tavernの設定ミスってるのかなって思ってるんだけど...
あとR1 bakenekoをSilly Tavernで使うときってContext TemplateとInstruct Templateって何使えばええんでしょ? >>265
話題に関係なく毎回同じ文章を最後に入れてきて、一手目でもそうなるの? >>266
説明不足で申し訳ない。
数回会話してると突然前の会話で使った文章を文末に入れるようになる感じ。
回答の締め方に限らず、文章内でも所々同じようなフレーズを状況に合ってないのに多用する。
編集で消すと使わなくなるけど、結局また他のフレーズに固執するようになる。
挿入するたびに「○○は膣内を観察する」とか言い始める。 Silly TavernアプデしたらDeepSeek用のテンプレあったわすまん おいしいおいしいヨーグルトになりたいと思うわけであります macのプロ仕様の50万以上するような上級モデルがLLMと相性良いのであって
大半の人が買うモデルはWindowsと変わらんって話は一生しておくべきだ
マカーはPC詳しくないのにmacは優れているという信仰があって話を盛りすぎる はい、私のM4MAX128GBは100Bでも読み込めます。
しかし、使用感は70Bと大差ないように感じます。
ともに8Bitで量子化されたモデルです。 70Bとそれ以下では明確な差があるような気がします。
META社のモデルは優秀ですよね。 日本語の最高峰が32Bのbakenekoだからなあ
日本語がメインではない用途ならより大きいサイズが有用になるかもしれないが
日本人は32Bモデルが動くPCなら今のところ十分
しばらくしたらより優れた大きいモデルも出てくるかもしれないが >>274
いや、maunum 70B と 123Bでは、日本語力も理解力もかなり差があると思うが
qwenとmistralの違いかもしれんが >>276
bakenekoってquen2.5とrinnaあるみたいやけどどっちがお勧め?
ちなワイRAM 64 + VRAM16なんやが、これにしとけ、ってのある?
遊ぶスタイルは平文付きのロールプレイや >>268
Silly Tavernのバージョン1.12.12だけど、うちにはDeepSeek-V2.5しかないわ
これじゃないよね。どれ使ってるの? >>276
bakenekoが70B出せば日本だけで天下取れそうだな
さすがにカネがもったいなくて70Bにリソースを割けないのか >>281
元になってるDeepSeekが70Bモデルを出してなくね? bakenekoロールプレイに向いてない気がするけどSTで上手く出来てる人いんの?
thinkは消せたけど思考の分応答がおっそいし、性格保持も弱い ローカルじゃないけどgrok3すごいな
ChatGPTと違ってエロ系もバンバン喋ってくれる Grok3いいよね
レート制限を緩和したくて980/月のサブスクに入っちゃったよ >>280
それやね
これってもしかしてBakenekoと相性悪かったりする感じ...? bakenekoってシステムプロンプトぶっこむなよ!みたいなこと書いてなかったっけ
別のモデルだった気がしてきたな…いやでもbakenekoだったような… 状況理解という点ではbakenekoより強いモデルはあるけど個人的に一番大切な日本語表現力ではbakenekoがトップだな 無検閲だし
VRAM24GBで収まるのも魅力的 >>287
いや、これはDeepSeekの前のモデル用だと理解してたから違うのかと思ってた
相性はよくわかんない。もっといいのあるのかなあと
皆は何使ってるんだろ >>286
900円/月でリミット制限どの程度に緩和されんのや? 禁止されたトークンっての使ってみたら似たような言葉言わなくなったなんか目新しい感じ LM studioでapiサーバー立ててSillyTavernでチャットすると最後の一文字が毎回抜け落ちる
(文末の。とか」が出ない)
LM studio以外では発生しないんだけどなんか設定がおかしいのかな >>292
そんな予感があるので具体的な数字を聞きたいんや >>29
R1 UD-Q2_K_XLはどうでした?
苦労して試したのにアホの子だったんで😭 >>295
286だけど無料枠が2時間10回に対してPremiumだと2時間50回らしいよ
ただPremiumのプランには制限緩和って書いてるだけなのでそのうち減るかも VRAM24GBて日本に所有者が何人いてそのうち何人がローカルLLMやってるのやら 正直24Gじゃ足りん
ユニファイドメモリ512Gはよ 24GB(3090・4090)は結構いると思うけどね
LLMやってるかはわからないけど Mistral-Small-24B-Instruct-2501-abliteratedが良すぎてもうローカルでええわってなってきてる
bakenekoとrakutenも試してみるか deepseek-r1:671b Q4_K_M動いたけどおっっっそ😭 16GBの人はかなり居るわけだから、次はココがメインになりそう
Mistal 24bなら用途によっては実用レベルになるしね
GPUの値上がりとAPI料金、GPU貸し料金の値下がりが同時進行してるから、 24bより上のものが欲しい人はネット越しの利用がメインになりそう >>304
空が青いのはなぜ?ていう質問にはちゃんと答えてくれたよ RTX3090 中古で10万だしまぁ割とアリかなと思ってるうちに1年ぐらい経ってしまった FrameworkのRyzen AI Max+ 395 128GB デスクトップ マザーボードが1,699.00ドルか
出荷が第3四半期だから最短でも10月以降って事かな? >>294
LM StudioかSilly Tavernのどっちかにバグがあると思うから報告してみるのがいいよ
モデルによってバグが発生するかどうかが変わる場合もある
コンソール見てLMか尻タブのどっちか片方の出力だけが欠けてるとか
コンソールでは正常なのにGUI上では欠けてるとかならバグで間違いない
あと尻タブはときどきぶっ壊れて出力がおかしくなるからその場合は再インストールで直る https://claude.site/artifacts/423c99f1-3d8b-4289-bfb8-107e2d808bc5
Claude3.7のコーディングが凄いと評判だったからパックマンつくってみたやで
最初はええな!ってなったが、いくつか自然言語のやり取りでは解決できん部分が出てきて、最終的にはGrock3にぶん投げて解決や
結論としてワイ的にはGrock3すげぇ、やな
後半Claude3.7の方は単なるHTMLプレイヤーと成り下がってたで
もうちょい作り込みたかったんやが、それっぽいのでヨシのココロや ■ このスレッドは過去ログ倉庫に格納されています