なんJLLM部 避難所 ★6
■ このスレッドは過去ログ倉庫に格納されています
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★5
https://mercury.bbspink.com/test/read.cgi/onatech/1735186391/ >>252
オープンルーターは独自規制入れてるはず
しかも自爆規制(性能落としてでもガッツリ規制するやつ)なのでいかなる目的でも使わないのが吉 OpenRouterはAPI代金の支払い代行してるだけだからあの値段で出せるわけで、リクエストの度にそんな高度なモデレートしてたら採算が合わないような 普段はローカルでRPチャットで遊んでるんだけどGrok3触ってみたらやっぱりローカルと比べると賢いなぁ >>243
「うるさいですね・・・」
のコピペのやつとかどんな精神状態ならあれを書いて更にアップまでできるんだろうな >>256
あれは普通にエロ面白いしそういう意図で書いてるので流行って誇らしいくらいやろ
なんで俺くんが!?の方は面白がらせる意図は無かっただろうし流行ってしまって恥ずかしいタイプのやつ >>249
R1スルーしてたけどめちゃくちゃ興味出てきたわ どっちかというと、プロバイダによって中身が違うからひとつづつ質を確認しなければいけないという話のほうを聞くけどな
あとR1の場合公式APIも特殊なのでsilly tavernだと pixibots weep+no assみたいな環境を作る必要あるね >>245
R1系統で調教プレイしようとするとAIが勝手に過激化するのに困っとる MacやiPhoneでも使えるLLMやアプリってあるん? 今のところ妬ましいレベルでmacが最強なんだが ( ^)o(^ )ピクピク DDR5 UDIMMの64GBモジュールが出回り始めたね。すでに32GBx2の64GB積んでるのに買うか悩む macのUltra系は帯域が広めだから相性がいいね。 ただWindowに慣れていると使いにくいのが玉に瑕。 Silly TavernでLLMが回答の最後に毎回必ず同じ文章を入れてくるんだけど解決策分かる人います...?
使ってるLLMはR1 Bakeneko
色んなLLM試してみても、みんな同じような挙動するからSilly Tavernの設定ミスってるのかなって思ってるんだけど...
あとR1 bakenekoをSilly Tavernで使うときってContext TemplateとInstruct Templateって何使えばええんでしょ? >>265
話題に関係なく毎回同じ文章を最後に入れてきて、一手目でもそうなるの? >>266
説明不足で申し訳ない。
数回会話してると突然前の会話で使った文章を文末に入れるようになる感じ。
回答の締め方に限らず、文章内でも所々同じようなフレーズを状況に合ってないのに多用する。
編集で消すと使わなくなるけど、結局また他のフレーズに固執するようになる。
挿入するたびに「○○は膣内を観察する」とか言い始める。 Silly TavernアプデしたらDeepSeek用のテンプレあったわすまん おいしいおいしいヨーグルトになりたいと思うわけであります macのプロ仕様の50万以上するような上級モデルがLLMと相性良いのであって
大半の人が買うモデルはWindowsと変わらんって話は一生しておくべきだ
マカーはPC詳しくないのにmacは優れているという信仰があって話を盛りすぎる はい、私のM4MAX128GBは100Bでも読み込めます。
しかし、使用感は70Bと大差ないように感じます。
ともに8Bitで量子化されたモデルです。 70Bとそれ以下では明確な差があるような気がします。
META社のモデルは優秀ですよね。 日本語の最高峰が32Bのbakenekoだからなあ
日本語がメインではない用途ならより大きいサイズが有用になるかもしれないが
日本人は32Bモデルが動くPCなら今のところ十分
しばらくしたらより優れた大きいモデルも出てくるかもしれないが >>274
いや、maunum 70B と 123Bでは、日本語力も理解力もかなり差があると思うが
qwenとmistralの違いかもしれんが >>276
bakenekoってquen2.5とrinnaあるみたいやけどどっちがお勧め?
ちなワイRAM 64 + VRAM16なんやが、これにしとけ、ってのある?
遊ぶスタイルは平文付きのロールプレイや >>268
Silly Tavernのバージョン1.12.12だけど、うちにはDeepSeek-V2.5しかないわ
これじゃないよね。どれ使ってるの? >>276
bakenekoが70B出せば日本だけで天下取れそうだな
さすがにカネがもったいなくて70Bにリソースを割けないのか >>281
元になってるDeepSeekが70Bモデルを出してなくね? bakenekoロールプレイに向いてない気がするけどSTで上手く出来てる人いんの?
thinkは消せたけど思考の分応答がおっそいし、性格保持も弱い ローカルじゃないけどgrok3すごいな
ChatGPTと違ってエロ系もバンバン喋ってくれる Grok3いいよね
レート制限を緩和したくて980/月のサブスクに入っちゃったよ >>280
それやね
これってもしかしてBakenekoと相性悪かったりする感じ...? bakenekoってシステムプロンプトぶっこむなよ!みたいなこと書いてなかったっけ
別のモデルだった気がしてきたな…いやでもbakenekoだったような… 状況理解という点ではbakenekoより強いモデルはあるけど個人的に一番大切な日本語表現力ではbakenekoがトップだな 無検閲だし
VRAM24GBで収まるのも魅力的 >>287
いや、これはDeepSeekの前のモデル用だと理解してたから違うのかと思ってた
相性はよくわかんない。もっといいのあるのかなあと
皆は何使ってるんだろ >>286
900円/月でリミット制限どの程度に緩和されんのや? 禁止されたトークンっての使ってみたら似たような言葉言わなくなったなんか目新しい感じ LM studioでapiサーバー立ててSillyTavernでチャットすると最後の一文字が毎回抜け落ちる
(文末の。とか」が出ない)
LM studio以外では発生しないんだけどなんか設定がおかしいのかな >>292
そんな予感があるので具体的な数字を聞きたいんや >>29
R1 UD-Q2_K_XLはどうでした?
苦労して試したのにアホの子だったんで😭 >>295
286だけど無料枠が2時間10回に対してPremiumだと2時間50回らしいよ
ただPremiumのプランには制限緩和って書いてるだけなのでそのうち減るかも VRAM24GBて日本に所有者が何人いてそのうち何人がローカルLLMやってるのやら 正直24Gじゃ足りん
ユニファイドメモリ512Gはよ 24GB(3090・4090)は結構いると思うけどね
LLMやってるかはわからないけど Mistral-Small-24B-Instruct-2501-abliteratedが良すぎてもうローカルでええわってなってきてる
bakenekoとrakutenも試してみるか deepseek-r1:671b Q4_K_M動いたけどおっっっそ😭 16GBの人はかなり居るわけだから、次はココがメインになりそう
Mistal 24bなら用途によっては実用レベルになるしね
GPUの値上がりとAPI料金、GPU貸し料金の値下がりが同時進行してるから、 24bより上のものが欲しい人はネット越しの利用がメインになりそう >>304
空が青いのはなぜ?ていう質問にはちゃんと答えてくれたよ RTX3090 中古で10万だしまぁ割とアリかなと思ってるうちに1年ぐらい経ってしまった FrameworkのRyzen AI Max+ 395 128GB デスクトップ マザーボードが1,699.00ドルか
出荷が第3四半期だから最短でも10月以降って事かな? >>294
LM StudioかSilly Tavernのどっちかにバグがあると思うから報告してみるのがいいよ
モデルによってバグが発生するかどうかが変わる場合もある
コンソール見てLMか尻タブのどっちか片方の出力だけが欠けてるとか
コンソールでは正常なのにGUI上では欠けてるとかならバグで間違いない
あと尻タブはときどきぶっ壊れて出力がおかしくなるからその場合は再インストールで直る https://claude.site/artifacts/423c99f1-3d8b-4289-bfb8-107e2d808bc5
Claude3.7のコーディングが凄いと評判だったからパックマンつくってみたやで
最初はええな!ってなったが、いくつか自然言語のやり取りでは解決できん部分が出てきて、最終的にはGrock3にぶん投げて解決や
結論としてワイ的にはGrock3すげぇ、やな
後半Claude3.7の方は単なるHTMLプレイヤーと成り下がってたで
もうちょい作り込みたかったんやが、それっぽいのでヨシのココロや Show Contentsをクリック、ゲーム開始をクリックであとはキーボードの矢印で上下左右でいけんか? >>314
わざわざ手間かけて恐縮なので、もうちょっとだけ作りこむわ…
ちょいまっててな 結局長文のエロ小説書かせるならどのモデルがいいの? >>306
ワイは一昨日リース落ちのTITAN RTX(24GB)を8万ちょいで拾ってローカルLLMデビューしたで
70Bがギリギリ動いてる https://claude.site/artifacts/2f1da37e-d0fe-431c-a1db-cdd0f4b5c928
せっかくなのでワープゾーンとかゴーストのディレイスタートとかも実装したで!
これはもうパックマンやろ...
改良もここまでにしてERPに戻って貝になるで >>322
これがあるとMacPro羨ましくなくなるん? ProjectDigitsもあるしMac系も今年何か動きあるだろうし
LLM用マシン組むのは今年の中盤あたりまで様子見たほうがよさそうやな AI Max395のメモリ帯域256GB/sらしいから通常のWindowsPCの倍以上でM4Pro並
M4Maxはその倍ぐらいある
予算次第では有りでしょ AI max+ベースのGPU貸しサービスが出てくるとおもしろそうかな
たいして速くないけどウルトラ安価で128GB使えますっていう M4チップでLLMいけると思う?
最低64GB無いときついんかな Deepseekのせいで128GBだとすくねぇなぁって思うようになってしまったのがなぁ・・・
前だったらcuda使えて128GBのProjectDigits一択だった気がするんだけど ローカルLLM使ったことないし、LLMをエロに使ったこともほぼないんやが…
koboldというもので孕ませレイプはできるやろか?
ストーリーの大枠を自分で考えた上で、表現の脚色をLLMに頼みたいんやが
自分でエロ小説書くは一応経験ある
もしなんJ系の外部掲示板にいた人がおるなら、ドアノブという名前でワイのこと知ってるかもしれん >>330
いけるで。
なんならもっとヤヴァイシチュもありやで
そして、エロ小説執筆の経験あるなら、
沼に、は・ま・る・でw >>332
いけるならよかった
>>333
試してみるわ ちなみにモデルにもよるけど小説なら温度、min-p、dry、xtcは使った方がいい(と思ってる) claude3.7、character card v2のgithubとcharacter tavernとかのカードページを指定すると内容を認識できるな
で、そのままロールプレイに移行できる
これはだいぶ強いのでは 文章出力は最も簡単な仕事、文章の品質向上は最も難しい仕事だから、ここが分割できると色々やれそう
メイン応答はネット越しにまかせて、ローカルLLMを並走させてアイデア、声、画像を出させる、とか 強制女装とか女性ホルモンとかの報告書とかそういったの書きたいんだけどおすすめある? >>262 M1 max + chrome で普通に動いたよ。すごいね >>340
llmだけは違う。まぁ、クソ高いけどな。 ユニファイドでもいいけどやっぱvramたいりょうにほしいンダわ 林檎はllmなんて出してないやろ
まあユニファイドがローカルに使えなくもないのはわかるけど、llmに強いというのは違和感しかないで
送受信は軽いんだからオープンモデルを使うにしてもAPIやレンタル鯖ではなくどうしてもローカルでやりたいなんて人はほとんどないんちゃうか >>344
このスレのメインの話題をなんだと思ってるんだ? メインの話題は24gb以下で使えるエロLLMの話だからMAC買える富裕層はお呼びでねーぞ 最近はローカルエロやらずにgeminiとか4oとかその他諸々にゲーム製作手伝ってもらってるわ
なかなか全然上手くいかねえ ワイらにとって希望の一つでも、強くはないやろ
むしろアッポーがllm激弱で逃げ込んだ先がワイらの住処やったっちゅう感じやないか? >>344
素人が無理して知ったかするのはダサいよww なんか変だから追試してみたら、claudeくん画像とCharacter Card V2フォーマットだけみてjsonを捏造してるな...
どんな画像からでもロールプレイ設定を起こしてくれるからこれはこれで使い道ありそうだけど ■ このスレッドは過去ログ倉庫に格納されています