なんJLLM部 避難所 ★5
レス数が900を超えています。1000を超えると表示できなくなるよ。
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/ 論理的思考には数学の力が必要と言われてるけど
AIにも同じことが言えるってことなのかな Windows環境でやってるけどLinuxの勉強は必要だと痛感する Linuxの分からないことはLLMが教えてくれるぞ🥴 >>802
Lumimaid-Magnum-v4-12BのGGUF番だと、量子化職人さんの腕でかなり反応変わる印象。
うちではUndi95さんの奴使ってるけど悪くないよ
>>803
窓のLMStudioでDeepSeek R1動いてるよ。量子化モデルだから偽物って言われちゃうとごめんだが Project DIGITSって一般販売されるんやろうか
放送大学に入って情報理論も学びながらアカデミック扱いを検討すべきか? 放送大学ってアカデミックなメアド貰えるんか?もらえたらそのまま買えちゃいそうだけど 学割では常套手段だけど放送大学の学生証でdigitsを買う権利は手に入るんだろうか 放送大学入るのに費用いくらかかるんだ?
ロハできんの? 使えるなら余裕でペイだけど学生生協とか大学のメールアドレスが必要だったりするから放送大学で適用されるかは分かんないAppleで使える報告はあるからMacを10台くらい買うなら超得かもね 放送大学の学割の有効活用が今号のラジオライフで特集されてた気がする
立ち読みだからどれくらい掛かるか覚えてないけど元を取るのは大変そうだった @campus.ouj.ac.jpのメアドが貰えるらしいね。映画をよく見る人とか、アマプラやadobeやofficeで学割が使えるから悪くはないかも。reddit見る限りpeople大とかでもメアドが貰えそう。国際学生証ISICだけど。 日本でも注目されてるくらいだから海外ではもっとだろうし
大きな需要が確認されれば販路を限定する理由が無いから普通に買えそう(買えるとは言っていない) 需要が大きければ、本当に必要なところに行き渡らなくなるからこそ販路を絞ると思うが。 五月に出てくるわけだから、ニーズがあっても生産数を増やすことは不可能なんでは
ニーズあればあるほど販路は限定されそう
一年くらいまてば変わってくるだろうけど なんか良いキャラ設定はないかと思って同人音声の台本をSTの対話例にぶちこんだら
なかなか良い感じの変態女になってくれた それ良さそうだな
なんなら音声から文字起こしする事も出来ますし deep researchでエロ小説書いてるニキはおらんのか? >>828
STの対話例について詳しく
どのファイル? >>831
ここはローカルメインだからgptスレで聞いてみた方がいいよ
>>832
キャラ設定からAdvanced Definitions(本のマーク)押して出るExamples of dialogueじゃない? >>832
>>833の言う通りやで
この本のマークをクリックして左側に表示されるところの一番の下
https://ul.h3z.jp/3ofOkfQe.jpg
<START>
{{user}}:
{{char}}:
っていう形式で書き込むところや これエロに強そうだけどどんなもんかな
https://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT-GGUF-Q4
> Deepseek-R1-14Bに基づいて、このモデルは深く最適化されており、Tifa_220Bによって生成されたデータセットは、
> トリプルトレーニング戦略を通じて、ロールプレイング、新規テキスト生成、および思考チェーン(CoT)機能を大幅に強化します。
> これは、長期的なコンテキストの関連付けが必要なオーサリング シナリオに特に適しています。 日本語出力はできるけど、コンテンツポリシーを超える描写は「申し訳ありませんが、そのリクエストには対応できません。」されるわ
丁寧に脱獄していけば大丈夫かもしれないけど、日本語もそこまでしっかりはしていないなぁ 今んとこ紳士向けST用途ではLumimaidもしくはLumimaid-Magnum v4超えのブツはあんまりなさそう。
Lumimaid-Magnumの作者Undi95氏がUndiMixという新作出してたけどこれも日本語がびみょかった 日々大量のモデルがあって見切れないから、試しでもオススメされるのは助かるってもんよ >>842
joybod/RoguePlanet-DeepSeek-R1-Qwen-32B-RP-Q4_K_M-GGUF
LM STUDIO+Silly Tavern Staging+noass extension+Pixibot weep Prompt >>843
サンガツ!extensinは試したことないな。入れてみるか
mradermacher/Ninja-V3-nsfw-enhance-GGUF試したけど悪くないな。bergofの強化版という感じのドスケベモデルだ。Q8でも9GB前後だから12〜16GB環境でもサクサクで良い Dolphin3.0 R1 mistral 24bが出てるな
Mistral 24bにR1蒸留させたものみたいだけど、長文癖が付いてて長文think長文出力が出しやすいように感じる
英語オンリーだけど規制なし
CTX長をあっという間に使い果たすけど、これはこれで使い道あるのでは 普通のゲーミングPCで動くようなLLMってもう性能的に頭打ちなんやろか?
話題のモデル色々試したけど結局vecteusでよくねって感想なんやが 小さいモデルでも賢く作る技術は色々出てきているみたいだけど
それがローカルのエロLLMに降りてきている様子はほとんどないな そしてローカルでは123bが一般pcで動かせる最強 そもそも性能の評価が他人と一致しない感じがする
日本語能力と言った場合でも人によって指してるものがズレてるような
流暢さを指してるひとと、理解力を指してるひとと、文章構造を指してるひとがいるのかな 俺なんてそもそもモデルごとの最適なシステムプロンプトが全く分からん >>852
確かにそうかも
ワイの評価は実用的なエロ小説をこちらの意図を正確に汲み取って多彩なセリフ回しで矛盾ないストーリーを正確な日本語で時には露骨な表現も使いながら作成してくれるモデルを高評価にしてるわ デカいLLM動かすにはヘボいPCでも一定以上の成果だしてくれるモデルがあるのは本当にありがてえよ >>853
まずはバニラでいくつかプロットを試すんだ
で、良さげと思ったら強化プロンプトぶち込んだりしてみるといいよ
初めから使うと正確に評価できんから おおお
koboldがMulti-pass websearchにも対応してさらにwebsearchが使い勝手よくなった 最終的には指示に従うけど適度に恥ずかしがったり嫌がったりするキャラ作りが難しく難航中 ローカルはシステムプロンプト以前にTop-P Top-KとかInstruct Tag Presetで全然出力が変わるし未だになんも正解がわからないぞ俺
何を基準にすればいいのやら >>859
とりあえずkoboldのデフォ設定でいいんじゃない? >>860
Top‑PとTop‑Kが高すぎると一貫性が失われやすくて実際ローカルLLMは頭が悪い割にすぐめちゃくちゃなこと言い出して指示に従わないことがあるから
体感的には下げたほうが方向修正の回数が減って楽になったんだけどいじらないのが普通なの? >>861
自分はずっとデフォにしてるけど、特に問題なかったかな >>862
用途にもよるんかな?ワイはクソ長い設定渡してロールプレイさせてる
EasyNovelだと安定する内容がKoboldだと不安定になったりするからなんか特別な設定が必要なのかなと思ってる silly tavernの場合は設定のプリセットがたくさん入ってるから適当に選んで比較してみるといいよ
と言っても俺はやっぱりよく分からんかったけど やっぱりみんなよく分かってないのか
コンテキストテンプレートもよく分かんねえや
モデルごとに尻タブでのオススメ設定が書いてあればいいのに >>865
尻とkobold連携させる時はプリセットだと上手くいかなかったからkoboldのデフォ設定と同じにして使ってたな わかんないとこをばんばん投げるのが良い気がする
koboldcppについてるウェブ応答画面はkobold ai liteのキャラ設定が動いてるっぽいけど外す方法がわからん、とか
Ai lite側の規制で申し訳出してきやがるんだよな >>868
あのアイコンの代わりに好きな画像表示すればいいじゃない 好きな女の顔で胡乱なことを言われるのが嫌なので龍アイコンのままにしてる 版権キャラでチャット遊びする時はそのキャラの画像にしてるw ついでに画像生成にも手を出したんだが、LLMに比べて環境整理がされてないのは何故なんだろう
LLM周りが整備されすぎ簡単すぎなのかな
Civit.AIで良さそうな画風を探してGenetation Dataを元に設定する
→danbooruで良さそうな絵を探してタグを全部コピー、貼り付け、置換で? やカウント数を消してカンマ区切りにして吐き出させる
→プロンプトの中央部を置き換え
ってやるだけでウルトラクオリティエロ画像が無限のバリエーションで出せるわけだから、誰かが一気通貫ツール作っててもいいのに
めんどいところはChatGPTくんに頼めばPythob書いて自動化できるからまぁいいんだけど
クローズドなところで5分で作れるものが2万で売られてたりするのかな むしろAI画像生成の方がかなり簡単な気がする
LLMは導入したあとの設定が難解すぎる >>873
ローカルは画像生成の方が遥かにインフラ整備されてると思うぞ
むしろ向こうからこっちに来た人はUIとか全然発達してないことによくびっくりしてる そうなの?
自分がたまたま良いものが見つけられなかった結果なのかな
あるいはChatGPTくんがLLMのほうが得意だからかね
綺麗な環境がないかもうちょっと探してみる >>873
ちょっとよく分からなかったが、CivitAIとdanbooruの絵を読み込んで表示して、画風とシチュ・ポーズを選択したらマージしたタグで画像生成してくれるツールが欲しいってこと?
ぶっちゃけ画像生成はかなりガチャなので数打たないと気に入った画像は出ないよ
どうでもいい絵や破綻した絵や気に入らない絵でいいならいくらでも出るけど
そして打率を上げるためにパラメータや呪文を細かく変えて比較したりLoRAに手を出したり沼にはまっていく danbooruのタグをコピーなんてしなくても
気に入ったモデルで気に入った画風のプロンプトを入れて
ランダムにしたいところはdynamic promptやTIPO使って生成するだけで良いんでないの そもそもローカルやってる人の率が桁違いだからな
画像生成でローカルに手を出す人は多いし情報共有が盛んだけど、LLMはオンラインが99.9%超えるんじゃね まあオンラインは手頃だからね
ワイも息抜きにやる事あるが、うっかりいつものような人に見られたら死ぬしかないようなプロンプト入れそうになって焦る事あるw 画像生成は
ローカルならEasyReforge
webならNovelAI
あたり使えばほぼワンストップで最強の環境になっちゃうしな >878
やったことは、
1. Civit.AIで好みの作例を見つけて、Generatin Dataから環境作って同じものを再現
2. プロンプトみて絵柄に関係しているものと描く題材に関係しているものに分類
3. 後者をDanbooruの好みの絵に付けられていたタグ一覧と入れ替えて生成
だね。
絵を正確に評価する目はないけど、自分には個人利用に耐えるものが出来てるように見える
2時間くらいの行ったり来たり作業でコレだけ出来るなら、10分でセットアップしてここまで体験させるやつ、初心者を沼に沈めるやつがあってもいいのでは...?って疑問だね
LLMでいうとLM Studioとか、Ollama run hf.co/〜とか >>883
5chでもpixivでもXでも見てくれば
もう小学生でもできるくらい普及してるのがわかるんじゃないか >>883
なんでそんな面倒なことするのかよくわからんけど、上にもでてるeasyreforgeとか使ってみれば?
danbooruタグのサジェスト出るし欲望のままに単語打っていけば、🤖「わかっとるで、ニキが欲しいのはコレやろ?」ってのが勝手に出てくるよ いきなりComfyUIとかは確かに難しいかもしれんが
text-generation-webuiの名前の元ネタのStable Diffusion Web UIなんかは
環境構築も操作もそんなに難しくないと思うが
画像生成の話が出たからついでに聞きたいんだが、STのGenerate Image使いこなせてる人いる?
LLM側のモデルはmradermacher/Behemoth-v2.2-Magnum-v4-123B-i1-GGUFのQ4_K_Mで
stable diffusion側のモデルはKKTT8823/momizi_Noobの momizi_Noob_V3_1.safetensorsを使ってるんだが
そもそもLLMが吐くプロンプトが自然言語交じりで別にtanbooruタグに準拠してないから
生成される画像がチャットの流れにあんまり合ってないものしか出ない llm側がdanbooru語を理解してるわけじゃないからね
気になるならImage Prompt Templateに頻出するdanbooru語書いとくか、画像生成前に自分でチェックするかやね DanTagGenを経由してmomiziにプロンプトを渡せたら上手くやれそうだな
どうやるのかは知らんが webのGPTやDeepSeekは「Danbooru語で画像生成プロンプト書いて」と命令すれば書いてくれるけど
ローカルLLMで試したことはないな というか今はTIPOが勝手にそれっぽいdanbooruタグ選んでくれるから別途LLMに聞く必要がない png画像を放り込んだらinterrogateしたtagに基づいた台詞をAI生成して、画像に文字レイヤーを合成してpsdを返してくれるアプリ作りたいな。EasyNovelAssistantしか使ったことないけど他のプログラムから呼び出して使えるllmツールって何がいいかな? >>892
silly tavernでチャットに合わせて画像を生成させる機能について話してるんだけどTIPO使えるの? TIPOがローカルLLMに訊いてdanbooruタグに変換する仕組み。 TINPOは既に書かれてるプロンプトを膨らませる機能であって
チャットの日本語を拾ってdanbooruタグに変換する機能じゃないやろ TIPOに"法隆寺"って日本語を渡したらフランドールスカーレット描いてくれたぞ
無能 whisperのguiなんかgptに聞けば一発で出してくれるぞ レスポンス遅れてすまん
>>890の教えてくれたDanTagGenを試してみたけど自然言語からタグを生成はできないっぽい
>>891みたいにdanbooruタグを返すようにプロンプトをデフォから変更したらそれっぽい結果が得られたから、この方向で調整し見るわ >>893
LLM のマルチモーダルならComfyUI かなあ……transformersにdiffusers とかの組み合わせだと、画像や映像をみるのにひと手間いるしね
ノードの構成自体がUIになってるから、GUI を別に作らなくていいしw パラメータを変えつつ、音声や画像や映像の結果を同じ画面でみれるのは便利
(あとPythonからJaraScriptへの連携もスムーズだし、ネットワークもベースがaiohttp だから、サーバもクライアントも同じように書ける) >>901
fluxのように自然言語理解力が高い画像モデル使うとか? 今もLLMじゃ日本語でスケベ小説書かせるのって難しいん? サイバーエージェントのlm3-22Bの4bitロードで使えばかなり良いのが出るよ
あまり話題にならないのが不思議
VRAMも合計20GBあれば余裕だし
ChatGPTのプロンプトがそのまま使える 小説の体裁をとらせるのは小型LLMでもだいぶやれる
半分ロールプレイ、半分チャットな 文書から離れて、小説の基礎技術が出来ている日本語文章をかけるのはChatGPTくらいという印象
文章の良し悪しは人によって基準が全然違うから、自分で使ってみるしかないのでは
日本語が苦手なモデルが相当あるから、英語で書いてもらってそれを翻訳加工すると良いものができる可能性ありそう >>905
エロいの出してくれるんです?
国産系はカラクリ以外そのへんダメダメなイメージがある 70Bとか123Bをローカルで動かすのは厳しいなあ
MかマルチGPUにせなまともに動かん
もっとVRAM欲しい レス数が900を超えています。1000を超えると表示できなくなるよ。