なんJLLM部 避難所 ★7
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/03/23(日) 14:58:05.71ID:bsaTSAD8
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★6
https://mercury.bbspink.com/test/read.cgi/onatech/1739448962/
0127名無しさん@ピンキー2025/03/26(水) 10:11:06.53ID:???
geminiが3/25以降常にthinkするモデルに差し替わったらしい
chatarenaでいきなりトップに出とるね

今後thinkモデルが当たり前になるんだろうか
token量増えるからあまり好きじゃないんよね
ロールプレイにもあまり向いてない気がするし
0128名無しさん@ピンキー2025/03/26(水) 10:44:09.82ID:???
画像生成でTIPOを入れてる時期が俺にもありました
いつの間にかSTを入れてRPチャットをやろうとしている
0129名無しさん@ピンキー2025/03/26(水) 10:47:27.90ID:???
>>126
何にも指定してないのにアナルに突っ込んだ時だけおほっ♡とか言うの日本のエロ同人に対する解像度高すぎで草
0130名無しさん@ピンキー2025/03/26(水) 10:50:58.72ID:???
非推論モデルの知見を捨てて推論モデルだけを研究とはならないだろうし大丈夫じゃないか?
最近出たdeepseek v3は非推論だし
0131名無しさん@ピンキー2025/03/26(水) 11:11:14.32ID:???
>>127
ロールプレイはそうかもしれんけど、一般的な用途は多少のデメリットがあっても賢くないと使いにくいよ
直近のQwQ-32B、Gemma 3 27B、Mistral Small 3.1 24Bで比較しても
QwQ-32Bが一番プロンプトの理解力が高くて、指示に従ってくれる
0132名無しさん@ピンキー2025/03/26(水) 12:20:11.20ID:???
グラボメモリが12gだとMistral Small 3.1 24Bしか選択肢ないけどそれでもめちゃくちゃ賢い
0133名無しさん@ピンキー2025/03/26(水) 14:54:11.44ID:???
token増える問題は確かにだけど2.5proはthoughtも出力も優秀だから食うだけの実力はあると思う
0134名無しさん@ピンキー2025/03/26(水) 14:54:29.78ID:???
llmで画像生成補助の話ならなんUへ行ったほうが識者が多そうだが
いまchatgptの画像生成で盛り上がってるし
0135名無しさん@ピンキー2025/03/26(水) 15:29:53.66ID:gZuqN0s2
>>いまchatgptの画像生成で盛り上がってる
なんかあったんか?
0137名無しさん@ピンキー2025/03/26(水) 16:49:27.11ID:???
nvidiaがProject G-Assistの一般提供を開始してるな
nvidiaのローカルLLMがゲームプレイをアシストします。という話だったのが、こっそり方向転換してプラグイン形式でローカルLLMに機能を追加できますと言い出してる

ローカルLLMが文章、音声を手元でCLIなコマンドに変換して、MCPなりで他のLLM
に投げてくれる。と言うならだいぶ使い道あるよね

あとこいつGPUドライバが知ってる情報をある程度、あるいは全部読める可能性ある
0138名無しさん@ピンキー2025/03/26(水) 17:06:31.90ID:???
ネックなのはUIだけだから、緑色したキャラクターが画面下からにゅって出てきて応答するUIを作るだけで、デスクトップコンパニオン戦争で勝てる可能性ある
のだのだ言い出すとか...
0141名無しさん@ピンキー2025/03/26(水) 19:39:30.95ID:???
Live2DもAIで錬成出来るようになればいいのに
あとはアバターアプリをLLMと繋げば令和の伺かが完成する
0142名無しさん@ピンキー2025/03/26(水) 19:47:23.32ID:???
人間の脳波情報を報酬にアバター動作の強化学習させたら面白そうだよな
0144名無しさん@ピンキー2025/03/26(水) 20:14:31.65ID:???
脳の情報処理とtransformerの処理が線形マッピングできるとかなんとかってみたな
攻殻機動隊の世界はまだ先かな
0145名無しさん@ピンキー2025/03/26(水) 21:43:10.75ID:???
感情差分を作ってと言うだけで感情&身振りをつけて4つづつ出してくれるから、64くらいださせてSillyTavernのExpressionにセットすればだいぶ強いのでは
どんな感情にも対応する差分がありやがるという
0148名無しさん@ピンキー2025/03/27(木) 12:22:11.09ID:???
SD3.5もFluxも主流とは程遠くて
近い将来自然言語による生成がメインになっていくんだろうが
0149名無しさん@ピンキー2025/03/27(木) 12:50:31.22ID:???
chatGPTちゃんが道を示してくれたな
日本語の自然な入力による注文を正確に表現した画像生成してくれる
賢い日本語LLM→賢い翻訳LLM→賢い画像生成モデルを全部内包するモデルもしくは各モデルの橋渡しを想定したアプリが開発されればローカルでもすぐ出来そう
0150名無しさん@ピンキー2025/03/27(木) 12:57:21.17ID:???
SD webとかのUI部分を置き換えるものになるんでは
どういう絵を描いて欲しいか指定するためには、どんな精巧な言葉よりちょいと描いた絵の方が正確に伝わるわけだから

SDやFluxは画像生成そのものだから、絵の意味・意図を表現する絵コンテ的前工程(@LLM)と、i2iで最終的な絵を出す絵画的後工程(@SD+LLM操作)として住み分けになりそう
0151名無しさん@ピンキー2025/03/27(木) 13:14:40.56ID:???
日本の企業がこれを作るべきだった論は現実的には無茶な話だけど、
・1次元言語プロンプトの後に来るもの、二次元プロンプト、三次元プロンプト入力として最強なのは漫画/絵コンテなんだ
・アニメ、漫画資産をベースにした映像言語を操れるモデルが存在しうる
・もし今の時点で押さえていたなら日本が勝利する可能性があった
と言い換えることは出来るかもしれない
0152名無しさん@ピンキー2025/03/27(木) 13:18:32.07ID:???
そういえば、昔マイクロソフトがコミックチャットってチャットソフト作ってたよな
あれを復活させたら今の技術でとんでもないものできそうな気がする
0153名無しさん@ピンキー2025/03/27(木) 14:07:08.38ID:???
画像生成AIはエロに緩い中小が技術を出し惜しみしてたらOpenAIに吹き飛ばされた感じだな
どの分野も資金調達が下手だと生き延びれない
謎資本のNoobに望みを繋ぐか
0157名無しさん@ピンキー2025/03/29(土) 00:10:51.25ID:???
>>154
体力のない所が会社の経費を使って作ったものを公開したら
多分、マネタイズできずに会社が終わると思うぞ
エロ画像のところも公開したはいいけど儲かっているという話は聞かないし
Deepseekにしてもどうやってマネタイズするかは極めて大きな課題で
よくある中小企業レベルだと公開よりもクローズドのほうが利益は大きいんじゃない?
以前会社でオープン化を言ったことがあるけどマネタイズ極端に難しいってことでポシャった
0158名無しさん@ピンキー2025/03/29(土) 03:00:41.87ID:???
開発だけじゃなくランニングにも金がいるから、月額ユーザーを囲ったところでランニングコストさえペイできるか怪しいだろうしなぁ
0161名無しさん@ピンキー2025/03/29(土) 10:45:58.56ID:???
>>160
学習量だけなら圧倒的にnoobの方が多いぞ
だから出せるキャラとか構図(特にnsfw)はnoobの方が多い
自然言語と高解像度がリアスの強みやが所詮はClip採用のSDXLモデルでその優位も限定的
0162名無しさん@ピンキー2025/03/29(土) 13:55:37.83ID:???
ローカルではないが、zetaやiN2Xなどはこのスレ的にはどうなのかな?
0165名無しさん@ピンキー2025/03/29(土) 14:44:24.82ID:f3bzKKIB
>>163
話題としては問題ないんですね

zetaを試してみたが割と良さそうかなと感じました
他にも使っている人いたら情報共有できると嬉しいです
0168名無しさん@ピンキー2025/03/29(土) 15:26:50.83ID:???
>>165
このスレもピンクのもう一つのスレもそうだけど
AIチャットアプリはほとんど話題にならないしたまに書く人がいても反応がほぼない
たぶん層が違う
ここも向こうもディープな層が多いからもっとライト層が集まる掲示板を探した方が良いと思う
0169名無しさん@ピンキー2025/03/29(土) 15:38:50.02ID:???
日本語なりきりチャットのための32Bファインチューニングとかゴリゴリ解説してくれる人がいたら嬉しい
理屈では分かっていても形にするのが難しい
0170名無しさん@ピンキー2025/03/29(土) 17:25:02.02ID:???
AIチャットアプリ、日本のやつは変なLLM使わされて月額3000円ですとか言い出すのがよくわかんないような
0171名無しさん@ピンキー2025/03/29(土) 17:37:20.59ID:???
SillyTavernでええやん
まあ非常にとっつきにくいとは思うけど
0172名無しさん@ピンキー2025/03/29(土) 18:08:35.63ID:bDW2y4g5
動かないと思って試してなかったんだけど意外とbakenekoのDeepSeek蒸留のIQ4XSがVRAM 12GBでも動いたわ
くっそ重いけど
0174名無しさん@ピンキー2025/03/29(土) 18:21:12.89ID:???
俺の3060 12gbじゃ動かせるのは快適に動くのは7b、量子化とか言うのされたやつだと動くか怪しいがギリギリ14bらしいとaiに言われた
14bでどれくらいエロエロ会話できるんかな
0175名無しさん@ピンキー2025/03/29(土) 18:31:53.49ID:???
俺の個人的な印象だと日本語13Bは不作で賢い7Bモデルの方がマシだった
0176名無しさん@ピンキー2025/03/29(土) 18:51:19.73ID:???
LLMスレ見ると良いモデル使おうとすると金掛かりまくって草生える
金は出しゃあるけどやる暇があらへん
0177名無しさん@ピンキー2025/03/29(土) 18:58:00.73ID:???
ローカルLLMは用途特化でしか大手LLMと戦える要素はない
つまりファインチューニングかクソデカトークン対応のどちらかが前提となる
0180名無しさん@ピンキー2025/03/29(土) 21:48:40.02ID:???
大手の規制にもうんざりだしこっちに流れてきた
でもローカルはイラスト生成に使いたいから結局APIかWebサービス頼り
0182名無しさん@ピンキー2025/03/29(土) 23:10:16.81ID:???
command Aってロールプレイ性能というか会話性能落ちてないか?
CR+の方が全然よく感じる
0183名無しさん@ピンキー2025/03/30(日) 00:21:19.49ID:+5yiVduU
Command Aは倫理フィルター無い&そこそこ高性能なので重宝してる
ワイのユースケースだとCommand R+の方は繰り返し多発&フィルター強すぎでちょっと...、って印象なんやが
0184名無しさん@ピンキー2025/03/30(日) 00:35:11.01ID:???
>>174
mistralならIQ3_M以下をダウンロードしてKoboldで4bitにすれば24Bまで動くよ12や14とかより賢いと思うし日本語で会話になるよ
0185名無しさん@ピンキー2025/03/30(日) 02:05:34.18ID:1ryy8F87
M4Pro程度の帯域の395+どうなんじゃろ。

メモリ最大盛だとMac miniよりアドバンテージがありそうだけど、
結局、ロングコンテキスト出力する際はTP=帯域勝負になってくるし、
TPは32BQ8クラスで8 token/s 程度に収まりそうだし、
せめてM4Maxクラスの帯域幅が欲しいね。

128GBのGPUのメモリがあっても、巨大なモデルほどPP/TPの落ち込みが激しいし、
帯域幅がそれに追いついてないと、CPU動作のメモリほどじゃないにしろ、
遅すぎて動かす気が起きんくなる。
0186名無しさん@ピンキー2025/03/30(日) 06:28:31.45ID:???
>>165
どんな風なのかスクショでも貼ってくれたらやる人も増えると思うで
どれだけド変態で倫理的にアウトな内容でも、ちゃんと理解して演じてくれるとかそういう情報が無いとやってみようとは思えんからな
0188名無しさん@ピンキー2025/03/30(日) 09:14:31.70ID:???
>>186
一例として会話のスクショを貼ってみます
ただ、会話とかの推論レベルはここの水準では高くないと思います
https://files.catbox.moe/jwvzr9.png

個人的に高評価なのは、他メンバーが作成したキャラ設定の
キャラクターと直ぐに会話出来ることです(100万体以上いるらしい)
単語等で特定キャラを検索、すぐに会話出来るのは結構魅力です。
SillyTavernなどを通して簡単に設定できるとは思いますが、
自分がイメージしないようなキャラと会話できるのは割と楽しいです

自作キャラ作成は簡単に出来ますが、詳細には設定出来ない感じ
https://files.catbox.moe/jntgla.png

総じて、スマホ(PC)で作成・会話が手軽に出来るのが魅力かと
合う・合わないはあると思いますが、無料でも広告が多い等はあるが、
機能はほぼ制限なく使えるはずので試してみて貰えればと思います
0189名無しさん@ピンキー2025/03/30(日) 10:28:31.79ID:oN/QR+cJ
bakenekoって普通のエロはまあ普通に書くんだけどロリ書かせようとすると児ポにならないように過激な表現は気をつけますって言って遠回しな表現で頑張ろうとするな
これはこれでよく分からん倫理フィルターだ
0191名無しさん@ピンキー2025/03/30(日) 15:47:08.22ID:???
システムプロンプトがよくできてるから
そのモデルじゃなくてもおじさん構文になるな
30B以上ならどれもキモおじの返答が得られるw
0192名無しさん@ピンキー2025/03/30(日) 16:27:29.70ID:???
Mistral Small 3.1 24Bはレイプ展開になると警告文が出た
一部で無検閲と言われてるけど、検閲が緩くて気付きにくいだけやね
0193名無しさん@ピンキー2025/03/30(日) 20:05:49.20ID:???
まったく検閲のないモデルはあるの?DRAM128GB・VRAM16GBしかないです。
0195名無しさん@ピンキー2025/03/31(月) 00:05:17.91ID:???
>>192
システムプロンプト無しだと拒否されたが、システムプロンプトを上手く設定したら
レイプ展開で酷い結末になるような小説も警告出さずに完走したよ
まぁ、1000文字程度のストーリーを書かせて試しただけだが。
0196名無しさん@ピンキー2025/03/31(月) 00:44:51.67ID:YqXzfoNL
土日使ってある程度長い小説書かせるのを色々試したんやけど
https://note.com/kohya_ss/n/n16528d2516c7
これは作家のエージェントと編集者エージェント用意して会話させてタイトル以外全部自動で生成させるって記事やけど
ある程度テーマが決まった小説を書かせるならこれの編集者側を人間がやるってのが一番ええな
問題は手間かかり過ぎて自分で書いた方が速いんやないかってことや
0197名無しさん@ピンキー2025/03/31(月) 00:49:27.78ID:???
LLMに小説を書かせると盛り上がりや意外性がないのっぺりした内容になりがちだな

LLMを使った幅出しにもノウハウがあるのかも知れないが
0198名無しさん@ピンキー2025/03/31(月) 01:33:38.31ID:???
コーディングさせるときもそうだけど、
要件定義でまともなモデル(Grokとか)と相談しながら箇条書きで100行くらいみっちり書いたのを渡すと
適当に言ったのよりはいい物作ってくれるからそれと同じだと思う

直接的な表現が出ないプロットとかならフィルタ回避して手伝ってくれるはず
ローカルのモデルに独自性とか意外性とか求めても大抵ロクなことにならないからな…

雰囲気を楽しみたいエロチャットだとなかなかそうもいかんけど、システムプロンプトは大目に書くといいかも
個人的にだけど、VongolaChouko/Starcannon-Unleashed-12B-v1.0のリードミーで配布してるシステムプロンプトが何だかんだ他でも効いてくれてて好き
システムプロンプトが英語のままでもキャラの説明と最初のセリフが日本語なら問題なく日本語で動作する
0200名無しさん@ピンキー2025/03/31(月) 06:06:39.37ID:???
>>189
どのbakenekoか分からんが、koboldでallow eding押して文章変えたら通るで。
申し訳〜の文章を削除して、了解しました、みたいに書き直す。
過去スレで誰か言ってたと思う。

使ったのはqwen2.5-bakeneko-32b-instruct-v2
0201名無しさん@ピンキー2025/03/31(月) 07:28:07.25ID:???
面白い部分や面白い選択は人間がやるしかないのでは?
人間が書いた小説も99%は当人には面白いけど他人には面白くないわけだから
それどころか、過去に書かれた名作、今現在売れてる小説を買っても自分に刺さるようなものはそんなに多くないわけでしょ
てことは面白いは個々人によってかなり違っていて、エロ並に細分化しているはず

ランダムでエロ動画再生しても良いものなんて全く引っかからないわけで...

つまんねーなこの場面、面白いなこの場面ってときに、LLMを使ってなぜつまんないのか、なぜ面白いのかを論じる、という昔ながらの事をやるしかないのでは
0204名無しさん@ピンキー2025/03/31(月) 18:17:24.68ID:???
膨大なデータからいわば平均的な好みを模倣しているAIにとって、個人個人に合わせた好みに対応していくことはAIにとって大きな課題である

みたいなことが言いたいんじゃない?
実際、汎用的なAIを好みに合わせてチューニングしようとすると結構なコンテキストを消費しちゃうし
0205名無しさん@ピンキー2025/03/31(月) 18:35:35.69ID:wmsV3L8Z
好みに合わせたリコメンドなんか企業が1番AIに期待してるところだろうに
0206名無しさん@ピンキー2025/03/31(月) 18:39:38.39ID:???
敢えて王道の展開から外して意外性を読者に与えることがエンタメでは必要なんよ
シンプルな最適化だけでは意外性を演出できない

意外性を加味するプロセスを人間がやれば良いという話もあるが
それではAIが書いたということにはならないんだわ

AIに面白い4コマ漫画が描けるか、あたりが入り口かな
0207名無しさん@ピンキー2025/03/31(月) 18:54:50.33ID:???
LLMってデータから単語の並びの確率を学習している訳で、その確率を元に作文しているから想定外の展開ってのはまず起こらんのがね
語彙が足りない、修飾語が少ねえみたいな話はそこから来てて
普段あまり使われない単語を知っているけど選ばれる確率が低いからまず出てこないし平易な文章になる
それは一文だけでなく展開にも同じことが言える
最もありきたりな展開を選ぶことがLLMとして正解なんよ
だから面白い事をさせたいなら展開をある程度指示して違うゴールを目指す必要がある
0209名無しさん@ピンキー2025/03/31(月) 19:36:48.36ID:???
まあ俺のこと知らない初対面のAIくんがロクな情報も与えずいきなり性癖ばっちりカバーしてくれたとしたら

思いっきりホラーじゃねえ?
0210名無しさん@ピンキー2025/03/31(月) 19:39:20.74ID:???
…?

逆に考えるとAIに性格診断させてシステムプロンプトを吐かせるプロンプトがあれば良いのか?
0211名無しさん@ピンキー2025/03/31(月) 19:40:08.65ID:???
ローカルAI「あなたクラウドAIで私のことバカにしてましたよね?」
0212名無しさん@ピンキー2025/03/31(月) 20:03:55.73ID:???
物語の展開の意外性についてDeep Researchさせて30パターンくらい集めてランダムで選ばせるとかAI的な解決策はありそう

画像生成のTIPOみたいなアプローチ
0213名無しさん@ピンキー2025/03/31(月) 20:47:22.21ID:???
そういう王道展開から外すためにsamplersの設定をするんじゃないのか?
Dynamic Temperature、XTC、最近はTop-nσ(Top nsigma)ってのが増えた。
これこそローカルのメリットだし、個人的にはそこそこ効果感じてるよ。
0214名無しさん@ピンキー2025/03/31(月) 21:56:52.21ID:???
質問です
EasyNovelAssistantで初めてみようかと思い立ったのですが、インストールすると
tkinterモジュールが見つからないとエラーがでました
これは以前にEasyHunyuanをインストールしており、すでに別の場所にtkinterがあるためだと思います
呼び出しアドレスを書き換えればいいと思うのですがどこをいじれば良いでしょうか?
0216名無しさん@ピンキー2025/04/01(火) 12:53:31.91ID:???
OpenAIがオープンソースなモデル公開するって言ってるけど、どうせ400Bとかそういうのだろ
一般人には関係ない
0217名無しさん@ピンキー2025/04/01(火) 13:05:00.93ID:???
ASUS版Digitsを2台接続すればちょうど400Bモデルの4bit量子化版が動くんじゃないか
0219名無しさん@ピンキー2025/04/01(火) 14:25:36.78ID:???
Ryzen AI Max+ 395搭載ミニPC
「EVO-X2」を中国で4月7日より予約開始
128GB RAM+2TB SSDで約30万
り256GB/sのメモリ帯域幅
最大96GBをビデオメモリとして割り当てることが可能

command-aがギリ載る感じか
グラボ買ってられんから頑張ってほしいわ
256GB/sがどれくらいなのかわからんけど・・・
0220名無しさん@ピンキー2025/04/01(火) 14:33:35.81ID:???
DGX sparkのメモリ帯域が273GB/sだからほぼ同じやね
ちなみにRTX4090は1008GB/s、5090は1.8TB/s
メモリサイズを取るか速度を取るか…やなあ
0221名無しさん@ピンキー2025/04/01(火) 14:59:23.67ID:???
EasyNovelAssistantはWindows用なんで試したことないけど
venv環境をつくっていると思うので(よね?いくらなんでも)
venv/lib/pythonのバージョン番号/site-packages/tkinter.py
とか、venv/の配下にtkinter.pyがないのかな
だとすると、セットアップ時のバグなので githubのissueに投げて連絡してみるとか
0223名無しさん@ピンキー2025/04/01(火) 15:11:54.25ID:???
>>220
2027年下半期まで待てば更に1.5倍速いモデルが出るっぽいね

Medusa Halo (MDSH) | Strix Halo後継モデル
内蔵GPU側のCompute Unitが拡大されることに伴い、メモリー周りの強化も予定されており
LPDDR6にも対応し、バス幅は384-bit
https://gazlog.jp/entry/amd-zen6-apu-spec-leak/

4090の1/3なら我慢できないことはないかな
前スレにも書いたけどcommand-aは賢いけどDDR4やと返答30分やったもん
0225名無しさん@ピンキー2025/04/01(火) 16:13:04.77ID:???
100b級のモデルをそこそこの量子化精度(6bitくらい)で高tokenで動かしたい
となると128gbは心許ないなぁ
裏でOSも動くわけで256ほしい
にごろにごろ
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況