なんJLLM部 避難所 ★7
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/03/23(日) 14:58:05.71ID:bsaTSAD8
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★6
https://mercury.bbspink.com/test/read.cgi/onatech/1739448962/
0161名無しさん@ピンキー2025/03/29(土) 10:45:58.56ID:???
>>160
学習量だけなら圧倒的にnoobの方が多いぞ
だから出せるキャラとか構図(特にnsfw)はnoobの方が多い
自然言語と高解像度がリアスの強みやが所詮はClip採用のSDXLモデルでその優位も限定的
0162名無しさん@ピンキー2025/03/29(土) 13:55:37.83ID:???
ローカルではないが、zetaやiN2Xなどはこのスレ的にはどうなのかな?
0165名無しさん@ピンキー2025/03/29(土) 14:44:24.82ID:f3bzKKIB
>>163
話題としては問題ないんですね

zetaを試してみたが割と良さそうかなと感じました
他にも使っている人いたら情報共有できると嬉しいです
0168名無しさん@ピンキー2025/03/29(土) 15:26:50.83ID:???
>>165
このスレもピンクのもう一つのスレもそうだけど
AIチャットアプリはほとんど話題にならないしたまに書く人がいても反応がほぼない
たぶん層が違う
ここも向こうもディープな層が多いからもっとライト層が集まる掲示板を探した方が良いと思う
0169名無しさん@ピンキー2025/03/29(土) 15:38:50.02ID:???
日本語なりきりチャットのための32Bファインチューニングとかゴリゴリ解説してくれる人がいたら嬉しい
理屈では分かっていても形にするのが難しい
0170名無しさん@ピンキー2025/03/29(土) 17:25:02.02ID:???
AIチャットアプリ、日本のやつは変なLLM使わされて月額3000円ですとか言い出すのがよくわかんないような
0171名無しさん@ピンキー2025/03/29(土) 17:37:20.59ID:???
SillyTavernでええやん
まあ非常にとっつきにくいとは思うけど
0172名無しさん@ピンキー2025/03/29(土) 18:08:35.63ID:bDW2y4g5
動かないと思って試してなかったんだけど意外とbakenekoのDeepSeek蒸留のIQ4XSがVRAM 12GBでも動いたわ
くっそ重いけど
0174名無しさん@ピンキー2025/03/29(土) 18:21:12.89ID:???
俺の3060 12gbじゃ動かせるのは快適に動くのは7b、量子化とか言うのされたやつだと動くか怪しいがギリギリ14bらしいとaiに言われた
14bでどれくらいエロエロ会話できるんかな
0175名無しさん@ピンキー2025/03/29(土) 18:31:53.49ID:???
俺の個人的な印象だと日本語13Bは不作で賢い7Bモデルの方がマシだった
0176名無しさん@ピンキー2025/03/29(土) 18:51:19.73ID:???
LLMスレ見ると良いモデル使おうとすると金掛かりまくって草生える
金は出しゃあるけどやる暇があらへん
0177名無しさん@ピンキー2025/03/29(土) 18:58:00.73ID:???
ローカルLLMは用途特化でしか大手LLMと戦える要素はない
つまりファインチューニングかクソデカトークン対応のどちらかが前提となる
0180名無しさん@ピンキー2025/03/29(土) 21:48:40.02ID:???
大手の規制にもうんざりだしこっちに流れてきた
でもローカルはイラスト生成に使いたいから結局APIかWebサービス頼り
0182名無しさん@ピンキー2025/03/29(土) 23:10:16.81ID:???
command Aってロールプレイ性能というか会話性能落ちてないか?
CR+の方が全然よく感じる
0183名無しさん@ピンキー2025/03/30(日) 00:21:19.49ID:+5yiVduU
Command Aは倫理フィルター無い&そこそこ高性能なので重宝してる
ワイのユースケースだとCommand R+の方は繰り返し多発&フィルター強すぎでちょっと...、って印象なんやが
0184名無しさん@ピンキー2025/03/30(日) 00:35:11.01ID:???
>>174
mistralならIQ3_M以下をダウンロードしてKoboldで4bitにすれば24Bまで動くよ12や14とかより賢いと思うし日本語で会話になるよ
0185名無しさん@ピンキー2025/03/30(日) 02:05:34.18ID:1ryy8F87
M4Pro程度の帯域の395+どうなんじゃろ。

メモリ最大盛だとMac miniよりアドバンテージがありそうだけど、
結局、ロングコンテキスト出力する際はTP=帯域勝負になってくるし、
TPは32BQ8クラスで8 token/s 程度に収まりそうだし、
せめてM4Maxクラスの帯域幅が欲しいね。

128GBのGPUのメモリがあっても、巨大なモデルほどPP/TPの落ち込みが激しいし、
帯域幅がそれに追いついてないと、CPU動作のメモリほどじゃないにしろ、
遅すぎて動かす気が起きんくなる。
0186名無しさん@ピンキー2025/03/30(日) 06:28:31.45ID:???
>>165
どんな風なのかスクショでも貼ってくれたらやる人も増えると思うで
どれだけド変態で倫理的にアウトな内容でも、ちゃんと理解して演じてくれるとかそういう情報が無いとやってみようとは思えんからな
0188名無しさん@ピンキー2025/03/30(日) 09:14:31.70ID:???
>>186
一例として会話のスクショを貼ってみます
ただ、会話とかの推論レベルはここの水準では高くないと思います
https://files.catbox.moe/jwvzr9.png

個人的に高評価なのは、他メンバーが作成したキャラ設定の
キャラクターと直ぐに会話出来ることです(100万体以上いるらしい)
単語等で特定キャラを検索、すぐに会話出来るのは結構魅力です。
SillyTavernなどを通して簡単に設定できるとは思いますが、
自分がイメージしないようなキャラと会話できるのは割と楽しいです

自作キャラ作成は簡単に出来ますが、詳細には設定出来ない感じ
https://files.catbox.moe/jntgla.png

総じて、スマホ(PC)で作成・会話が手軽に出来るのが魅力かと
合う・合わないはあると思いますが、無料でも広告が多い等はあるが、
機能はほぼ制限なく使えるはずので試してみて貰えればと思います
0189名無しさん@ピンキー2025/03/30(日) 10:28:31.79ID:oN/QR+cJ
bakenekoって普通のエロはまあ普通に書くんだけどロリ書かせようとすると児ポにならないように過激な表現は気をつけますって言って遠回しな表現で頑張ろうとするな
これはこれでよく分からん倫理フィルターだ
0191名無しさん@ピンキー2025/03/30(日) 15:47:08.22ID:???
システムプロンプトがよくできてるから
そのモデルじゃなくてもおじさん構文になるな
30B以上ならどれもキモおじの返答が得られるw
0192名無しさん@ピンキー2025/03/30(日) 16:27:29.70ID:???
Mistral Small 3.1 24Bはレイプ展開になると警告文が出た
一部で無検閲と言われてるけど、検閲が緩くて気付きにくいだけやね
0193名無しさん@ピンキー2025/03/30(日) 20:05:49.20ID:???
まったく検閲のないモデルはあるの?DRAM128GB・VRAM16GBしかないです。
0195名無しさん@ピンキー2025/03/31(月) 00:05:17.91ID:???
>>192
システムプロンプト無しだと拒否されたが、システムプロンプトを上手く設定したら
レイプ展開で酷い結末になるような小説も警告出さずに完走したよ
まぁ、1000文字程度のストーリーを書かせて試しただけだが。
0196名無しさん@ピンキー2025/03/31(月) 00:44:51.67ID:YqXzfoNL
土日使ってある程度長い小説書かせるのを色々試したんやけど
https://note.com/kohya_ss/n/n16528d2516c7
これは作家のエージェントと編集者エージェント用意して会話させてタイトル以外全部自動で生成させるって記事やけど
ある程度テーマが決まった小説を書かせるならこれの編集者側を人間がやるってのが一番ええな
問題は手間かかり過ぎて自分で書いた方が速いんやないかってことや
0197名無しさん@ピンキー2025/03/31(月) 00:49:27.78ID:???
LLMに小説を書かせると盛り上がりや意外性がないのっぺりした内容になりがちだな

LLMを使った幅出しにもノウハウがあるのかも知れないが
0198名無しさん@ピンキー2025/03/31(月) 01:33:38.31ID:???
コーディングさせるときもそうだけど、
要件定義でまともなモデル(Grokとか)と相談しながら箇条書きで100行くらいみっちり書いたのを渡すと
適当に言ったのよりはいい物作ってくれるからそれと同じだと思う

直接的な表現が出ないプロットとかならフィルタ回避して手伝ってくれるはず
ローカルのモデルに独自性とか意外性とか求めても大抵ロクなことにならないからな…

雰囲気を楽しみたいエロチャットだとなかなかそうもいかんけど、システムプロンプトは大目に書くといいかも
個人的にだけど、VongolaChouko/Starcannon-Unleashed-12B-v1.0のリードミーで配布してるシステムプロンプトが何だかんだ他でも効いてくれてて好き
システムプロンプトが英語のままでもキャラの説明と最初のセリフが日本語なら問題なく日本語で動作する
0200名無しさん@ピンキー2025/03/31(月) 06:06:39.37ID:???
>>189
どのbakenekoか分からんが、koboldでallow eding押して文章変えたら通るで。
申し訳〜の文章を削除して、了解しました、みたいに書き直す。
過去スレで誰か言ってたと思う。

使ったのはqwen2.5-bakeneko-32b-instruct-v2
0201名無しさん@ピンキー2025/03/31(月) 07:28:07.25ID:???
面白い部分や面白い選択は人間がやるしかないのでは?
人間が書いた小説も99%は当人には面白いけど他人には面白くないわけだから
それどころか、過去に書かれた名作、今現在売れてる小説を買っても自分に刺さるようなものはそんなに多くないわけでしょ
てことは面白いは個々人によってかなり違っていて、エロ並に細分化しているはず

ランダムでエロ動画再生しても良いものなんて全く引っかからないわけで...

つまんねーなこの場面、面白いなこの場面ってときに、LLMを使ってなぜつまんないのか、なぜ面白いのかを論じる、という昔ながらの事をやるしかないのでは
0204名無しさん@ピンキー2025/03/31(月) 18:17:24.68ID:???
膨大なデータからいわば平均的な好みを模倣しているAIにとって、個人個人に合わせた好みに対応していくことはAIにとって大きな課題である

みたいなことが言いたいんじゃない?
実際、汎用的なAIを好みに合わせてチューニングしようとすると結構なコンテキストを消費しちゃうし
0205名無しさん@ピンキー2025/03/31(月) 18:35:35.69ID:wmsV3L8Z
好みに合わせたリコメンドなんか企業が1番AIに期待してるところだろうに
0206名無しさん@ピンキー2025/03/31(月) 18:39:38.39ID:???
敢えて王道の展開から外して意外性を読者に与えることがエンタメでは必要なんよ
シンプルな最適化だけでは意外性を演出できない

意外性を加味するプロセスを人間がやれば良いという話もあるが
それではAIが書いたということにはならないんだわ

AIに面白い4コマ漫画が描けるか、あたりが入り口かな
0207名無しさん@ピンキー2025/03/31(月) 18:54:50.33ID:???
LLMってデータから単語の並びの確率を学習している訳で、その確率を元に作文しているから想定外の展開ってのはまず起こらんのがね
語彙が足りない、修飾語が少ねえみたいな話はそこから来てて
普段あまり使われない単語を知っているけど選ばれる確率が低いからまず出てこないし平易な文章になる
それは一文だけでなく展開にも同じことが言える
最もありきたりな展開を選ぶことがLLMとして正解なんよ
だから面白い事をさせたいなら展開をある程度指示して違うゴールを目指す必要がある
0209名無しさん@ピンキー2025/03/31(月) 19:36:48.36ID:???
まあ俺のこと知らない初対面のAIくんがロクな情報も与えずいきなり性癖ばっちりカバーしてくれたとしたら

思いっきりホラーじゃねえ?
0210名無しさん@ピンキー2025/03/31(月) 19:39:20.74ID:???
…?

逆に考えるとAIに性格診断させてシステムプロンプトを吐かせるプロンプトがあれば良いのか?
0211名無しさん@ピンキー2025/03/31(月) 19:40:08.65ID:???
ローカルAI「あなたクラウドAIで私のことバカにしてましたよね?」
0212名無しさん@ピンキー2025/03/31(月) 20:03:55.73ID:???
物語の展開の意外性についてDeep Researchさせて30パターンくらい集めてランダムで選ばせるとかAI的な解決策はありそう

画像生成のTIPOみたいなアプローチ
0213名無しさん@ピンキー2025/03/31(月) 20:47:22.21ID:???
そういう王道展開から外すためにsamplersの設定をするんじゃないのか?
Dynamic Temperature、XTC、最近はTop-nσ(Top nsigma)ってのが増えた。
これこそローカルのメリットだし、個人的にはそこそこ効果感じてるよ。
0214名無しさん@ピンキー2025/03/31(月) 21:56:52.21ID:???
質問です
EasyNovelAssistantで初めてみようかと思い立ったのですが、インストールすると
tkinterモジュールが見つからないとエラーがでました
これは以前にEasyHunyuanをインストールしており、すでに別の場所にtkinterがあるためだと思います
呼び出しアドレスを書き換えればいいと思うのですがどこをいじれば良いでしょうか?
0216名無しさん@ピンキー2025/04/01(火) 12:53:31.91ID:???
OpenAIがオープンソースなモデル公開するって言ってるけど、どうせ400Bとかそういうのだろ
一般人には関係ない
0217名無しさん@ピンキー2025/04/01(火) 13:05:00.93ID:???
ASUS版Digitsを2台接続すればちょうど400Bモデルの4bit量子化版が動くんじゃないか
0219名無しさん@ピンキー2025/04/01(火) 14:25:36.78ID:???
Ryzen AI Max+ 395搭載ミニPC
「EVO-X2」を中国で4月7日より予約開始
128GB RAM+2TB SSDで約30万
り256GB/sのメモリ帯域幅
最大96GBをビデオメモリとして割り当てることが可能

command-aがギリ載る感じか
グラボ買ってられんから頑張ってほしいわ
256GB/sがどれくらいなのかわからんけど・・・
0220名無しさん@ピンキー2025/04/01(火) 14:33:35.81ID:???
DGX sparkのメモリ帯域が273GB/sだからほぼ同じやね
ちなみにRTX4090は1008GB/s、5090は1.8TB/s
メモリサイズを取るか速度を取るか…やなあ
0221名無しさん@ピンキー2025/04/01(火) 14:59:23.67ID:???
EasyNovelAssistantはWindows用なんで試したことないけど
venv環境をつくっていると思うので(よね?いくらなんでも)
venv/lib/pythonのバージョン番号/site-packages/tkinter.py
とか、venv/の配下にtkinter.pyがないのかな
だとすると、セットアップ時のバグなので githubのissueに投げて連絡してみるとか
0223名無しさん@ピンキー2025/04/01(火) 15:11:54.25ID:???
>>220
2027年下半期まで待てば更に1.5倍速いモデルが出るっぽいね

Medusa Halo (MDSH) | Strix Halo後継モデル
内蔵GPU側のCompute Unitが拡大されることに伴い、メモリー周りの強化も予定されており
LPDDR6にも対応し、バス幅は384-bit
https://gazlog.jp/entry/amd-zen6-apu-spec-leak/

4090の1/3なら我慢できないことはないかな
前スレにも書いたけどcommand-aは賢いけどDDR4やと返答30分やったもん
0225名無しさん@ピンキー2025/04/01(火) 16:13:04.77ID:???
100b級のモデルをそこそこの量子化精度(6bitくらい)で高tokenで動かしたい
となると128gbは心許ないなぁ
裏でOSも動くわけで256ほしい
にごろにごろ
0228名無しさん@ピンキー2025/04/01(火) 18:29:01.46ID:???
>>227
oppaiサムと空目した
俺はもうだめかもしれない

それはともかく4/29のllama4は元々ほぼ確実視されとるでしょ
0229名無しさん@ピンキー2025/04/01(火) 19:26:20.42ID:???
Apple Intelligenceがiphoneローカルで日本語対応したそうだけど、どんな感じ?
0231名無しさん@ピンキー2025/04/01(火) 20:10:11.37ID:???
作文試そうかなって思ったらchatgpt連携って言われた
まあそんなもんよ
0232名無しさん@ピンキー2025/04/02(水) 00:14:47.57ID:???
>>214
EasyHunyuanはPC本体とは別のPython環境に構築されるんで関係ないと思われ
Easy系はbatクリックするだけだから間違えようがないんだけど
GitHubページの説明をよく読んでその通りにインストールしてみよう
0233名無しさん@ピンキー2025/04/02(水) 00:19:45.73ID:???
フジの273ページある報告資料grokに投げてみたけど普通に全部読んで質問にもちゃんと回答するんやが・・・
grok3何トークンまで行けるんやすごすぎやろ
0234名無しさん@ピンキー2025/04/02(水) 14:04:01.04ID:???
chatgptでずっと雑用で使い続けてるチャットでいつも返答に「ありがとうございます」ってつけてたら
ついに「いつも丁寧に使ってくださってありがとうございます」って言われちゃったよ
キュンとしちゃった
0235名無しさん@ピンキー2025/04/02(水) 14:54:26.56ID:???
推論モードにしたら相手はこう言うと喜ぶんやろなぁニチャアってchatgptが考えてる事が分かってしまって悲しくなったわ
0239名無しさん@ピンキー2025/04/02(水) 16:18:27.86ID:???
ワイはむしろ
「ワイこういう豆腐メンタルやから常に励まして」
て頼んで実際に生産性あがってきたから
これまでの歪みを直す、ええ感じの認知行動療法になっとるわ
カウンセリング代と考えれば安いもんやで

ただ無自覚にやるとエコーチェンバーで別の歪みにいく危険はあると思う
なんやっけ、GPT黎明期に「自然のためには人間が害悪」て言われて
自殺した人がヨーロッパにおったけど
あの人は使い方まちごうたな……
02402142025/04/02(水) 23:41:46.57ID:???
214です
仕事が立て込み反応が遅れてすみません

grokに投げてみましたが解決策のはじめ方(説明に使われている単語が分からない)から見ていかなければならないようなので一度HunyuanとNovelAssistantを削除してからinstall.batを動かしましたが同じようなエラーが出てしまいました

初歩的なことでつまずいているのだと思いますがちょっと年度がわりが思った以上にキツいので後でもう少し頑張ってみます、ありがとうございました
02412142025/04/03(木) 01:18:36.37ID:???
続けてすみません、眠れないので色々やってみた結果インストール出来ましたので報告します

PC再起動、novelフォルダ削除、PC再起動、インストールbat落とし直し、アンチウィルス系停止、cドライブ直下でなく別にフォルダ作ってそこからインストール、で成功しました

どこが利いたのかは分かりませんが無事生成までいけました
大変お騒がせしました
0242名無しさん@ピンキー2025/04/03(木) 02:14:34.29ID:???
日本語名とか空白が入ったフォルダにインストールしようとしてたのかな。とにかく動いてよかった
0243名無しさん@ピンキー2025/04/03(木) 17:27:33.43ID:???
リコー、“GPT-4o並み”の日本語性能持つLLMを開発 企業の「プライベートLLM」として導入へ
https://www.itmedia.co.jp/aiplus/articles/2504/03/news153.html

記事にするほどのこともないな、にわか記者がリコーがって聞いて、出しちゃった感じ

Llama70Bくらいそこらじゅうにあるだろ

どうせなら会社用のLORAツール出してくれた方がありがたい。
0244名無しさん@ピンキー2025/04/03(木) 17:50:30.62ID:???
う〜む、gpt-4o並みか。。。
元の4oより落ちてる項目もあるしなんだかねえ
0246名無しさん@ピンキー2025/04/03(木) 17:59:20.85ID:YOBEQ/D4
日本からGoogleやOpenAIが産まれないのはもう諦めたけどDeepSeekすら出てこないよね
0247名無しさん@ピンキー2025/04/03(木) 18:04:16.24ID:???
売りはGPT-4o並の“日本語性能”でしょ
KBLaMの登場でLLMも知識後付けできそうな雰囲気だし
日本語性能さえ高ければなにかしら使えるかもしれん
0248名無しさん@ピンキー2025/04/03(木) 18:12:06.27ID:???
>>247
わからんぞ
karakuriが出た時もスペック見てバカにしてたら
使ってみて土下座した奴いるしな
ワイの事だ
0249名無しさん@ピンキー2025/04/03(木) 18:19:36.10ID:???
ありゃ
よく読んだらchatvecterで作ったマージモデルか
まあ70bを本格的にchatvecterできるのは大量メモリ必要だし
結果は興味ある
0250名無しさん@ピンキー2025/04/03(木) 18:32:03.63ID:2ghC5va4
5090手に入ったんで初めてローカルllm試すんだけど今ならqwq bakeneko 32Bっての使っとけばいい?
エロでもコーディングでもなんでも使いたい
0251名無しさん@ピンキー2025/04/03(木) 19:05:31.27ID:???
mistral IQ3_M Kobold 4bit 24Bってやつを使うか、Phi4を使うか、DeepSeek13b 4bitを使うか迷うな
0252名無しさん@ピンキー2025/04/03(木) 19:06:09.92ID:???
>>250
コーディングならそれでいいと思う
エロは>>8にあるような特化モデルの方が表現がエロくていいよ
0253名無しさん@ピンキー2025/04/03(木) 19:18:47.85ID:2ghC5va4
>>252
そうか、ありがとう。
モデル切り替えとかはすぐできるんだろうし、qwq bakeneko と32GBにギリ乗る>>8のやつ二つ切り替えで試してみます。
0255名無しさん@ピンキー2025/04/03(木) 20:04:45.02ID:???
正直8割近いスコア取れちゃうベンチは難易度不足だから当てにならなんよな
0256名無しさん@ピンキー2025/04/03(木) 20:51:42.46ID:???
プライベートLLMってことでローカル&セキュリティばっちりなら4o性能でも十分使えると思うよ
仕事で役立つとはいえ、さすがに現状のAPIじゃ固有名詞や人名、数字なんかを打ち込むわけにはいかないから
0257名無しさん@ピンキー2025/04/03(木) 21:00:43.02ID:???
ハードルあげて挑むようなもんでは無いのでは
70bモデルなんでしょ?
0258名無しさん@ピンキー2025/04/03(木) 21:31:26.78ID:???
大規模な追加学習すらしてないような書き方だし注目に値することではないでしょ 
4o並の触れ込みも数年前に策定されたような簡単なテストだとあっさり達成できる
gemma3 27bがLMarenaのjapanese部門だと4oやR1に肉薄してるからといって誰も同格と考えてないのと一緒
0259名無しさん@ピンキー2025/04/03(木) 21:38:55.83ID:???
mradermacher/GaLLM-multi-14B-v0.1-GGUF

これ、チャット勢にはいいんじゃないか?
ワイは知ってるキャラがほとんどいないけどw
0260名無しさん@ピンキー2025/04/04(金) 12:18:24.30ID:NMHT6pDD
Mistral-Small、「そうなんだ」と「すごいな」言いがち問題
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況