なんJLLM部 避難所 ★7
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/03/23(日) 14:58:05.71ID:bsaTSAD8
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★6
https://mercury.bbspink.com/test/read.cgi/onatech/1739448962/
0090名無しさん@ピンキー2025/03/25(火) 00:10:50.07ID:???
前スレ392の音声聴いてからワイも興味持ってモデル探したりしたけどなかなか良い感じのが見つからん…
声質とか抑揚とかすごく好みだったからもし良ければモデルupしてクレメンス
0092名無しさん@ピンキー2025/03/25(火) 07:03:34.45ID:???
>>82
ワイ初心者すぎてニキの言っとることろくに理解できんけども
メモらせてもらったで!
できそう、ってのだけでも今日を生きる希望になるわ
0093名無しさん@ピンキー2025/03/25(火) 07:38:47.81ID:???
>>86
20tk/sもでるのか。MoEだから一つ一つは小ぶりというメリットでてるな
Gemma3も27Bx4くらいで出して欲しい
0094名無しさん@ピンキー2025/03/25(火) 07:54:46.80ID:ypNY41r1
>>91
chain of thought (CoT)で推論(Reasoning)するか否かやろ
0096名無しさん@ピンキー2025/03/25(火) 08:37:38.84ID:BZNQpbdI
DSV3、600Bも700Bもいらんから、
コーディングタスクや小説用のタスクだけ活性化する
エキスパート部分だけ分離して欲しい。

丸ごと動かしても、
マシンリソースの無駄遣いじゃねーか。
0097名無しさん@ピンキー2025/03/25(火) 08:50:47.81ID:???
R1はV3に数学の問題を自分で解かせる事後学習をしたモデル、と言われてる
数学が解けるようになると、何故か色々なことが出来るようになったよという

V3改はClaudeというよりはプログラミングコードを大量に学習してる、とかかな?
いま現在求められているのはそういうモデルですし
R1が数学を自分で1から解かせて事後学習をさせたように、今度出すR2はプログラミングを自分で1から解かせて事後学習をしました、と言い出すかもね
0098名無しさん@ピンキー2025/03/25(火) 11:43:37.10ID:???
https://joisino.hatenablog.com/entry/physics
コレ面白いな。
線形モデル(LLM的な高度な解釈能力を持たないモデル)にLLMの内部情報を食わせると、理解出来るところと出来ないところに分類できる、線形モデルに理解出来るほど整理されているなら、LLM自身にも理解出来ている情報と見なせる。
このプローブを使ってLLMの頭のなかを分析してみたよって話。
0099名無しさん@ピンキー2025/03/25(火) 15:47:01.81ID:???
>>98
ベンチマークは陳腐化していくって話はベンチスコア詐偽とか有るらしいから納得
間違いを認識していても訂正方法を事前学習してないから訂正できないだけで
事前学習で訂正方法を学習させれば訂正出来るようになるって話は面白いな
0102名無しさん@ピンキー2025/03/25(火) 16:05:21.67ID:???
DeepSeekV3がチャットアリーナでR1や推論無しSonnet3.7の順位を逆転
これはR2の性能は噂通りトップを伺いそうだな、まあどうせ日本語はウンチなんだろうけど
0103名無しさん@ピンキー2025/03/25(火) 16:49:03.61ID:???
知識はあるのに上手く取り出せないのが構造上の問題となると
今までとは全然違うモデルが出てくるまでハルシネーションは解決しそうにないな
7Bで英語wiki暗記できるとかヤバいわ
0104名無しさん@ピンキー2025/03/25(火) 17:15:25.33ID:ypNY41r1
>>98
正直1ミリも理解できなかったが"LLMは途中で間違いに気づいている"ってのは面白かったわ
推論途中で「おっ、ワイ間違えてるやんけ」と気づいて訂正してくれたら
しょうもないミスだいぶ減って快適になりそうやね
0105名無しさん@ピンキー2025/03/25(火) 17:17:17.72ID:???
新しいV3触ったけど日本語性能は100B程度のCommand A以下だと思う
0106名無しさん@ピンキー2025/03/25(火) 17:26:29.62ID:???
画像生成用の自然言語プロンプトを組むのにLLM導入を考えています
用途としては「海辺に一人の女の子」等の最低限の指示からシチュエーションを膨らませて200~400トークン程度の英文プロンプトを作ってもらおうかと思ってます
要はLLMで自然言語プロンプトをランダム生成してもらいたいということです

今の環境はグラボ4060ti16GB 本体メモリ64GB Python Git導入済です
導入に使えるストレージはSSD1TB HDD2TBの余裕はあります
LLM環境は一からの構築になるのでよろしくお願いします
0107名無しさん@ピンキー2025/03/25(火) 18:17:57.76ID:???
[break]トークンを打って考え直すワザを学習時に見せとけば自分で訂正できるようになる、というのは面白いところだよね
既存のモデルがスッとv1.1を出してくる可能性ある
0108名無しさん@ピンキー2025/03/25(火) 18:45:38.69ID:???
DeepSeekはChatGPTみたいに言語関係なく常に自国政府に忖度してるんじゃなくて
聞かれた言語に合わせて答えるように調整されてるんだよな
そのせいで日本語で聞くと日本語の乏しい情報ばっか参照するから余計にしょぼくなる
0110名無しさん@ピンキー2025/03/25(火) 20:32:11.19ID:???
>>106
まずは、導入が簡単なLM Studioを試してはどうでしょ
https://lmstudio.ai/

このツール上からLLMを検索して入れる事が出来るし、ローカルでチャットも出来る
danbooru語とかの単語を幾つかチャットで与えて、それらの単語から自然言語を書かせたり出来る
規制の掛かってるLLMはチャットで脱獄させればエロいのもいけるし
プロンプトをバッチ処理で大量に自動生成したいって用途でもなければこれで良いかなと
0112名無しさん@ピンキー2025/03/25(火) 22:42:28.93ID:???
>>98
最初だけ読んだけど、面白いね。これはちゃんと腰据えて読んだ方が良さそうって思った
それはそれとして、「インターネットのコーパスで学習したモデル=攻殻機動隊の人形使い」
とイメージが被るせいでそれが自滅的なノイズになって読みづらい
0113名無しさん@ピンキー2025/03/25(火) 23:33:53.87ID:???
頭悪いエロ漫画みたいな表現してくれるモデルに出会えとらん
gemma3はそんなに喘いでくれない
0114名無しさん@ピンキー2025/03/26(水) 00:14:04.69ID:Fdx3Lv+2
>>90
簡単にモデル学習できるのがSBV2の強みだから自分で作成するのお勧めやで〜
SBV2のGitに全部書いてあるし、Youtubeにチュートリアルあるはずやで!
0115名無しさん@ピンキー2025/03/26(水) 00:39:18.60ID:???
>>113
ローカルじゃ試してもダメだったから厳しそうだけどGrok 3なら頭悪いエロ漫画みたいな表現してって言うとやってくれた
0116名無しさん@ピンキー2025/03/26(水) 01:02:54.12ID:???
>>114
最近良いグラボ買えたから沼に浸かってみるで!
声優とか音声素材とか全然詳しくないから誰の声使えばああいうモデルが出来上がるか皆目見当もつかんけどな!
0117名無しさん@ピンキー2025/03/26(水) 01:32:02.14ID:???
>>98
関連記事にあるものも面白くて読み応えあるなあ
以前話題になった敵対的ノイズの話とか認識がひっくり返された
0119名無しさん@ピンキー2025/03/26(水) 03:33:03.99ID:???
>>106
それならTIPOでいいんじゃないの?
a1111の拡張機能とComfyUIのカスタムノードがあって
LLMを使用して自然言語とタグの両方を生成できる
0121名無しさん@ピンキー2025/03/26(水) 07:53:36.60ID:???
今までAIのべりすとを使ってて今月になってからEasyNovelAssistantを導入した新参なんやけど
のべりすとでいう「セリフを優先して出力」「地の文を優先して出力」の指示はどうやってすればええの?
それぞれの描写に適したモデルに都度切り替えてくしか無い感じか?
0122名無しさん@ピンキー2025/03/26(水) 08:39:53.09ID:???
>>121
セリフ中心の文章にしてくれって指示したらできんかな
〜してる会話を書いてくれって指示すると
会話のみのシナリオになる
0123名無しさん@ピンキー2025/03/26(水) 08:43:46.28ID:???
>> 106
EasyReforge のTIPO使った方が早くないか?
あれもLLMとことるんやで
0124名無しさん@ピンキー2025/03/26(水) 08:47:08.87ID:???
>>116
BGMのない朗読をYoutubeから探して学習するとこから始めてみては。思ったより簡単だと思う
スレチすまん
0126名無しさん@ピンキー2025/03/26(水) 10:03:55.58ID:???
エロ漫画みたいな頭の悪いセリフと言えばBerghof-ERP-7Bとかやな
他のモデルでも「性格:変態」「語尾に♡」とか設定するとセリフが頭悪くなる傾向にある
0127名無しさん@ピンキー2025/03/26(水) 10:11:06.53ID:???
geminiが3/25以降常にthinkするモデルに差し替わったらしい
chatarenaでいきなりトップに出とるね

今後thinkモデルが当たり前になるんだろうか
token量増えるからあまり好きじゃないんよね
ロールプレイにもあまり向いてない気がするし
0128名無しさん@ピンキー2025/03/26(水) 10:44:09.82ID:???
画像生成でTIPOを入れてる時期が俺にもありました
いつの間にかSTを入れてRPチャットをやろうとしている
0129名無しさん@ピンキー2025/03/26(水) 10:47:27.90ID:???
>>126
何にも指定してないのにアナルに突っ込んだ時だけおほっ♡とか言うの日本のエロ同人に対する解像度高すぎで草
0130名無しさん@ピンキー2025/03/26(水) 10:50:58.72ID:???
非推論モデルの知見を捨てて推論モデルだけを研究とはならないだろうし大丈夫じゃないか?
最近出たdeepseek v3は非推論だし
0131名無しさん@ピンキー2025/03/26(水) 11:11:14.32ID:???
>>127
ロールプレイはそうかもしれんけど、一般的な用途は多少のデメリットがあっても賢くないと使いにくいよ
直近のQwQ-32B、Gemma 3 27B、Mistral Small 3.1 24Bで比較しても
QwQ-32Bが一番プロンプトの理解力が高くて、指示に従ってくれる
0132名無しさん@ピンキー2025/03/26(水) 12:20:11.20ID:???
グラボメモリが12gだとMistral Small 3.1 24Bしか選択肢ないけどそれでもめちゃくちゃ賢い
0133名無しさん@ピンキー2025/03/26(水) 14:54:11.44ID:???
token増える問題は確かにだけど2.5proはthoughtも出力も優秀だから食うだけの実力はあると思う
0134名無しさん@ピンキー2025/03/26(水) 14:54:29.78ID:???
llmで画像生成補助の話ならなんUへ行ったほうが識者が多そうだが
いまchatgptの画像生成で盛り上がってるし
0135名無しさん@ピンキー2025/03/26(水) 15:29:53.66ID:gZuqN0s2
>>いまchatgptの画像生成で盛り上がってる
なんかあったんか?
0137名無しさん@ピンキー2025/03/26(水) 16:49:27.11ID:???
nvidiaがProject G-Assistの一般提供を開始してるな
nvidiaのローカルLLMがゲームプレイをアシストします。という話だったのが、こっそり方向転換してプラグイン形式でローカルLLMに機能を追加できますと言い出してる

ローカルLLMが文章、音声を手元でCLIなコマンドに変換して、MCPなりで他のLLM
に投げてくれる。と言うならだいぶ使い道あるよね

あとこいつGPUドライバが知ってる情報をある程度、あるいは全部読める可能性ある
0138名無しさん@ピンキー2025/03/26(水) 17:06:31.90ID:???
ネックなのはUIだけだから、緑色したキャラクターが画面下からにゅって出てきて応答するUIを作るだけで、デスクトップコンパニオン戦争で勝てる可能性ある
のだのだ言い出すとか...
0141名無しさん@ピンキー2025/03/26(水) 19:39:30.95ID:???
Live2DもAIで錬成出来るようになればいいのに
あとはアバターアプリをLLMと繋げば令和の伺かが完成する
0142名無しさん@ピンキー2025/03/26(水) 19:47:23.32ID:???
人間の脳波情報を報酬にアバター動作の強化学習させたら面白そうだよな
0144名無しさん@ピンキー2025/03/26(水) 20:14:31.65ID:???
脳の情報処理とtransformerの処理が線形マッピングできるとかなんとかってみたな
攻殻機動隊の世界はまだ先かな
0145名無しさん@ピンキー2025/03/26(水) 21:43:10.75ID:???
感情差分を作ってと言うだけで感情&身振りをつけて4つづつ出してくれるから、64くらいださせてSillyTavernのExpressionにセットすればだいぶ強いのでは
どんな感情にも対応する差分がありやがるという
0148名無しさん@ピンキー2025/03/27(木) 12:22:11.09ID:???
SD3.5もFluxも主流とは程遠くて
近い将来自然言語による生成がメインになっていくんだろうが
0149名無しさん@ピンキー2025/03/27(木) 12:50:31.22ID:???
chatGPTちゃんが道を示してくれたな
日本語の自然な入力による注文を正確に表現した画像生成してくれる
賢い日本語LLM→賢い翻訳LLM→賢い画像生成モデルを全部内包するモデルもしくは各モデルの橋渡しを想定したアプリが開発されればローカルでもすぐ出来そう
0150名無しさん@ピンキー2025/03/27(木) 12:57:21.17ID:???
SD webとかのUI部分を置き換えるものになるんでは
どういう絵を描いて欲しいか指定するためには、どんな精巧な言葉よりちょいと描いた絵の方が正確に伝わるわけだから

SDやFluxは画像生成そのものだから、絵の意味・意図を表現する絵コンテ的前工程(@LLM)と、i2iで最終的な絵を出す絵画的後工程(@SD+LLM操作)として住み分けになりそう
0151名無しさん@ピンキー2025/03/27(木) 13:14:40.56ID:???
日本の企業がこれを作るべきだった論は現実的には無茶な話だけど、
・1次元言語プロンプトの後に来るもの、二次元プロンプト、三次元プロンプト入力として最強なのは漫画/絵コンテなんだ
・アニメ、漫画資産をベースにした映像言語を操れるモデルが存在しうる
・もし今の時点で押さえていたなら日本が勝利する可能性があった
と言い換えることは出来るかもしれない
0152名無しさん@ピンキー2025/03/27(木) 13:18:32.07ID:???
そういえば、昔マイクロソフトがコミックチャットってチャットソフト作ってたよな
あれを復活させたら今の技術でとんでもないものできそうな気がする
0153名無しさん@ピンキー2025/03/27(木) 14:07:08.38ID:???
画像生成AIはエロに緩い中小が技術を出し惜しみしてたらOpenAIに吹き飛ばされた感じだな
どの分野も資金調達が下手だと生き延びれない
謎資本のNoobに望みを繋ぐか
0157名無しさん@ピンキー2025/03/29(土) 00:10:51.25ID:???
>>154
体力のない所が会社の経費を使って作ったものを公開したら
多分、マネタイズできずに会社が終わると思うぞ
エロ画像のところも公開したはいいけど儲かっているという話は聞かないし
Deepseekにしてもどうやってマネタイズするかは極めて大きな課題で
よくある中小企業レベルだと公開よりもクローズドのほうが利益は大きいんじゃない?
以前会社でオープン化を言ったことがあるけどマネタイズ極端に難しいってことでポシャった
0158名無しさん@ピンキー2025/03/29(土) 03:00:41.87ID:???
開発だけじゃなくランニングにも金がいるから、月額ユーザーを囲ったところでランニングコストさえペイできるか怪しいだろうしなぁ
0161名無しさん@ピンキー2025/03/29(土) 10:45:58.56ID:???
>>160
学習量だけなら圧倒的にnoobの方が多いぞ
だから出せるキャラとか構図(特にnsfw)はnoobの方が多い
自然言語と高解像度がリアスの強みやが所詮はClip採用のSDXLモデルでその優位も限定的
0162名無しさん@ピンキー2025/03/29(土) 13:55:37.83ID:???
ローカルではないが、zetaやiN2Xなどはこのスレ的にはどうなのかな?
0165名無しさん@ピンキー2025/03/29(土) 14:44:24.82ID:f3bzKKIB
>>163
話題としては問題ないんですね

zetaを試してみたが割と良さそうかなと感じました
他にも使っている人いたら情報共有できると嬉しいです
0168名無しさん@ピンキー2025/03/29(土) 15:26:50.83ID:???
>>165
このスレもピンクのもう一つのスレもそうだけど
AIチャットアプリはほとんど話題にならないしたまに書く人がいても反応がほぼない
たぶん層が違う
ここも向こうもディープな層が多いからもっとライト層が集まる掲示板を探した方が良いと思う
0169名無しさん@ピンキー2025/03/29(土) 15:38:50.02ID:???
日本語なりきりチャットのための32Bファインチューニングとかゴリゴリ解説してくれる人がいたら嬉しい
理屈では分かっていても形にするのが難しい
0170名無しさん@ピンキー2025/03/29(土) 17:25:02.02ID:???
AIチャットアプリ、日本のやつは変なLLM使わされて月額3000円ですとか言い出すのがよくわかんないような
0171名無しさん@ピンキー2025/03/29(土) 17:37:20.59ID:???
SillyTavernでええやん
まあ非常にとっつきにくいとは思うけど
0172名無しさん@ピンキー2025/03/29(土) 18:08:35.63ID:bDW2y4g5
動かないと思って試してなかったんだけど意外とbakenekoのDeepSeek蒸留のIQ4XSがVRAM 12GBでも動いたわ
くっそ重いけど
0174名無しさん@ピンキー2025/03/29(土) 18:21:12.89ID:???
俺の3060 12gbじゃ動かせるのは快適に動くのは7b、量子化とか言うのされたやつだと動くか怪しいがギリギリ14bらしいとaiに言われた
14bでどれくらいエロエロ会話できるんかな
0175名無しさん@ピンキー2025/03/29(土) 18:31:53.49ID:???
俺の個人的な印象だと日本語13Bは不作で賢い7Bモデルの方がマシだった
0176名無しさん@ピンキー2025/03/29(土) 18:51:19.73ID:???
LLMスレ見ると良いモデル使おうとすると金掛かりまくって草生える
金は出しゃあるけどやる暇があらへん
0177名無しさん@ピンキー2025/03/29(土) 18:58:00.73ID:???
ローカルLLMは用途特化でしか大手LLMと戦える要素はない
つまりファインチューニングかクソデカトークン対応のどちらかが前提となる
0180名無しさん@ピンキー2025/03/29(土) 21:48:40.02ID:???
大手の規制にもうんざりだしこっちに流れてきた
でもローカルはイラスト生成に使いたいから結局APIかWebサービス頼り
0182名無しさん@ピンキー2025/03/29(土) 23:10:16.81ID:???
command Aってロールプレイ性能というか会話性能落ちてないか?
CR+の方が全然よく感じる
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況