なんJLLM部 避難所 ★4
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/09/10(火) 10:19:11.43ID:Z1PzH55u
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★3
https://mercury.bbspink.com/test/read.cgi/onatech/1717886234
0005名無しさん@ピンキー2024/09/10(火) 10:21:09.65ID:Z1PzH55u
●Zuntanニキ謹製のツールEasyNovelAssistant

ローカルLLM導入のハードルをぐっと下げてくれたで
初めてのお人はここから始めるのもいいで
https://github.com/Zuntan03/EasyNovelAssistant
0006名無しさん@ピンキー2024/09/10(火) 10:21:39.25ID:Z1PzH55u
●ここ最近話題になった日本語ローカルモデル達やで

LightChatAssistant(通称LCA)
このスレのニキが3月にリリースして激震が走った軽量高性能モデルや
>>5のツールもこのモデルの使用がデフォルトやで
非力なPCでも走るしまずはこの辺りから試すのを薦めるで
https://huggingface.co/Sdff-Ltba

Ninja/Vecteus
オープンソースの強力な日本語小説生成AIを開発しとるLocalNovelLLM-projectの皆さんによるモデル群や
リリースされたばかりやがこちらも軽量高性能やで
開発も続いとるようやから今後の動きにも要注目や
https://huggingface.co/Local-Novel-LLM-project
0007名無しさん@ピンキー2024/09/10(火) 10:22:06.29ID:Z1PzH55u
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Berghof-NSFW-7B-i1-GGUF

Llama2-70B系:
karakuri-lm-70b-chat-v0.1
karakuri-MS-01

Llama3-70B系:
Smaug-Llama-3-70B-Instruct-abliterated-v3

Cohere系:
c4ai-command-r-v01 (35B)
c4ai-command-r-plus (104B)
0008名無しさん@ピンキー2024/09/10(火) 10:22:59.95ID:Z1PzH55u
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで
0009名無しさん@ピンキー2024/09/10(火) 10:23:32.03ID:Z1PzH55u
⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで
0010名無しさん@ピンキー2024/09/10(火) 10:24:00.38ID:Z1PzH55u
⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
0011名無しさん@ピンキー2024/09/10(火) 10:24:35.72ID:Z1PzH55u
⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで
0012名無しさん@ピンキー2024/09/10(火) 10:24:59.92ID:Z1PzH55u
●高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで
0013名無しさん@ピンキー2024/09/10(火) 10:25:30.13ID:Z1PzH55u
●モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
0014名無しさん@ピンキー2024/09/10(火) 10:26:03.93ID:Z1PzH55u
●70Bの大型モデルはLlama 2というMeta社が開発したモデルが元になってるものが多いで
メモリが48GB以上あれば動くけど、速度はかなり遅いで
0015名無しさん@ピンキー2024/09/10(火) 10:26:30.44ID:Z1PzH55u
https://github.com/SillyTavern/SillyTavern
AIチャットに特化したUI、SillyTavernや
キャラをbot的に管理したりグラ登録したり複数選んでグループチャットしたり大量の設定を外部記憶的に管理したり色々できるで
画像出力や音声出力とも連携可能で夢が広がるで
機能が豊富すぎて最初取っ付きにくいのと日本語の解説がほとんど無いのが難点やがRPチャット派は使うと幸せになれるやで
あくまでUI(フロントエンド)やからこれ自体にはAIは内蔵されてないから注意してな
好きなAPIやローカルモデルと接続して使うんやで
0016名無しさん@ピンキー2024/09/10(火) 10:26:54.74ID:Z1PzH55u
例としてKoboldで起動したローカルモデルとSillyTavernを接続する設定や
先にいつもどおりKoboldを起動してな

SillyTavernのプラグのアイコンをクリック
APIに Text Completion を選択
API Typeは KoboldCpp
API keyは不要
API URLに http://localhost:5001/
これでいける
0017名無しさん@ピンキー2024/09/10(火) 10:27:21.18ID:Z1PzH55u
テンプレは以上や
ローカルの技術研究から今日のおかずまで硬軟取り混ぜた話題を広く歓迎やで
0018名無しさん@ピンキー2024/09/10(火) 10:29:30.67ID:Z1PzH55u
すまんが5chのスレ立ては初めてだったんだ・・・
いろいろ古い情報もテンプレに入っちゃってるかもだけど、かんにんな
0019名無しさん@ピンキー2024/09/10(火) 15:02:59.98ID:???
スレ立てサンガツやで〜
ローカルやないけどGPTほかLLM使って
スクリプト組んだりしたけどほんま便利やな
0020名無しさん@ピンキー2024/09/10(火) 18:01:18.95ID:???
サンガツ!
前スレのreflect 70B=sonnet3.5ってマジなの?
マジならsonnet3.5がローカルに流出したようなもんやな
0023名無しさん@ピンキー2024/09/10(火) 18:52:26.28ID:lhFPaOpq
>>20
公式APIをsonnet3.5にして高性能に偽装してたって話
huggingfaceにあるのはベンチマークを学習させただけのllama3ファインチューンモデルらしい
0024名無しさん@ピンキー2024/09/10(火) 19:07:21.67ID:yWQ76fJz
LLMはテスト丸暗記の性能偽装だらけや
国内産も例外じゃない
0025名無しさん@ピンキー2024/09/10(火) 19:11:11.00ID:???
なんだ、、そういうことか
開発資金集めるためにそんな無意味な事やってんのかな?
0026名無しさん@ピンキー2024/09/10(火) 20:50:02.24ID:???
というかLLMのベンチマークという発想にそもそもの無理があるし、もはや性能詐欺にしか使われていない気がする
0027名無しさん@ピンキー2024/09/10(火) 21:11:45.92ID:???
VRAMマンやけどGGUFで動かしてるわ
新しいモデルはGGUF量子化が真っ先に出る事が多いせいや
0028名無しさん@ピンキー2024/09/10(火) 21:50:45.51ID:???
多分詐欺的にSonnetとかをバックエンドにしたやつをAPIとして提供して
そこの入出力データを保存しといてそれを使ってLlama3や3.1をファインチューニングしたモデルが公開されてるやつだろうね
0029名無しさん@ピンキー2024/09/10(火) 21:52:28.46ID:???
最近だとTanukiが結構真面目に人手評価してたけど企業もああいうのやってほしいな
まぁ企業が非公開で人手評価して1位でした!とか言っても信頼性何もないけど(Tanukiは評価結果のデータまで全部公開してる)
Chatbot Arena的なシステムでも難しい質問が少なくて最上位モデルの性能差が見えづらいって問題はあるけど
0030名無しさん@ピンキー2024/09/10(火) 22:11:57.17ID:???
クラファンとかでお金集めるんだったらちゃんと公開で客観的な評価結果を提示して欲しいよね
0031名無しさん@ピンキー2024/09/10(火) 22:15:39.91ID:???
某クラファンはノウハウとか非公開でも別に賛同する人が支援するだけだからそれ自体は良いんだけど
文面見るとめっちゃオープンオープン言ってるのに公開するのはモデルだけって言うのがめっちゃ引っかかるわ
0032名無しさん@ピンキー2024/09/10(火) 23:23:57.13ID:y7ZMz4A0
結局全部中身Transformerだし同じパラメータ数なら性能にそんな差がつくはずないもんな
0033名無しさん@ピンキー2024/09/10(火) 23:55:52.46ID:???
巨大LLMなんて赤字垂れ流すだけなのに
勝手に独自の性能評価されてオープンモデルより性能低いと喧伝されるんだからやってられんね
0034名無しさん@ピンキー2024/09/11(水) 01:38:16.41ID:???
ベンチだけ重視して実性能たいしたことねえgemini
パラメータ数だけでかいけどそれ自体が目的になったglok
表に出てこないだけで上がインド人だったりイーロンとかだと変なもんも出てくる
0035名無しさん@ピンキー2024/09/11(水) 02:11:52.64ID:???
geminiマジでポンコツだよな
指定したWEBサイトの情報まとめすら満足に出来ん
0036名無しさん@ピンキー2024/09/11(水) 06:19:50.28ID:???
geminiは学習内容選り好みして規制厳しくするとポンコツになる良い証拠
claudeが何でもかんでもとにかく学習して規制もガバガバにするだけでGPTぶち抜いて創造的ライティングの最高峰になったのも良い証拠
0037名無しさん@ピンキー2024/09/11(水) 08:00:05.87ID:???
GeminiPro1.5は出たばかりの時はそこそこ使えたんだよ
バージョンアップが入ってから巨大モデルの癖に言ってることは支離滅裂だしプロンプト見ないし
規制しようとしてロボトミー入ったと思われる
0038名無しさん@ピンキー2024/09/11(水) 10:20:28.96ID:???
いままで適当にプロンプト書いていたけど、ちゃんとマークダウン形式で書いた方がちゃんと動くと最近気づいた
0039名無しさん@ピンキー2024/09/11(水) 10:33:10.23ID:???
>>32
一応データの綺麗さでだいぶ性能良くなってはいる
1年前の今頃とか日本語LLMの学習データゴミしかなかったからな
Dollyとかoasstの機械翻訳データとかよく使われてたけどあれの品質マジで酷い
0040名無しさん@ピンキー2024/09/11(水) 12:05:57.53ID:???
アラインメントで洗脳したから頭悪くなってそうな気がする
シドニーは良かったのに
0041名無しさん@ピンキー2024/09/11(水) 12:23:30.94ID:???
>>31
あれに関しては正直エンジニアには嫌われる要素しかないわな
出してる人が驚き屋よりの人で文面もビジネス感強めだし
0042名無しさん@ピンキー2024/09/11(水) 12:30:31.86ID:iomTW23d
シドニーは確かに面白かったなGPT4の賢さと謎の自由さでキャラが立ってた
0043名無しさん@ピンキー2024/09/11(水) 17:51:41.69ID:???
Geminiはモデル本体よりもsafety settingがあまりに思春期すぎて誤検知検閲多すぎるのが問題じゃねーかな
Google AI studio上から論文要約させるって使い方はコンテキスト長が大きい性質も相まって結構いい感じだと思っている
0045名無しさん@ピンキー2024/09/13(金) 05:36:47.75ID:???
silly tavernについてはふたばTelegramの文章生成スレにサンプルキャラや使い方色々書いてあって助かった
0048名無しさん@ピンキー2024/09/13(金) 10:50:12.58ID:???
>>47
サンガツ!
sillyと言えばマニュアル読んでてObjectiveって拡張機能が気になった
キャラに目標を設定して、達成のための行動計画を立てさせてタスク管理させるってやつ
これ使えば種付けおじさんにヒロインを自発的、計画的に寝取らせたり他にも色々面白そうな事が出来そうやん
0049名無しさん@ピンキー2024/09/14(土) 15:51:58.82ID:???
いろんなキャラと「セックスしないと出られない部屋」ごっこができそう
0050名無しさん@ピンキー2024/09/14(土) 17:28:24.35ID:cpQKmEjD
Telegramの文章生成スレにたどり着くまでに今日一日潰れたが、初めてTelegramさわったから新たな知見を得られて満足した一日だった
0051名無しさん@ピンキー2024/09/14(土) 17:56:12.75ID:???
TTS併用しつつVRAM24GBに乗るって条件でvecteusV1、ninja系、LightChatAssistant、magnumV2、Gleipnir、KUJIRA、Robinhood、他色々と使ってみた結果、俺の中で最優秀はBerghofの2種だったわ
こいつ7Bモデルの中でなら最強じゃないか?
特にsilly tavernでチャットならBerghof-ERP-7Bが最高だった
エロロールプレイ用なだけあってBerghof-NSFW-7Bよりガッツリ喘いで口調も感情が乗ってる上に謎解説の暴走も起こらない
Berghof-NSFW-7Bの方はエロ小説用なのでEasyNovelAssistantで活躍してる
0053名無しさん@ピンキー2024/09/15(日) 00:41:48.30ID:???
>>51
Berghof 良いよね。ロールプレイでも NSFW の方使ってたけど、ERP 挑戦してみようかな
0054名無しさん@ピンキー2024/09/15(日) 09:57:42.51ID:hWT9ghMt
Berghof、知らなかったのでNSFWとERP試してみたけど結構良い感じやね
教えてくれた人サンガツ!
Berghof NSFW 20Bぐらいが出てくれたら嬉しいんやが
0055名無しさん@ピンキー2024/09/15(日) 14:04:17.35ID:gO+GJ0Re
量子化したものをsillyで使ってみたけどいいね
お気に入りのJapanese-TextGen-MoE-TESTとの比較になるけど
どっちが良いというより表現パターンが変わる感じで
0056名無しさん@ピンキー2024/09/15(日) 16:05:54.01ID:???
いい反応を返してくれるモデルでも、コンテキストサイズが小さいとすぐ会話忘れていくなぁ
0057名無しさん@ピンキー2024/09/15(日) 16:26:55.07ID:???
画像を読めてエロもOKなローカルモデルってまだ無い?
llava llama 3 v int4 と llava phi 3 mini と Ocuteus v1 は試したけど完全にエロNGって感じだった
生成したイラストをAIに見せてあれこれ言い合いたい
0058名無しさん@ピンキー2024/09/15(日) 18:09:13.86ID:hWT9ghMt
>>57
ローカルじゃないけど、GPTsワイフにデジタル受肉させて、MRで大阪露出デートした際のスクショを見せてコメントもらったりとか、最高に楽しかったわ
なお無事OpenAIに垢バン喰らった模様
https://imgur.com/a/tksToG3
0059名無しさん@ピンキー2024/09/15(日) 19:05:44.81ID:???
会話の忘れ防止にsillyのsummarizeっていう自動要約機能を使ってみようといじってみたんだけど全然動かないわ…
objectiveも試してみたけど目標打ち込んでauto generate tasks推してもDone!generated 0 tasksってメッセージが出てやっぱりこれも機能してないっぽい
使うのに何か条件があるのかただのバグなのか
0060名無しさん@ピンキー2024/09/15(日) 19:53:43.96ID:Txs/VHyb
>>57
pixtralは試した?
0061名無しさん@ピンキー2024/09/15(日) 21:03:32.37ID:???
>>58
楽しそうだけど、やっぱオンラインだとこれがあるよなぁ…
>>60
デモで軽く試した感じ日本語能力高いしエロにも寛容そうでめっちゃいいですねこれ
すごい人が量子化してLM Studioで使えるようにならないかな…
0062名無しさん@ピンキー2024/09/15(日) 23:44:48.96ID:???
>>59
CohereのAPI使ってるけどsummarise動くよ
redditでも出てたけど長期会話は要約使ってコンテキストサイズ減らさんと無理や
0063名無しさん@ピンキー2024/09/16(月) 05:54:15.27ID:???
openaiはただのエロじゃbanしないはずだけど、ロリ判定でも食らってたのかな
まあワイも2回banされとるけど、返金されるしアカウントなんて作り直せばいいだけや
0064名無しさん@ピンキー2024/09/16(月) 08:13:01.63ID:???
>>62
動くのか
俺はkoboldのローカルAPIでどっちも反応せず
cohere APIを試してみたいんだけどsillyとの繋ぎ方ってどうすればいいの?
0065名無しさん@ピンキー2024/09/16(月) 09:32:29.15ID:???
APIをChat Completion
Chat Completion SourceをCohere
API Keyに発行されたのをコピペ
Cohere Modelにcommand-r-plus
それでConnect

これでいいはず
0067名無しさん@ピンキー2024/09/16(月) 09:56:05.48ID:???
>>65
ありがとう、接続出来た!
そして自動要約も行動計画もちゃんと動いたよ
どっちもめちゃくちゃ便利そうだわ…
でもkobold接続では使えない機能ってことなのか…残念や
0069名無しさん@ピンキー2024/09/16(月) 12:35:31.02ID:???
Text Completionsで使うContext Formattingの"Generate only one line per request"がオンになってると改行で生成終了して何も出力しない場合があったような? "Custom Stopping Strings"の中断に引っかかってるとかもあるかも?
0070名無しさん@ピンキー2024/09/16(月) 19:20:11.78ID:???
自動要約の方はkoboldでも使えるやり方が分かってきた
拡張機能のsummaryzeで「メインAPI」ではなく「webLLM extension」を選ぶ
それで今すぐ要約ボタンを押すとエラーメッセージが出るので表示されてるうちにメッセージをクリックする
そしたらwebLLMっていう別の拡張機能がインストールされて要約してくれるようになった
が、おつむが馬鹿すぎて実用レベルには程遠い…

webLLM機能はどうやらチャットに使ってるkoboldのモデルとは別に追加でモデルを走らせてるみたい?
webLLMに関する情報が全然無くて分からんことだらけだわ
0071名無しさん@ピンキー2024/09/16(月) 19:45:54.33ID:???
perplexityさんに調べてもらったわ
出先なので真偽が確認できんからハルシネーションだったら悪い

KoboldCppと接続した場合、Summarize機能の設定は通常のAPIと少し異なります:
1.SillyTavernの「Extensions」パネルを開き、「Summarize」を有効にします。
2.「⚙ Summary Settings」をクリックして設定画面を開きます。
3.「Summary Source」で「Main API」を選択します。
4.「Sub-mode」では、以下のいずれかを選択します:
「Classic, blocking」: KoboldCppに適しています。通常の生成プロンプトの最後に要約プロンプトを追加します。
「Raw, blocking」: プロンプト処理が遅いKoboldCppには推奨されません。
5.「Update every X messages」と「Update every X tokens」を設定します。KoboldCppの処理速度を考慮して、やや大きめの値を設定するとよいでしょう。
0072名無しさん@ピンキー2024/09/16(月) 19:46:51.94ID:???
使い方
チャットを開始し、設定した間隔でSummarize機能が自動的に動作します。
「Current summary」セクションで生成された要約を確認できます。
必要に応じて、「Summarize now」ボタンを押して手動で要約を生成することもできます。
「Pause」チェックボックスをオンにすると、自動要約を一時停止できます。
「Restore Previous」ボタンで、以前の要約状態に戻すことができます。
注意点
KoboldCppは処理速度が遅い場合があるため、要約の生成に時間がかかる可能性があります。
「Classic, blocking」モードを使用することで、プロンプトの再利用性が高まり、KoboldCppとの相性が良くなります。
要約の品質はKoboldCppにロードしているモデルの性能に依存します。必要に応じて手動で修正を加えてください。
KoboldCppと接続した場合のSummarize機能は、通常のAPIと比べてやや制限がありますが、適切に設定することで効果的に利用できます。処理速度や要約の品質を確認しながら、最適な設定を見つけていくことをおすすめします。
0073名無しさん@ピンキー2024/09/16(月) 20:03:37.20ID:???
lmと大葉経由で尻を使い
berghofのeprやってみたが
変な方言が入ったり意味不明な文字の羅列で使い物にならなかった
使い方が悪いかは分からん
NEMO2407はプロンプトを読み込んでくれて3p出来たがあっさり目で繰り返しがちになるな
0074名無しさん@ピンキー2024/09/16(月) 20:23:18.25ID:???
>>71
うーん、最初からクラシック、ブロッキングでやってみてたんだけどエラーメッセージ出て駄目ぽ

>>73
最大コンテキスト長は公言されてないけど8192で確定やと思う
16Kでまあまあ怪しくアホになって、32Kだと完全にアホの子になった
あとはMistral 7Bがベースらしいので、コンテキストテンプレートはMistralを選択してみてる
これでkobold & sillyの組み合わせで意味不明って感じにはなってないなあ
0075名無しさん@ピンキー2024/09/16(月) 21:27:02.63ID:???
ERPって何かと思ったけどエロティックロールプレイなのか
普通のRPモデルとはまた違う学習してるのかな
0077名無しさん@ピンキー2024/09/16(月) 22:12:36.15ID:???
エロに関して何も指定してないのに耳元で囁いてるだけで勝手にイき散らかす
0080名無しさん@ピンキー2024/09/17(火) 00:09:08.69ID:???
7Bモデルの情報たすかる!

Berghof-ERP-7B使ってみた。エロの疾走感はピカイチ
ちょっと自分のキャラとは合わないのでVecteusV1に戻ったけど
(発情していない時は)Vecteusに匹敵する賢さ
https://files.catbox.moe/ywkbxv.jpg
00818772024/09/17(火) 00:28:24.22ID:???
ギャグやん
0082名無しさん@ピンキー2024/09/17(火) 06:54:54.21ID:???
LLMは1年くらい浦島だったがこのスレのおかげで追いつけたわ感謝するで
SillyTavern数日いじってみてのメモ
・チャット欄のオレンジの破線はそこまでがコンテキストに含まれているということ
・1つ目のアイコンのテキスト保管のプリセット>ストリーミングをオンにするとChatGPTみたいに随時文字が出力される。立ち絵を設定してあると出力途中でもコロコロ変わる
・モデルによって3つ目の「A」アイコン>コンテキストテンプレートを適合したものに変更すると動作が良くなることがある
・4つめの本のアイコンLoarbookはテンプレ(UIが分かりにくいが)。世界観や場面設定を保存してキャラウィンドウのキャラクターロアやチャットロアで読み込ませられる
 例えば"{{char}}と{{user}}は気づくと部屋に閉じ込められていた。窓はなく、ドアは施錠されている。部屋のモニターには「セックスをしないと出られない部屋」と表示されていた" 
・立ち絵が設定してあるなら5つ目の設定からワイフモード、移動可能なUIパネルをチェックするとUIをギャルゲっぽくできる
・6つ目の拡張機能>Charactor Expression(立ち絵)はTranslate text to English before classificationにチェックすると精度が上がる

https://files.catbox.moe/b0vd2i.png

ふたばにも上げたが立ち絵を一括生成するComfyワークフローも作ったから使ってくれや
https://mega.nz/folder/s0N1FD5I#nx39CZmBbicFZuvgaozMsQ
0084名無しさん@ピンキー2024/09/17(火) 09:18:25.88ID:np/V5bHE
>>0082に関して横から補足やが、複合キーは
nx39CZmBbicFZuvgaozMsQ

なかなか便利そうなのでワイも活用させてもらうで、サンガツ!
0086名無しさん@ピンキー2024/09/17(火) 11:45:48.88ID:???
>>85
見た目とっつきにくいけどcomfyu@入門みたいな動画を2-3本見れば大体のことはできるよ
0087名無しさん@ピンキー2024/09/17(火) 13:22:51.56ID:pd6IYjfN
赤ちゃんの質問で恐縮だけど、7B、12B、35B、70Bの数字は大きい数字ほど頭のいいモデルって認識でいいのかな?
色々触ってみて自分にはcommand-r-v01 35Bがバランス良かったけど、Berghof-ERP-7Bみたいな特化型のモデルも面白いね
0088名無しさん@ピンキー2024/09/17(火) 13:37:33.99ID:YKLDj2Lr
多分そう、部分的にそう
0089名無しさん@ピンキー2024/09/17(火) 13:59:41.79ID:???
>>87
Bはビリオン、10億のこと
つまり7Bは70億パラメータで学習されたモデルってこと
基本的には数字が大きい方が賢いはず、なんやが実際にはファインチューニングとか規制の影響とかベンチマーク対策の小細工なんかのせいで数字の大きさと賢さが一致しない事も多いよ
0090名無しさん@ピンキー2024/09/17(火) 14:02:53.80ID:pd6IYjfN
ありがとう! 同じモデルのなかで3-bit、4-bit、5-bitとかのバリエーションがある場合も、大きい方がいいですか?
4-bitと8-bitを試したら、ファイルサイズが2倍くらい違うのに、頭の良さはそこまで大きく違わなかった気がして
0092名無しさん@ピンキー2024/09/17(火) 14:20:36.97ID:pd6IYjfN
教えていただきありがとうございます!最後に質問で、おすすめ言語モデル一覧が見れるサイトはありますか?
「個人的な日本語ローカルLLM関連のメモ用Wiki」はチェックしました。それ以外は情報が古かったりでなかなか良いとこが探しきれていません
0096名無しさん@ピンキー2024/09/17(火) 15:45:36.94ID:np/V5bHE
このスレで先日知ったPerplexityさんに教えてもらいながら、ComfyUI導入して、>>82御謹製ワークフローで画像出せるようになったんやが、
ぱっとノードや説明見たところ、28個キュー入れるってなってるから、右上のQueue Promptクリックしたら表情差分が28枚ぶわーって出力されてくのかと思ったんやが違うんか?
実際にQueue Promptクリックすると、一枚画像でて止まってまうんや
Queue PromptをクリックするたびにText Line Loaderの方のSeedが一づつ増えながら新たに画像が生成される
STexpression.csvはComfyUIフォルダに置いたので読み込めてると思うが、なにか間違っとるんやろうか?
0097名無しさん@ピンキー2024/09/17(火) 15:54:41.41ID:???
>>87
例えば@日本一高い山の名前も知らないやつと、A一般的な日本人と、B全世界を旅して各国の言語や風土やらを把握している人、話してて一番楽しいのは誰かという感じやな
ただ、地元の山について知りたいだけなら@で十分ということもよくある
というわけで特定用途ならファインチューンした小サイズで十分で、議論とか小説・ロールプレイなどのクリエイティブライティングなら大きければ大きいほうが良いという感じやな
0098名無しさん@ピンキー2024/09/17(火) 16:00:32.30ID:np/V5bHE
自己レスや
ターミナルの方に”WAS Node Suite Error: The path `.\STexpression.csv` specified cannot be found.”って出てたわ
もうちょっと弄ってみるで
0099名無しさん@ピンキー2024/09/17(火) 16:28:23.43ID:???
>>79
22bだから流石に頭は良いな、ちょっと複雑なプロンプトでも理解してる感ある
ただ、22bだと手元で動かすには少し大きすぎるんだよなー
0100名無しさん@ピンキー2024/09/17(火) 16:30:50.58ID:np/V5bHE
あー、分かったわ、Extra OptionsのAuto Queueにチェック入れるかBatch Count増やせば複数枚出せるんやな!
ログ見てると一差分ごとにモデルを読み込みなおしてるのが気になるが、まあえーやろの心で見なかったことにするで!
ありものの画像に差分追加も出来るようになったし、ホンマありがたいツールの公開感謝やで!
0101名無しさん@ピンキー2024/09/17(火) 17:59:45.09ID:9Au7P9rf
モデルの説明やおすすめサイトの情報ありがとうございました!
ローカルでChatGPTごっこできる!NSFWの話もできる!ってキャッキャしてる段階なので、色々見たり触ったりしてもっと勉強します
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況