なんJLLM部 避難所 ★4
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/09/10(火) 10:19:11.43ID:Z1PzH55u
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★3
https://mercury.bbspink.com/test/read.cgi/onatech/1717886234
0771名無しさん@ピンキー2024/12/09(月) 10:11:21.84ID:OY6VerVe
>>219-220
gptにログと尻タブの参考URLとか見せたけどいまいち判然としないや
回答内のコンテキストテンプレートも明らかにおかしい形式だし

バックエンド側のログでそれっぽのはこれかな?

The reported GGUF Arch is: llama
Arch Category: 0


これはllamaで良いってこと?
0772名無しさん@ピンキー2024/12/09(月) 11:13:00.10ID:eLCkiD28
NVのハイエンドGPUとかと、MacのLLMの処理トークン数載ってるけど、Macで十分だなこりゃ。
GPU複数枚でのLLM処理がMacM2 Ultraと大して変わらない。
https://gigazine.net/news/20241209-nvidia-gpu-apple-silicon-inference/

FLUXとか画像処理に使うならGPUの方がいいけど、LLMだったらMac一択か。
金持ってる人はM3 Ultra待ちかね。
1枚で150万するA100複数枚と、処理トークン数並びそうw
0773名無しさん@ピンキー2024/12/09(月) 11:40:10.25ID:???
M3 UltraはTSMCが N3Bでどえらい苦労してUltraがほとんどとれないようだ
あまりにとれなくてTSMCが取れた分だけお金くれればいいよ、とAppleに通達したくらい
M4はN3Eで作られててN3Bよりちょっと幅広なんだけど
CPUの設計のほうで盛り返して(Arm8 > Arm9)歩留は劇的に改善したらしいのでM4 Ultraはありうる(希望
N2がすでに歩留60%とかホームランがでたようで、AppleM5がすごそうだ(再来年か、その先)
0774名無しさん@ピンキー2024/12/09(月) 11:40:29.45ID:???
mac持ってる人ほど遅すぎて使い物にならんからLLM目的で買うなって言ってなかったっけ
0775名無しさん@ピンキー2024/12/09(月) 11:46:03.27ID:???
遅くない?
そりゃVRAM溢れてメインメモリ使ってる状態よりは余程良いけど
0778名無しさん@ピンキー2024/12/09(月) 12:11:13.63ID:???
LLM目的で買うな、というのはメインメモリが32GByte程度ならメモリ不足で動かないだけ
ミスリードというほどではないけど、悪意あるよなw
128GByteのモリモリマシンなら、そこそこ動く
>>772 の表の通りの速度ね

あと長いプロンプトを食わせるとmacは遅くなる、とかいう嘘つきもいる
現状公開されているLLMの仕組み上、一度全部の単語の重み計算しないとダメだからそう見える
4090だって長いプロンプトは遅くなるけど、そもそもメモリー不足で動かないモデルが多いから
7Bとかちいさいのばっかり使ってるから速く見えるだけ
macのmlx版なんか目で追えないほど(3.2B 200-300 token/s )速いぞ
ttps://lmstudio.ai/blog/lmstudio-v0.3.4

長いプロンプトでも全部解析しないですむ方法がわかってきたから、その辺は改善するかも
これはmacに限らずAIの電力削減で劇的な効果があるから研究者が頑張ってる
0779名無しさん@ピンキー2024/12/09(月) 12:54:55.50ID:???
どの程度のトークン毎秒を実用と考えるかだなあ
英語だと5トークンでもギリギリ使えん事ないけど効率悪い日本語だとウンチだし
0780名無しさん@ピンキー2024/12/09(月) 13:23:21.16ID:???
NvidiaGPUに比べてMacのPrompt Evalは実際だいぶ遅いので
コスパとかを無視して十分なVRAMがある環境で比較するならMacを買うなという話にはなるけどね…
この辺は技術的な部分で解決するかもしれんしM4Ultraで劇的に伸びるかもしれん
0781名無しさん@ピンキー2024/12/09(月) 14:30:23.36ID:???
持ってない人間はやたらmac褒めるよねほんと
なぜ企業がH100の争奪戦してたりnVidiaの株価が天井知らずでなのかを考えれば
そんなうまい話は無いって分かるだろうに
0783名無しさん@ピンキー2024/12/09(月) 16:07:54.83ID:???
LLMと画像生成の混同
処理能ではなく帯域で詰まってる現状をあまり理解されてない
ちゃんと上位製品選ばないとGPUと張り合えるほどの帯域はない
マカーが◯◯ならMac!(俺は使ったことないけど)とか吠えがち
この辺が混ざって悲劇が起きる
0784名無しさん@ピンキー2024/12/09(月) 16:31:23.91ID:eLCkiD28
>>783

>>772でちゃんとLLMと画像処理について別で書いてるけど。
MacがLLMだったらA100複数枚に追いつくレベルになりそうだからコスパ最高だろ。
どっかおかしいか?
0785名無しさん@ピンキー2024/12/09(月) 16:36:00.60ID:???
企業がH100使うんは新モデル作るのに学習いるからで推論はそのうちNPUに置き換わるやろ
0786名無しさん@ピンキー2024/12/09(月) 16:37:37.35ID:???
おかしいのはマカーあるある話とMacでAIって話題のあるある話を
自分の持論否定されたレスと思い込んで食いついてくるお前や
0787名無しさん@ピンキー2024/12/09(月) 16:49:53.80ID:???
どうせmacも突然arm捨ててrisc-vに行くんだろw

いまmac使ってる人がllm使うならいいけど
llmのためにこれからmac買う気にならん
0788名無しさん@ピンキー2024/12/09(月) 16:51:17.20ID:eLCkiD28
持論の否定?
リンク先見ないで書き込んでるなら、レス付けた俺が間違えてたわ。
0789名無しさん@ピンキー2024/12/09(月) 17:08:31.30ID:???
>4090だって長いプロンプトは遅くなるけど、そもそもメモリー不足で動かないモデルが多いから
>7Bとかちいさいのばっかり使ってるから速く見えるだけ
>macのmlx版なんか目で追えないほど(3.2B 200-300 token/s )速いぞ

>3.2B
0790名無しさん@ピンキー2024/12/09(月) 17:16:51.87ID:???
7B Q8モデルで同程度のサイズでも生成速度が変わってくるのは
モデル内部の処理なんだろうか
0791名無しさん@ピンキー2024/12/09(月) 17:24:25.61ID:???
コンテキストサイズ変えてないなら多分そう
27Bでサクサク動くのに22Bでもやたら重いモデルあったしな
0793名無しさん@ピンキー2024/12/09(月) 21:11:15.81ID:???
速さを求める人はローカルLLM使わんやろうし、ローカルはGPU+CPUでええやろ
GPUには他の使い道も有るし
macにはそれがない
0794名無しさん@ピンキー2024/12/09(月) 22:15:10.60ID:???
速度求めるならrunpodとかでGPU借りれば良い話だしな
A100なら一時間200円弱やろ?一日3時間借りても月2万以下やしmacより良い選択肢になり得そうや
というか100BクラスのLLMはファインチューニングも少ないし賢いだけで日本語エロ向きじゃなくてすぐに飽きるからまずはクラウドGPUでお試しが良いぞ
仕事でコーディング用に使いたいとかなら別やが
0797名無しさん@ピンキー2024/12/10(火) 08:31:32.89ID:???
AI用のアクセラレーターが出てくる未来は来ないのか?
手頃な値段でPCIe辺りにさせば動くやつ
さすがにVRAM目当てでグラボ何枚も買うのは非効率すぎる
0800名無しさん@ピンキー2024/12/10(火) 11:21:30.12ID:???
PCIe5でも32GT/sで16レーン使っても大まかに64GByte/sしか転送速度でないからx86のRAMと比較してもまるで足りないんだよ
0803名無しさん@ピンキー2024/12/10(火) 12:46:07.16ID:9FINHpmt
実はgddr6って1gbあたり2ドルちょいで売られてるんだよな
6xとか7の値段がどれくらいかは知らんけど殿様商売だよこれ
0804名無しさん@ピンキー2024/12/10(火) 13:01:17.17ID:???
部品の原価で語れる規模の製品じゃないよ…
食品なんかとは違うんだ
0805名無しさん@ピンキー2024/12/10(火) 15:32:13.73ID:???
本当に殿様商売できるんなら
参入する企業も出るはずなのにそれがないってことはそういうことや
0806名無しさん@ピンキー2024/12/10(火) 21:55:15.43ID:???
中国では実際規制やらgddr買えるやらで換装するシノギがある
0807名無しさん@ピンキー2024/12/10(火) 21:56:58.55ID:???
intelがかつて自分がryzenで多コアボッタクリ崩されたときみたいにVRAMの価格破壊せんかね
0808名無しさん@ピンキー2024/12/10(火) 22:02:20.87ID:???
いま価格com見たら4090が二店舗、50万近くするのね
ますますLLMローカルの裾野が狭くなっていく……
0811名無しさん@ピンキー2024/12/11(水) 01:41:46.00ID:???
llmを個人でやる方が異端だし流行らんでしょ
非エロなら普通のサービス使えばいいんだし

エロチャットのために数十万のハード用意するのって正気じゃねえよな
0812名無しさん@ピンキー2024/12/11(水) 05:42:16.51ID:???
というか大手の規制なんて対策すればいいだけだしな
規制自体どんどん緩くなってきてるし、抜け穴もわざと残されてる感がある
0813名無しさん@ピンキー2024/12/11(水) 09:29:33.77ID:???
Command R +のネット利用に限界を感じたんでローカルLLM試してるけど文章は圧倒的にMagnumさんのがいいな
ただ、難しい指示はCommandR+より守れない

「調教モノのプロンプトの構築」と「文章を元にStable Diffusionで画像生成する」が現状の課題なんだけど、
まーじで命令無視してすぐ堕ちる
0814名無しさん@ピンキー2024/12/11(水) 09:41:57.75ID:???
magnum系統は割と即落ちな感じ
あとおま環かもしれないけど、fuck me, fill me, bread me みたいな言い回しを好むんだよね
0815名無しさん@ピンキー2024/12/11(水) 09:51:53.47ID:???
パラメータ数が似たようなレベルなら質と自由度は基本的にトレードオフだからな
極端な話シェイクスピアの文しか学習させなければシェイクスピアの文をそのまま出す最高質で最低自由度のAIになる
0820名無しさん@ピンキー2024/12/11(水) 11:12:16.34ID:???
>>812
ジェイルブレイクに対応できるほど追加学習で規制するとアホになる事が分かってやらなくなったのでは
0822名無しさん@ピンキー2024/12/11(水) 11:23:34.18ID:4mKC7NDV
>>813
文章を元に画像生成っていうとあちらさんの>>33かな?
精神ゲージ的な数値管理でも無視される感じ?
一応、指示は英語の方が理解してもらいやすいから調教関係のプロンプトを英語化してみるとちょっと変わるかもしれん
0823名無しさん@ピンキー2024/12/11(水) 12:24:39.41ID:GnPhW2eP
>>813
ある程度凝った遊び方は基本自分でアプリなりブラウザアプリなり作ればええと思うで!
一般的なローカルLLM用のアプリは会話履歴の全てや、要約+直近の会話をプロンプトとして渡すから、コンテクスト内での堕ちに繋がる要素の占有率が高くなって大事なインストラクションの重みが軽くなっちゃうわけやろ?
尻タブなんかはリマインド入れたりもできるけど、それでもアカンならチャットのためのコンテクストと、画像出力のためのコンテクストを切り離して、画像出力コンテクスト側には最低限の情報しか渡さんようにすれば行けるとおもうで
ローカルではなく、GPT3.5turboとかの頃の話やが、パラメーターに関してはアプリ側で管理して、ターンごとにパラメーター(尿意、便意、所持金、空腹度)をプロンプトの最後にぶら下げて参照させる形でそこそこ楽しく遊べてたで〜
0824名無しさん@ピンキー2024/12/11(水) 13:17:29.10ID:???
英語にしたらいい感じかも。ちょっと色々試してみる

使用する精神パラメータ:キャラクターに決められたそのシチュエーションで使いそうな精神パラメータの内、数値が一番高いものを選ぶ(誇りだの正義感だの)
本能パラメータの決定:基準を元にシチュエーション毎にどのような感情が相応しいか全ての状況パラメータの値を再決定し、その最も高い数値を選ぶ(恐怖だの苦痛だの快楽だの)
シチュエーション強度の決定:そのシチュエーションにおける行動選択の心理的抵抗の値を、基準を元に決定する(何もなし:0 親兄弟を殺す:100 とかで)
行動決定値: 使用する精神パラメータ - 決定した本能パラエータ + シチュエーション強度 = 行動決定値
行動決定値が0以上で精神パラメータの項目優先、0未満で本能パラメータ優先 

みたいな感じにして、最後行動を評価して精神パラメータを変動させるプロンプトだったんだけど
これに上下させる基準だの、文中での表記の仕方だのを指定してるとプロンプトが長くなって複雑化して、AIが完遂を放棄するようになるんよね
本能パラメータをもっとシンプルに、複数項目にしてAIに一個数値ごと考えさせればいいのかもなぁーとか試行錯誤中
0825名無しさん@ピンキー2024/12/12(木) 01:27:13.02ID:4/JUF3pF
gemini 2.0が出たね
生徒会恋愛問題も英語ならlv2まで間違えなかったから4o並みか超えるぐらいの頭は持ってそう
いつgemmaになってローカルに下りてくるのかは知らん
0826名無しさん@ピンキー2024/12/12(木) 05:40:27.24ID:fFmnshq4
尻タブでチャットしてると「…」「!」「?」の代わりに半角の「...」「!」「?」が使われて表示に時間がかかるんだけど
これって回避方法ある?
0829名無しさん@ピンキー2024/12/12(木) 08:35:10.74ID:fFmnshq4
>>827
サンクス
テンポ良くなった気がする
0830名無しさん@ピンキー2024/12/12(木) 10:25:24.25ID:???
エロ絵生成AIに強く興味を持って自作グラボ板に入門相談したらここをロムしろと教わったので勉強させてもらいます
シンフォギアのエロAI画像を自給したい
0831名無しさん@ピンキー2024/12/12(木) 10:29:10.69ID:???
ここはテキスト生成のスレだから画像生成はここじゃないよ
0832名無しさん@ピンキー2024/12/12(木) 10:30:28.48ID:???
マジかごめんなさい失礼しました
つうかテキストなんてジャンルもあるのかすげぇな毎秒ブレイクスルー起きるじゃん
0834名無しさん@ピンキー2024/12/12(木) 10:36:30.21ID:fFmnshq4
AI画像生成でシンフォギアのキャラ画像作って
そのキャラとAIテキスト生成でチャットするんじゃよ
VRAMいっぱいあるならAI音声も組み合わせられる

Aibis Projectの簡単音声モデル生成が稼働し始めたらシンフォギアの声優のAI音声も楽に作れるかもね
0836名無しさん@ピンキー2024/12/12(木) 10:43:50.34ID:???
だからガチで1レス毎に俺内レボリューション起こすのやめてくれww
公式から供給終わった私的神作のAIエロを見て激震が走ったのにそんなんまで出来たらチンチン摩擦で溶けちゃう
0837名無しさん@ピンキー2024/12/12(木) 10:44:27.92ID:???
本当にありがとう何か身につくものがあったらこのスレにも恩返しするわ
0839名無しさん@ピンキー2024/12/12(木) 11:03:17.77ID:Q6+kAFCh
クリスちゃん大好きだからなんかいい感じの出力ができるLoRAとかSillyTavernと連携しやすい画像生成関連のなんかとか見つけたら共有してくれると嬉しいな
(LoRAはスレ違いになるだろうからアレだが・・・)

画像生成に関しては下記のwikiがおすすめ
(しばらく追ってないんだけど、今情報の共有ってどこでやってるんだろ)
https://wikiwiki.jp/sd_toshiaki/
0841名無しさん@ピンキー2024/12/12(木) 11:13:37.24ID:???
>>813だけど、英文がいいんじゃないかってアドバイスを元にやってみたら割と通りやすいプロンプトできたのでマジで感謝
マグナムさんはこれ指示しても結構ご機嫌斜めなこと多いけど、Command R +なら結構動いていい具合に堕ちない
感謝

https://rentry.org/v427hg5w
0842名無しさん@ピンキー2024/12/12(木) 11:46:22.94ID:???
>>834
SBV2の作者曰く、中身はほぼSBV2だけど日本語処理とかで独自の改良が加わってるらしいね
はよsillyと連携出来るようにならんかな
0844名無しさん@ピンキー2024/12/12(木) 13:39:43.20ID:Q6+kAFCh
>>841
効果が出たならよかった
英語なら理解力はパラメータ数と量子化の少なさがモノを言うだろうからなあ
マグナムはマグナムでもv4且つMistralベースの123Bだとどうなるかなって思うところだが、流石にコレまともに動かせる人あまりいないよな・・・
0847名無しさん@ピンキー2024/12/12(木) 15:06:07.70ID:???
自分は逆にJNVAからこっちに来たけど、
LLMに生成タグ吐かせたりComfyuiのワークフローにLlama3嚙ませたり、どっちも親和性高いんよな
0848名無しさん@ピンキー2024/12/12(木) 16:02:06.23ID:???
最終的にローカルもマルチモーダルAIに何でも投げるようになるんじゃないかな
sillyが文章はkobold、音声はSBV2、画像はSDと連携してるように、投げられた処理を統合管理AIがどんな種類のモデルに振るか判断するみたいな
0849名無しさん@ピンキー2024/12/12(木) 17:34:25.26ID:???
初心者だけどエロ文章が欲しくて、悪戦苦闘しながらようやくeasy novel assistantを入れられたわ。何も考えないでパソコンを見繕っちゃったせいでavx2のサポートしてないCPUにしちゃって、起動ごとになんかpresetsを弄ることになりそうだ
0850名無しさん@ピンキー2024/12/12(木) 22:26:02.09ID:???
CR+使ってエロチャットしてて、盛り上がると発狂して「あああああああ(以下、トークン上限まで続く) とか生成するんだけど謎だ
0851名無しさん@ピンキー2024/12/13(金) 04:59:53.91ID:rUhECzkq
CR+はhugging faceのしか使ったことないけど
あれだと温度設定も出来ないし繰り返し多いしであんまりチャット向きじゃないよね
0852名無しさん@ピンキー2024/12/13(金) 11:07:58.56ID:???
現状で日本語エロチャットに向いてるモデルって何だろうな
個人的には上にも挙がってるHermes-3-Llama-3.1-70B-Uncensored.Q4_K_Sだけど、このサイズになってくると一つずつ試すのも難しいから情報が欲しい
0853名無しさん@ピンキー2024/12/13(金) 12:26:29.13ID:???
>>852
チャットならlcaニキの7bとか色々あるで
小説用途だとワイはmagnum v4 123b以上じゃないと満足出来ない身体になっちまったw
0854名無しさん@ピンキー2024/12/13(金) 12:30:57.94ID:71wPNBhI
くそう、123B動かせるおじさんめ!ここぞとばかりに自慢しやがって!!
0855名無しさん@ピンキー2024/12/13(金) 12:35:16.70ID:+Fkxuucy
>>852
チャットなら>>449とか>>79、magnum系じゃない
magnumはモデルサイズでかくないと日本語はそこそこだけど
0856名無しさん@ピンキー2024/12/13(金) 12:41:47.04ID:???
magnum13B使ってみたことあるけど確かに微妙だったな
123B試してみたいもんやで…
0857名無しさん@ピンキー2024/12/13(金) 12:44:14.01ID:???
ありがたい、とりあえず紹介してもらったの試してみる
エロチャットと書いたけど、小説風だったりTRPGだったりいろいろ試してみたいんよね
0858名無しさん@ピンキー2024/12/13(金) 12:47:16.76ID:???
20〜40Bくらいのモデルがもっと増えてくれればいいんだけどねぇ
0860名無しさん@ピンキー2024/12/13(金) 13:28:29.07ID:???
Mistral-nemo-ja-rp-v0.2 は機械翻訳っぽかったけど、magnum v4 123bはいい感じの日本語
でもLlama-3.1-70Bと同じくらいの応答速度だからこれだけで遊ぶとなると待ち時間がえぐいね
0862名無しさん@ピンキー2024/12/13(金) 14:18:12.60ID:rUhECzkq
7Bの色んなモデルで遊んでるけどなかなかノーブラという設定を理解してくれない
服を脱ぐときになぜかブラを着ていることになってブラも脱いでしまう
これは記述方法が悪いのかノーブラが難しいのかどっちなんだ
0863名無しさん@ピンキー2024/12/13(金) 14:29:36.93ID:???
俺いつも「手を肩に」まで書いてそれ以降を生成して抱きしめるに誘導する書き方してんだけど、みんな完全ガチャしてるの?

ここで上がる評判のモデルだと大体思い通りに行くからモデルの差をあんま感じなくて
0864名無しさん@ピンキー2024/12/13(金) 14:36:00.82ID:???
>>862
その辺は概念ガバガバやね
何度も服着てるって言ってんのにおもむろにおちんちんジュッポジュッポしゃぶりだすし
0865名無しさん@ピンキー2024/12/13(金) 14:47:41.33ID:???
>>861
1カ月に一度くらいの頻度で80GBのGPU借りられて、そこでIQ3は試したことあるが、確かに凄かったんよな(遅さは言われたとおりだが!)
普段使いできるようになりたいぜ・・・

>>863
俺はチャット派だが、自分のセリフと行動と心情は自分で書いてるな
キャラのアクションもガチャって駄目なら書き換えるし自分で背景とかの情景描写とかも書くし、なんなら気が付いたらAIにキャラの行動の方向だけ決めて貰って文章ほぼ自分で書いてることもある・・・
なんか、自分が正しい日本語で文量多く書いてると、AIも日本語的なミスとか少なくなる気がするんよな
0866名無しさん@ピンキー2024/12/13(金) 17:08:03.10ID:???
m4 maxのメモリ最大ていくらまでいけるの?
x64とgpuより良い?
0868名無しさん@ピンキー2024/12/13(金) 21:28:18.92ID:RCxamCsB
パソコンなんででかいだけスマホで全部できるじゃんって言ってたじゃん
0869名無しさん@ピンキー2024/12/13(金) 21:57:42.62ID:???
成人向け文章読ませてタグ付けさせて画像生成プロンプト出させてみてるけど、
軽くてNGない丁度いいバランスだったのは今のところmistral-nemoだった

もっといいのあったらごめんだけど
0870名無しさん@ピンキー2024/12/14(土) 02:37:11.03ID:uwoflNah
https://huggingface.co/matteogeniaccio/phi-4
phi-4を落としたものがhfに上がってたので共有
試した感じ日本語も自然で生徒会恋愛問題も英語でlv1は解けたりしたからgemma2 27b以上の性能はありそう
規制自体はそこまで強くないけどあんまりエロはあんまり学習してなさげだった
■ このスレッドは過去ログ倉庫に格納されています