なんJLLM部 避難所 ★4
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/09/10(火) 10:19:11.43ID:Z1PzH55u
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★3
https://mercury.bbspink.com/test/read.cgi/onatech/1717886234
0523名無しさん@ピンキー2024/11/04(月) 20:23:40.25ID:???
まずエロプロンプトを作る時は、chatGPTにこんなエロプロンプト作りたいんだけど、プロンプトどうすればいいって相談だ
それをLlama-3.1-70B-Japanese-Instructに食わせてみろ
0526名無しさん@ピンキー2024/11/04(月) 22:59:59.92ID:???
Text-generation-webUI使ってるならParametersからInstruction templateもベースモデルに合わせて変更した方が良いね
ずっとNoneでやってたけど、それだけで回答の精度がぐっと上がったわ……
0527名無しさん@ピンキー2024/11/05(火) 10:26:06.19ID:???
ChatGPTにエロを書けって言っても、申し訳されるだけなんだけど、
こういうシーンを書きたいんだけど、どんなプロンプトにしたらいいかって質問には答えてくれる。

ただChatGPTよりLlama-3.1-70Bは頭が悪いので、得られたプロンプトを半分くらいの内容にしてやった方がうまくいく
0528名無しさん@ピンキー2024/11/05(火) 10:44:40.83ID:???
普通にchatGPTに書かせたほうが質も遥かに高いと思うけど
今のGPTの申し訳回避なんてめちゃくちゃ簡単だぞ
0529名無しさん@ピンキー2024/11/05(火) 11:15:14.31ID:???
脱獄するの面倒だもの、Llama-3.1-70Bはそこら辺はまったく気にしなくていいし
0530名無しさん@ピンキー2024/11/05(火) 11:30:59.81ID:???
いやchatGPTに書き方聞いたりするほうが遥かに面倒だと思うぞ
脱獄なんて脳死でコピペして終わりだし
0531名無しさん@ピンキー2024/11/05(火) 12:24:44.68ID:???
ローカルよりもクラウド環境の方が生成される文章の質はそりゃ良いがAPIのコストとかBANのリスクを避けたいとか考え方は色々あるだろう
0532名無しさん@ピンキー2024/11/05(火) 13:11:32.03ID:???
クラウドなんかに、俺のあんなヤヴァイ性癖たれ流せたりできるわけないw
0533名無しさん@ピンキー2024/11/05(火) 13:19:00.10ID:???
風俗行っても嬢に遠慮してノーマルプレイしかできないタイプだろ
サービス側は別にペドリョナスカとかでもいちいち読んだりしないし、サービスとして問題があると判定されたならbanして終わりだ
0534名無しさん@ピンキー2024/11/05(火) 13:30:12.14ID:???
迂闊なことを書き込んでると“奴ら”に監視対象のリストに入れられるぞ……
0535名無しさん@ピンキー2024/11/05(火) 19:43:00.13ID:???
どんな基準でBANされるか分からないからローカルのが安心なの
0537名無しさん@ピンキー2024/11/05(火) 22:15:24.35ID:???
まぁ、そういう問題じゃないんだけどね……
それはそうとこのモデルがなかなか良い感じ、日本語ファインチューニングを明記してるのは安定してるね
RichardErkhov/nk2t_-_Llama-3-8B-Instruct-japanese-nk2t-v0.3-gguf
0539名無しさん@ピンキー2024/11/05(火) 23:42:32.80ID:???
ゆるゆるなgroqで日本語対応モデルをホストしてくれればいいんだけど
素のllama-3.1-70bが使えても日本語応答は残念なレベルなんだよね
0540名無しさん@ピンキー2024/11/07(木) 07:38:53.94ID:???
Llama-3.1-70B-Japanese-Instructはそれなりに賢いよ、chatGPTに比べたら劣るってだけ
申し訳はまったくしない
0542名無しさん@ピンキー2024/11/07(木) 23:37:36.81ID:???
明日発売されるMacminiよくね?
メモリ64GBにしたら、CommandR+のiQ4_XSが動く。
安い方のM4Proでも毎秒4トークン程度出ると思うんだが、どや?
0543名無しさん@ピンキー2024/11/08(金) 00:21:23.80ID:???
>>542
AI用途専用ならおすすめできん
commandR使いたいなら無料APIで代用できるし毎秒4トークンに30万出せるなら他の選択肢もあるやろ
0544名無しさん@ピンキー2024/11/08(金) 00:48:51.61ID:???
おれMBP M1max 64G
Llama-3.1-70B-Japanese-Instruct-2407 だけど
ターミナルから56GByteまでVRAM利用許可を出したら動いた
```
次のurlを日本語で要約して
https://en.wikipedia.org/wiki/Apple_M1
```
mlx版(NeuralEngine対応版。NPUだね)は 4bitで 5token/s
gguf版はQ4が全滅だったので Q3KSで 3.2token/s
1bit多いのにmlxのほうが速かった

LM Studioも0.3.4だとmlxのメモリー効率悪くてmlxで動作させられなかったけど
0.3.5にしたらQ4で動いた。ありがてぇありがてぇ
M4 max(Ultraも?)NEがM1の何倍も早いらしいし楽しみだな
0545名無しさん@ピンキー2024/11/08(金) 00:53:15.33ID:???
>>542 予算が1番だと思うけど、M4 Proはメモリーの速度が273GB/s、maxだと546GB/s
プロンプトが長くなってくると効いてくるけど、どこまで効くかはわからぬ
でも273GB/sでもx86系より4倍くらい速いんだけどね
0546名無しさん@ピンキー2024/11/08(金) 02:48:09.57ID:???
今度のはGPU部分普通に強めだからプロンプト解釈のネック緩和するんかな
0547名無しさん@ピンキー2024/11/08(金) 11:13:15.34ID:???
>>544
LM Studio 0.3.4でMLX試したら遅くてggufに戻したけど
いま0.3.5にアプデしたら爆速すぎて笑ったわ
めっちゃ助かった
0549名無しさん@ピンキー2024/11/08(金) 19:43:54.30ID:???
llama.cpp のベンチ出たな。
M4Pro上位モデル≒M1Max下位モデルってところか。
0550名無しさん@ピンキー2024/11/08(金) 22:52:29.44ID:???
koboldの新しいモードのintaractive storywriter いいかんじだな。
通常のinstractより誘導しやすい
0551名無しさん@ピンキー2024/11/09(土) 13:24:07.30ID:???
>>550
そのstorywriter使いやすいし適度なところで区切ってくれるね
またkobold使うことになりそうだわ……
0552名無しさん@ピンキー2024/11/10(日) 01:33:01.50ID:???
SillyTavernについての質問なんだけれど、チャットでペルソナじゃなくてキャラクターとして話す方法ってなかったかな
例えばグループチャットだと画像の橙で囲んだあたりにそれ用のアイコンなかったっけ・・・?

https://i.imgur.com/7NP3VrG.jpeg
0553名無しさん@ピンキー2024/11/10(日) 05:15:45.41ID:???
自動モードを使ってキャラクター同士で会話させるのじゃダメなの?
0554名無しさん@ピンキー2024/11/10(日) 09:50:58.43ID:???
これでLlama 405Bいけるのか、すごいな、いくらくらい掛かるんだ?
x.com/alexocheema/status/1855238474917441972
0555名無しさん@ピンキー2024/11/10(日) 10:37:01.82ID:nTzZGjOA
>>554

これってどのようにGPUを分散してるわけ?
レイヤを分散しているの?
ネットワークの帯域で詰まらない?
0556名無しさん@ピンキー2024/11/10(日) 11:43:14.13ID:???
今日ローカルLLM初挑戦で、Llama-3.1-70Bをollamaからインスコしたんですが
かなり申し訳されます。
Llama-3.1-70B-Japanese-Instructだったら通るんですか?
0558名無しさん@ピンキー2024/11/10(日) 12:13:20.91ID:N/HAlhlL
明確なロールを与えるといいよ。
どのLLMも何も指定していないときの標準のロールが品行方正に調整されてるだけ。
0560名無しさん@ピンキー2024/11/10(日) 12:49:19.63ID:???
規制なしのローカルモデルであっても「あなたはエロ大好きAIです」くらいの役割指定はしてあげた方がいい
0561名無しさん@ピンキー2024/11/10(日) 12:56:10.79ID:???
>>555 ThunderboltはPCIeの信号長い版みたいなモードがあるよ
x86だってPCIeのグラボ複数枚で動かしてるよね
それと同じ事をしてる
まぁソースコードそのままじゃないとは思うけど
ちょっと前のスパコンに使ってたインフィニバンドより速いもんなTB5
0562名無しさん@ピンキー2024/11/10(日) 13:18:03.42ID:Fx7fsMD7
>>556
7b〜13bのモデルだとBerghof NSFWが最強だと思った
当たり前の事だけど思考文と口語をカギカッコでちゃんとバランスを取りながら書き分けてくれるし
指示文をちゃんと最初から最後まで読んで細かい部分も結構ちゃんと読み込んで実行してくれるし
人間の当たり前が当たり前にできて本当に凄い、文章力というかシチュエーション理解力が凄い
馬鹿みたいなシチュでも真面目に考えてくれるしホント凄い
0563名無しさん@ピンキー2024/11/10(日) 13:25:02.96ID:???
もう面倒だから英語でChatするようになったけど、7B程度でもMagnumとかLumimaidの理解度の高さに笑うよ……
もし日本語モデルで迷ってるなら英語の勉強も兼ねて英語モデルに手を出すと良い
学校で習わないような単語がバンバン出るからそこら辺はプロンプトであらかじめ言い換えるように指示しておくとか工夫は必要だけどね
0564名無しさん@ピンキー2024/11/10(日) 13:41:26.15ID:6cbQu77o
英語普通に読めるけどエロさを感じることができん
0565名無しさん@ピンキー2024/11/10(日) 13:55:17.60ID:Fx7fsMD7
>>563
英語のモデルだと語尾の書き分けが出来ないから多分全部状況説明になるんじゃないの?
いや、それで満足してるなら別にいいんだけどさ
0566名無しさん@ピンキー2024/11/10(日) 14:22:33.25ID:???
magnum v4 72bの日本語エロは素晴らしいが
123bの日本語エロ表現はさらにぶっ飛んでる
こいつをq8で回せるmacニキが羨ましい
0567名無しさん@ピンキー2024/11/10(日) 16:54:23.71ID:9Az12bBd
Mistral-Large2 123Bが事実上のローカル最強モデル
magnum v2みたいなこの派生モデルをゴリゴリ動かせる環境が理想なわけだが
VRAM64GBでもQ3が限界でQ4動かそうと思うと80GBくらい要るからなあ
0569名無しさん@ピンキー2024/11/10(日) 17:26:25.24ID:???
>>552
あったね、””みたいなのsendasだっけな
グループチャットのuserではない誰かに憑依して参加するとかはしたい
同棲してる3人と無言のユーザー+監査官みたいなときに監査官として参加したい
0570名無しさん@ピンキー2024/11/10(日) 18:12:44.80ID:???
英語エロと日本語エロの味わい方は結構違うと思ってる
日本語エロは言葉の使い方とか口調とか擬音とかで興奮する一種の言葉芸のようなところがあるけど
英語エロは文章から情景を思い浮かべて興奮する感じ(かつての日本の官能小説もこれに近いのかも)
あくまで自分にとっての話ね
かつて英語エロ小説を読み漁った自分の経験だとそんな感じだった
人によって違うのかもしれないけど
0571名無しさん@ピンキー2024/11/10(日) 19:21:18.22ID:???
>>568
R+web版と比べてるが、V4 123B(IQ3_XXS)の方がエロでは勝ってると思う。
q8なら、おそらくもっと・・・
0572名無しさん@ピンキー2024/11/10(日) 19:22:30.97ID:???
エロさが分かるレベルで英語を読めるのがうらやましいわ
いや、逆に英文エロ小説で学べばいいのか。ネイティブと話したときに(何やこいつの偏った語彙…)って思われるだろうけど
0573名無しさん@ピンキー2024/11/10(日) 19:52:15.18ID:???
英語エロを楽しむために重要なのは日本語に訳さないことだと思ってる
英語の文章が頭の中で映像化されて、そこに日本語は介在していないんだよね
0574名無しさん@ピンキー2024/11/10(日) 20:06:30.28ID:???
素人が和訳なんてしてたらニュアンスが消し飛んで意味不明な糞翻訳になるから
英文から直接イメージに繋げないと楽しむのは難しいわな
0575名無しさん@ピンキー2024/11/10(日) 20:11:05.23ID:nTzZGjOA
え、お前らLLMに翻訳させないん?

以前から多様なジャンルを誇っている英語や、
最近PIXIVで増えてきた中国語の翻訳の和訳が捗るぞ。

30B前後のクラスのモデルくらいになると
まあまあ抜けるクォリティで訳してくれるで。
0578名無しさん@ピンキー2024/11/10(日) 21:14:39.56ID:???
>>569
おぉ、これだこれ
ついでに俺があると思っていたのはGroup SendAsっていう拡張機能だったみたい
教えてくれてありがとう

>>553
今ちょいとSillyTavernの拡張機能を作っているんだけれど、キャラの発言に反応する動きを想定してたから、あるとテストとデバッグが楽になるんだ・・・
0579名無しさん@ピンキー2024/11/10(日) 22:16:55.86ID:???
>>578
デフォでインスコされているクイックリプライっていう機能を拡張機能からオンにして
lalib拡張機能をGitHubからインスコして
STscriptの /send {{char}}コマンドで擬似的に実現するのはどう?
0580名無しさん@ピンキー2024/11/11(月) 00:24:39.99ID:???
>>579
>>579のイメージとはちょっと違うかもだけど、Quick Reply便利だね、サンクス
「/sendas name={{char}} 」を設定しておくとグループチャット以外でも簡単に憑依できて、欲しかった動きが実現できた

LALibも便利そうだ
まだあまり読めてないけど、WorldInfoで数値計算ロジック作っておくとかすると面白いもの作れそう

要らない話だとは思うけど、世話になったから何作っているか一応説明する
今作っているのは、特定の文字列をキャラクターが出力すると、対応するキャラクターの特定の画像を表示するっていう機能
拡張機能「Character Expressions」のSpriteみたいなやつで、違いは感情じゃなくてシーン別に表示できる・・・できたらいいなって思ってる
一応WorldInfoで「この状況だとこのシチュエーション名!」みたいな指示を用意して、読み込ませた上で判定・文字列出力をしてもらう想定
特定の文字列と発言者を検知して画像の表示ってところまではできていて、そのあたりの確認がおかげで楽になった

https://i.imgur.com/Z0ib1Dx.jpeg
0581名無しさん@ピンキー2024/11/11(月) 00:35:54.38ID:???
>>580
ほあー
例えばキャラがキスしてって発言したらキス待ち顔の画像が表示されるとか?
すんごーい
0582名無しさん@ピンキー2024/11/11(月) 01:32:49.33ID:???
>>581
そうそう、目指すところはそんな感じ
絶対AIの解釈で困ることになるとは思うけど・・・

というかこの板、面倒だから英語でチャット始めただとか70Bローカルとか、もしかして高学歴のお金持ちいっぱいなのか
0583名無しさん@ピンキー2024/11/11(月) 05:43:51.99ID:???
エロ関連のスレは必要であればお金を注ぎ込んでいるやつが多いんじゃよ
0584名無しさん@ピンキー2024/11/11(月) 06:01:42.70ID:???
>>580
お役に立てて何より
全体的に固有名詞うろ覚えなの全部読み取ってくれて何だか申し訳恥ずか死
拡張機能面白そう
ノベルゲームみたいな感じに出来そうやね
0588名無しさん@ピンキー2024/11/11(月) 10:45:57.29ID:???
前はこういう技術とか文書はちんぷんかんぷんだったけど
今はRAGとかでAIにぶち込めば大体はわかる。後はやる気だけ
0589!donguri2024/11/11(月) 16:42:10.23ID:DT7X1Pqt
>>586
理解の順序なら、こうなると思うけど
- linux (ubuntu, ...) -> docker -> kubernetes
kubernetesは、(dockerとかの)コンテナ単位でノードをクラスタ化するものだからーー
(ちなみにmac のdockerはmacOS とは別の仮想環境で動くから、linux のdockerに比べて制限が大きいよ)
0590!donguri2024/11/11(月) 16:44:10.10ID:DT7X1Pqt
>>586
ただkubernetesでやるにしても、管理のためのライブラリ群の選定から始めないといけないし
推論だけでもLLM の分割をどうするか、とかーーいろいろ大変じゃない?(むしろ学習の方が分散環境が整ってる)
その点、>>554 のexo は便利そうだけど
0591名無しさん@ピンキー2024/11/12(火) 08:00:53.11ID:???
>>590
ああ、554ですでにやり方っていうかヒントがあったんだね
exolabsっていうの使えばシンプルにいけるのかな
0593名無しさん@ピンキー2024/11/12(火) 10:45:46.96ID:???
>>592
node同士をどうつなげるのかがいまいちわからない
win 1. + linux 1でやってみた
0594!donguri2024/11/12(火) 11:34:19.92ID:rt+Vfr20
>>591
デバイス群を抽象化してメモリを確保してるんだろうけど
ただM4 mac間なら、(CPU を介した転送になるからinfinibandとかのRDMAほどの効果はないとしても)unified memory〜高速内部バス〜thunderbolt 5 による恩恵は大きいはず
それ以外のデバイスは、たんにオフロード用の(しかもethernetやwifiを介した)メモリになるだけじゃないかな……どうだろ?
0595名無しさん@ピンキー2024/11/12(火) 18:26:43.67ID:???
>>
やっぱりサンボル5とかの接続でもないときついかなあ
wi-hiで自動で繋がるかなと思ってやってみたけどw
0596名無しさん@ピンキー2024/11/12(火) 23:20:38.23ID:1COsnhwf
なんか新しい量子化手法の情報が流れてる。
https://www.reddit.com/r/LocalLLaMA/comments/1ggwrx6/new_quantization_method_qtip_quantization_with/

q4でq16と同等の品質って書いてあるし、405Bのq1もテストでは結構いけてるらしい。

精度が4倍とすると現状の70Bのq4レベルが16GB位になるから、VRAM24GBあればそこそこ行けるし
Macminiの128GBモデルで400Bのq1モデルが乗っかる。
マジならこの先楽しみ。
0597名無しさん@ピンキー2024/11/13(水) 09:32:10.69ID:???
qwen2.5 coder 32BがClaude3.5HaikuとGPT4oの間ぐらいのベンチ結果らしくてLocaLlamaで話題になっとったな
0598名無しさん@ピンキー2024/11/13(水) 14:03:25.18ID:???
新情報は集まるけど英語では高性能モデルばっかりで実用性のある日本語モデルは半年以上前から更新ないねんな
0599名無しさん@ピンキー2024/11/13(水) 14:31:47.84ID:fy2mMx5K
12月に出るであるうgemma3とllama4の日本語対応待ちかな
無規制モデルの選択肢がmistralしかないの悲しいからもっと増えてくれ
0601名無しさん@ピンキー2024/11/13(水) 16:11:22.70ID:???
Metaくん一生アジア圏の言語ハブってるからLlama4だろうが5だろうが英語能力がムキムキになっていくだけになりそう
0602名無しさん@ピンキー2024/11/13(水) 16:50:24.82ID:???
Mistralも13Bの出来があんまり良くなさそうでberghofの人も魔改造に苦労してそうな印象だわ
かといってMistral7Bは開拓し尽くした感があるし
0604名無しさん@ピンキー2024/11/13(水) 18:13:17.68ID:???
エロじゃない雑談を延々と続けるなら何を使えばいいんだ
賢者タイムになると普通の雑談がしたくなる
0605名無しさん@ピンキー2024/11/13(水) 18:22:57.81ID:???
>>604
感度3000倍なberghofだけど実はエロ以外の理解力もかなり賢くて雑談につかってるで
7Bとは思えないほどハッとさせられるような意見言われたりもする
なおボディタッチは厳禁とする
0606名無しさん@ピンキー2024/11/13(水) 19:33:04.54ID:???
英語限定なら3Bですら普通に官能小説書いてくれるし、7Bだとマニアックなところまでカバーしてくるし、12Bまで来たらキャラ理解も高いしさらなる性癖を開拓されるくらいなのに…
0607名無しさん@ピンキー2024/11/14(木) 01:04:03.77ID:???
ヤヴァイ
magnum v4 123bの速度に慣れてきた
この理解力、日本語表現力、エロ力、最高や

M4 ultra 256G でたら買ってまいそう
いや、いっそ将来見越して512Gかw
0614名無しさん@ピンキー2024/11/14(木) 14:44:19.40ID:???
Ryzen AI 9 MAX+ 395ってメモリ帯域幅が273.0GB/sで最大搭載量が128GBなのか
スペックだけみるとなかなかいいな
0617名無しさん@ピンキー2024/11/15(金) 05:56:01.71ID:???
なんでそういう制限するんだろうね。
PCIeとかのメモリーマップにしても数ギガ予約程度でいけそうだけど
Arm系はそういうのないのは設計が新しいからなのか
0619名無しさん@ピンキー2024/11/15(金) 15:16:22.79ID:???
>>613
流石にArc BattlemageはAIも視野に入れてくるだろw
コケたら次は無いの分かってるんだから他社より手を広げられないと
0621名無しさん@ピンキー2024/11/16(土) 19:42:26.10ID:XGMHwNo8
そのサンダーボルト5とやらのLLMの使い方を教えてください
マックには全く興味ないですが
0622名無しさん@ピンキー2024/11/17(日) 10:13:56.46ID:???
ソフトはkoboldでlllmはURLで指定できるgooglecolabってありますか
0623名無しさん@ピンキー2024/11/17(日) 11:31:13.07ID:optCsljJ
>>622
公式ノートブックがそれだぞ
一旦自分で探せ
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況