なんJLLM部 避難所 ★3
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:37:14.82ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★2
https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0502名無しさん@ピンキー (ワッチョイ 1adb-ZeM8)2024/07/17(水) 10:45:43.49ID:???0
エロ目的だと課金に気乗りしないの意味がよくわからん
BANされるかもみたいな話?
オナニースレでもほとんど報告ないし万が一されても返金されるから気にする必要ないぞ
0504名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/17(水) 10:57:10.60ID:???0
今までオリキャラだけでやってたけどchub.aiでキャラクターカード落としてみたらすごくよく出来てるな
ハーレムチャットもまともに機能してるわ
0506名無しさん@ピンキー (ワッチョイ 2b4e-gu6S)2024/07/17(水) 11:18:12.96ID:???0
>>504
そこいいよね
上で表情差分画像の話が出てたけど、そのサイトは表情差分付きって条件で絞って検索出来るから捗る
画像だけ拝借して別キャラに使い回しても良いわけで
0507名無しさん@ピンキー (ワッチョイ 1adb-ZeM8)2024/07/17(水) 11:22:59.50ID:???0
>>505
perplexityではまずされない
自分はperplexityで◯リ調教とか日常的にやってるけど平気だしオナニースレでもperplexityBANされたなんて報告は一度もない
とはいえいつかお咎めが来る可能性はあるのでそこは自己責任で
というかお咎めが行くとしたらまずanthropicからperplexityに向けて行くんだけどね
そこからさらに個人やソフバンに行く可能性はなくもない
0508名無しさん@ピンキー (ワッチョイ ff32-Xuj+)2024/07/17(水) 14:00:24.85ID:???0
sillyはフロントエンドでしかないってのは上記で言われてる通りだけど
silly自体が多機能過ぎて語るべき事が多いんだよな、繋ぐだけならその辺に情報はあるとはいえ
ちなみに日本語モデルだと表情切り替えちゃんと機能してない気がするけどどう?文章に関係なく笑顔になるとか
英文モデルを自動翻訳に通す使い方だと多分正確な表情出てる
0509名無しさん@ピンキー (ワッチョイ ff32-Xuj+)2024/07/17(水) 14:11:02.20ID:???0
あと表情差分は確かに多少自動化して作れた方がありがたい気はする、comfyUIでワークフロー組んだら作れないかな
立ち絵用意して、背景透明化ぐらいは人間の力入れて
comfyUIのimg2imgで顔部分マスクして、目の色の情報だけ全共通で入れて、いくつかの表情差分をワンボタンで量産する所までは思い付いた
0510名無しさん@ピンキー (ワッチョイ 2b92-gu6S)2024/07/17(水) 14:58:54.94ID:???0
SBV2についても色々語りたい事多いんや
チュパ音モデル公開してくれたから、まずお気にのモデルとマージして大量にチュパ台詞を読み上げ、WAVで保存
このWAVをお気にの音声素材に追加して学習すれば通常会話とチュパ台詞を両立させたモデルが作れるんとちゃう?と閃いたんやが結果は微妙やった
チュパ時の喘ぎ声は上手く追加出来たものの、チュパ音がほぼ聞こえないくらい小さくなったり派手に音割れしたりでおかしくなってまう
0512名無しさん@ピンキー (ワッチョイ 0717-urh9)2024/07/17(水) 15:14:05.57ID:uvhJPCNY0
>>510
チュパ音モデルとのマージでチュパセリフ行けるか?
ワイも試したけど、うまく行かんかったな…
通常のマージよな?
0513名無しさん@ピンキー (ワッチョイ 2b31-gu6S)2024/07/17(水) 15:42:38.36ID:???0
>>512
通常マージやで
それも微妙なとこで、声質0.5の他全部チュパモデルのままって配合で精一杯やった
それ以上お目当てモデル側に寄せると音がおかしくなる
ささやき声でも似たような感じやったしSBV2のマージって思ったより自由度が低い感覚だわ
0514名無しさん@ピンキー (ワッチョイ 0780-urh9)2024/07/17(水) 16:11:31.07ID:uvhJPCNY0
>>513
あー理解した、マージの時点であかんかったという話か
ささやきマージうまく行かんかったとこも一緒や

通常会話と喘ぎ声の同居まではそこそこ何とかなるけど、チュパ音語同居はやっぱりちと厳しそうやな…
0515名無しさん@ピンキー (ワッチョイ 2ba0-4dff)2024/07/18(木) 01:47:08.29ID:???0
>>508
つい最近silly知ってモデルはninja-v1RPでやってみたけど確かに表情はあんまり切り替えてくれない。
自分の環境だと大体caringになる。

立ち絵はDiffRepromっていう差分画像を生成するA1111拡張がこの用途に適してると思う。
変えたい領域をプロンプト(表情なら目・眉・顔)を指定するとその領域を検知して差分画像を生成してくれる。
背景透過はtransparent-backgroundでフォルダごと投げれば一括で処理してくれてます。
0517名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/18(木) 05:56:29.74ID:XiQ9ntNl0
尻タブで使う画像の解像度ってトークン数に影響するの?
koboldだと解像度が影響するってどこかのモデルに書いてあったんだけど尻タブはどうなのか
0518名無しさん@ピンキー (ワッチョイ 0780-urh9)2024/07/18(木) 10:13:58.56ID:5V/aR5gj0
マルチモーダルで使う画像の話なら、バックエンドとフロントエンドに関して理解してない部分があるんとちゃうか?
尻タブはマルチモーダルとは関係なく、立ち絵や背景にも画像使えるがそっちの話なら関係ないで
0519名無しさん@ピンキー (ワッチョイ 0a8e-ZeM8)2024/07/18(木) 10:23:44.94ID:???0
>>517
モデルに読み込ませる画像という意味ならそりゃ大きいほどトークン食うでしょ
Sillytavernで表示させる画像という意味ならただのUIの話だからトークンとか関係ないぞ
0520名無しさん@ピンキー (ワッチョイ 8e21-4dff)2024/07/18(木) 10:54:38.63ID:???0
>>508
英文じゃないと感情判定ができないっぽい
Translate text to English before classificationにチェックを入れると
APIで自動翻訳させた英文を通すようになるから日本語モデルでも表情出るはず
0523名無しさん@ピンキー (ワッチョイ e321-daXG)2024/07/18(木) 15:13:31.34ID:7oQKjOiW0
規制の少なさ
Command R plus>>>>>Claude>>GPT4>>>>>Gemini だな
ところでグーグルのvertex AIでCommand R plusとかのファインチューニングってできるのかね?最近存在知ったからやれることよく分かってないが
0526名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/19(金) 09:05:44.48ID:???0
>>518-519
あーなるほどそういうことか
画像を読み込んでプロンプトを出力させるようなモデルだと画像の解像度とかが問題になる場合があるわけね
尻タブの立ち絵とかアイコンの解像度をどうしようか考えてただけだから
気にせずデカい画像使うわ
0532名無しさん@ピンキー (ワッチョイ e387-aXFj)2024/07/19(金) 17:11:28.37ID:SnWdQ7Z20
Mistral NeMoってのが出たけどどんな感じだろ
0533名無しさん@ピンキー (ワッチョイ 6a0c-urh9)2024/07/19(金) 18:16:14.54ID:T7ONqz8t0
Mistral-Nemo試したいんだけどkoboldでもollamaでも動かないんだよなあ
0535名無しさん@ピンキー (ワッチョイ 6b32-Ru/f)2024/07/19(金) 23:11:39.31ID:???0
pfnet/Llama3-Preferred-MedSwallow-70B

llama3 swallowに、医学知識学習させたモデルで、あまり期待してなかったけど、
なんか、いいぞこれ
llama3ともswallowとも違う 普通にエロいw(脱獄不要)
文字欠け等の気になる点はあるけど、(量子化のせいか?)なんか、ベクトルが違うんだわ

まあ、最近のllama3-swallowにがっかりした分、よけいに出来が良く見えるんだが・・・
mmnga氏が量子化出してくれてるから、すぐ試せるで。ワイはQ5K_Mで試した。
0536名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/20(土) 08:51:19.45ID:???0
いい加減VRAM64GBくらい積んだGPUどっか出してくれないとなぁ
AMDはどうせ業務用作ってないんだからNvidiaに嫌がらせする意味でもそういうの出してくれよ
0537名無しさん@ピンキー (ワッチョイ bb5a-XX+G)2024/07/20(土) 11:46:43.78ID:???0
AIバブル弾けない限り無理
一応AMDは次世代APUはLPDDRXを内蔵多チャネル接続して広帯域にしたやつを
64だか128ぐらいまでは積むよみたいな事言ってる
0538名無しさん@ピンキー (ワッチョイ 2b76-Ydgy)2024/07/20(土) 11:48:56.81ID:a9PC+EpH0
AMDはソフトウェア周りがNVIDIAと比べて弱すぎて話にならん
0539名無しさん@ピンキー (ワッチョイ bb5a-XX+G)2024/07/20(土) 11:52:55.96ID:???0
rocmがやる気なさすぎてnvidiaが独禁扱いされないように公開するやつのおこぼれ食ったりとか
ライセンス違反上等の暗黒パワーのZLUDA使う現状が情けない
0541名無しさん@ピンキー (ワッチョイ 2b6f-VXyX)2024/07/20(土) 13:44:52.12ID:???0
VRAM後載せは期待しない方がいい
高速なメモリほど後載せできないから、後載せできるシステムは帯域が狭くなる
推論は帯域が大事なので遅いメモリを後載せできても嬉しくない
0542名無しさん@ピンキー (ワッチョイ 2be5-3SVq)2024/07/20(土) 16:16:00.68ID:???0
うえの方でだれか言ってた普通の時は普通の会話で、突然エロくなってまた普通に戻るみたいなの、
cohereのcommand-r-plusで普通にできるけど、もう解決ずみかな
プロンプトにほんの少しだけエロの設定が必要だけど
0548名無しさん@ピンキー (JP 0Hdf-3SVq)2024/07/20(土) 20:11:55.17ID:Wfa8J/rBH
5090でcommand-r-plus乗せられるようになるだろか(´・ω・`)
0551名無しさん@ピンキー (ワッチョイ 4b3d-TapC)2024/07/20(土) 22:33:20.41ID:TXaeG/Gy0
日本人が多く使ってるのかな?
高レベルのエロ文章目当ての変態が多そうだが
そういや日本語特化モデルのカラクリての最近知ったけどお試し使用できる場所ないから性能謎だな
0552名無しさん@ピンキー (ワッチョイ 2be5-3SVq)2024/07/20(土) 22:42:49.76ID:???0
542だけどapiの話ね。語弊があったようですみません
ちなみに何か月か前に登録してからまだトライアルのままだな(最初に5ドル分くらいもらえる)
結構、使ったのに。
0557名無しさん@ピンキー (ワッチョイ 4b7c-fado)2024/07/21(日) 02:17:50.83ID:n5P3y1pp0
>>548
ローカルで動作させる事の有無はおいといて、command-R+は実質mac一択
PCだとバス幅(PC64bit。mac512bit)やアクセスチャンネル数(2-4ch、mac 8ch)が
少なすぎるし改善の見込みもない(ATXとDDRじゃ無理)
AppleはMにした時ここに大幅に手をいれた
その代わりRAMの交換とかできなくなった
ただこれはインテル時代もそうだったからユーザーは慣れてるのかも
0558名無しさん@ピンキー (ワッチョイ 4b63-G/Qc)2024/07/21(日) 05:54:03.04ID:nICSglqJ0
不健全な用途です!!!
0561名無しさん@ピンキー (ワッチョイ 4b8b-V2rD)2024/07/21(日) 11:23:53.79ID:yxK3IHYk0
>>548
5090を1枚買う価格(40万?)で
4060Tiか3090の中古を複数枚揃えたらいける
0567名無しさん@ピンキー (ワッチョイ bba0-TapC)2024/07/21(日) 16:58:08.56ID:9WdbabI50
>>566
スゲー 遅くても動かせてるのがすごい
0569名無しさん@ピンキー (ワッチョイ 4b86-40Y5)2024/07/21(日) 17:52:16.47ID:BtuxjxIZ0
昨日初めて導入したけどまだAIのべりすとより使いこなせへんわ
Uのスレがちょうど消えとって探すの苦労したわ
0573名無しさん@ピンキー (ワッチョイ 4b58-fado)2024/07/22(月) 14:15:08.37ID:/3lGviXt0
HBMはDDRの5〜20倍くらい転送速度が稼げる
LLMはとにかくメモリーの速度を要求する
mac(max以上)はDDRであってもコントローラー2倍積んでる特別仕様
ただHBMは物理的にローハンマー攻撃に弱いので実行用のメモリーとして使いづらい
マルチCPUでLLM動作させるとCPUが割と暇になってしまう
これはメモリーの出し入れ待ちな為
0575名無しさん@ピンキー (ワッチョイ 5f74-1Aj4)2024/07/22(月) 20:08:28.50ID:???0
普通にGDDRでいいから48GBの4090とかでてくれたらねぇ・・・
4090にモデル収まれば20token/sとか出るし
実用上10token/sも出れば目で追えないくらい早いだろうから性能的にはもう十分なんだよな

まぁそれが6000Adaですって話なんかも知らんけど
なお値段
0577名無しさん@ピンキー (ワッチョイ dfc5-G/Qc)2024/07/22(月) 23:13:55.05ID:LhChVRuW0
llama.cppがMistral-Nemoに対応したからちょっと使ってみたけど表現規制とかはなさそうだね
というかちょっと口説いたら銃の作り方も教えてくれるから論理観ガバガバかも?
0580名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/23(火) 13:50:24.56ID:???0
Claude3.5 sonnetって70Bであの性能なんだよな
そのうちローカル実行可能なモデルがsonnetの性能に追い付き追い越すようになったら
小説の世界でも人間は駆逐されるね
0581名無しさん@ピンキー (ワッチョイ abf8-32+k)2024/07/23(火) 14:12:27.94ID:B0KOMJMy0
ローカルである必要は?
0586名無しさん@ピンキー (ワッチョイ 5f30-XTc+)2024/07/23(火) 15:49:08.64ID:hb4CmLgU0
3.5 sonnetが70Bってどこ情報なん
0587名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/23(火) 16:23:33.85ID:???0
APIはむしろ安くないか
ビジネス用途ならGPT-4oとか安すぎるくらいだ
ローカル使いたいのは検閲とかされたくないしNSFWなんでもアリなチャットしたいってのが大きい
0589名無しさん@ピンキー (ワッチョイ 4b54-35Um)2024/07/23(火) 17:42:33.69ID:???0
少なくとも日本の法律じゃエロ文章で逮捕されることはない
たとえそれがペドロリでも(文章には児ポ判定無し)
できることはせいぜいBANくらいだけど、openaiもanthroも返金されるので、banされたところで特に痛くもない
犯罪系や自殺系は知らんが
0590名無しさん@ピンキー (ワッチョイ 0bc0-s/UN)2024/07/23(火) 19:59:50.18ID:???0
ChatGPTで〜のスレとか見てるとようあんな性癖全部盛りのプロンプトを検閲されたり学習されたり可能性あるよそさまのサーバーにしこたま送りつけるよなと思ってしまうわ
ある意味男気あふれてて感心する
0593名無しさん@ピンキー (ワッチョイ bb87-3SVq)2024/07/23(火) 22:18:16.97ID:WTarfT0L0
Mistral-Nemo-InstructをQ4_K_Mに量子化してみたけどけっこう賢くて良い感じだわ
Q4だしさすがに精度は低いけど、3万字くらいの長文読ませても壊れないでちゃんと返答してくれるし
そこからキャラなりきりもできるのはほんと進歩を感じる
0594名無しさん@ピンキー (ワッチョイ 5f1e-G/Qc)2024/07/24(水) 00:45:09.02ID:v0jtOIDf0
赤ちゃん質問で申し訳ない
SillyTavernでclaude3 APIに接続する方法ってどこかに載っとる?
調べても英語ばっかりだし翻訳してもよくわからん
0596名無しさん@ピンキー (ワッチョイ 6f69-G/Qc)2024/07/24(水) 02:31:24.98ID:89UGJXd20
APIキー既に取得済みって前提になるが
https://imgur.com/a/QsCkPSG
この一番上のAPIでChat Compilation選ぶとChat Compilation SourceからClaude選べんか?
あかんか?
0598名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/24(水) 05:55:27.51ID:???0
>>597
poeとかはわざと緩くしてるだけだよ
サービス元によって同じモデルでも明らかに申し訳される度合いが違う
そもそも入力そのものをAIでチェック出来るから本気で検閲されたら全部アウトになる
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況