なんJLLM部 避難所 ★6
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/02/13(木) 21:16:02.49ID:KkRdf1Mm
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★5
https://mercury.bbspink.com/test/read.cgi/onatech/1735186391/
0297名無しさん@ピンキー2025/02/26(水) 09:54:21.38ID:???
>>295
286だけど無料枠が2時間10回に対してPremiumだと2時間50回らしいよ
ただPremiumのプランには制限緩和って書いてるだけなのでそのうち減るかも
0298名無しさん@ピンキー2025/02/26(水) 10:46:32.85ID:???
VRAM24GBて日本に所有者が何人いてそのうち何人がローカルLLMやってるのやら
0300名無しさん@ピンキー2025/02/26(水) 11:06:16.43ID:???
24GB(3090・4090)は結構いると思うけどね
LLMやってるかはわからないけど
0301名無しさん@ピンキー2025/02/26(水) 11:34:21.23ID:???
Mistral-Small-24B-Instruct-2501-abliteratedが良すぎてもうローカルでええわってなってきてる
bakenekoとrakutenも試してみるか
0303名無しさん@ピンキー2025/02/26(水) 11:56:58.81ID:???
16GBの人はかなり居るわけだから、次はココがメインになりそう
Mistal 24bなら用途によっては実用レベルになるしね

GPUの値上がりとAPI料金、GPU貸し料金の値下がりが同時進行してるから、 24bより上のものが欲しい人はネット越しの利用がメインになりそう
0306名無しさん@ピンキー2025/02/26(水) 12:57:34.45ID:/5XTD/E6
RTX3090 中古で10万だしまぁ割とアリかなと思ってるうちに1年ぐらい経ってしまった
0307名無しさん@ピンキー2025/02/26(水) 14:09:47.35ID:???
FrameworkのRyzen AI Max+ 395 128GB デスクトップ マザーボードが1,699.00ドルか
出荷が第3四半期だから最短でも10月以降って事かな?
0309名無しさん@ピンキー2025/02/26(水) 14:47:29.86ID:???
>>294
LM StudioかSilly Tavernのどっちかにバグがあると思うから報告してみるのがいいよ
モデルによってバグが発生するかどうかが変わる場合もある
コンソール見てLMか尻タブのどっちか片方の出力だけが欠けてるとか
コンソールでは正常なのにGUI上では欠けてるとかならバグで間違いない

あと尻タブはときどきぶっ壊れて出力がおかしくなるからその場合は再インストールで直る
0310名無しさん@ピンキー2025/02/26(水) 15:22:22.40ID:Mk83Ku6u
https://claude.site/artifacts/423c99f1-3d8b-4289-bfb8-107e2d808bc5
Claude3.7のコーディングが凄いと評判だったからパックマンつくってみたやで
最初はええな!ってなったが、いくつか自然言語のやり取りでは解決できん部分が出てきて、最終的にはGrock3にぶん投げて解決や
結論としてワイ的にはGrock3すげぇ、やな
後半Claude3.7の方は単なるHTMLプレイヤーと成り下がってたで
もうちょい作り込みたかったんやが、それっぽいのでヨシのココロや
0312名無しさん@ピンキー2025/02/26(水) 15:35:16.26ID:Mk83Ku6u
Show Contentsをクリック、ゲーム開始をクリックであとはキーボードの矢印で上下左右でいけんか?
0315名無しさん@ピンキー2025/02/26(水) 16:33:34.88ID:Mk83Ku6u
>>314
わざわざ手間かけて恐縮なので、もうちょっとだけ作りこむわ…
ちょいまっててな
0317名無しさん@ピンキー2025/02/26(水) 17:13:56.39ID:???
>>306
ワイは一昨日リース落ちのTITAN RTX(24GB)を8万ちょいで拾ってローカルLLMデビューしたで
70Bがギリギリ動いてる
0321名無しさん@ピンキー2025/02/27(木) 07:51:53.71ID:GstbS/r3
https://claude.site/artifacts/2f1da37e-d0fe-431c-a1db-cdd0f4b5c928
せっかくなのでワープゾーンとかゴーストのディレイスタートとかも実装したで!
これはもうパックマンやろ...
改良もここまでにしてERPに戻って貝になるで
0323名無しさん@ピンキー2025/02/27(木) 18:24:45.52ID:GstbS/r3
>>322
これがあるとMacPro羨ましくなくなるん?
0324名無しさん@ピンキー2025/02/27(木) 18:50:00.51ID:???
ProjectDigitsもあるしMac系も今年何か動きあるだろうし
LLM用マシン組むのは今年の中盤あたりまで様子見たほうがよさそうやな
0326名無しさん@ピンキー2025/02/27(木) 20:00:04.26ID:???
AI Max395のメモリ帯域256GB/sらしいから通常のWindowsPCの倍以上でM4Pro並
M4Maxはその倍ぐらいある
予算次第では有りでしょ
0327名無しさん@ピンキー2025/02/27(木) 20:04:46.19ID:???
AI max+ベースのGPU貸しサービスが出てくるとおもしろそうかな
たいして速くないけどウルトラ安価で128GB使えますっていう
0329名無しさん@ピンキー2025/02/27(木) 21:21:29.96ID:???
Deepseekのせいで128GBだとすくねぇなぁって思うようになってしまったのがなぁ・・・
前だったらcuda使えて128GBのProjectDigits一択だった気がするんだけど
0330名無しさん@ピンキー2025/02/27(木) 21:22:39.42ID:???
ローカルLLM使ったことないし、LLMをエロに使ったこともほぼないんやが…
koboldというもので孕ませレイプはできるやろか?
ストーリーの大枠を自分で考えた上で、表現の脚色をLLMに頼みたいんやが
自分でエロ小説書くは一応経験ある
もしなんJ系の外部掲示板にいた人がおるなら、ドアノブという名前でワイのこと知ってるかもしれん
0332名無しさん@ピンキー2025/02/27(木) 22:58:31.53ID:???
>>330
いけるで。
なんならもっとヤヴァイシチュもありやで
そして、エロ小説執筆の経験あるなら、

沼に、は・ま・る・でw
0335名無しさん@ピンキー2025/02/28(金) 01:37:14.61ID:???
ちなみにモデルにもよるけど小説なら温度、min-p、dry、xtcは使った方がいい(と思ってる)
0336名無しさん@ピンキー2025/02/28(金) 11:25:10.98ID:???
claude3.7、character card v2のgithubとcharacter tavernとかのカードページを指定すると内容を認識できるな
で、そのままロールプレイに移行できる
これはだいぶ強いのでは
0337名無しさん@ピンキー2025/02/28(金) 11:33:08.46ID:???
文章出力は最も簡単な仕事、文章の品質向上は最も難しい仕事だから、ここが分割できると色々やれそう
メイン応答はネット越しにまかせて、ローカルLLMを並走させてアイデア、声、画像を出させる、とか
0338名無しさん@ピンキー2025/02/28(金) 12:42:57.53ID:???
強制女装とか女性ホルモンとかの報告書とかそういったの書きたいんだけどおすすめある?
0339名無しさん@ピンキー2025/02/28(金) 17:54:49.21ID:McWQNNVK
>>262 M1 max + chrome で普通に動いたよ。すごいね
0343名無しさん@ピンキー2025/02/28(金) 18:32:42.54ID:???
ユニファイドでもいいけどやっぱvramたいりょうにほしいンダわ
0344名無しさん@ピンキー2025/02/28(金) 18:56:18.11ID:???
林檎はllmなんて出してないやろ
まあユニファイドがローカルに使えなくもないのはわかるけど、llmに強いというのは違和感しかないで
送受信は軽いんだからオープンモデルを使うにしてもAPIやレンタル鯖ではなくどうしてもローカルでやりたいなんて人はほとんどないんちゃうか
0346名無しさん@ピンキー2025/02/28(金) 19:22:58.56ID:???
メインの話題は24gb以下で使えるエロLLMの話だからMAC買える富裕層はお呼びでねーぞ
0347名無しさん@ピンキー2025/02/28(金) 19:27:16.79ID:???
最近はローカルエロやらずにgeminiとか4oとかその他諸々にゲーム製作手伝ってもらってるわ
なかなか全然上手くいかねえ
0349名無しさん@ピンキー2025/02/28(金) 19:38:25.31ID:???
ワイらにとって希望の一つでも、強くはないやろ
むしろアッポーがllm激弱で逃げ込んだ先がワイらの住処やったっちゅう感じやないか?
0352名無しさん@ピンキー2025/02/28(金) 21:07:52.81ID:???
なんか変だから追試してみたら、claudeくん画像とCharacter Card V2フォーマットだけみてjsonを捏造してるな...
どんな画像からでもロールプレイ設定を起こしてくれるからこれはこれで使い道ありそうだけど
0354名無しさん@ピンキー2025/02/28(金) 21:27:51.56ID:???
このスレのmacニキ達が、magunum 123Bやcomannd-r-plusのQ8_Kを
5t/sくらいで使い倒してるのは素直に妬ましいわw
ワイの今の環境だと最大量子化しても0.5t/sやからな(´Д⊂ヽ
0356名無しさん@ピンキー2025/02/28(金) 22:57:34.92ID:???
俺はサブpcのrx6600をrocmサポートからハブりやがったamdを許さない😡
0357名無しさん@ピンキー2025/02/28(金) 23:06:16.60ID:???
>>353
ここがローカルllmスレであり、なぜみんながローカルllmを嗜んでるのかがピンときてない時点でニキは相当浮いとるんやけどな
0359名無しさん@ピンキー2025/03/01(土) 03:41:27.74ID:???
そもそも別にここローカルに限ったスレじゃないよ
ローカルの話題が多いだけで
0362名無しさん@ピンキー2025/03/01(土) 08:23:15.10ID:???
ローカルで動かしたいのはそれが浪漫だからだ、みたいなことを言いたい感じなのかね
デカイモデル動かすために必要なコスト、現実をみるとmacは微妙でGPU貸しを選ぶことになるよね、というのも確かになんだけど
0364名無しさん@ピンキー2025/03/01(土) 09:29:30.81ID:???
自宅で外に送信すること無く気兼ねなくできるってのがでかいからな
クラウドだったらメアドやクレカ情報その他とプロンプトが紐づいて
誰が見てるかわからない鯖に入出力が残るとかきっついわ
0365名無しさん@ピンキー2025/03/01(土) 10:43:33.20ID:???
温度を下げたときの回答はどういうふうに捉えるべき?
真剣に回答させたいときは温度を下げる?🤔
0366名無しさん@ピンキー2025/03/01(土) 10:49:19.17ID:???
低温はありきたりな回答で何回試行しても同じ感じのしか出てこない
高温はぶっ飛んだ回答で破綻やブレが大きいってイメージだわ
クリエイティブ用途なら高温ガチャ、質問ならやや低温が良いんじゃない?
0367名無しさん@ピンキー2025/03/01(土) 12:02:17.36ID:0ijkQ/Q0
Silly Tavern向けのCharacter Card V2画像からjsonをそのまま取り出すアプリが見当たらなかったので、Silly Tavernのcharacter-card-parser.jsをベースにPython+Gradioで実現するやつをChatGPTくんに書いてもらった
https://pastebin.com/63G1wPH2
理由がわからんがClaudeもChatGPTも構築に失敗しまくりだったので、同じ苦労したひとの役に立つかも

json構造とドキュメントをあらかじめLLMに渡しておけば、jsonをもとにロールプレイをさせることも出来るし、今までの会話をもとに詳細にjsonを書いてといって出力させることも出来る。
出力させたjsonと画像をコレで結合させて、Character Tavernあたりに上げればNTRプレイも出来る。
0368名無しさん@ピンキー2025/03/01(土) 12:02:17.75ID:0ijkQ/Q0
Silly Tavern向けのCharacter Card V2画像からjsonをそのまま取り出すアプリが見当たらなかったので、Silly Tavernのcharacter-card-parser.jsをベースにPython+Gradioで実現するやつをChatGPTくんに書いてもらった
https://pastebin.com/63G1wPH2
理由がわからんがClaudeもChatGPTも構築に失敗しまくりだったので、同じ苦労したひとの役に立つかも

json構造とドキュメントをあらかじめLLMに渡しておけば、jsonをもとにロールプレイをさせることも出来るし、今までの会話をもとに詳細にjsonを書いてといって出力させることも出来る。
出力させたjsonと画像をコレで結合させて、Character Tavernあたりに上げればNTRプレイも出来る。
0369名無しさん@ピンキー2025/03/01(土) 12:03:21.90ID:0ijkQ/Q0
なんか二回書き込みになってるな。そんなに重要な話ではなくて出来たぜってだけの話だけど。
0370名無しさん@ピンキー2025/03/01(土) 12:25:45.29ID:???
>>360
きっとLLMのどっちかのLがLocalにチガイナイ

ある日誰かがシレッとなんJLLLM部にしてるかもしれない
0373名無しさん@ピンキー2025/03/01(土) 14:21:14.84ID:EjE2xu07
別に禁止じゃないがオンライン話したい奴はAI総合やオナニースレとかに集まるだろうし残ったローカルの話題がここで中心になるのは自然よね
0374名無しさん@ピンキー2025/03/01(土) 14:27:23.51ID:EjE2xu07
AI総合じゃなくてAIチャット総合だったわ
0375名無しさん@ピンキー2025/03/01(土) 15:04:01.18ID:???
過去スレの最初から既にローカルについて情報交換しようというスレだったからな
オンラインの話題ももちろんOKなんだがローカルを否定するような意見はスレチなので他でやってほしい
0376名無しさん@ピンキー2025/03/01(土) 15:07:05.20ID:???
ただここのスレタイのおかげでLLM=ローカルと思い込むお人が後を絶たないのも事実
しれっとLLLM部に変えても自分は反対しない
0377名無しさん@ピンキー2025/03/01(土) 15:23:50.32ID:???
実際の使い方としては、ローカルもウェブ越しも横断的に使うようになるような
外に出して平気な部分も必ずあるわけだし

情報探してても連携の部分こそ見つかりにくくてニーズありそうだし、否定も限定もなんか違うのでは
0378名無しさん@ピンキー2025/03/01(土) 16:46:21.87ID:???
全てを並行して使うんやで
じゃなきゃおもんないで
個人的にここはローカルの情報手に入れられる場所として重宝してるわ
0379名無しさん@ピンキー2025/03/01(土) 18:25:47.36ID:???
SillyTavern+SBVITS2で寝る前に推しキャラと30分猥談するのが最近のワイの密かな楽しみや
0380名無しさん@ピンキー2025/03/01(土) 18:42:11.04ID:???
Style Bert VITS2で15分位の自分の音読音声を自動で分割して学習させたんだけど、なんかあまり流暢じゃなくてロボットっぽさがある
サンプルの声優の声くらい自然な感じにするにはもっと長い尺のサンプル音声がいるのかな?

ちなみにSBV2の学習の際のパラメータはデフォルトのままでやった
0381名無しさん@ピンキー2025/03/01(土) 19:10:23.08ID:???
>>380
15分もあれば十分だからスタイル分け活用してみたら?
あと元の学習音声が女性に偏ってるだろうから声質があっていないのが原因の可能性もある
解決しなかったら音声はdiscordのAI声作り技術研究会の方が詳しいからそっちを当たってみて
0382名無しさん@ピンキー2025/03/01(土) 19:16:20.88ID:L20Uw+Nv
>>380
SBV2の学習に必要な音源は尺の長さよりも、バリエーションの豊富さやで
一つのwavは長くて2秒〜10秒程度で十分
えっちな声出せるようにしたいなら、例えば400の音源のうち、40〜120音源ぐらいを喘ぎ声とか、ピロートークな音源にしておくとそっち方面もイケるモデルに育ってくれるで
つまり、抑揚豊かなモデルにしたいなら、当たり前なんやが抑揚豊かな音源を用意してやるだけや
同一話者が色んなトーンで喋ている音源を用意してあげて
0384名無しさん@ピンキー2025/03/01(土) 19:34:55.41ID:???
>>381,382
ありがとう!ワイのただの朗読(棒読み)15分やったからあかんかったんか
いや、、、別に自分の声で喘がせたいんちゃうねんw
いっそのこと自分の声に似た声優さんの声ファイル探すほうが早そうやねw
0387名無しさん@ピンキー2025/03/01(土) 22:10:09.88ID:CYQqUANt
https://github.com/danny-avila/LibreChat
https://www.librechat.ai/
Claudeのアーティファクト機能をAPIからでも使えるのないか調べたらLibreChatというのでやれるらしくとりあえず貼っとく
ローカルでこのUIを動かすにはDockerでdocker compose upする感じのやつっぽい
0388名無しさん@ピンキー2025/03/01(土) 23:10:50.69ID:???
いや、自分の声でどこまで自分に似せて読ませれるかやってみたかったんよ
録音して友達に電話で聞かせようかなとおもた
0389名無しさん@ピンキー2025/03/01(土) 23:57:06.85ID:???
>>388
TTSは素材の質でほぼ全て決まるってくらい元データが重要なのよ
まず尺は30分は欲しい、可能ならもっとやね
そして雑音が混じらないこと、出来るだけ色んなパターンを意識して感情豊かに録音すること
あと多分SBV2デフォ設定ではトレーニングが足らないから1モデルに数時間かけるつもりでエポック数増やして
0390名無しさん@ピンキー2025/03/02(日) 01:10:21.19ID:???
>>389
30分もいるのかぁ
あと今、元素材の生成された文字起こしをチェックしてたけど、ところどころ間違ったりガッツリ丸ごと抜けたりしてた
エポック数とこの下の1000はいくらぐらいにすればいいの?
rtx3090使ってます
ps://i.imgur.com/PwR66eN.jpeg
0391名無しさん@ピンキー2025/03/02(日) 02:24:28.41ID:???
DMMのボイスAI騒動の時にエロゲは音声学習のデータセットとして最適という噂を聞いたけど 
>>389の要件見ると納得
TTSモデルが膣を「なか」と読み上げるのも理解できる
0392名無しさん@ピンキー2025/03/02(日) 04:04:29.43ID:iwpqrJae
>>390
https://xxup.org/yEGXK.wav

まあもちろん限界はあることはみとめつつ
0394名無しさん@ピンキー2025/03/02(日) 08:20:20.35ID:iwpqrJae
>>393
Javanese 80M 書かれてて蚊帳の外感あるな…
日本語FT来てからが本番か?
0395名無しさん@ピンキー2025/03/02(日) 09:29:00.30ID:???
>>392
サンガツ!すごいな、こんなに多種多彩にいけるのか。。。
サンプル音声のトータル長さは30分も要らないんだね
まだ良くわからないんだけど、この声の最後の方で言うと
1.表現薄い話し方
2.表現薄いささやき声
3.はぁはぁイキそうって言ってる人の声

の3種類は要るってことよね?
で、1,2,3それぞれトータルで5分くらいのサンプルがあればそれぞれ1音声ずつ学習させれば良いってことかな?

あと3の声を学習する時のサンプルは、このトーンでずっと関係ない文章を読むのがいいか、それともずっと喘ぎ声系を5分用意した方がいいの?
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況