なんJLLM部 避難所 ★5
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/12/26(木) 13:13:11.15ID:Vhp+tTX0
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/
0179名無しさん@ピンキー2025/01/07(火) 14:28:58.03ID:???
$3,000-は性能の割に格安だね。mac studioが霞む
どうした革ジャン、突然神になったのか?

ただリンクがNVLink-C2Cということは2台までだよな
TB5とか積んでるんだろうか
nvidianews.nvidia.com/news/nvidia-puts-grace-blackwell-on-every-desk-and-at-every-ai-developers-fingertips
0181名無しさん@ピンキー2025/01/07(火) 14:42:07.23ID:???
Digitsの方は消費電力も少ないから自宅のLLMサーバー用途にはこっちの方がよさそうな気がしてきたな
CUDA使えるのも強い
0183名無しさん@ピンキー2025/01/07(火) 14:49:24.79ID:???
digitsってアーキテクチャarmなのか
帯域がどれくらいなのかも不明だな
0184名無しさん@ピンキー2025/01/07(火) 14:55:57.57ID:???
なんだMac買おうと思ってたのにこんなの出されたら待つしかないな
0186名無しさん@ピンキー2025/01/07(火) 15:11:28.45ID:x7h8INFs
話が旨すぎる
放っておけば5090複数挿しする層に何故こんな餌を
0188名無しさん@ピンキー2025/01/07(火) 15:30:54.46ID:ydnuQo+m
ついに現実的な値段でまともな文章力のがファインチューニングされる時代が来たのか
70Bとかのは正直「頑張ってるね」レベルが否めなかったからなあ
0189名無しさん@ピンキー2025/01/07(火) 15:50:12.18ID:EQ8Hm/rG
待ちに待ったStrix Haloの発表の日や!デスクトップ向けメモリ128GB対応で一番安価そうなのは……AI Max PRO 385ってやつなんやな!夢が広がるンゴ!
とかやってたらNVIDIAのproject digits発表見て横転したわ
AI Max PRO 385搭載で128GBのマシンが10万以下とか格安で出るならそれはそれで夢があるけど、project digitsの期待値ちょっとヤバすぎるな
0190名無しさん@ピンキー2025/01/07(火) 16:10:14.84ID:???
ただ開発者向けだから買うのがちょっと面倒になりそうだな
0191名無しさん@ピンキー2025/01/07(火) 16:26:42.39ID:???
なんだこの期待値ぶち上げな情報は
先月今月でソシャゲに30万だったかぶち込んでしまったがもっと早く情報出してくれたら2台目のために温存してたまであるぞ・・・
0192名無しさん@ピンキー2025/01/07(火) 16:43:22.03ID:jeRA2EF9
128gbで3000ドルなら
64gbを1500ドルで出してくれんかなぁ・・・
0193名無しさん@ピンキー2025/01/07(火) 16:46:49.30ID:???
チップの演算速度はどのくらいなんだろう
4060くらいはあるんだろうか?
0195名無しさん@ピンキー2025/01/07(火) 17:23:34.48ID:ySI+aBRS
グラボなんて適当に数万だして差しときゃよかったのに
うおおお30万!!やすい!!
順応性高すぎる
0198名無しさん@ピンキー2025/01/07(火) 17:48:08.49ID:???
AIの生成速度ってメモリ帯域で決まるから5090のことなら間違いなく早くなるよ
project degitsはメモリ帯域わからんから何とも
0199名無しさん@ピンキー2025/01/07(火) 17:48:18.71ID:???
まだスペック完全には出てないと思うけれど、少なくともA6000よりは全体的に上で、A100の80GBとは互角かそれ以上になる・・・
かもしれないってChatGPTが言ってた
画像生成モデルの学習や生成も個人レベルではかなり上がるんじゃない?
俺もそっち方面含めてめちゃ期待してる
0200名無しさん@ピンキー2025/01/07(火) 17:57:18.56ID:???
ヤベえよ5090買おうとしてたのに
いや、VRゲームとかもやるからそっちはそっちで要るか
0201名無しさん@ピンキー2025/01/07(火) 17:57:37.25ID:???
と言うか128Gのメモリで最大200bってことは量子化前提なんかな?
4台くらい繋げられんのだろか
0204名無しさん@ピンキー2025/01/07(火) 18:15:01.05ID:ySI+aBRS
と思ったらGPUじゃなくて小型スパコンとかいう意味わからんデバイスのことか
こりゃ革ジャンががんばってくれたら数年もしないうちに個人用AIサーバーみたいなのを
家電買うぐらいのハードルで建てられるようになりそうだわ
0205名無しさん@ピンキー2025/01/07(火) 19:04:15.08ID:???
Project DIGITSってLPDDR5Xらしいしそんなに帯域大きくないんじゃないのか
0206名無しさん@ピンキー2025/01/07(火) 19:25:45.56ID:???
Project DIGITSほしいよおおおお
でもビグテックが買い占めて庶民には回ってこないんだろな…
0207名無しさん@ピンキー2025/01/07(火) 19:52:57.40ID:???
mediatekと組んで作ってるということはスマホベースなのかな
macと同じようなものを作りますということ?
0208名無しさん@ピンキー2025/01/07(火) 20:00:10.97ID:???
>>206
これは学生含む小規模開発者向けだからビッグテックが買い漁るジャンルのものじゃないよ
学校で一括導入したりはあるだろうけど
0211名無しさん@ピンキー2025/01/07(火) 20:51:11.44ID:???
もういっさいゲームとかしなくてLLMか画像と動画生成をローカルで遊ぶくらいしか用途が無いんだけど買うならRTXよりdigitsの方が良いかな
OSもlinuxベースなら画像生成も学習も問題なく出来るよな?
0212名無しさん@ピンキー2025/01/07(火) 23:07:05.94ID:???
ARM系だからセットアップが面倒(一部ライブラリを自前でコンパイルする必要があるとか)だけど
普及すればその問題も消えるだろうしVRAMが必要な推論用途なら大本命のデバイスやね
0213名無しさん@ピンキー2025/01/08(水) 00:37:04.22ID:???
>>212
ARM系とかlinuxも全く分からんけどGPTあたりに聞けばなんとかなりそうだな挑戦してみよう
0214名無しさん@ピンキー2025/01/08(水) 08:04:38.57ID:???
RTX50はFP4対応したけどRTX40以下とのGPU混載だとFP4の高速化の恩恵受けないのかな
0215名無しさん@ピンキー2025/01/08(水) 11:10:25.11ID:???
FP4対応ってTensorCoreやろ?
ワイは一度試しに動かしたことある程度なんやが個人で利用してる人おるんやろか
正直geforceではtensorcore削って安くしてほしいんやが
0216名無しさん@ピンキー2025/01/08(水) 11:35:30.72ID:???
Chat with RTXみたいにTenser Coreに最適化済みのモデルを動かすと速いよ、50xxだとfp4も使えてさらに速いよって話なのかな
fp4使えなくても最適化済みモデルの数が増えるとか最適化手法が一般化することで恩恵あるかもね
0217名無しさん@ピンキー2025/01/08(水) 11:47:46.33ID:???
最適化と言うかtensorrtはそのモデルを使う環境でモデル変換をする必要があるからめんどくさくてどうしても普及しない
nvidiaのはどうやってるか知らないけど、多分力技で全パターンの変換済みモデルを自前で用意してるんじゃないかと
多分一つのモデルに対して数十パターンは用意しないといけない
下手したら100以上かも
0218名無しさん@ピンキー2025/01/08(水) 12:16:06.57ID:???
5000シリーズも出そろったし、チャット系だと実は mac mini M4 24G 位の方がリーズナブルだったりするんだろうか。
0220名無しさん@ピンキー2025/01/08(水) 12:43:24.17ID:???
digitsの出力速度はどうなんだろう
メモリがDDR5なのが気になるところ
0221名無しさん@ピンキー2025/01/08(水) 12:51:08.28ID:???
vidiはvram増やさないで済む戦略で進めるようだし
メモリほしいならmac一択やな
0226名無しさん@ピンキー2025/01/08(水) 14:21:57.73ID:???
macはどう考えてもお高いだろ
m2ultraの値段から考えるとm4は128GBで200万ぐらいするんじゃないの
0227名無しさん@ピンキー2025/01/08(水) 14:32:15.35ID:???
digitsはCUDAのサポートが保証されてるのが一番でかい
ハード的にはラズパイくらいの難易度だが機種選定に手間をかけたくない研究機関は脳死でまとめ買いするだろうな

革ジャンにとっては慈善事業の類だろうがTCOで見たらコスパ高いよ
0228名無しさん@ピンキー2025/01/08(水) 14:50:46.72ID:???
そういえば、デスクトップマスコットx localLLMって無いもんなのかな

LLMの記憶力問題をマスコットプログラムで管理して、ゲームブック的なシナリオ. txtにプレイヤーとして挑んでほしい
で、仕事して家に帰ったら今日の冒険がテキストにまとまっててほしい
0231名無しさん@ピンキー2025/01/08(水) 20:40:54.41ID:???
Digital mate x LocalLLM、やばいですね
大手が一律でNSFWを禁止している理由がハッキリ分かる
0232名無しさん@ピンキー2025/01/08(水) 21:01:02.61ID:ogKKa3a1
>>231
どんな感じなの?
俺のチンポが興味津々なんだけど
0233名無しさん@ピンキー2025/01/08(水) 21:43:16.77ID:???
できることそのものは選択したキャラクターとLocalLLMでチャット出来るというだけだよ

パッケージとして完成していて、手軽に使える、手軽にカスタム出来る、調べ物なしでいきなり果実に手が届くというタイプの危険さ

沼に転げ落ちる予感というか...$3000か...
0234名無しさん@ピンキー2025/01/08(水) 21:42:58.42ID:???
できることそのものは選択したキャラクターとLocalLLMでチャット出来るというだけだよ

パッケージとして完成していて、手軽に使える、手軽にカスタム出来る、調べ物なしでいきなり果実に手が届くというタイプの危険さ

沼に転げ落ちる予感というか...$3000か...
0235名無しさん@ピンキー2025/01/08(水) 22:38:31.81ID:???
MMDモデル使えるんだっけ?
音声はさすがにSBV2は無理かな?
あとはVR化出来たらもうピースが揃っちゃうんだけどな
0236名無しさん@ピンキー2025/01/08(水) 23:44:31.21ID:???
伺かが人工知能だったらって妄想が現実になったみたいな感じか
すげーなかがくのちから
0237名無しさん@ピンキー2025/01/08(水) 23:48:21.17ID:???
ollamaいれてcreateしたらいけるのかな
chat用をいれなかったからかすごいユーザー発言自己主張しまくって読み上げてきて笑った
0238名無しさん@ピンキー2025/01/09(木) 05:32:48.15ID:???
ソフト側でollama apiを選択して、lightchatassistant経由で起動してたkoboldcppのポート番号をいれるだけでとりあえず動いたよ

ボイスの自然さ、表現力、声質カスタムが揃えばそれだけで無限に客が呼べるのでは
短時間の音声サンプルから声質をコピーしたものを作れてしまいますよ、というのは証明されていますし
ASMRも担当できますよ、とかね
0240名無しさん@ピンキー2025/01/09(木) 09:47:56.68ID:9/0GocA5
voxtaってVaM動かさないといけないんでしょ?
確か会話でTimelineとかを操作してセックスモーションとかを起動できたはずだけど
あれCPUの性能要求がえげつないんだよな
0241名無しさん@ピンキー2025/01/09(木) 14:33:24.90ID:???
本当だ
ollamaいれんでもkoboldcpp起動してポートうごかしたらいけたわ
0242名無しさん@ピンキー2025/01/09(木) 19:23:00.11ID:H5Fzr7G2
16GBグラボ環境で日本語ローカルLLMをNSFW小説目的で遊んでたのだが
ふとRocinante-12bを英語で使ってみたら大分性能に差があることに気が付いてしまった
他に英語向けのNSFW可能なモデルでおすすめのあったら教えてほしいわ
0244名無しさん@ピンキー2025/01/09(木) 20:34:42.94ID:???
digitalmateはollama apiを使う感じなのかな?バンドルで売ってるchatwifeは不要?
0245名無しさん@ピンキー2025/01/10(金) 00:22:33.69ID:???
いろんなサービス試してみたけどオープンLLM動かすならfeatherless.ai使うのがコスパ良さそうだ
0246名無しさん@ピンキー2025/01/10(金) 07:23:15.99ID:???
Digital Mate、色々触ってみたけどLLMチャットにキャラクター概念を挿入するためのソフトって感じだな
高度なことを追求するよりは理想のキャラデータを量産できる体勢を作ったほうが面白くなりそう
良い絵を一枚持ってきてL2Dで少し動かして口調サンプルからセリフを4oに作ってもらうとか

>244
chatwifeは別の会社が作ってる同系統のソフトというだけっぽい
0247名無しさん@ピンキー2025/01/10(金) 14:36:31.63ID:???
DigitalMateそのものは、俺はこれは別にいいやってなったけど、
今後何かちょっとした開発をこちら側でしたいってなった時に大事になってくるのはこの方向性だなとも思った

LLMの文章を画像出力させる!みたいなことしたい時も、
文章読ませて画像プロンプトそのものを出力させるより、「タグ」のプリセットを予め用意して適したのを選ばせた方が精度が高い

指向性を定める箱をちゃんと用意するのが大事なんやろなって感じ
0248名無しさん@ピンキー2025/01/10(金) 14:48:03.90ID:???
digitsのせいでm4ultraとstrixhaloへのモチベがダダ下がりしている
macの制限受けるUltra
おそらくAI以外のパフォは大した事ないdigits
いまいちAIへのやる気感じられないAMDのstrixhaloでそれぞれ欠点はあるんだけども
0249名無しさん@ピンキー2025/01/10(金) 15:02:28.82ID:???
digitsも感覚麻痺してるから3000ドルで安い!ってなるけどA401年ノンストップで借りる額と同じなんよな
使わないときは止めれば4、5年は使えるしそのぐらいたてばもっと安くて性能いいものが出てると考えると何とも
0250名無しさん@ピンキー2025/01/10(金) 15:05:40.32ID:???
サブスクは値上げの可能性が付きまとうから単純比較はまた悩ましい
0251名無しさん@ピンキー2025/01/10(金) 15:05:53.26ID:JUaa8XjM
koboldのアドベンチャーモードってtokenを大量消費する仕様があったりするの?
設定したコンテキストサイズの半分ぐらいで文章がおかしくなるんだけど

>>234
ほえー
ちょっと面白そうだね
MMDとかよく分からんけど
0252名無しさん@ピンキー2025/01/10(金) 15:59:58.72ID:yayCyjSt
digitsは高価だろうけど、ドッキングできるのもあって中古の需要は高いだろうし、売却すればそれなりの金額になるんじゃないかな(希望的観測)
……ってそうなってくるとdigitsのレンタルもできるようになってくるのかな?そういやsaladだったか、個人でGPUリソースの貸し借りするサービスあったような……
0253名無しさん@ピンキー2025/01/10(金) 16:10:28.87ID:nL7fDqcp
クラウドアレルギーだからプロデジちゃんでいいや
0254名無しさん@ピンキー2025/01/10(金) 16:28:35.20ID:???
digitsは開発者向けと言ってるから一般販売用の第二世代がすでに準備されてる可能性あるような
70bが動かせて10万円ですとか
0255名無しさん@ピンキー2025/01/10(金) 17:07:14.57ID:???
何にせよ販売経路も一般とは異なりそうだし5月に使用感のレビュー見るしかないな
帯域がどうだろうなあ
0257名無しさん@ピンキー2025/01/10(金) 18:37:51.51ID:???
もしかしてこのスレってクラウドサービスでオンデマンドスケベLLMしてるエンジニアの鑑がいるのか?
0258名無しさん@ピンキー2025/01/10(金) 18:51:57.08ID:KsFSGxqE
>>251
多分ユーザー側で入れる情報と別にアドベンチャーモード用のプリセットプロンプトも読んでるからそこでトークン消費してる
0259名無しさん@ピンキー2025/01/10(金) 19:27:05.39ID:???
>>256
チャット派のワイはこれで200Bが動かせるとしてもやっぱ応答速度が気になるんや
3000ドルやっす!とは思うけど冷静に考えると5090に9800x3D合わせても2500ドル以下で買えるしなあ…
小説派は全速力で飛び付け!とは思うで
0260名無しさん@ピンキー2025/01/10(金) 19:39:32.43ID:JUaa8XjM
>>258
ははあ、そういうことかいな
アドベンチャーモードは面白いけど半分も占有されるのは辛いもんやな
0261名無しさん@ピンキー2025/01/10(金) 20:21:38.37ID:???
推論速度は気になるところなんよな

公開されてるのはfp4が1pflopってことだけやねんけど、
そこからいろいろワイ独自に推測に推測を重ねて
最速で4070くらい、再遅で4070の半分くらい(3060くらい?)かなって気がしとる

4070の半分くらいやったとしても70bをおそらく5token/sくらいで動かせるので
結局ほしいんやが
0262名無しさん@ピンキー2025/01/10(金) 20:31:34.13ID:???
redditで画像に写ったメモリチップの比率から32bitチップでstrixhaloと大差ないって考察してる人はいたね
イメージ画像だろうし500は出るだろ派やappleみたいに128bitチップ専用に作ってもらって1T出るんじゃないか派もいたけど
0263名無しさん@ピンキー2025/01/10(金) 22:15:12.29ID:HAfSvJGq
>>260
ワイはGeminiが無料でコンテキスト大量だからそっちでアドベンチャーモードと同じ遊び方してる
NSFWも露骨なのは止まるけど、システムプロンプトにコンプライアンス最低でとか過激な表現は避けて婉曲的に描写することとか書くとエロいこと自体はしてくれるし
0264名無しさん@ピンキー2025/01/11(土) 00:52:20.95ID:uYI/25aT
>>257
クラウドにインスタンス建ててLLM置いてオレオレLLMサービスにAPI接続ってことか?
A40(48GB)でも$0.39/hrとかすっから24時間借りっぱなしとかになると月額数万とかになるだろ
どこにもホストしてないドマイナーモデル/俺だけのファインチューニングAIを使いたいんだあってケース以外割にあわん
0266名無しさん@ピンキー2025/01/11(土) 04:01:26.03ID:???
paperspaceって手もあるぞ
A100は期待できないがA6000ならまぁ混雑時間以外は大体使える
ただ、gradioない奴(SillyTavernとか)使おうとすると自力でgradioでラップするかバレたら垢停止の方法使うしかないけど・・・
0268名無しさん@ピンキー2025/01/11(土) 09:59:36.45ID:???
人間相手のチャットで長文派だと平気で10分とか20分とか待たされることもあったな
0270名無しさん@ピンキー2025/01/11(土) 11:16:58.90ID:OHT8Xdlg
尻タブでも設定したcontext長が16384なのに6000ぐらいで
文章にアルファベットや記号が混ざっておかしくなる

もしかしてこれは繰り返しペナルティとか温度とかの設定の問題か?
まあ設定を弄っても全然改善しないんだが
はあーん、マジで分からん
context長を長くしても全く生かせてない
0271名無しさん@ピンキー2025/01/11(土) 11:21:10.33ID:???
>>270
ファインチューニングモデル使っててベースモデルなら問題ない場合はファインチューニングでロングコンテキスト性能が劣化しちゃってるからどうしようもない
0272名無しさん@ピンキー2025/01/11(土) 11:57:23.74ID:OHT8Xdlg
>>271
前スレのwabisabi-v1なんだけどそういうことなのかな?
バージョンアップで8kから128kにコンテキスト長が伸びたことを謳っていたから大丈夫そうなんだけど
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/754
0273名無しさん@ピンキー2025/01/11(土) 12:22:17.51ID:???
>>272
ファインチューニングで使ったデータ以上の長さの文を送られるとAIが困惑して意味不明なこと言い始めちゃうんよ
モデル的に128kまで行けるから前の文章も覚えてはいるんだけどね
0274名無しさん@ピンキー2025/01/11(土) 12:59:19.45ID:???
10token/sか
追い付かなくなってくる速度だな
リアルタイムで音声チャット出来るようになるにはこれでも足らないんだろうな
0276名無しさん@ピンキー2025/01/11(土) 14:59:57.30ID:???
日本語のerpデータセットってhfに上がってないんかな
官能小説データは自力で集めて今手元に数GBくらいあるんやけど
0278名無しさん@ピンキー2025/01/11(土) 16:02:54.55ID:OHT8Xdlg
>>273>>275
16kまで行ける人がいるならモデルが原因ではないのか?
俺は8k以下でおかしくなるし

RTXのAI性能が上がるpytorchのパッチが来るらしい
https://x.com/_kaiinui/status/1877548551707689165

pytorchってどこで使ってるんだっけ?
0279名無しさん@ピンキー2025/01/11(土) 16:03:16.04ID:???
digitalmateこれツンツンした時のreactionとかにもLLM使ってくれたらいいのにな
あと一定時間話しかけないと向こうから話してくれたり
結局自分からアクション起こさないと駄目だから億劫になっちゃう
伺かみたいだったら常駐する意味もあるんだけどな
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況