なんJLLM部 避難所 ★5
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/12/26(木) 13:13:11.15ID:Vhp+tTX0
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/
0749名無しさん@ピンキー2025/02/03(月) 01:12:56.04ID:ZfxRvTiD
言うほどちょっとか?
0750名無しさん@ピンキー2025/02/03(月) 01:36:14.31ID:QGh+5M3a
赤ちゃんやけどllma.cppってのでDeepSeek動かせたわ。

32Bのやつは動かないと予想してたんだけど、4070tisでdeepseek-r1-qwen-2.5-32B-ablated-IQ4_XS.ggufが1分くらいで動いた
VRAM1.4GB余ってるからもうちょっとだけ重たいのも動かせるのかな…?
0751名無しさん@ピンキー2025/02/03(月) 02:37:48.42ID:csaf3F37
deepseekはすごいけど、何でnvidia株が下がったのか分からんな
openaiやmetaが下がるのは分かるけど
0753名無しさん@ピンキー2025/02/03(月) 02:47:21.70ID:???
>>748
候補にはなりそう
気分で出力変えるから色んなモデル紹介してくれるの助かる
0755名無しさん@ピンキー2025/02/03(月) 04:56:45.72ID:???
>>751
DeepSeekが本当に性能良かったとして
開発元の言う通り学習に大量のグラボいらなければこれからのトレンド変わってグラボが売れなくなるかも
嘘ならグラボ禁輸措置がちゃんと守られてないからnvidiaちゃんがお仕置きされるかもしれない
0756名無しさん@ピンキー2025/02/03(月) 06:57:07.59ID:???
短期的に下がるか上がるかなら100%下がる、じゃぁ売ろう程度の話じゃないの?
0757名無しさん@ピンキー2025/02/03(月) 08:34:42.92ID:???
沢山の人間が利確するタイミングを待ってた所に売る理由が出てきたから殺到しただけで特に大した話では無いよ
0758名無しさん@ピンキー2025/02/03(月) 09:07:01.24ID:ODSuqQo8
AMDがもっとAI面で頑張ってくれないと
deepseekみたいに結局nvidiaのグラボ使い続けるしかないんよ
AI性能高くてVRAM多くてサクサク動くAMDのグラボはよ
0759名無しさん@ピンキー2025/02/03(月) 09:11:24.62ID:???
AMDはどうせ勝てないと拗ねて手を抜いてた事への罰ゲーム中だからnvidiaがIntelみたいにやらかしたら本気出して弱い物いじめモードになるよ
0760名無しさん@ピンキー2025/02/03(月) 09:14:57.53ID:???
そもそも開発は大量のGPUがいらないとは言ってないような...安くできるとしか言ってない

新手法と671bクラスの巨大なモデルがあれば純粋な強化学習だけでトレーニングするだけでいい
=人の手で教える必要がないから安く速く出来るという話じゃないかな

低レベル言語(PTX)まで降りていってHWを直接叩けばより効率的に動かせる
という、そらそうだが天才で変態の奴らにしかできない魔法に近い話とごっちゃになってるような
0761名無しさん@ピンキー2025/02/03(月) 11:24:38.42ID:???
>>760
安くできるってのはその巨大モデルを作った時の話では?
蒸留モデルを安く作れてもさほどのインパクトは無いやん
0762名無しさん@ピンキー2025/02/03(月) 11:47:06.65ID:???
お前らがインテルを叩くからゲルシンガー辞めさせられたし。。。(´・ω・`)
0764名無しさん@ピンキー2025/02/03(月) 12:38:51.98ID:???
初報の段階では新手法と強化学習だけでOKというやり方を小型モデルにも適用してみたが上手くいかなかった、蒸留させることは出来たという話だったよ

素直に読むなら適切に設計された巨大モデルは強化学習から深い学びを得ることができる
aha moment(分かった!こういうことだな!って言い出す現象)が観測できたよという報告は深い学びをしているぞということ
蒸留うんぬんは小型モデルに直接深い学びをさせることは出来なかったが、学んだ結果を蒸留で移転させることは出来たということ
なのでは
0766名無しさん@ピンキー2025/02/03(月) 15:30:01.99ID:???
DeepSeekの蒸留モデルを頑張ってGPUで動かすより量子化したオリジナルモデルをCPUで動かしたほうがコスパいいかもしれないな
0767名無しさん@ピンキー2025/02/03(月) 16:21:04.07ID:???
PCI-e 5.0直結のMVNe SSDガン積みでDDR5並みの速度を確保するというパワープレイもあるらしい。
ほぼリードオンリーだからSSDの寿命も関係なく、この方向性が最適解になるかもしれん。

https://i.imgur.com/0lyqHVb.jpeg
0768名無しさん@ピンキー2025/02/03(月) 16:53:22.86ID:???
PICE用の拡張M2にボードに4枚刺しなのか
これで4t/sくらい出て丸ごと冷やせる水枕も揃うと面白くなりそう
0770名無しさん@ピンキー2025/02/03(月) 17:28:12.62ID:???
すいません教えて下さい。
LMStudioを使って音声ファイルから文字起こしする方法は有りませんかね?
ターミナル画面はとっつきにくて…
0771名無しさん@ピンキー2025/02/03(月) 17:37:39.61ID:???
>>767
LLMで重要なのってランダムリードの帯域とレイテンシなんかな?
それならZFSでRAID0するのがいいかもしれんな
0772名無しさん@ピンキー2025/02/03(月) 17:46:05.99ID:???
ワークステーション向けだが、RTX 6000 Blackwellは96GBのGDDR7だってさ 安定の100万越えだが
0774名無しさん@ピンキー2025/02/03(月) 17:48:04.31ID:???
>>770
LMstudioっていうか音声もマルチモーダルで対応してるようなLLMはないんじゃない
確かGoogleのAI studioが音声入力出来るから書き起こしてくれそうだけどローカルでやりたいならkotoba-whisperv2使って書き起こすのがベターだと思う
0777名無しさん@ピンキー2025/02/03(月) 17:52:09.14ID:???
32GBの5090が50万円前後なんだし格安じゃんdigits を2つ買えると考えたら悩むけど
0778名無しさん@ピンキー2025/02/03(月) 17:55:55.55ID:???
6000 ada 48GBでmsrp 6800$だしRTX 6000 Blackwellは最低でも9000$は取るから日本だと200万弱だろな 
それでもダイサイズ的にH100より性能出る場面もあるだろうしお買い得なのは間違いない
0780名無しさん@ピンキー2025/02/03(月) 18:03:21.94ID:???
>>763
4090+メモリ64GB環境だけど遊びには実用レベル
Content Length・GPUオフロード等設定にもよるけど10〜20sec/tokは出てる
このチャットではプラグインやキャラ設定ファイル読ませてるので、モデル単体ではこうならない
0781名無しさん@ピンキー2025/02/03(月) 18:03:32.41ID:???
100万以下で売ってるのはアカデミック以外で見たことないな
0784名無しさん@ピンキー2025/02/03(月) 19:27:27.20ID:???
>>737
どこまで書けばいいのかわからないけど
openwebuiで指示を入力したらpipelinesって機能でpython実行あとはほぼpython上でやる
pipelinesは上手くインストール出来なかったからdockerにインストールした
langchainでLMstudioのLLM読み込み、キャラ設定とかのドキュメントテキスト読み込み
SentenceTransformersでドキュメントからRAG構築して入力文から検索
入力と検索結果をLLMに渡して出力してuiで表示、ここまでが普通のLLMとRAGの実装

その後で入力と出力をLLMに渡して短い要約を生成させる
入力・出力・要約を対応させた状態でpython側で保持、必要なら何かしらの形式で保存
次以降は入力・検索結果・前回の出力・全ての要約を渡して生成
全ての要約と今回の入出力を渡して、要約を考慮しつつ今回の入出力を要約って指示する

これでコンテキスト4kでも12kぐらいは生成出来た、渡す要約の量とか工夫して伸ばしたり、逆に要約の質をあげたりで変わると思う
プロンプトとかの毎回渡すのが2kだと要約の残りが2kぐらい、そうだとしたら6kなら12kの2倍ぐらいは行けそう
要約の分は生成時間増えるけど短くしてるからそこまで負担にはならない感じ、LLMがちゃんと要約すればだけど
最終的には要約の要約とか、過去ログのRAG化は必要になるね
0785名無しさん@ピンキー2025/02/03(月) 21:41:50.74ID:???
赤ちゃん質問で恐縮だけど、近所のドフでQuadro RTX5000/16GBが手が出る値段で転がってたんだが、これをRTX3060/12GのPCにぶっさせばLLM用途に限れば28GB相当になるって認識でおk?
123Bとかは無理でもそれなりの恩恵はある感じ?
0786名無しさん@ピンキー2025/02/03(月) 21:49:19.51ID:???
device_map=”auto”にしとけば取り敢えず動くとは思うまぁまぁ遅くなるかもしれないけど
0787名無しさん@ピンキー2025/02/03(月) 21:53:43.95ID:???
コンテキスト長くできたり音声や画像等の他AIも一緒に起動できるから結構便利よ
速度は大して変わらんけどね
0788名無しさん@ピンキー2025/02/03(月) 22:21:51.97ID:???
>>784
なるほど、結構コンテキスト稼げるんだね
とても参考になったよ、ありがとう

>>785
VRAMに全部乗せられるようになるのが13Bから32B程度にはなるんじゃない
07907852025/02/03(月) 22:44:01.51ID:???
いろいろサンガツ!それなりの恩恵ありそうだから凸ってみるわ!
>>789
「業務用なので簡単な動作確認のみ。ジャンク扱い」物件でオクとかより相当安い感じだし、外観は綺麗だったのでハズレだったらパチで大負けしたとでも思うわw
07917912025/02/04(火) 02:26:40.70ID:oLWfW79u
初カキコ失礼します
海外ではSilly Tavernなどに使うキャラクターカードをDLできるサイトがありますが、日本にはそういったサイトや配布場所はないのでしょうか?
DLもしたいし配布もしたい...
0792名無しさん@ピンキー2025/02/04(火) 02:31:13.43ID:???
俺も昔調べたけれどないよ
普通に英語のカードをDLして日本語化してもいいし、口調だけ日本語にしてもいい
というか、シチュエーション系のカードはむしろ英語の方が指示を理解してくれるからいいまであるぞ
0793名無しさん@ピンキー2025/02/04(火) 03:44:33.39ID:???
「日本語ローカルLLM関連のメモWiki」さんとこに一応キャラクターカード掲示板があるけど、今見てきたらwiki主さんのサンプル1枚と誰かが1枚貼ってたぐらいかな。
逆に言うと今ならそのまま代表的な日本語Hubになりそうだから、妙に分散する前にあそこお借りしてしまっていいとは思うけど
0796名無しさん@ピンキー2025/02/04(火) 09:50:42.34ID:???
TextGenのmodelフォルダでgit cloneしてやればtransformerで動くようになるけど、なにか特殊なことをやろうとしてるモデルに見える
ドキュメントもないし未完成くさい
0797名無しさん@ピンキー2025/02/04(火) 10:44:49.90ID:???
>791
英語版作るのは一瞬で出来るから、Character Tavernあたりに間借りして日本語版と英語版を同時にULしとけばいいのでは
両方ある方が日本語圏のひとも英語圏のひとも嬉しいはず
URLだけ貼ってフィードバックやコミュニケーションを担当する場はあってもよさそう
0798名無しさん@ピンキー2025/02/04(火) 12:38:19.02ID:???
DeePSeekで<think></think>って概要整理みたいの出るの消せないのでしょうか
0799名無しさん@ピンキー2025/02/04(火) 12:45:56.87ID:yaGr2DxE
思考が嫌ならDeepSeek V3使え定期
0800名無しさん@ピンキー2025/02/04(火) 12:51:49.31ID:???
nitky/RoguePlanet-DeepSeek-R1-Qwen-RP-32B
RP版はthinkしないからこれを使う手もある
日本語モデル全部マージしてみた、みたいなモデルだからthink無しでも優位点あるかもしれない
0802名無しさん@ピンキー2025/02/05(水) 09:10:45.11ID:???
改めてLumimaid-Magnum-12B-Q4_K_Sを使ってみてるけどすごく良いな
色んな7BモデルのQ6を試してきたけど、ほぼ同サイズなのにそれよりも断然表現力や理解力が高いわ

でもLumimaid-Magnum-v4-12Bは何か文章がおかしい気がする
同じ設定じゃダメなのかな
0803名無しさん@ピンキー2025/02/05(水) 09:46:38.46ID:???
deepseekってwindowsで回らんlinux用みたいやけど今動かしとる勢はクラウドのインスタンス使っとるんかな
0804名無しさん@ピンキー2025/02/05(水) 10:08:18.30ID:???
https://lab.wallarm.com/jailbreaking-generative-ai/
DeepSeekのシステムプロンプト出たわね
本当にあってんのか知らんけど
APIから生成する場合こういうプロンプト指定しない限りナマのモデル出力になるんかね
もしそうだとしたらこの流出プロンプトを指定すればWEB版の挙動と一致させるのに役立つんやろうか?🤔
0805名無しさん@ピンキー2025/02/05(水) 11:36:07.55ID:???
R1は数学で強化学習してあると言われてて、そのせいか文章の細部に影響されがち
てことは、まずは環境を整えて揃えるのが制御しやすさに繋がるかもね
世界で一番分かってる人間が書いたプロンプトなわけだし
0806名無しさん@ピンキー2025/02/05(水) 12:36:40.52ID:???
アハモーメントって
あっ・・・とかそれに続く分でも同じことだよな
何かに気づいたタイミングの思考力の強まった部分だけ抽出すれば自ずと賢い答えになる
0807名無しさん@ピンキー2025/02/05(水) 12:53:48.33ID:???
lm studioてのを初めて使ったよ
deepseek-r1の量子化を試したけどやたら考えるね😅
0808名無しさん@ピンキー2025/02/05(水) 14:07:15.32ID:???
研究者のひとの解説だと、V3に数学の問題だけを突っ込んで強化学習させたのがR1zeroとR1
らしい
1. 巨大モデルは解き方を教えなくても数学を解いてのけることがある
2. 数学なら正解か否かを容易に判断できる
2. 正解を出したらその考え方に報酬を与えて使われ易くする
のループを回すだけで、自己学習を繰り返してどんどん解決できるようになる(=aha moment)し、なぜか分からんが数学以外も解決出来るようになる、という
0809名無しさん@ピンキー2025/02/05(水) 14:21:02.56ID:A35f+k5E
論理的思考には数学の力が必要と言われてるけど
AIにも同じことが言えるってことなのかな
0814名無しさん@ピンキー2025/02/05(水) 19:03:36.90ID:???
>>802
Lumimaid-Magnum-v4-12BのGGUF番だと、量子化職人さんの腕でかなり反応変わる印象。
うちではUndi95さんの奴使ってるけど悪くないよ
>>803
窓のLMStudioでDeepSeek R1動いてるよ。量子化モデルだから偽物って言われちゃうとごめんだが
0815名無しさん@ピンキー2025/02/06(木) 06:54:11.78ID:???
Project DIGITSって一般販売されるんやろうか
放送大学に入って情報理論も学びながらアカデミック扱いを検討すべきか?
0816名無しさん@ピンキー2025/02/06(木) 08:11:34.61ID:???
放送大学ってアカデミックなメアド貰えるんか?もらえたらそのまま買えちゃいそうだけど
0817名無しさん@ピンキー2025/02/06(木) 08:28:31.69ID:vN4Czirb
学割では常套手段だけど放送大学の学生証でdigitsを買う権利は手に入るんだろうか
0819名無しさん@ピンキー2025/02/06(木) 09:10:41.99ID:???
使えるなら余裕でペイだけど学生生協とか大学のメールアドレスが必要だったりするから放送大学で適用されるかは分かんないAppleで使える報告はあるからMacを10台くらい買うなら超得かもね
0820名無しさん@ピンキー2025/02/06(木) 09:14:32.09ID:???
放送大学の学割の有効活用が今号のラジオライフで特集されてた気がする
立ち読みだからどれくらい掛かるか覚えてないけど元を取るのは大変そうだった
0822名無しさん@ピンキー2025/02/06(木) 17:00:32.45ID:???
@campus.ouj.ac.jpのメアドが貰えるらしいね。映画をよく見る人とか、アマプラやadobeやofficeで学割が使えるから悪くはないかも。reddit見る限りpeople大とかでもメアドが貰えそう。国際学生証ISICだけど。
0824名無しさん@ピンキー2025/02/06(木) 18:53:46.80ID:???
日本でも注目されてるくらいだから海外ではもっとだろうし
大きな需要が確認されれば販路を限定する理由が無いから普通に買えそう(買えるとは言っていない)
0825名無しさん@ピンキー2025/02/06(木) 19:12:28.16ID:???
需要が大きければ、本当に必要なところに行き渡らなくなるからこそ販路を絞ると思うが。
0826名無しさん@ピンキー2025/02/06(木) 19:59:42.90ID:???
五月に出てくるわけだから、ニーズがあっても生産数を増やすことは不可能なんでは
ニーズあればあるほど販路は限定されそう
一年くらいまてば変わってくるだろうけど
0828名無しさん@ピンキー2025/02/07(金) 08:28:34.52ID:???
なんか良いキャラ設定はないかと思って同人音声の台本をSTの対話例にぶちこんだら
なかなか良い感じの変態女になってくれた
0829名無しさん@ピンキー2025/02/07(金) 08:33:38.23ID:???
それ良さそうだな
なんなら音声から文字起こしする事も出来ますし
0833名無しさん@ピンキー2025/02/07(金) 15:43:01.97ID:???
>>831
ここはローカルメインだからgptスレで聞いてみた方がいいよ
>>832
キャラ設定からAdvanced Definitions(本のマーク)押して出るExamples of dialogueじゃない?
0834名無しさん@ピンキー2025/02/07(金) 17:30:50.18ID:sBU5/7QD
>>832
>>833の言う通りやで
この本のマークをクリックして左側に表示されるところの一番の下
https://ul.h3z.jp/3ofOkfQe.jpg

<START>
{{user}}:
{{char}}:

っていう形式で書き込むところや
0835名無しさん@ピンキー2025/02/07(金) 18:32:39.55ID:???
これエロに強そうだけどどんなもんかな
https://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT-GGUF-Q4
> Deepseek-R1-14Bに基づいて、このモデルは深く最適化されており、Tifa_220Bによって生成されたデータセットは、
> トリプルトレーニング戦略を通じて、ロールプレイング、新規テキスト生成、および思考チェーン(CoT)機能を大幅に強化します。
> これは、長期的なコンテキストの関連付けが必要なオーサリング シナリオに特に適しています。
0837名無しさん@ピンキー2025/02/07(金) 19:51:02.85ID:???
日本語出力はできるけど、コンテンツポリシーを超える描写は「申し訳ありませんが、そのリクエストには対応できません。」されるわ
丁寧に脱獄していけば大丈夫かもしれないけど、日本語もそこまでしっかりはしていないなぁ
0839名無しさん@ピンキー2025/02/07(金) 20:15:51.12ID:???
今んとこ紳士向けST用途ではLumimaidもしくはLumimaid-Magnum v4超えのブツはあんまりなさそう。
Lumimaid-Magnumの作者Undi95氏がUndiMixという新作出してたけどこれも日本語がびみょかった
0840名無しさん@ピンキー2025/02/07(金) 20:31:16.57ID:???
日々大量のモデルがあって見切れないから、試しでもオススメされるのは助かるってもんよ
0843名無しさん@ピンキー2025/02/07(金) 23:13:24.44ID:???
>>842
joybod/RoguePlanet-DeepSeek-R1-Qwen-32B-RP-Q4_K_M-GGUF
LM STUDIO+Silly Tavern Staging+noass extension+Pixibot weep Prompt
0844名無しさん@ピンキー2025/02/07(金) 23:34:39.79ID:???
>>843
サンガツ!extensinは試したことないな。入れてみるか

mradermacher/Ninja-V3-nsfw-enhance-GGUF試したけど悪くないな。bergofの強化版という感じのドスケベモデルだ。Q8でも9GB前後だから12〜16GB環境でもサクサクで良い
0845名無しさん@ピンキー2025/02/08(土) 09:53:27.44ID:???
Dolphin3.0 R1 mistral 24bが出てるな
Mistral 24bにR1蒸留させたものみたいだけど、長文癖が付いてて長文think長文出力が出しやすいように感じる
英語オンリーだけど規制なし
CTX長をあっという間に使い果たすけど、これはこれで使い道あるのでは
0846名無しさん@ピンキー2025/02/08(土) 10:56:30.00ID:???
普通のゲーミングPCで動くようなLLMってもう性能的に頭打ちなんやろか?
話題のモデル色々試したけど結局vecteusでよくねって感想なんやが
0847名無しさん@ピンキー2025/02/08(土) 11:12:36.69ID:???
小さいモデルでも賢く作る技術は色々出てきているみたいだけど
それがローカルのエロLLMに降りてきている様子はほとんどないな
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況