なんJLLM部 避難所 ★5
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/12/26(木) 13:13:11.15ID:Vhp+tTX0
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/
0436名無しさん@ピンキー2025/01/23(木) 03:11:15.97ID:yQspFm3a
LMスタジオ1年ぶりくらいに更新したらUI変わりすぎててビックリ
0437名無しさん@ピンキー2025/01/23(木) 04:46:36.45ID:???
deepseekのローカル、英語で思考してから日本語に直して答えるの賢いと思うけど
回答を弄って誘導しにくいっすね
0438名無しさん@ピンキー2025/01/23(木) 07:02:05.84ID:???
Qwen 32b、Ollamaで実行するとガイドラインを言い出すのにLM Studioだと全くないな
何かが変なような
0439名無しさん@ピンキー2025/01/23(木) 07:54:50.11ID:???
Mac使ってるニキに聞きたいんだが、どのモデルもMLX変換したほうがパフォーマンスよくなるの?
0440名無しさん@ピンキー2025/01/23(木) 08:52:34.62ID:???
ほとんどの場合mlxのほうが速いね
mlxだとNeural Engine(ANE)とGPUをAppleのライブラリ内でうまく分散させてくれてるらしい。
ただpowermetricsで見てる限りANEは0%だな(笑)
FaceTimeのリアルタイム文字起こしの時はビンビンに上がる

画像から文字を取り出す時にたまにピクリと上がる
ただ変換ミスしているのかggufでは日本語がうまく取り扱えてたのに
mlxだとダメということはあけどたかだか数十個しか試してないから逆もあるかもしれん
0441名無しさん@ピンキー2025/01/23(木) 09:01:55.07ID:???
mlxみたいなOSSからもANE使えるの?
使えないものだと思ってたけど、使えるなら触ってみるか
0442名無しさん@ピンキー2025/01/23(木) 10:28:42.77ID:???
蒸留版の方のDeepSeek 14B試してみたけど有名な9.11と9.9どっちが大きいのか問題出したらきちんと考えて9.9と解答してたな
確かに賢くはなってる
0444名無しさん@ピンキー2025/01/23(木) 13:52:06.87ID:???
deepseek-Qwen-14B調整しようとしてるんだけど
think /thinkの中身そのものをロールプレイ風に思考させるのは難しそう
0445名無しさん@ピンキー2025/01/24(金) 01:22:35.90ID:???
Open WebUI最新版の0.5.6にしてもThinkingみたいなタグ出てこないんだがどこの設定いじればいいんだ?
0446名無しさん@ピンキー2025/01/24(金) 01:53:24.82ID:3PGi6WPH
Ollamaで`ollama run deepseek-r1:14b`して動かしたらターミナル上でだけどちゃんと推論できたわ(いきなり電卓も作らんぞ……!
めちゃくちゃサクサク動くしだいぶ賢いかもしれん
ただSillyTavernで接続したらThinkができないせいか返答がスゴい雑になるな
https://i.imgur.com/Twlzar2.jpeg
0447名無しさん@ピンキー2025/01/24(金) 08:42:25.69ID:fykYBWPc
DeepSeek-R1は何にしろエロ目的だと使いづらいか
0449名無しさん@ピンキー2025/01/24(金) 08:53:25.55ID:???
やっぱり蒸溜版はそれなりの性能しかない印象
使うなら671Bの本物なんだろうけどおま環で動かないし
本家のサービスは提供主体が信用しきれないのがな……
0450名無しさん@ピンキー2025/01/24(金) 09:21:32.42ID:???
deepseekは全データを中国に置いて中国の法律で管理します!が怖いからむしろ叡智な目的以外じゃ使いづらいんだよな
ローカル671Bの8ビット量子化なら容量半分くらいになって350GBくらいか・・・
digits3つで動・・・くか?流石に3つとかポンと買えないが
0452名無しさん@ピンキー2025/01/24(金) 10:24:41.15ID:???
2つしか繋げられなかったような?
あれそもそも帯域幅もハッキリしてなかったよね
0453名無しさん@ピンキー2025/01/24(金) 11:03:04.21ID:???
あー、俺が調べた時は「2つ繋げばどうのこうのって言う記載があったから2つは繋げるけれども3つ以上はわかんない」みたいな状態だったんだが、2つまでって確定した感じ?
ならすまん・・・
0454名無しさん@ピンキー2025/01/24(金) 11:41:16.47ID:???
nvlinkでの接続は2台までで確定してるけどLLMの場合Lan経由での接続も可能だし4台買えばR1もローカルで動かせると思う
0455名無しさん@ピンキー2025/01/24(金) 11:46:24.72ID:???
元のものよくいじってるからこそ強く思うけど、
正直、蒸留版は元の方がR1っぽくなったってイメージ

それでもいいところはいっぱいあるけど、語彙とか展開の作りとかは元のものに相当引っ張られてる印象
0456名無しさん@ピンキー2025/01/24(金) 12:07:55.72ID:Wxel8P6M
R1の破茶滅茶な感じは蒸溜モデルから得られないからそこを期待するとがっかりするよね
0457名無しさん@ピンキー2025/01/24(金) 14:59:27.97ID:vJdGdyPg
英語でやってるとすごか表現力高いのがわかるよ
まあ暴走もしっかりするけどさ

APIだと編集でいじれるのはいいよね
0464名無しさん@ピンキー2025/01/25(土) 10:00:41.98ID:???
3060位の性能でいいからVRAMだけ96GBにして15万円以下で出してくれ
0466名無しさん@ピンキー2025/01/25(土) 12:07:48.18ID:???
digital mateがDeepSeek-R1のthinkタグに対応するの何か月かかるかわからんから
OllamaかLMStudioの間に入ってthinkタグ削るAPI Proxy作ったった(´・ω・`)
0467名無しさん@ピンキー2025/01/25(土) 12:20:49.50ID:???
よわよわgpuにメモリたくさん載せるより
つよつよgpuにメモリたくさん載せたほうが金になるからアル
0470名無しさん@ピンキー2025/01/25(土) 18:51:01.76ID:zfAVth5r
Ollamaって`ollama run hf.co/bartowski/deepseek-r1-qwen-2.5-32B-ablated-GGUF:IQ2_S`みたいにうてばhuggingfaceからモデルもってこれるんやな
コマンドは🤗モデルページのUse this modelのOllamaからコピーできたで
0472名無しさん@ピンキー2025/01/26(日) 05:17:16.79ID:???
現場の問題というよりはmetaの経営方針の問題な気がする
株主からこの投資に見合った結果ってなんなの?と問われた場合metaだけは研究結果の質で答えるハメになるという
0473名無しさん@ピンキー2025/01/26(日) 05:24:02.93ID:PAOFONiM
低コストな優良LLMがたくさん出てくるきっかけになるのか
それともLLMから撤退する企業が増えるのか……
0477名無しさん@ピンキー2025/01/26(日) 09:09:37.88ID:???
少なくともLLMそのものはビジネスにならないって逃げる企業が増えると思う
中国に勝てない事が鮮明になって来たし
何より中国は官民とも規制が緩くてやりたい放題出来る差もデカ過ぎる
既にゲームにもかなり高度なAI搭載されてるからな
0478名無しさん@ピンキー2025/01/26(日) 09:37:25.74ID:???
上の方と下の方は残って真ん中が全部死ぬ、みたいなことになりそう
それで何が困るのか? 問われた時に示せる価値もそんなに無いですし
0482名無しさん@ピンキー2025/01/26(日) 11:53:54.25ID:wGeKgiYp
そうなん?
0483名無しさん@ピンキー2025/01/26(日) 13:19:06.49ID:???
karakuri-ai/karakuri-lm-32b-thinking-2501-exp

QwQベースのkarakuriか
ggufもあるし帰ったら試すぜ
32bならだれか無規制化できるニキおらんかな?
0484名無しさん@ピンキー2025/01/26(日) 13:41:31.87ID:???
DeepSeekはトレーニングの方法まで細かく公開してるから数カ月後にはこれを真似したLLMが出てくるんじゃないかな
0485名無しさん@ピンキー2025/01/26(日) 15:28:22.17ID:???
DeepSeekはどっかのCloseAIと大違いだな
ユーザーに寛大だし業界の発展にも寄与してる
0486名無しさん@ピンキー2025/01/26(日) 16:12:34.02ID:???
DeepSeekは作り方も全部公開しちゃったから、そういうこと喧伝しながら重要なところは何も出さず、特殊ライセンスで牛耳ろうとしていたMetaの特権を破壊してしまった、という見方もできそう
04884832025/01/26(日) 19:54:34.29ID:???
ローカルで試してるがデモで見られた規制や優等生的受け答えは見られないな
koboldで試してるが際どい指示でも申し訳されないぞこれw
さすがkarakuriというべきか(`・ω・´)
0489名無しさん@ピンキー2025/01/27(月) 08:21:52.30ID:???
karakuriは規制自体はあるっぽい
環境によってよく分からん挙動をするから、必要な設定がなにかあって、それがないと正しく振る舞わないけど規制も働かないとかかね
0490名無しさん@ピンキー2025/01/27(月) 17:11:58.95ID:???
DeepSeek-R1-Distill-Qwen-32B-Japanese
がhuggingfaceで観測出来るな
量子化モデルがないけど...
thinkも日本語で出来るなら振る舞いを理解するためのモデルとして使えるかも
0492名無しさん@ピンキー2025/01/27(月) 17:40:42.29ID:???
サイバーエージェントならthinking用の日本語データセット作ってそうだし期待できそう
R18は無理だろうけど
0493名無しさん@ピンキー2025/01/27(月) 18:42:03.12ID:AmoL+r0w
サイバーエージェントってclamにしろ日本語すら怪しいAIドヤ顔で出してたイメージしか無いけど実力あんの?
0496名無しさん@ピンキー2025/01/27(月) 19:20:53.90ID:???
もしかしてエロ小説書かせるのもローカルモデルでやるより一般向けのチャットAI騙して書かせるのが主流なん?
0497名無しさん@ピンキー2025/01/27(月) 19:32:33.99ID:???
どうなんだろ?
ローカルLLMは開始コストが猛烈に高くてゲーミング
0498名無しさん@ピンキー2025/01/27(月) 19:33:37.37ID:???
ゲーミングPCの強めのが既にありますって人しか気軽に出来ないから、割合で言えば商用LLMのひとのほうがずっと多いのでは
0499名無しさん@ピンキー2025/01/27(月) 19:33:38.32ID:???
ローカルでやる理由
・技術的興味
・一般AIの度重なる仕様変更にウンザリしている
・エロ文章をサーバーに送信したくない極度のシャイボーイ

逆にこういう理由が無いなら質も速さも安さも手軽さもローカルを選ぶ理由はないと思う
0500名無しさん@ピンキー2025/01/27(月) 19:34:19.01ID:???
そもそも日本語性能に焦点を当てたLLMを開発できる会社って日本だとサイバーエージェントぐらいしかないんだよなぁ…
合成データにしろthinking用データセットを用意して日本語ファインチューニングしてくれるだけでも感謝するしかない
0502名無しさん@ピンキー2025/01/27(月) 19:39:40.58ID:???
基礎モデル作ってるのはありがたいけど現状三周遅れくらいしてるから
素直に海外の強いモデルにFTしたのを出してくれる方が一ユーザーとしてはありがたい
0503名無しさん@ピンキー2025/01/27(月) 19:49:41.34ID:???
ゼロから作られてもどうせショボいんだから金と人員の無駄なんだよな
こういうオープンソースをパクって行ってほしい
0504名無しさん@ピンキー2025/01/27(月) 19:50:09.26ID:???
ローカルは完全無規制がザラだから、プロンプトエンジニアリングの沼を避けて通れるのは強みだと思うわ
文章の質は限度があるけどめんどくさくないのがいい
ローカルでも規制あるやつはまぁうん
0506名無しさん@ピンキー2025/01/27(月) 20:08:24.23ID:AmoL+r0w
karakuriとかsakana aiとか結果出してる企業がいる中でサイバーエージェントじゃね…
0507名無しさん@ピンキー2025/01/27(月) 20:19:48.63ID:???
まあやってないよりはマシかと
necやNTTみたいなゴミを作ってクローズにしてるよりは
0508名無しさん@ピンキー2025/01/27(月) 20:22:33.86ID:???
ちゃんと公開してくれるだけありがたいわな


DeepSeek-R1-Distill-Qwen-14B/32Bをベースに日本語データで追加学習を行ったLLMを公開いたしました。今後もモデル公開や産学連携を通じて国内の自然言語処理技術の発展に貢献してまいります。

https://x.com/CyberAgent_PR/status/1883783524836413468?
0509名無しさん@ピンキー2025/01/27(月) 21:01:49.04ID:???
Calm3あの時期のモデルの中じゃかなり日本語良かった記憶があるが…
0512名無しさん@ピンキー2025/01/27(月) 21:42:19.08ID:???
ローカル最近触り始めたんやけどキャラAとBの口調を覚えさせて二人に会話させるのって難しいんか?
何度教えても口調が入れ替わったりして完璧に会話してくれへん
0514名無しさん@ピンキー2025/01/27(月) 21:54:58.76ID:???
>>512
チャットならsillytavernとかのチャット専用に作られたやつ使うといいよ
小説なら指示の書き方工夫するとかだけどモデル自体がバカなら無理だったりもする
0515名無しさん@ピンキー2025/01/27(月) 21:55:51.12ID:???
R1 qwen 32b jpの量子化版も作ってくれてる人が居るね
試してみよう

>512
silly tavernで2キャラ作って会話させればいける...とか?
0516名無しさん@ピンキー2025/01/27(月) 21:58:50.14ID:???
サイバーエージェントまじでいいわ
日本企業でこの形で公開してくれるとこそうない
お給料発生してるわけで、元とろうとするのが普通やし
0517名無しさん@ピンキー2025/01/27(月) 22:01:38.02ID:???
>>513-515
色々サンガツやsilly tavernってのも調べてみるで
あとモデルはcalm3-22b-RP-v2-Q5_K_M.ggufっていうの使っとるんやけど駄目やったんかな
0518名無しさん@ピンキー2025/01/27(月) 22:51:11.13ID:???
DeepSeekがアメリカ中国でアプリストア1位!とか見たから確認したら71位だったわ
0519名無しさん@ピンキー2025/01/27(月) 22:56:48.95ID:???
32b jp、いいっすね
Silly Tavern Staging + pixibot weep prompt v4
+ noass extension
の構成でthinkが日本語ですらすら読めるから初心者GMが語ってくれてる感ある
0520名無しさん@ピンキー2025/01/27(月) 23:25:06.59ID:???
やっぱQwenの性格めっちゃ出てる気がする
マグナムさんの方が使いやすい
0521名無しさん@ピンキー2025/01/28(火) 00:02:48.35ID:yHN2yTKP
>>519
ワイの知らんワードずらずら言うやん
LLMそこそこ触ってる気してたけど浅かったわ
pixibot……noass……なんて?
0522名無しさん@ピンキー2025/01/28(火) 00:16:00.61ID:???
えーと

Silly Tavern Staging
最新機能のテスト版。β版とかnightly版みたいなもん

Pixibot weep Prompt
https://pixibots.neocities.org/prompts/weep
コレ。DeepSeek R1 ReasonerをSilly Tavernで使うときのプリセットで、一貫性を保つように調整してあるみたい。

noass extension
Weep promptと併用が求められているSTの拡張機能。R1 ReasonerはSystemプロンプトの扱いが特殊なので全てのAPI応答をUserプロンプトとして送信するように強制変更する。
0523名無しさん@ピンキー2025/01/28(火) 00:48:58.01ID:???
>>517
calm3ならモデルがバカすぎるってことはないと思う
sillytavernでイチコロやね
0524名無しさん@ピンキー2025/01/28(火) 01:27:45.28ID:yHN2yTKP
>>522
サンガツ
R1はだいぶ特殊なんやね
SillyTavernでうまく動かんと思ってたけど色々やる必要あるのか
0526名無しさん@ピンキー2025/01/28(火) 08:49:32.91ID:???
Deepseek 日本語追加版って3090で動くかな?
Silly Tavernってネット配信でチャットからの入力には対応してないよね?
0528名無しさん@ピンキー2025/01/28(火) 09:08:02.84ID:vvcQf/C+
初心者なんだけどLightChatAssistantの
iQ4XS と Q4KM ってどういう違いがあるの?
0529名無しさん@ピンキー2025/01/28(火) 10:34:12.02ID:???
>526
出来る
VRAMが24GBあれば32bのQ4_K_L版(ファイルサイズ20GBくらい)がVRAMフルロード出来てそこそこ速度でるかもしれない
4080 16GB環境だとQ4_K_Lは2.2token/s程度だから動作速度がわかると今後の参考になるかも

面倒なのはパスしてとりあえず動かしたいって場合は
>417 >470を参考にして、
ollama run hf.co/bluepen5805/DeepSeek-R1-Distill-Qwen-32B-Japanese-gguf:Q4_K_M
とやるだけでDLして実行してお話をはじめられる
0530名無しさん@ピンキー2025/01/28(火) 10:47:02.99ID:???
>528
生のモデルを量子化して小さくするときの手法の違い

KがついてるのはK quantでベーシックな手法。分かんなかったらコレ

iがついてるのはimatrixで、lora的にサンプルを食わせながら量子化するらしい
何を食わせたのかが大事になるけど、必ずしも書いてなかったりドキュメントの隅にあったりする

ChatGPTくんやPerplexくんのほうが詳しいからそっちに聞くのがオススメ
0532名無しさん@ピンキー2025/01/28(火) 11:08:49.87ID:???
deepseekはh100を5万台持ってるんだっけ?
じゃあまたnvdaの株価上がる余地があるってことか
0533名無しさん@ピンキー2025/01/28(火) 11:37:47.98ID:4+Dmmsy5
>529
サンガツ!ollamaは入れてる!
deepseek r1 2bのQ4_K_L版って出てる?探したけどollama版のQ4 KMしか見つからんかった。。。
0534名無しさん@ピンキー2025/01/28(火) 12:06:21.76ID:???
MoEモデルの特徴として大規模な通信速度が無くてもパフォーマンスが出るっていうのがある
NVLinkみたいな高速な通信が必要なくなりそう
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況