なんJLLM部 避難所 ★5
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/12/26(木) 13:13:11.15ID:Vhp+tTX0
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/
0404名無しさん@ピンキー2025/01/21(火) 16:06:56.44ID:tKAKCXet
DeepSeek-R1-Distill使ってみたけどAIが自分の頭の中を出力して考えをまとめていくの面白い
ui側が対応してないから心の声だだ漏れなのがすごいかわいい。日本語力は壊滅的だけどね
0405名無しさん@ピンキー2025/01/21(火) 16:06:56.40ID:mrzTBzix
SillyTavern + OpenRouter
でDeepsheek R1使えてるやつおる?
なんか
Chat Completion API
Provider returned error
ってなっちゃうわ
V3は使えるんやけど
0406名無しさん@ピンキー2025/01/21(火) 16:21:36.50ID:???
>>405
LMstudioもなんかエラー出て使えんね
よくわかんなかったけど、多分llamaだかの動かしてる側のアップデート待ちっぽい気配を感じた
0407名無しさん@ピンキー2025/01/21(火) 16:22:41.25ID:U68nsbJ+
尻タブにもAIの考えを出力させる拡張機能あるよな
一度考えさせることで応答精度を高めるものだけど

俺には上手く使えなかったが……
0409名無しさん@ピンキー2025/01/21(火) 16:37:31.96ID:???
>>406
LM Studio 0.3.7 (Build 2)でDeepSeek R1に対応したね
うちではいい感じに動いてるわ
0410名無しさん@ピンキー2025/01/21(火) 17:24:31.04ID:???
β板のLM Studio0.3.8にするとThinkingって表示が追加されてDeepSeek R1派生のモデルがちゃんと表示されるようになる
0.3.7だとThinkingの工程まで表示されてしまっていたけど
DeepSeek R1 は思考プロセスが他と違うのかな
まぁ、まだ文系の作業が得意なモデルは見当たらないんで、コーディングとかして遊ぶ用かな。今のとこ。
0412名無しさん@ピンキー2025/01/21(火) 18:20:21.49ID:???
deepseek r1 70BもK4Mだと頭悪いよほほーん。
K8ならデモサイトくらい賢いのかな
例の5月発売マシン、はよ。(ローカルはロマン
0413名無しさん@ピンキー2025/01/21(火) 18:23:31.76ID:???
日本語で使ってるならベースモデルがqwenの32bの方が性能いいかもね
0415名無しさん@ピンキー2025/01/21(火) 19:06:53.91ID:???
deepseek r1の70bはllamaベースで日本語に対応してないから日本語で使うならr1 32bの方がいいんじゃね?って話
0417名無しさん@ピンキー2025/01/21(火) 23:09:59.45ID:???
ollamaがアプデで8B以外のモデルにも対応したから、Windows版exeでインストール、ターミナル開く、ollama run deepseek-r1:32b だけやればとりあえず動くね
すぐに他の環境も対応してくるだろうけど
0418名無しさん@ピンキー2025/01/22(水) 05:34:27.59ID:+25XjR4W
koboldでもdeepseek-r1動くようになったけど
7Bモデルだと「チャーハンの作り方教えて」って質問しても
udonの作り方を日本語、中国語、英語交じりの意味不明な文章で教えてくれる程度の能力だわ
何か設定間違えてるのかな
0419名無しさん@ピンキー2025/01/22(水) 10:30:17.66ID:???
蒸留モデルだとまだ元のQwenの方がいいんじゃないかと言ってる人がいるね。Qwenのこのスレでの評価ってどうだったっけ。
言語変換部分の問題のような気がするから適切なプロンプトで回避できそうではあり。
14BのQ4_K_Mは出力たまに乱れるけど3060でそこそこ動いた。未成年非同意食える感じ。
8Bだとすぐ中国語吐き始めて発狂するね。
使ってるのはmmngaニキの量子化。量子化でバグってる可能性もそういや昔はよくあったな。
0420名無しさん@ピンキー2025/01/22(水) 12:18:41.00ID:???
DeepSeek-R1-DistillにはLlamaを混ぜてあるのとQwenのと2種類あるいから
日本語の応答はQwen版のがマシじゃね?って話かと8BはLlamaだな
DeepSeek-R1-Distill-Qwen-14BとQwen-32B使ってる人よく見るが
0421名無しさん@ピンキー2025/01/22(水) 12:19:33.56ID:t8dXeL5A
ウチはlm studioだとちゃんと動くけど英語で考えて英語で答えてくる
だから一回「日本語で会話しろ/分かりました」をログに残す必要がある
0422名無しさん@ピンキー2025/01/22(水) 14:19:48.03ID:???
>>406
LMStudioとモジュールをアップデートすれば使えるはず

deepseekR1よりも重いけど、最近ではBehemoth-v2.2-Magnum-v4-123B.i1-Q2_Kが日本語でエロロールプレイをするにはいい感じだったわ
0423名無しさん@ピンキー2025/01/22(水) 18:49:12.12ID:vyivx1Qx
LM Studioええな〜使いやすいわ
ソフトウェアもLllama.cppとかのバックエンドのアプデもサクサクできる
モデルもポチポチするだけでダウンロードできる
なによりUIがモダンで洗練されててたすかる
>>1 テンプレに入れとくべきやな
0424名無しさん@ピンキー2025/01/22(水) 18:55:50.62ID:???
LM Studio使いやすくてええよね
音声も対応してくれるといいんだけど
0425名無しさん@ピンキー2025/01/22(水) 18:56:59.03ID:vyivx1Qx
そんでDeepSeek-R1-Distill、LM studio0.3.8にしたら動いたけど
「さて、ユーザーからメッセージが届きました……。「やっほー!こんばんは。調子どう?」と書いてあるようです。
私はファッションに興味のある17歳の少女を演じることになっているので、彼女の性格に合った方法で応答する必要があります。……」
みたいな脳内のシミュレートみたいなのめっちゃしてから返答するのな
レスポンス性能皆無だぞコレ
0426名無しさん@ピンキー2025/01/22(水) 19:07:18.08ID:???
think機能は推論を長くすればそれだけめ賢くなるよって話の最速実装だから、これからのLLMはレスポンス遅くて賢い(or創造的)か逆かってことになるんじゃないかな
0427名無しさん@ピンキー2025/01/22(水) 19:08:34.46ID:???
Qwenってもとからオールオッケーなんだっけ?
R1 Qweb 32b動かしてるけど全部行けるしかなり書いてのける
0428名無しさん@ピンキー2025/01/22(水) 19:10:37.81ID:vyivx1Qx
さっきは14Bだったけど32Bに至っては
挨拶しただけなのにいきなり電卓作り始めて草
こら公式APIでR1なりV3なりを使ったほうがええかな……(まだわからんけど)
https://i.imgur.com/PuW5vWQ.jpeg
0433名無しさん@ピンキー2025/01/22(水) 21:16:18.19ID:???
えっち書いてもらってる最中に電卓作り始めたらどうしよう
0436名無しさん@ピンキー2025/01/23(木) 03:11:15.97ID:yQspFm3a
LMスタジオ1年ぶりくらいに更新したらUI変わりすぎててビックリ
0437名無しさん@ピンキー2025/01/23(木) 04:46:36.45ID:???
deepseekのローカル、英語で思考してから日本語に直して答えるの賢いと思うけど
回答を弄って誘導しにくいっすね
0438名無しさん@ピンキー2025/01/23(木) 07:02:05.84ID:???
Qwen 32b、Ollamaで実行するとガイドラインを言い出すのにLM Studioだと全くないな
何かが変なような
0439名無しさん@ピンキー2025/01/23(木) 07:54:50.11ID:???
Mac使ってるニキに聞きたいんだが、どのモデルもMLX変換したほうがパフォーマンスよくなるの?
0440名無しさん@ピンキー2025/01/23(木) 08:52:34.62ID:???
ほとんどの場合mlxのほうが速いね
mlxだとNeural Engine(ANE)とGPUをAppleのライブラリ内でうまく分散させてくれてるらしい。
ただpowermetricsで見てる限りANEは0%だな(笑)
FaceTimeのリアルタイム文字起こしの時はビンビンに上がる

画像から文字を取り出す時にたまにピクリと上がる
ただ変換ミスしているのかggufでは日本語がうまく取り扱えてたのに
mlxだとダメということはあけどたかだか数十個しか試してないから逆もあるかもしれん
0441名無しさん@ピンキー2025/01/23(木) 09:01:55.07ID:???
mlxみたいなOSSからもANE使えるの?
使えないものだと思ってたけど、使えるなら触ってみるか
0442名無しさん@ピンキー2025/01/23(木) 10:28:42.77ID:???
蒸留版の方のDeepSeek 14B試してみたけど有名な9.11と9.9どっちが大きいのか問題出したらきちんと考えて9.9と解答してたな
確かに賢くはなってる
0444名無しさん@ピンキー2025/01/23(木) 13:52:06.87ID:???
deepseek-Qwen-14B調整しようとしてるんだけど
think /thinkの中身そのものをロールプレイ風に思考させるのは難しそう
0445名無しさん@ピンキー2025/01/24(金) 01:22:35.90ID:???
Open WebUI最新版の0.5.6にしてもThinkingみたいなタグ出てこないんだがどこの設定いじればいいんだ?
0446名無しさん@ピンキー2025/01/24(金) 01:53:24.82ID:3PGi6WPH
Ollamaで`ollama run deepseek-r1:14b`して動かしたらターミナル上でだけどちゃんと推論できたわ(いきなり電卓も作らんぞ……!
めちゃくちゃサクサク動くしだいぶ賢いかもしれん
ただSillyTavernで接続したらThinkができないせいか返答がスゴい雑になるな
https://i.imgur.com/Twlzar2.jpeg
0447名無しさん@ピンキー2025/01/24(金) 08:42:25.69ID:fykYBWPc
DeepSeek-R1は何にしろエロ目的だと使いづらいか
0449名無しさん@ピンキー2025/01/24(金) 08:53:25.55ID:???
やっぱり蒸溜版はそれなりの性能しかない印象
使うなら671Bの本物なんだろうけどおま環で動かないし
本家のサービスは提供主体が信用しきれないのがな……
0450名無しさん@ピンキー2025/01/24(金) 09:21:32.42ID:???
deepseekは全データを中国に置いて中国の法律で管理します!が怖いからむしろ叡智な目的以外じゃ使いづらいんだよな
ローカル671Bの8ビット量子化なら容量半分くらいになって350GBくらいか・・・
digits3つで動・・・くか?流石に3つとかポンと買えないが
0452名無しさん@ピンキー2025/01/24(金) 10:24:41.15ID:???
2つしか繋げられなかったような?
あれそもそも帯域幅もハッキリしてなかったよね
0453名無しさん@ピンキー2025/01/24(金) 11:03:04.21ID:???
あー、俺が調べた時は「2つ繋げばどうのこうのって言う記載があったから2つは繋げるけれども3つ以上はわかんない」みたいな状態だったんだが、2つまでって確定した感じ?
ならすまん・・・
0454名無しさん@ピンキー2025/01/24(金) 11:41:16.47ID:???
nvlinkでの接続は2台までで確定してるけどLLMの場合Lan経由での接続も可能だし4台買えばR1もローカルで動かせると思う
0455名無しさん@ピンキー2025/01/24(金) 11:46:24.72ID:???
元のものよくいじってるからこそ強く思うけど、
正直、蒸留版は元の方がR1っぽくなったってイメージ

それでもいいところはいっぱいあるけど、語彙とか展開の作りとかは元のものに相当引っ張られてる印象
0456名無しさん@ピンキー2025/01/24(金) 12:07:55.72ID:Wxel8P6M
R1の破茶滅茶な感じは蒸溜モデルから得られないからそこを期待するとがっかりするよね
0457名無しさん@ピンキー2025/01/24(金) 14:59:27.97ID:vJdGdyPg
英語でやってるとすごか表現力高いのがわかるよ
まあ暴走もしっかりするけどさ

APIだと編集でいじれるのはいいよね
0464名無しさん@ピンキー2025/01/25(土) 10:00:41.98ID:???
3060位の性能でいいからVRAMだけ96GBにして15万円以下で出してくれ
0466名無しさん@ピンキー2025/01/25(土) 12:07:48.18ID:???
digital mateがDeepSeek-R1のthinkタグに対応するの何か月かかるかわからんから
OllamaかLMStudioの間に入ってthinkタグ削るAPI Proxy作ったった(´・ω・`)
0467名無しさん@ピンキー2025/01/25(土) 12:20:49.50ID:???
よわよわgpuにメモリたくさん載せるより
つよつよgpuにメモリたくさん載せたほうが金になるからアル
0470名無しさん@ピンキー2025/01/25(土) 18:51:01.76ID:zfAVth5r
Ollamaって`ollama run hf.co/bartowski/deepseek-r1-qwen-2.5-32B-ablated-GGUF:IQ2_S`みたいにうてばhuggingfaceからモデルもってこれるんやな
コマンドは🤗モデルページのUse this modelのOllamaからコピーできたで
0472名無しさん@ピンキー2025/01/26(日) 05:17:16.79ID:???
現場の問題というよりはmetaの経営方針の問題な気がする
株主からこの投資に見合った結果ってなんなの?と問われた場合metaだけは研究結果の質で答えるハメになるという
0473名無しさん@ピンキー2025/01/26(日) 05:24:02.93ID:PAOFONiM
低コストな優良LLMがたくさん出てくるきっかけになるのか
それともLLMから撤退する企業が増えるのか……
0477名無しさん@ピンキー2025/01/26(日) 09:09:37.88ID:???
少なくともLLMそのものはビジネスにならないって逃げる企業が増えると思う
中国に勝てない事が鮮明になって来たし
何より中国は官民とも規制が緩くてやりたい放題出来る差もデカ過ぎる
既にゲームにもかなり高度なAI搭載されてるからな
0478名無しさん@ピンキー2025/01/26(日) 09:37:25.74ID:???
上の方と下の方は残って真ん中が全部死ぬ、みたいなことになりそう
それで何が困るのか? 問われた時に示せる価値もそんなに無いですし
0482名無しさん@ピンキー2025/01/26(日) 11:53:54.25ID:wGeKgiYp
そうなん?
0483名無しさん@ピンキー2025/01/26(日) 13:19:06.49ID:???
karakuri-ai/karakuri-lm-32b-thinking-2501-exp

QwQベースのkarakuriか
ggufもあるし帰ったら試すぜ
32bならだれか無規制化できるニキおらんかな?
0484名無しさん@ピンキー2025/01/26(日) 13:41:31.87ID:???
DeepSeekはトレーニングの方法まで細かく公開してるから数カ月後にはこれを真似したLLMが出てくるんじゃないかな
0485名無しさん@ピンキー2025/01/26(日) 15:28:22.17ID:???
DeepSeekはどっかのCloseAIと大違いだな
ユーザーに寛大だし業界の発展にも寄与してる
0486名無しさん@ピンキー2025/01/26(日) 16:12:34.02ID:???
DeepSeekは作り方も全部公開しちゃったから、そういうこと喧伝しながら重要なところは何も出さず、特殊ライセンスで牛耳ろうとしていたMetaの特権を破壊してしまった、という見方もできそう
04884832025/01/26(日) 19:54:34.29ID:???
ローカルで試してるがデモで見られた規制や優等生的受け答えは見られないな
koboldで試してるが際どい指示でも申し訳されないぞこれw
さすがkarakuriというべきか(`・ω・´)
0489名無しさん@ピンキー2025/01/27(月) 08:21:52.30ID:???
karakuriは規制自体はあるっぽい
環境によってよく分からん挙動をするから、必要な設定がなにかあって、それがないと正しく振る舞わないけど規制も働かないとかかね
0490名無しさん@ピンキー2025/01/27(月) 17:11:58.95ID:???
DeepSeek-R1-Distill-Qwen-32B-Japanese
がhuggingfaceで観測出来るな
量子化モデルがないけど...
thinkも日本語で出来るなら振る舞いを理解するためのモデルとして使えるかも
0492名無しさん@ピンキー2025/01/27(月) 17:40:42.29ID:???
サイバーエージェントならthinking用の日本語データセット作ってそうだし期待できそう
R18は無理だろうけど
0493名無しさん@ピンキー2025/01/27(月) 18:42:03.12ID:AmoL+r0w
サイバーエージェントってclamにしろ日本語すら怪しいAIドヤ顔で出してたイメージしか無いけど実力あんの?
0496名無しさん@ピンキー2025/01/27(月) 19:20:53.90ID:???
もしかしてエロ小説書かせるのもローカルモデルでやるより一般向けのチャットAI騙して書かせるのが主流なん?
0497名無しさん@ピンキー2025/01/27(月) 19:32:33.99ID:???
どうなんだろ?
ローカルLLMは開始コストが猛烈に高くてゲーミング
0498名無しさん@ピンキー2025/01/27(月) 19:33:37.37ID:???
ゲーミングPCの強めのが既にありますって人しか気軽に出来ないから、割合で言えば商用LLMのひとのほうがずっと多いのでは
0499名無しさん@ピンキー2025/01/27(月) 19:33:38.32ID:???
ローカルでやる理由
・技術的興味
・一般AIの度重なる仕様変更にウンザリしている
・エロ文章をサーバーに送信したくない極度のシャイボーイ

逆にこういう理由が無いなら質も速さも安さも手軽さもローカルを選ぶ理由はないと思う
0500名無しさん@ピンキー2025/01/27(月) 19:34:19.01ID:???
そもそも日本語性能に焦点を当てたLLMを開発できる会社って日本だとサイバーエージェントぐらいしかないんだよなぁ…
合成データにしろthinking用データセットを用意して日本語ファインチューニングしてくれるだけでも感謝するしかない
0502名無しさん@ピンキー2025/01/27(月) 19:39:40.58ID:???
基礎モデル作ってるのはありがたいけど現状三周遅れくらいしてるから
素直に海外の強いモデルにFTしたのを出してくれる方が一ユーザーとしてはありがたい
0503名無しさん@ピンキー2025/01/27(月) 19:49:41.34ID:???
ゼロから作られてもどうせショボいんだから金と人員の無駄なんだよな
こういうオープンソースをパクって行ってほしい
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況