なんJLLM部 避難所 ★9

レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

0952名無しさん@ピンキー (ワッチョイ 275d-ghw7)2025/11/17(月) 16:16:31.75ID:iYYzo6YC0
Kimiモデルって日本語ができなくはないけどってレベル
DeepSeekみたいな万能さはないよ?

0953名無しさん@ピンキー (ワッチョイ f6e0-8zWZ)2025/11/17(月) 16:36:06.37ID:v2kU3YSH0
aquifは文章はなかなかいい感じだけど、最初のリクエストを延々と保持し続けるのか場面の転換ができない感じがする

0954名無しさん@ピンキー (スプープ Sdf2-iH7c)2025/11/17(月) 17:06:03.71ID:6quLYoK3d
微妙なサイズの量子化GGUFモデルは日本語をまるっと忘れてたりするので
前段後段に翻訳パイプラインを入れて英語か中国語で投げてやると精度が上がったりする

日英や日中の翻訳に特化したLLMが別途ローカルで動けば良いが
そもそも日本語のデータセット自体がショボすぎて学習するにも……状態らしい

0955名無しさん@ピンキー (ワッチョイ b232-8/fw)2025/11/17(月) 17:29:09.55ID:ExbhZ2eg0
>>950
mixtralとか まあ古いけど

0956名無しさん@ピンキー (ワッチョイ 7e27-UTns)2025/11/17(月) 17:29:44.68ID:MnG0J6vL0
日本がAIのためにやるべき事は質の高いデータセットを作ってオープンにすることだったり
海外企業も良いデータセットあれば勝手に使うし日本語性能が伸びる

0957名無しさん@ピンキー (ワッチョイ 02e0-0fx7)2025/11/17(月) 19:08:18.95ID:CQdKEH1j0
25G nic買ってRoCEでpc同士でクラスター構築とかどうなんだろ?面白そうだけど。

0958名無しさん@ピンキー (テテンテンテン MM3e-C9XS)2025/11/17(月) 19:36:22.86ID:wZYPMPEYM
>>957
久しぶりにRoCEの語を見たなあ
面白いよ
接続先の別PCのメモリをRAMDISKにして
そこから自PCをブートしたりしてた

0959名無しさん@ピンキー (ワッチョイ 02e0-0fx7)2025/11/17(月) 19:46:52.93ID:CQdKEH1j0
>>958
実際面白いのか、やってみようかなぁ。
なんかRoCEで自宅AIクラスター構築って本を見て面白そうだなと思って。
構築してllama とかでモデルを動かせるのか全く未知数だけど、、チャッピーはできるとか言ってた。

0960名無しさん@ピンキー (ワッチョイ d384-dWB7)2025/11/17(月) 19:47:20.36ID:HqSeJTyX0
Hereticっていう検閲除去ツールが来たな
誰か使い物になるか試してみてくれ

0961名無しさん@ピンキー (ワッチョイ b232-8/fw)2025/11/17(月) 19:56:53.46ID:ExbhZ2eg0
そこまでやったときはllamaの出る幕では無いかもね

0962名無しさん@ピンキー (ワッチョイ 836a-qtAv)2025/11/17(月) 20:04:12.38ID:T96Iz2QW0
nictあたりでコーパス作りゃいいのよ
GENIACなんかやってもどうせしょぼいパラメータ数のしかできないんだから

0963名無しさん@ピンキー (ワッチョイ 7eda-0fx7)2025/11/17(月) 20:16:53.96ID:DFXOWySS0
そういうもんなんか?docker でllama うごかしてオープンチャットだっけ、でllm構築したくらいの経験しかないからよくわからん…いろいろ調べてみるか。

0964名無しさん@ピンキー (ワッチョイ 326c-NM5O)2025/11/17(月) 21:46:24.71ID:OFt2wigP0
>>957
RoCEに対応できるSwitchが高いんだよなあ

0965名無しさん@ピンキー (ワッチョイ 7e31-0fx7)2025/11/17(月) 22:20:04.83ID:DFXOWySS0
>>964
そうなんか。まぁ2pcなら直結でいけるっぽいし、まずそれでやろかなと。

0966名無しさん@ピンキー (ワッチョイ 8f32-UTns)2025/11/17(月) 22:25:56.20ID:jMFNoshE0
>>960
軽くソースを読んだけど、オリジナルのモデルデータがVRAMに乗らないと高速処理できないっぽい
ハイスペックの有志が検閲除去してくれるのを期待するしかなさそう

0967名無しさん@ピンキー (ワッチョイ 1216-W4g8)2025/11/17(月) 23:58:32.23ID:TK6TZmRN0
てすと

0968名無しさん@ピンキー (ワッチョイ d732-UdpD)2025/11/18(火) 05:44:05.70ID:kXZbofdw0
>>960
元々エロ自体はちゃんと学習していて個人で動かせて検閲の厳しいモデルって何があったっけ?

0969名無しさん@ピンキー (ワッチョイ 7ebd-TYBa)2025/11/18(火) 19:03:24.73ID:rcnc32Nj0
すでに書かれているけどLLMから検問を無くす(無修正にする)ツール「Heretic」が公開
https://github.com/p-e-w/heretic

高価なハードウェアでも作業時間がかかるみたいだけどHF見るとすでに公開してくれてる人がちらほらいる
色々と出揃うまで正座待機ですわ
https://huggingface.co/models?sort=modified&search=Heretic

0970名無しさん@ピンキー (スプープ Sdf2-iH7c)2025/11/18(火) 19:11:38.81ID:GkaiCkREd
abliteratedモデルはhereticのURLにも出てくるhuihui-aiが主要モデルで前から出しているが
同じモデルでも指示への追従性が下がったりして取り回しが難しいんや

たぶんモデルを安定動作させるための「べからず」まで自動で取っ払うからやろな

0971名無しさん@ピンキー (ワッチョイ 3265-tgyA)2025/11/18(火) 20:10:42.59ID:2M0+1WyH0
検閲されてるモデルは事前学習からフィルタリングしてるし見かけの検閲解除は意味ないと思うけどな
ローカルならそれこそ数百サンプルを学習してあげるだけでも検閲消えるしわざわざ重みを壊す必要ない

0972名無しさん@ピンキー (ワッチョイ 8f32-UTns)2025/11/18(火) 23:56:32.42ID:7TURYEZu0
>>971
学習も破滅的忘却で性能低下するよ
qwq-bakeneko-32bは本家QwQ-32Bより日本語が怪しくなってた

0973名無しさん@ピンキー (ワッチョイ 1f27-qtAv)2025/11/19(水) 09:26:36.76ID:gdXSAHNg0
強化学習て結局知識とか増えてないんだろ?むしろ多様性を排してしまうとか

0974名無しさん@ピンキー (ワッチョイ b29f-oLAk)2025/11/19(水) 10:12:03.36ID:KVEa5NkA0
定期
Llamaライセンス契約のオープンソースへの適合性について – Shuji Sado https://shujisado.com/2025/01/15/llama_is_not_opensource/

0975名無しさん@ピンキー (ワッチョイ 27fc-aIMS)2025/11/19(水) 19:34:29.50ID:YPT5cypT0
macbookproでメモリガン積みするの結構面白い選択肢だったんやな
それ自体がフットワーク軽いオモチャやし

0976名無しさん@ピンキー (ワッチョイ 1f65-rVBG)2025/11/20(木) 04:18:27.81ID:xVufV6Mf0
Gemini3凄すぎるキャラクターカード作ってもらったんだけどmistralですらちゃんとそのキャラの話し方で会話が成立する今までGrokエキスパートとかにも頼んでたけど作り方も違うし比較にならないくらい凄い

0977名無しさん@ピンキー (ワッチョイ 322f-7p1h)2025/11/20(木) 08:34:39.43ID:fthWD+pO0
silly tavern用のキャラカードってこと?
そんなに変わるもんかな?
コンテキストを最大限節約しつつ有用な記述って感じなら進化を感じるけど

0978名無しさん@ピンキー (ワッチョイ d732-UdpD)2025/11/20(木) 09:32:57.96ID:+GBGBI6b0
Grokに書いてもらったキャラクターカードとGemini3に書いてもらったキャラクターカードを見せてほしい
手動で書いても普通に口調を維持しつつ会話が成立するものだけど、Grokはそれすら出来ないほどダメだったってこと?

0979名無しさん@ピンキー (ワッチョイ 76a9-tBeq)2025/11/20(木) 11:59:42.32ID:USjD0bPK0
glm4.6がchatbot arenaの日本語ランキングにようやく出てきたけど、
ここで言われてたようにローカルの中じゃぶっちぎりの性能だね
どっかにLLMは3.5ヶ月ごとに半分のパラメータで同じ精度を実現できるようになってるってニュースが出てたけどまじでそのくらいの速度かもなぁ

0980名無しさん@ピンキー (スプープ Sdf2-iH7c)2025/11/20(木) 12:31:16.75ID:qf4dYDeVd
>>979
量子化すると日本語がボロボロになるのがなぁ……

0981名無しさん@ピンキー (ワッチョイ d373-qtAv)2025/11/20(木) 15:00:32.24ID:LWj+TZue0
もうエロていうか変な洗脳止めて不道徳なことも言わせられるようにすればいいのに

0982名無しさん@ピンキー (ワッチョイ db11-rib7)2025/11/20(木) 18:22:04.93ID:dHua0i7X0
>>981
AIに暴言吐かれて傷つきました→訴訟へ

こんなことがあり得る国がAIをリードしてるんやで

0983名無しさん@ピンキー (ワッチョイ d373-qtAv)2025/11/20(木) 18:22:56.82ID:LWj+TZue0
知るかボケ
でクレーマーは無視すりゃいいのに

0984名無しさん@ピンキー (ワッチョイ d732-UdpD)2025/11/20(木) 18:39:20.67ID:+GBGBI6b0
訴えられたら無視できんやろ
クレーマーがキチガイすぎるんや

0985名無しさん@ピンキー (ワッチョイ 8f32-lFGm)2025/11/20(木) 19:18:06.30ID:RAWQCfpx0
>>980
量子化どのサイズ使ってる?
winならiQ4_xsがギリと思うけど

0986名無しさん@ピンキー (オイコラミネオ MM8a-iH7c)2025/11/20(木) 19:32:24.91ID:2QhNYoNfM
>>985
いま外にいるからモデル名までは分からんけど
俺が試してみたのはUbuntu Linuxでメモリ80GB/VRAM16GB環境だから
かなり無理して圧縮したやつ

メモリ256GBくらいあればマシになるんだろうな

0987名無しさん@ピンキー (ワッチョイ b232-8/fw)2025/11/20(木) 20:22:54.41ID:G91sWGJP0
計96GBに収めようとしたならQ1選んでるね…

0988名無しさん@ピンキー (ワッチョイ 8f32-UTns)2025/11/20(木) 20:36:59.84ID:RAWQCfpx0
>>985
iQ1ならGLM4.6じゃなくても日本語ボロボロかなぁ

0989名無しさん@ピンキー (ワッチョイ 7e6e-40gh)2025/11/20(木) 21:49:44.21ID:s7qdA1kk0
128GBでQ2だとまあまあちゃんとしゃべる
Air準備してるらしいからそっちも期待やな

0990名無しさん@ピンキー (ワッチョイ 5303-ZqAp)2025/11/21(金) 01:13:48.98ID:7Mfsy/hW0
MoEってdenseより量子化に敏感って印象
無理してi1を動かすよりglm airかqwen nextあたり動かしたほうがええやろな

0991名無しさん@ピンキー (ワッチョイ 1224-XMuo)2025/11/21(金) 01:56:09.69ID:aliT9MOD0
同感
メモリ128GB環境やがGLM4.6のIQ2XXSよりもQWEN3-235BのIQ4XSの方が目に見えて早いし頭いい
4.6Airとかllama.cppのQWEN NEXT対応が待ち遠しいわ

0992名無しさん@ピンキー (ワッチョイ 76a9-tBeq)2025/11/21(金) 11:20:05.51ID:+PUA6WqL0
llamacppのqwen next対応時間かかっとるね
あのprは動くようにするの最優先でパフォーマンスは別prにするって言ってたけど
レビュー段階に入ってからなんだかんだパフォーマンスの部分も手つけ始めとるな

0993名無しさん@ピンキー (ワッチョイ 27a7-VoFy)2025/11/21(金) 13:40:46.74ID:1ofWBtyS0
nemotron-nanoも計算に細かいバグがあるんじゃない?って言われてるみたいだし
ハイブリッドモデルは全体を正しく計算できるように設計するのが難しいみたいだね

0994名無しさん@ピンキー (ワッチョイ 32c7-7ape)2025/11/21(金) 16:08:26.14ID:B8sF1KnX0
GLM4.6は量子化の影響めっちゃ受けるね
Q4とQ5でも違いを感じるな
GLM4.5はQ4でもそんなことなかったのに

Q4は出力が時々変になるけどQ5はかなり抑えられる感じ
Q6でやっとオリジナル相当かな?
ただ、小説用途でサクッと読む程度ならQ4でも問題ない感じ

GLM4.6は今まで試してきたLLMの中で一番賢い
メモリ512GB積んだMac Studioくらいのスペックでサクサクと動かしてみたいもんだわ

0995名無しさん@ピンキー (ワッチョイ 6f91-fqPo)2025/11/22(土) 14:13:00.70ID:AoXstK6E0
>>982
そういうのって正直日本の方がリスク高いからこれだけ遅れてるんじゃないのかね

0996名無しさん@ピンキー (ワッチョイ 6f18-nmNV)2025/11/23(日) 11:42:53.97ID:vTN5oi150
会社が予算100万bナなんかいい感bカにaiしろって血セってるけどmac studio512gb激推しして遊び場にしても許されるかな

0997名無しさん@ピンキー (ワッチョイ 0fa9-dDTn)2025/11/23(日) 12:44:05.37ID:DQloOw0h0
512GB載せたら100万で買えないぞ

0998名無しさん@ピンキー (ワッチョイ dbe4-LCpl)2025/11/23(日) 12:46:02.34ID:CTvbcJzD0
M3 Ultraにするなにフルコアで512G積まないと全く意味がない
128GBならM4 maxのほうが速い場合もあるよ。256GBは中途半端だし
となると150万

0999名無しさん@ピンキー (ワッチョイ dfc7-Jvli)2025/11/23(日) 23:02:40.94ID:kt2SGedd0
次スレ
なんJLLM部 避難所 ★10
https://mercury.bbspink.com/test/read.cgi/onatech/1763906129/

1000名無しさん@ピンキー (ワッチョイ db24-LCpl)2025/11/24(月) 00:02:47.60ID:XTOdUOlz0
いちおつ

10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 92日 10時間 10分 30秒

10021002Over 1000Thread
BBSPINKの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 専用ブラウザからの広告除去
★ 過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.bbspink.com/login.php

レス数が1000を超えています。これ以上書き込みはできません。