なんJLLM部 避難所 ★9
レス数が950を超えています。1000を超えると書き込みができなくなります。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured カギ括弧とか「……」とかを多用するな!って書いて添付ファイルとしてgemに送ってもガン無視してきやがる
婉曲表現多すぎてエロくないし 困ったもんだ なろう系のごとくめちゃくちゃ改行するから、そんなに改行しないで🥹ってお願いすると、まったく改行の無い文章お出ししてくるからな >>893
Civitaiでお気に入りの画像見つけてそのプロンプト見てこい
プロンプトが恐らく普段使ってるLLMとはまったく異なる文法のはずだよ(Fluxを除く) >>944
……全ての、……文節に、……こうやって、……三点リーダーと、……読点を、……置いてきて、……キレそう。 30-70BくらいのパラメータのMoEモデル探してるんだけど今のところaquif-3.5-Max-42B-A3Bしか知らない
Kimi-Linear-48B-A3B-Instructっていうのもあったけどgguf対応してないっぽいから自分の環境では動かせないと思う aquifはなんかthink中みたいな解答してきて小説にならないんだけど
みんな使えてるのか? Kimiモデルって日本語ができなくはないけどってレベル
DeepSeekみたいな万能さはないよ? aquifは文章はなかなかいい感じだけど、最初のリクエストを延々と保持し続けるのか場面の転換ができない感じがする 微妙なサイズの量子化GGUFモデルは日本語をまるっと忘れてたりするので
前段後段に翻訳パイプラインを入れて英語か中国語で投げてやると精度が上がったりする
日英や日中の翻訳に特化したLLMが別途ローカルで動けば良いが
そもそも日本語のデータセット自体がショボすぎて学習するにも……状態らしい 日本がAIのためにやるべき事は質の高いデータセットを作ってオープンにすることだったり
海外企業も良いデータセットあれば勝手に使うし日本語性能が伸びる 25G nic買ってRoCEでpc同士でクラスター構築とかどうなんだろ?面白そうだけど。 >>957
久しぶりにRoCEの語を見たなあ
面白いよ
接続先の別PCのメモリをRAMDISKにして
そこから自PCをブートしたりしてた >>958
実際面白いのか、やってみようかなぁ。
なんかRoCEで自宅AIクラスター構築って本を見て面白そうだなと思って。
構築してllama とかでモデルを動かせるのか全く未知数だけど、、チャッピーはできるとか言ってた。 Hereticっていう検閲除去ツールが来たな
誰か使い物になるか試してみてくれ そこまでやったときはllamaの出る幕では無いかもね nictあたりでコーパス作りゃいいのよ
GENIACなんかやってもどうせしょぼいパラメータ数のしかできないんだから そういうもんなんか?docker でllama うごかしてオープンチャットだっけ、でllm構築したくらいの経験しかないからよくわからん…いろいろ調べてみるか。 >>957
RoCEに対応できるSwitchが高いんだよなあ >>964
そうなんか。まぁ2pcなら直結でいけるっぽいし、まずそれでやろかなと。 >>960
軽くソースを読んだけど、オリジナルのモデルデータがVRAMに乗らないと高速処理できないっぽい
ハイスペックの有志が検閲除去してくれるのを期待するしかなさそう >>960
元々エロ自体はちゃんと学習していて個人で動かせて検閲の厳しいモデルって何があったっけ? すでに書かれているけどLLMから検問を無くす(無修正にする)ツール「Heretic」が公開
https://github.com/p-e-w/heretic
高価なハードウェアでも作業時間がかかるみたいだけどHF見るとすでに公開してくれてる人がちらほらいる
色々と出揃うまで正座待機ですわ
https://huggingface.co/models?sort=modified&search=Heretic abliteratedモデルはhereticのURLにも出てくるhuihui-aiが主要モデルで前から出しているが
同じモデルでも指示への追従性が下がったりして取り回しが難しいんや
たぶんモデルを安定動作させるための「べからず」まで自動で取っ払うからやろな 検閲されてるモデルは事前学習からフィルタリングしてるし見かけの検閲解除は意味ないと思うけどな
ローカルならそれこそ数百サンプルを学習してあげるだけでも検閲消えるしわざわざ重みを壊す必要ない >>971
学習も破滅的忘却で性能低下するよ
qwq-bakeneko-32bは本家QwQ-32Bより日本語が怪しくなってた レス数が950を超えています。1000を超えると書き込みができなくなります。