なんJLLM部 避難所 ★9
レス数が950を超えています。1000を超えると書き込みができなくなります。
>>944
……全ての、……文節に、……こうやって、……三点リーダーと、……読点を、……置いてきて、……キレそう。 30-70BくらいのパラメータのMoEモデル探してるんだけど今のところaquif-3.5-Max-42B-A3Bしか知らない
Kimi-Linear-48B-A3B-Instructっていうのもあったけどgguf対応してないっぽいから自分の環境では動かせないと思う aquifはなんかthink中みたいな解答してきて小説にならないんだけど
みんな使えてるのか? Kimiモデルって日本語ができなくはないけどってレベル
DeepSeekみたいな万能さはないよ? aquifは文章はなかなかいい感じだけど、最初のリクエストを延々と保持し続けるのか場面の転換ができない感じがする 微妙なサイズの量子化GGUFモデルは日本語をまるっと忘れてたりするので
前段後段に翻訳パイプラインを入れて英語か中国語で投げてやると精度が上がったりする
日英や日中の翻訳に特化したLLMが別途ローカルで動けば良いが
そもそも日本語のデータセット自体がショボすぎて学習するにも……状態らしい 日本がAIのためにやるべき事は質の高いデータセットを作ってオープンにすることだったり
海外企業も良いデータセットあれば勝手に使うし日本語性能が伸びる 25G nic買ってRoCEでpc同士でクラスター構築とかどうなんだろ?面白そうだけど。 >>957
久しぶりにRoCEの語を見たなあ
面白いよ
接続先の別PCのメモリをRAMDISKにして
そこから自PCをブートしたりしてた >>958
実際面白いのか、やってみようかなぁ。
なんかRoCEで自宅AIクラスター構築って本を見て面白そうだなと思って。
構築してllama とかでモデルを動かせるのか全く未知数だけど、、チャッピーはできるとか言ってた。 Hereticっていう検閲除去ツールが来たな
誰か使い物になるか試してみてくれ そこまでやったときはllamaの出る幕では無いかもね nictあたりでコーパス作りゃいいのよ
GENIACなんかやってもどうせしょぼいパラメータ数のしかできないんだから そういうもんなんか?docker でllama うごかしてオープンチャットだっけ、でllm構築したくらいの経験しかないからよくわからん…いろいろ調べてみるか。 >>957
RoCEに対応できるSwitchが高いんだよなあ >>964
そうなんか。まぁ2pcなら直結でいけるっぽいし、まずそれでやろかなと。 >>960
軽くソースを読んだけど、オリジナルのモデルデータがVRAMに乗らないと高速処理できないっぽい
ハイスペックの有志が検閲除去してくれるのを期待するしかなさそう >>960
元々エロ自体はちゃんと学習していて個人で動かせて検閲の厳しいモデルって何があったっけ? レス数が950を超えています。1000を超えると書き込みができなくなります。