なんJLLM部 避難所 ★9
レス数が950を超えています。1000を超えると書き込みができなくなります。
確かにdanbooruはタグを知らんと見たい絵が見れないけどタグが
danbooru独特な表現だったりするとタグにたどり着けなくて詰むんだよね
慣れりゃどーってこたないんだけど
jnvaスレで手入れされてるnovelaiのwikiみたらある程度助けになるかも ビール腹もバナナカーブのペニスも成功はする。ただハズレを引く時もある >>898
はぇ〜こんなのあったんかって思ったらめっちゃ最近のやつで草
サンガツ翻訳しながら試してみるで〜 「Google AI Pro」に加入したけど…これ「Google AI Studio」とは全くの別物で、前者に入ってもAPI使って書かせまくれるってわけじゃないんか…
正規のgemini.google.comのチャット形式でエロ書かせるのは無理よな… Google AI ProでAPI使いまくれたらええんやけど、残念ながら通常のチャット画面の制限が大幅に緩和されるだけやね
そのプランの最大のメリットはGemini Deep Researchが2.5 Proで使いまくれる所やから、エロ小説関連のリサーチをバンバン走らせて語彙収集をしたり文章の構造解析をさせて、チャット前にAIに読ませる参考資料を作るとか使い道はありそうやで
やったことないからお断りされるかも知れへんけど >>900
geminiのwebで余裕でエロいけるぞ >>900
自分もPRO加入者だけど、無料APIよりもむしろ柔軟に色々できると思うよ。
自分は今はまったくAPI使わなくなっちゃったし。
ちなみに付与される1000クレジットって動画生成とかに使えるもので、
APIとかの支払いで使うものとは別物なので勘違いしてはいけない。(自分はしてた)
手軽なところだと、Gemとかから始めるのがいいと思う。
ブラウザ版のProに、やりたいことを説明して方法探ってもいいと思う。 thunderboltやlanでマシン繋いでvram ram合算でモデル動かすって現実的じゃない感じ? >>906
メモリ128GBでTB3ポート付きのノートPCにeGPU BOXで24GBのGPUを繋いで使ってるよ
Qwen3-235B-A22B-Thinking-2507-GGUF Q4_K_Mがギリで動く
死ぬほど遅いが TBも外付けポートとしては速いけどメモリアクセスとか考えたらトロい部類になってしまうよな >>908
ここから先はVRAMを48GB、96GBと上げていくか
ユニファイドメモリの糞高いMacやDGXを買うかの二択になる
庶民には無理だから諦めがつく感 tbはテンソル並列でもしなきゃあんま問題ないと思うlanは分かんねえ thunderbolt 5で直結したらテンソル並列でデカいモデル動かせたらメインpcとは別のサブやノートも活かせるから面白いかなと思ったけど難しそうなんやね… GPUクラスター構築はPCでもできるっぽいが、ネットの情報が少なくて
Linuxの知識必須なのが一番の壁になりそう >>911
推論だけでいいならllama.cppのrpcが結構使えるよ
rtx2060sとrx6600のpcをlanで繋いで24bのiq4_xsが15t/s出てる
224gb/sのgpuで動いてること考えれば結構な数字だと思う この記事を書いてるやつはアホなのか、Llama-3.3って自分で書いててリコーが作ったわけじゃないってわからないのか
リコーが日本語性能でGPT-5に匹敵する金融特化型LLMを開発、業務遂行能力を強化
https://xtech.nikkei.com/atcl/nxt/news/24/02874/?n_cid=nbpnxt_twed_it ファインチューニングしたら開発ってのは日本のAIの常識だから 日本では皆おっさんを騙して楽にカネ引っ張ってくることしか考えてない
頑張っても収入が増えないから当たり前っちゃ当たり前 しかもそのベンチがとっくの昔にサチってて一定以上のモデルだと差が出ないElyza-tasksとJapanese MT Benchっていうね 金出すおっさんも無知だから夢を買えればそれでおっけーなので何も問題ないな
素晴らしい国で涙が出てくるよ >>913
超巨大のモデルでないなら結構使えるんかね、ありがとう。ゲフォラデ異種混合でできるのすごいな。 リコーが自社の金でやるんだからファインチューニングでってのは何も間違いではないんだけど
公金使ってやるのが微妙な性能のファインチューニングなのマジで残念すぎる
それも数社に予算が分散しててそれぐらいしか出来ないって理由もあるから金の使い方としても終わってる
一社に100億ぐらいで日本語モデル作れって言いたいけど今は100億でも足りないんだろうな メモリの値段が笑うしかないな。
夏に64x2を4万ちょいで買ったが、もう1セット買っておくんだった。 DeepSeek-R1、Qwen3 235B、gpt-oss-120b、GLMとかの高評価モデルを日本語ファインチューニングするところがないのは
技術的な問題なのか、それとも金がかかりすぎるからなのか 正直よくわからん会社の小規模モデルに金出してもな PFNとかたった5Tトークンで事前学習しましたとか公開してて悲しくなったよ
qwenは30Tトークンだし 10Tトークンで学習したモデルはfew shotで性能出る超高効率学習が可能になったと技術的に宣伝するような世界で5Tトークンはあまり厳しい
まずは日本語データセットの拡充を優先すべきやろ 中国語と英語の話者が日本語の数十倍なんだからかなり無理してでも日本語データ増やさないと日本文化消えるし、日本に不利なバイアスがかかるぞ
たった数年でLLMはインフラになりつつあるのに日本はほんまなにやってるだよ 今日も新興のベンチャーが80億調達したってのがニュースになってたけどやっぱり一桁足りないよなあ 東大の卒業生の志の低さは異常😅
リコーのも富士通のもNECのもそうだろ >>922
Qwen2.5 32Bとかも日本語追加学習モデルが出てきたのはだいぶ遅れてだったから、あと半年くらいしたらそのへん出るんじゃないかと思ってる
ただベースモデルの開発速度に追いついてないんだよなあ これからAI使ってゲノム解析とか新薬解析とか急激に人類の科学技術は進歩するのに、日本企業がこのザマだと頭痛い 新興のベンチャーとかいう詐欺に金出すのほんと無駄
大学の研究環境改善しないことには何も始まらんよね日本は
米中は大学の研究が凄くてその人材が民間企業に流れてるから強いわけで りんなは昔はフルスクラッチでやってたんだろ、なんでllamaベースにしたんだよ、心折れるなよ 同じllamaベースでもkarakuriのfinetuneは抜きん出ていた
今でもたまに使ってるわ AIエンジニアならしょっぱいベンチャーやるよりGAFAMに飛んだほうが儲かるわな >>905
gem使ったらすぐ脱獄できることがわかった ありがとう
ただ…今までCaveDuckっていうSillyTavernのオンラインサービス版みたいなサイトでエロ文章書かせてたんだけど、それと結構文体の毛色が違う感じがするわね こういう文章書いて!って行ったら遊びなしでそこまで一直線に書いちゃう
あといくらgemで検閲ガバガバにしても直接的な表現にはすぐ反応してくる >>936
gemでどうやって脱獄するの?
背中を押されていま有料プランに入った >>937
添付ファイルにエロ指示ぶちこんだら、ほぼほぼ無脱獄でぜんぶ通ってしまうよ
いっぽう、ジェムのカスタム指示に色々書き込むと悪さするおそれがある >>937
行動はえーな!
Gemini エロ小説 でググッたら出てくるふたばのログサイトに脱獄方法が書いてたからそれ参考にした
いい感じに出力させる方法見つけたら教えてくれよな! >>939
ありがとう
なかなか思うようには行かないけれど
試行錯誤してみているところ
まずは感謝 >>940
コパイロットはエロ出来ないけれど、
無料で使えるGPT-5.1(ベース)としてかなり優秀になったと思う
変なAIアグリゲーター使うより安心だし 日常用に便利 カギ括弧とか「……」とかを多用するな!って書いて添付ファイルとしてgemに送ってもガン無視してきやがる
婉曲表現多すぎてエロくないし 困ったもんだ なろう系のごとくめちゃくちゃ改行するから、そんなに改行しないで🥹ってお願いすると、まったく改行の無い文章お出ししてくるからな >>893
Civitaiでお気に入りの画像見つけてそのプロンプト見てこい
プロンプトが恐らく普段使ってるLLMとはまったく異なる文法のはずだよ(Fluxを除く) >>944
……全ての、……文節に、……こうやって、……三点リーダーと、……読点を、……置いてきて、……キレそう。 30-70BくらいのパラメータのMoEモデル探してるんだけど今のところaquif-3.5-Max-42B-A3Bしか知らない
Kimi-Linear-48B-A3B-Instructっていうのもあったけどgguf対応してないっぽいから自分の環境では動かせないと思う aquifはなんかthink中みたいな解答してきて小説にならないんだけど
みんな使えてるのか? Kimiモデルって日本語ができなくはないけどってレベル
DeepSeekみたいな万能さはないよ? aquifは文章はなかなかいい感じだけど、最初のリクエストを延々と保持し続けるのか場面の転換ができない感じがする 微妙なサイズの量子化GGUFモデルは日本語をまるっと忘れてたりするので
前段後段に翻訳パイプラインを入れて英語か中国語で投げてやると精度が上がったりする
日英や日中の翻訳に特化したLLMが別途ローカルで動けば良いが
そもそも日本語のデータセット自体がショボすぎて学習するにも……状態らしい 日本がAIのためにやるべき事は質の高いデータセットを作ってオープンにすることだったり
海外企業も良いデータセットあれば勝手に使うし日本語性能が伸びる 25G nic買ってRoCEでpc同士でクラスター構築とかどうなんだろ?面白そうだけど。 >>957
久しぶりにRoCEの語を見たなあ
面白いよ
接続先の別PCのメモリをRAMDISKにして
そこから自PCをブートしたりしてた >>958
実際面白いのか、やってみようかなぁ。
なんかRoCEで自宅AIクラスター構築って本を見て面白そうだなと思って。
構築してllama とかでモデルを動かせるのか全く未知数だけど、、チャッピーはできるとか言ってた。 Hereticっていう検閲除去ツールが来たな
誰か使い物になるか試してみてくれ そこまでやったときはllamaの出る幕では無いかもね nictあたりでコーパス作りゃいいのよ
GENIACなんかやってもどうせしょぼいパラメータ数のしかできないんだから そういうもんなんか?docker でllama うごかしてオープンチャットだっけ、でllm構築したくらいの経験しかないからよくわからん…いろいろ調べてみるか。 >>957
RoCEに対応できるSwitchが高いんだよなあ >>964
そうなんか。まぁ2pcなら直結でいけるっぽいし、まずそれでやろかなと。 >>960
軽くソースを読んだけど、オリジナルのモデルデータがVRAMに乗らないと高速処理できないっぽい
ハイスペックの有志が検閲除去してくれるのを期待するしかなさそう レス数が950を超えています。1000を超えると書き込みができなくなります。