なんJLLM部 避難所 ★9
レス数が900を超えています。1000を超えると表示できなくなるよ。
>>898
はぇ〜こんなのあったんかって思ったらめっちゃ最近のやつで草
サンガツ翻訳しながら試してみるで〜 「Google AI Pro」に加入したけど…これ「Google AI Studio」とは全くの別物で、前者に入ってもAPI使って書かせまくれるってわけじゃないんか…
正規のgemini.google.comのチャット形式でエロ書かせるのは無理よな… Google AI ProでAPI使いまくれたらええんやけど、残念ながら通常のチャット画面の制限が大幅に緩和されるだけやね
そのプランの最大のメリットはGemini Deep Researchが2.5 Proで使いまくれる所やから、エロ小説関連のリサーチをバンバン走らせて語彙収集をしたり文章の構造解析をさせて、チャット前にAIに読ませる参考資料を作るとか使い道はありそうやで
やったことないからお断りされるかも知れへんけど >>900
geminiのwebで余裕でエロいけるぞ >>900
自分もPRO加入者だけど、無料APIよりもむしろ柔軟に色々できると思うよ。
自分は今はまったくAPI使わなくなっちゃったし。
ちなみに付与される1000クレジットって動画生成とかに使えるもので、
APIとかの支払いで使うものとは別物なので勘違いしてはいけない。(自分はしてた)
手軽なところだと、Gemとかから始めるのがいいと思う。
ブラウザ版のProに、やりたいことを説明して方法探ってもいいと思う。 thunderboltやlanでマシン繋いでvram ram合算でモデル動かすって現実的じゃない感じ? >>906
メモリ128GBでTB3ポート付きのノートPCにeGPU BOXで24GBのGPUを繋いで使ってるよ
Qwen3-235B-A22B-Thinking-2507-GGUF Q4_K_Mがギリで動く
死ぬほど遅いが TBも外付けポートとしては速いけどメモリアクセスとか考えたらトロい部類になってしまうよな >>908
ここから先はVRAMを48GB、96GBと上げていくか
ユニファイドメモリの糞高いMacやDGXを買うかの二択になる
庶民には無理だから諦めがつく感 tbはテンソル並列でもしなきゃあんま問題ないと思うlanは分かんねえ thunderbolt 5で直結したらテンソル並列でデカいモデル動かせたらメインpcとは別のサブやノートも活かせるから面白いかなと思ったけど難しそうなんやね… GPUクラスター構築はPCでもできるっぽいが、ネットの情報が少なくて
Linuxの知識必須なのが一番の壁になりそう >>911
推論だけでいいならllama.cppのrpcが結構使えるよ
rtx2060sとrx6600のpcをlanで繋いで24bのiq4_xsが15t/s出てる
224gb/sのgpuで動いてること考えれば結構な数字だと思う レス数が900を超えています。1000を超えると表示できなくなるよ。