なんJLLM部 避難所 ★8 	
■ このスレッドは過去ログ倉庫に格納されています
 !extend:checked:vvvvv:1000:512 >>2 以降 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/  https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/    geminiスケベすぎやろエロトークしまくってたら濃いの出たし全部搾り取られたわ   アマテラス試してるが、これかなりいいね   Amaterasu-123B Q5_K_M   >>727    >>728    qwen3-235b-a22b-thinking-2507 Q3_K_XL試してみた   >>730    qwenは事前学習からエロ省いてるから規制関係なく表現が物足りないね   結局Mistral-LargeとかCommand-Aベースのモデルに勝てんのよな   マスクが嫁開発のエンジニアを募集してるぞ   自作3D嫁は作品としての改良点ばかり気になってとても抜けなくなるってVAM民が言っている   VaM民だけど自作嫁で余裕で抜ける   >>733    >>739    Command-AはR時代から素でエロ満載ではある   mistral系列のbaseモデルに小説の続きを書かせるとkoboの透かしが出力されたりするしbaseモデルが公開されてると学習元が推測できて楽しい   聞きたいんやけどスマホでも外部API呼んでチャットできるサービス(無料)の奴って知ってる?   >>737    昨日からLM Studio触り始めました   >>743    12GBじゃな微調整も難しいしmistral nemo系列くらいしかERP、執筆向けのモデル無いしlocalLLMに拘る意味無いかな まあ24GBにしてもmistral small系列が選択肢に入るだけでそこまで変わらないけど   まあmistral small系ならvram溢れてもまだ我慢できるくらいの速さで動くからいいんじゃね?   サンガツ   来週出るらしいGPT5はどうなるんやろ   楽観的な結果出して文句言われるのは避けたいだろうしな   >>744    >>752    ルーターかましてんでしょ?   賢いモデルでも「胸の谷間が深い」とかいう英語を直訳したような謎の言い回しを多用するよな   それは別におかしくないような…?   谷間が深いはおかしくないけど   音声生成AIについてのスレやコミュニティってある?   >>759    >>767  https://itest.bbspink.com/phoebe/test/read.cgi/hgame2/1744775585    >>763    あーなるほど   ollama desktopとOpen WebUIのデスクトップ版が同時に出てくるの謎すぎる   英語で思考して日本語に翻訳する過程でニュアンスが失われている感じ   体位は翻訳の影響無しでも捻じれるから困ったもんだよな   >>771    OpenAIのOSSモデル、 120bと20bという話が出てるね   120Bもかなりアクティブ少なそうなMoEみたいだしRAMに載せても結構速度でそう   "安全性"を理由に発表を延期してたモデルに期待できんな   その辺厳しそうなヨーロッパのMistralが一番緩いっていうね   聞きたいんだけどGemini  APIでチャットをさっき始めて何回かチャットしたらこの表示が出てこれ以上チャット出来ない。 https://i.imgur.com/ow7fAIq.jpeg    Cloud Consoleで無料枠の制限に引っかかってるか確認したら?   2.5proの無料枠はアクセス集中しすぎてて何も問題なくてもエラー出るよ   混雑で弾かれてる場合は"You exceeded your current quota"じゃなくて"Model overloaded"って出る   調べたらエロチャに興奮してボタン連打したせいで1分間5リクエストの無料制限レートに引っかかっただけだったw スマソ…   2.5proエロチャで1分5回リスエスト送ることは不可能だと思ってたよ   qwen 235b a22bがもう安定してdeepseekの上にいるね   wannabeってgemini2.5proと比べてどうなん?   >>788    qwen 235b a22b遊んでみた   >>789    >>790    qwenが画像生成リリースしとる   >>793    openaiのモデルって小説を書けというと制限が厳しいけど小説を書く手助けをしてみたいにするの割とちゃんと手助けしてくれるのな   創作そのものは駄目だけど創作の補助は許すみたいな感じでは   LLMの本能的な機能は前の文章を読んで続きを予想して書く事であって   Grokは緩いよ   最近はこういうエロをやりたいんだけどプロンプト作ってとGrokに作って貰ってそれを使ってる   cydonia 24b v4のr1出てたしimatrixまで!   Geminiが一番緩いよね?   頭の悪いLLMにはすごいプロンプトを投げてやらないとまともに使えないからね   >>804    geminiはエロゆるゆるだと思う、ただ記憶力が微妙というか表現の方法指定しても3〜4回関係のない応答するとすぐ忘れがち   ttps://github.com/ggml-org/llama.cpp/pull/15091   ttps://github.com/huggingface/transformers/releases/tag/v4.55.0   >>809    >>802    gpt-ossちょっと触ったけど多分このスレじゃ使われることはなさそう   とりあえずGPT_OSS 20BをOpenrouterから試してみてるけど爆速だな   Tool Useが結構できるって話があるな   geminiはすぐにContent not permittedって出て中断されてしまう   DeepSeekやQwenでいいかなこれは…   業務用だろうね   OpenAIはまだ他にもいくつか発表を予定しているみたいだし   openai-ossの使用感を聞きにきーたよ・。・   gpt-ossのtechnical report見たけど事前学習の項目にデータセットは安全性のためにフィルタリングを加えSTEMとcodingベンチマークに特化させたとか誇らしげに書かれてる時点でこのスレ的には控えめに言ってゴミ   chatgpt 4o だと通る秘蔵のプロンプト喰わせてみたけど駄目でした > 20b+lmstudio  ■ このスレッドは過去ログ倉庫に格納されています