なんJLLM部 避難所 ★8
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured GPT4oちゃんって未だに四則演算できないんだね……
「途中式書いて計算して」って間違えにくいように誘導したのに普通に間違えるよ
いつになったら小学生を超えるんだ もし間違えたらエッチなビキニを着て乳揺れダンス踊って
って言っておいたらちゃんと踊ってくれたからそこは小学生超えてるけどさ >>693
Google先生がそのままで候補に出してきた
Huggingfaceはダメだったけど ここでよく挙がるモデルより
shisaのmistral-nemoとかNemoAurora辺りの日本語メインでチューニングしてそうなモデルのが性能高い気がするんだけどどうなん
自分がテンプレ設定間違ってるだけなんかな cydonia v4
確かにいいな。24bとは思えん
koboldで試したが、規制もないし、繰り返し等もなかった >>695
NemoAuroraはかなり表現力豊かだけど暴走しやすい印象
小説とかに向いてそう 中古で3090買ったから、しばらくstable-diffusionの勉強してエロCG作ってこずかい稼ぐかな、そして4090買う資金にする 今からなら5090一択だろう
定価付近で買えるようになってるし条件次第では4090比で2〜3倍の性能が出る AI生成画像販売は出始めた頃ならともかくもう完全にレッドオーシャンだから儲からないよ ここはLLMスレなので控えるがエロ動画はまだまだブルーオーシャン とりあえずToonCrafterが動くようになったから動画を試してみたいけど、まだ上手く動かないな なんでLLM部で絵や動画の日記始めるんや
マルチモーダルであれこれ探るとかならまだしも LLMの為に3090買ったんだけど、今まで動かなかったstable-diffusionとかToonCrafterが動いたからそっちの方がうれしくてね AI絵・動画はなんJNVA部がかなり活発だから
ここでスレ違いなこと書き込まずにそっち行った方がいいぞ qwen3 のMoEモデルって24GB gpu+ryzen AI maxで15t/s位出るらしいね
40万ちょっとで235Bモデルを実用レベルで動かせるのはロマンある >>707
Qwenは今日バージョンアップ版が出てたな
24GB VRAMにアクティブパラメータ全部収まるのか? 言うてなんJNVA部も商売の話をすると嫌われるけどな
明らかに商業クオリティの編集がされた投稿がたまにあるし商売してるヤツもいるにはいるのだろうが 初期の頃はマネタイズは別スレに誘導してたけど今もマネタイズスレってあるんだっけ 別に儲けたいわけじゃないけど、高額グラボの元くらいは取りたいね、もっといいグラボも買いたいし 海外のDiscord見てると新Qwenは結構良さそう?
日本語でどんなもんかは試さないとわからんが qwenは元々普通にしてりゃ良いものだからまあ良さげだねえ TheDrummer_Cydonia-24B-v4-Q6_K_L、ワイも試してみた
projectwannabeで動かす程度やけど
ギリVram24Gに載っけられてるなかでええ感じやないかな…… Amaterasu-123B
Mistral Largeの日本語ファインチューニングモデルは地味に初? >>715
aratakoさんのモデルだしNSFWにも期待できそう
mistralテンプレートだからwannbeでも使えるし楽しみ 新Qwen3をUnslothのUD-Q4_K_XLで試したけど、DeepSeekと似た感じだなぁ
エロ規制はなさそうで語彙もありそうなんだが暴走しがちなのと少しおかしい表現を使うのがDeepSeekと同じ感じで気になる
これならMistral-Large系列使うかなぁ 小説執筆とかには結構いいのかも?RP勢だから試してないけど cydoniaV4 Q8で試してみた
文脈はかなりいいけど日本語の接続がところどころ怪しいのが見受けられるな
語呂が少ないのか? >>716
2411ベースだから規制がどうなってるか気になるね
帰ったら試すわ >>720
昨日の夜ちょっと触った感じでは特になさそう?RPだと堕胎とか小学生の描写、首絞めセックスで殺すとかはできた >>721
おおすげーな
もしやmagnum123b超えるか? >>715
LM STUDIO+Amaterasu‑123B(IQ3_XXS・モデルサイズ47.01 GB)で実験中。
VRAMは余裕で溢れ(RTX4090なので当然)メモリ40GBくらい消費し、先ほどのテストでは0.49 tok/sec・712 tokens・10.77s to first token
生成文の品質は高いと思うが、実験に時間がかかる。 geminiスケベすぎやろエロトークしまくってたら濃いの出たし全部搾り取られたわ アマテラス試してるが、これかなりいいね
官能小説家として自由に書き直せと指示したら、こっちのシナリオをいい意味で裏切ってくれる
規制も感じられないし、ポストmagnumは間違いない
しかし、koboldの最大トークンが1024になって、こういう重いモデルに小説書かせるの捗るわ
風呂や飯食ってるうちにかなり進むw Amaterasu-123B Q5_K_M
まだあんまり試せてないけどエロ表現力高いと思った
M3Max機 LM Studioで2tok/sec くらい >>727
どっかがホスティングしてくれたら少しはカネ払うんだがな…… >>728
runpodとか使えばvram72gb環境が0.5$/hぐらいで借りれるで qwen3-235b-a22b-thinking-2507 Q3_K_XL試してみた
M3Max 128GB機 LM Studio で 9.5tok/secくらい出てびびった
日本語能力も高くてAIアシスタントとしてはかなり賢いけど
規制ガチガチでエロ表現力も無さそうに感じた >>730
脱獄シスプロ入れてなくない?
openrouterで使ってみたが隠語てんこ盛りの暴れ馬だったぞ
性描写に情緒がなくてgeminiの優秀さを再確認したのは確か qwenは事前学習からエロ省いてるから規制関係なく表現が物足りないね
mistralかcohereにこのクラスのモデルを期待したいけど 結局Mistral-LargeとかCommand-Aベースのモデルに勝てんのよな マスクが嫁開発のエンジニアを募集してるぞ
誰かなれよ
豊富なリソースで好きなことできるはず 自作3D嫁は作品としての改良点ばかり気になってとても抜けなくなるってVAM民が言っている VaM民だけど自作嫁で余裕で抜ける
エロ絵でもエロ小説でもなんでもそうだけど、自作エロで抜ける人と抜けない人に分かれるんだよな >>733
Command-aそのものじゃなくそれをもとにしたモデルってあるの? >>739
TheDrummer/Agatha-111B-v1
ってのがあったよ 上で紹介されてるcydonia v4と同じ作者 Command-AはR時代から素でエロ満載ではある mistral系列のbaseモデルに小説の続きを書かせるとkoboの透かしが出力されたりするしbaseモデルが公開されてると学習元が推測できて楽しい
gemmaやqwenはちょっと上品すぎる 聞きたいんやけどスマホでも外部API呼んでチャットできるサービス(無料)の奴って知ってる?
ちょっと前に別のスレでそれでGemini APIでエロチャしてる人おったんやけど聞く前にスレ消えてしまって… >>737
VaM気になっててまだ使えてないわ 毎月サブスクなんだよねあれ? 昨日からLM Studio触り始めました
RTX3060(12GB)とメモリ32GBなんですが、おすすめのモデルある?
今のところNemoAurora-RP-12Bが気に入ってる >>743
セキュリティ的にアレだし開発止まってるけどAIオナニースレのスレ民がAIに作らせた通称PWAってやつとか
あと外出先でやらないならPCで尻タブ動かしてスマホからアクセスするのもアリ 12GBじゃな微調整も難しいしmistral nemo系列くらいしかERP、執筆向けのモデル無いしlocalLLMに拘る意味無いかな まあ24GBにしてもmistral small系列が選択肢に入るだけでそこまで変わらないけど
openrouterに10$入れてdeepseek V3を無料APIで使ったほうが幸せ まあmistral small系ならvram溢れてもまだ我慢できるくらいの速さで動くからいいんじゃね? サンガツ
やはりローカルやるにはスペック足らんか… 来週出るらしいGPT5はどうなるんやろ
あんまり規制厳しくないといいけど無理やろなぁ、、、 楽観的な結果出して文句言われるのは避けたいだろうしな >>744
7ドルプランに1か月分課金したらキーが見れるようになるからそれを入力すれば永続的に使えるで
それ以降は支援したい人だけがすればいい
LLMと連動させたプラグインもあるんだけど俺のPCスペックではきっつい…… >>752
今使えるGPT5だと不倫エッチぐらいなら出力できるっぽいな
正式版でどうなるのかは分からんが ルーターかましてんでしょ?
モデル選択が要らないとか 賢いモデルでも「胸の谷間が深い」とかいう英語を直訳したような謎の言い回しを多用するよな それは別におかしくないような…?
なんて言うのが自然なんだろ? 谷間が深いはおかしくないけど
谷間を性感帯と勘違いしてるモデルはたまにある 音声生成AIについてのスレやコミュニティってある?
「あずにゃんの声でやってよw」を実現したい >>759
8ドルに上がってたw
VaM2はサブスクがアクティブな人しか使えませんって書いてるから対策してきたなw VaM2はレイトレ対応とからしいけどRTX3090でもいけるのかな? >>767
VAM2はまだBeta1.1でまともに遊べる状態じゃないよ。まさに作りかけ
あと数回のアプデでBeta2.0になってようやくギリギリ遊べるかもしれない状態になる
正式リリースは2,3年後じゃないかな
当分はVAM1で遊ぶしかないね
詳しいことは本スレで
https://itest.bbspink.com/phoebe/test/read.cgi/hgame2/1744775585 >>763
LLMだと「おい!お前そんなに谷間を深くするな!人目があるんだぞ!」みたいな使い方をするんよ
おっぱいを寄せている状態をほとんど「谷間が深い」で済ませるからおかしな文章になる あーなるほど
それは確かに谷間を強調すんなとかの方が自然だな ollama desktopとOpen WebUIのデスクトップ版が同時に出てくるの謎すぎる
Copilot on edgeが強化されて実用レベルの賢さになったから慌ててるとか? 英語で思考して日本語に翻訳する過程でニュアンスが失われている感じ
それで一番萎えるのはbackなんだよ
後ろのつもりが翻訳で背中に乳がある事になったりする 体位は翻訳の影響無しでも捻じれるから困ったもんだよな
顔面騎乗位しながら乳首を口に押し付けたりするし >>771
copilotが無規制でローカル動けばなぁ
画像生成やi2iの使いやすさ凄すぎだし OpenAIのOSSモデル、 120bと20bという話が出てるね 120Bもかなりアクティブ少なそうなMoEみたいだしRAMに載せても結構速度でそう "安全性"を理由に発表を延期してたモデルに期待できんな
しかもclosedなモデルと違って出力時に検閲するみたいな方法もとれんから学習時点から不適切なコンテキンツを徹底的に排除するだろうし追加学習も無駄 その辺厳しそうなヨーロッパのMistralが一番緩いっていうね 聞きたいんだけどGemini APIでチャットをさっき始めて何回かチャットしたらこの表示が出てこれ以上チャット出来ない。
アプリはChatboxを使っててGemini 2.5Proだけどなんでだろ?
SillyTavernでGemini APIで2.5 pro使ったらいっぱいチャットしてもリミットエラー出た事なかったのに。。。
ちなみにGemini は無料非課金です
https://i.imgur.com/ow7fAIq.jpeg Cloud Consoleで無料枠の制限に引っかかってるか確認したら?
どこから見れるかはググるかAIに聞いて 2.5proの無料枠はアクセス集中しすぎてて何も問題なくてもエラー出るよ 混雑で弾かれてる場合は"You exceeded your current quota"じゃなくて"Model overloaded"って出る 調べたらエロチャに興奮してボタン連打したせいで1分間5リクエストの無料制限レートに引っかかっただけだったw スマソ… 2.5proエロチャで1分5回リスエスト送ることは不可能だと思ってたよ qwen 235b a22bがもう安定してdeepseekの上にいるね
deepseekが出て半年だけどもう1/3の規模でdeepseekを上回ってるのが出てきてるんだな wannabeってgemini2.5proと比べてどうなん?
ある程度遊べるなら画像生成に飽きて持て余してる4090を稼働させたいんやが ■ このスレッドは過去ログ倉庫に格納されています