なんJLLM部 避難所 ★4 	
■ このスレッドは過去ログ倉庫に格納されています
 AIに色々なことをしゃべってもらうんやで 
 そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 
 自薦・他薦のモデルやツールは>>2以降 
  
 本スレ(避難中) 
 なんJLLM部 ★7 
 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 
 前スレ(実質本スレ) 
 なんJLLM部 避難所 ★3 
 https://mercury.bbspink.com/test/read.cgi/onatech/1717886234  chatbotarenaで投票しまくってるけどo1全然出てこねぇな 
 今日20回くらいたぶん投票してるけどo1-miniが1回出てきただけだわ 
 英語のランキングみる限り一応o1-previewも出ては来るみたいだけどとにかく数が少ないみたいね 
 日本語で順位が付くの相当時間かかりそう  メインメモリで運用してるのすげえな。自分じゃ遅すぎて耐えられないわ 
 DDR5とかだと違ってくるんかな?  さすがに最上位スレッドリッパーとかならキャッシュとコアの暴力でわりかし早いのは言われとるな  上位スリッパならメモリ8chで460GB/s出るし  教えてもらったところにあったのから飛んできた 
 現状はどんな感じですか? gpt4oと遜色ない?  o1はチャット用じゃないから。。。 
 論理重ねるようなタスクじゃないと  4oで使ってたプロンプトと同じので出力できるのってないんだな  SF考証とかやらせるとo1は普通にクソ使えるよ 
 明らかに他とレベル違う  keitokei1994/EZO-Qwen2.5-32B-Instruct-GGUF 
 72bもおねげします〜  >>181 
 EZO-Qwen2.5-32B-Instruct-GGUF試してるが 
 普通に事件の内容教えてくれてるぞw  Anthropic公式サイトや検索AIでシコってるガイジは隔離スレいけや  こっちが荒らしに負けて移住してきたんだぞ 
 余計な火種を撒くなマヌケ  高速高品質ガバガバLLMでシコってる向こうの人らが羨ましくて仕方ないんだろうな  LCA便利すぎ 
 浦島太郎だったけどモデルの性能爆上がりしててびっくりした  >>190 
 戦ってるのは初心者…というか過去ログも何も読まないアホだけや 
 古参も迷惑しとる  5090のリーク情報によるとVRAM32GBかもしれんみたい 
 32あったらcommand RとTTS併用しながら3Dモデル動かしても余裕だろなあ  google colabのkoboldcpp、無料だとT4 gpuがつかえるけど、エロ文章に使ったらbanされるとかある?  mac 64Gだから70BならK4-M(48GByte)がなんとか動く 
 M4 Ultraはよこい  AppleはAI用に自社製プロセッサーを開発してすでに使ってるらしいから、mac studioやmac pro用にフィードバックされるといいなぁ、というかしてくれ  anthracite-org/magnum-v2-72b 
 1か月も前のモデルだけど、日本語エロがかなりいいわこれ 
 qwen2ベースだったからノーマークだった  Llama3.2なんて出てんじゃん 
 でもあいかわらず日本語やらアジア圏の言語スルーされててかなC  スルーと言うか、単に無差別に学習して最終的に出せる品質に達したかどうかってだけでは  >>203 
 そんなわけないやろ… 
 AIに学習させるデータが勝手に集まって来てくれるとでも思っとるんか? 
 ある程度は自動化するにしたって低品質なデータとか著作物は除外せなあかんし 
 どの言語を重点的に学習するかなんて人間の判断や  >>204 
 それだとある程度は日本語も出る理由を説明できへんからな… 
 学習はしとるんよ 
 対応と言えるクオリティに達さなかっただけや  NSFWとかERPで良い感じの男モデルないかな 
 女性向けにマネタイズしたいんだけど  2bとか3bの軽いモデルをcpuだけで動かすの、ゲームのNPCとかに 
 使えるようになってきてはいるんだろうな、という推測  将来的には対戦型のゲームにAIが搭載されて接待プレイしてくれるようになるだろう  >>209 
 できるだろうし最初は同人ゲーあたりからそういうのが出てきそう 
 ただAIがとんでもないことを口走らないようなセーフティが難しそう 
 これは私たちが作ったんじゃなくてAIが勝手に暴走したんです!と言い訳しても納得する人ばかりじゃないだろうし  EmemeがNPCにLLMを使ったゲームで今月に早期アクセス公開予定だったけど延期してしまった  >>211 
 同人ゲーと言えば、初期の頃chatgptに接続して遊ぶタイプのが出てきてエロ規制が大変だろうな 
 と思ったけど、ローカルLLMなら規制なんかいらないというか  >>213 
 同人の場合、独自の規約を作って(発言の責任は負えないなど)同意できない場合は遊べない仕様にもできるけど 
 Ememeさんみたいな大手の場合はそうもいかないかな。よくわからないけど  NSFW描写は男女間のシーンで学習してるせいか、男同士でやっててもすぐに「子宮にぶちまけた」「子宮口につっこんだ」とかなっちちゃう 
 女同士でもそういうのあるのかな?  そりゃ指示が適当かモデルがしょぼいかどちらかだろう  >>215 
 遊ぶ側は気にしなくても外野が騒ぐと面倒だから  サイバーエージェントのMistral-Nemoがなんかめっちゃ強いみたいだけど使ったことあるやついる? 
 存在すら知らなかったわ 
  
 https://x.com/aratako_lm/status/1840270470463275396  >>219 
 >>220 
 同じ板でGPTで検索してみたらええんちゃう? 
 このスレはプロンプトを貼り付ける外部SNSとかないから不便だよな  >>222 
 3pなど複雑なプロンプトも 
 かなり読んでくれるが 
 合意ありきで描写は淡白気味 
 プロンプトを調整すれば 
 いけるかは知らん  Mistral-Nemoは長文に強くていいよ。Q8でも3万トークンの小説読ませて質問に答えさせるくらいはできる 
 板的な用途には今一つだと思うけどいいモデルだわ  もう英語オンリーでも構わんからある程度簡単にインスコできるんを探すんご…  ソフトウェアのツールでggfuも落とせるのがあったけどどれえあっけな…  https://lmstudio.ai/ 
 これこれ 
 本体英語だけどツール上でhuggingfaceからダウンロードできるよ  LM StudioはHF検索→ダウンロードがお手軽なのはよかったんだけど 
 チャット画面のテキスト編集がしづらいとかで他のクライアントから 
 アクセスしてサーバとして使うときにGUIが邪魔だったので最近使ってないな 
 代わりにOllamaをサーバ起動して(Macだとメニューバーにアイコンだけ表示) 
 VSCode上の自作拡張からOpenAI APIで繋いで使ってる  spow12/ChatWaifu_22B_v2.0_preview 
  
 このモデル、学習データ見ると日本語かなり行けそうなんだけど出先で試せん  試そうとしたけど22Bは量子化しないとウチでは無理だ…  anthracite-org/magnum-v2-72b 
  
 ↑が日本語エロ素晴らしかったから 
  
 mradermacher/magnum-v2-123b-i1-GGUF 
  
 こっちも試してみた。 
 IQ3_XXSだけど、エロいわこれ 
 こっちはmistralベースだな 
 magnumの日本語tuneは、かなりエロいみたいだ  浦島なんだけど4090で動きそうなエロLLMはいま熱いのなんなんだろ…?  >>240 
 量子化見落としてたありがとう 
 で、試してみたけど日本語は一応話せるけど不自然な感じだね 
  
 >>242 
 同じく4090だけど今使ってるのは以下だなあ 
 calm3-22b-RP 
 Mistral-Nemo-Japanese-Instruct-2408  >>243 
 ワイも片言な日本語でいまいちやった。 
 小さいモデルだと日本語特化で学習してないと厳しいんだろうな  magnum-v2-123b 
 セリフもエロもいいんだけど、日本語トークンに対応してないから、おせえええええ 
 macほしいいいいい  Himeyuri-v0.1-12Bていうのが小説もRPも好感触なんだけど使ってる人いる?  これから始めるんだけどKoboldcppとEasyNovelAssistantどっちがいいの?  >>248 
 ENAはKoboldcppにガワ被せてるだけやで 
 汎用的な使い方するなら普通にKoboldcpp使ったらええ  >>247 
 尻タブで試してみたんだけど文が破綻しててまるで駄目なんだが… 
 小説用で指示モードとロールプレイには最適化されてませんという説明通りって感じなんだけどどんな設定でRPやってるの?  >>248 
 EasyNovelAssistantを入れて小説書きたいときはEasyNovelAssistantを起動 
 チャットしたいときはEasyNovelAssistantの中のKoboldcppを起動するんや 
 EasyNovelAssistantのgithubページのドキュメントにちょっとだけ情報載ってるから見とくとええで  >>243 
 >>245 
 微妙なのか 
 学習データは良さそうだけど…(非公開データだけどエロゲのテキストも学習してるみたいだったし) 
 Mistral-Smallがベースだからかな?Calm3とかベースでやってみてほしいわ  >>247 
 なかなかええな。Berfhofと同じ人のモデルか 
  
 >>250 
 わい環ではSTでもまぁまぁいい感じだけどな。temptatureを0.35とか低めにしたほうがいいみたい  >>253 
 なるほど…温度低くしろって説明は読んで0.7くらいでやってたや 
 そこまで低くしないといかんのか 
 あと、応答ごとに1行だけ表示とかいうチェックを外すと謎の解説文みたいなのが高頻度で発生しちゃうな 
 でも小説書かせると自然だったからberghof-NSFW-7Bと特徴が似てる感じやね  12Bくらいあると理解力が凄い、ってなるね 
 magnum-12b-v2-q6_k.ggufがなかなか良い  magnumは123bが規制なくて最高なんだがいかんせん遅すぎる 
 70b常用のワイにもきついw  >>256 
 モモンガニキがgguf公開してくれてるから試してみるか 
 しかし2BでGPT3.5相当の性能ってほんまかいな  SillyTavernでメッセージを送る際自動で鉤括弧をつける方法 
  
 Extensions(日本語環境だと拡張機能)内のRegex(日本語環境だと正規表現)を開く 
 グローバルスクリプトを開く 
 なんでもいいのでスクリプト名を名付ける 
 Find Regex(正規表現を検索)の欄に^(.*)$と書く 
 Replace With(を検索する)の欄に「{{match}}」と書く 
 other option(その他のオプション)からSubstitute Regex(正規表現の置換)にチェックをつける 
  
 知ってるやつも多いと思うけどちょっとググっても引っ掛からなかったので書き込んどく 
 これだと**で囲んだ場合でもカッコの中に含まれるから注意 
 **だけ外に出す方法はワカランカッタ 
 いちいち「」出すの面倒くさい奴用  >>261 
 入力した文章全体を自動で「」で囲む方法ってこと? 
 今まで何も気にしてなかったけど、そうすることで何かメリットがあるってことなの?  >>262 
 普段TRPGで遊んでるから「」ついてることに慣れてただけ 
 見栄えの問題で意味はないと思う 
 一応「」つきの文章は大抵の場合は誰かと誰かの会話だから日本語の小説を学習したモデルなら口語調で短めの文が出やすくなるみたいな傾向はあるかもしれない 
 検証したことはない  自分がバカすぎて入力した文章全体を自動で「」で囲む方法ってこと?って問いに答えてなかった 
 そうです 
 囲む必要があるかはわからん 
 多分ないかも  なるほど 
 TTSで読み上げる時、" "で挟んだ部分だけを読み上げる機能があるから、この正規表現ってやつを上手く使えば日本語文章に馴染んだ「」に置き換えたりも出来たりして  >>0266 
 前スレでその件に関して相談して、正規表現教えてもらったワイが通りますよっと 
 まさにその通りやで 
 TTSの読み上げなんかに対応しつつ、見た目は完全な日本語表現に出来るので没入感あがるんやで  Berghof-NSFW-7B.f16凄いな 
 他のモデルが混乱するちょっと変なシチュでもそこそこの精度で出してくれる  mradermacher/Luminum-v0.1-123B-i1-GGUF 
  
 LumimaidにMagnumを変態マージさせたモデル 
 nsfwでmagnumがさらに強化されとる 
 これがサクサク動くマシンがほしいw ■ このスレッドは過去ログ倉庫に格納されています