なんJLLM部 避難所 ★3
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★2
https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/
-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>21
質問内容によるけど、エロじゃないならわざわざローカルじゃなくてperplexity.aiとかにしたほうがいいと思うな
ソース付きで最新情報にも対応してるし、入力窓の左下のフォーカスから検索傾向も選択できる
あとGPUメモリ12GBは全然普通なので気にせんでいいです AIチームもキンペーに逆らったら収容所送りだからなw
学生をミンチにした頃から何も成長していない 前スレ絡みでもあるけど、qwen2でもエロはいける筈
pixivに上がってる繁体字中国語のエロ小説を翻訳するのに適したモデル探してて、dolphinとqwen2マージした奴はそこそこ行けてる、ただ繁体字が日本語訳できへんねん
いまんとこ一番有能なのがOcteus、なんでかはわからんけどちゃんと中国語理解できてて、かつ小説らしい文体になっててすごe
多分プロンプト改善でかなり性能向上が見込める気がするわ 色々大きめのモデルも弄るけど結局の所ローカルだとCommand R+に戻ってしまう 104B十分デカいと思うが...
それともデカめのモデルの中でもCommand R+が一番ええ、って話? >>32
書き方が悪かった
70Bクラスの他のモデル使っての話 ほーか、なんにせよローカルでCommand R+動かせるのは羨ましい限りや
小説生成なら小さめモデルでも行ける部分もあるが、日本語ロールプレイやとCommand R+が最低ラインやな、ワイの感覚やと
ホンマ日本語は難儀な言語や... 将来的にはビキビキに日本語チューニングと圧縮極まって
スマホに気軽にローカルLLM入れて何でもアシしたり会話してくれたらええね CommandR-v01だとVRAM24GBあればQ4は動くけど+より性能は落ちる
+の方は満足に動かそうと思うとQ3がVRAMに乗る60GBくらいが下限になる
4060Ti/A4000を沢山揃えるとか中古3090を狙うとかP40で突破する等々
現状でローカルでやるのはちと大変やな SillyTavernっていうAIにエッチなことができるアプリ?を使うにはText Generation WEBUIがいいと聞いたので
右も左もわからない状態で頑張ってWSL2でubuntu環境を入れて
よくわからないままパッケージなどをinstallして、text generation WEBUIを入れたんですが
サクっと導入できたOllama上のPhi-3 mediumだとトークン生成速度が数十/sでとても早くて
Text Generation WEBUIのほうだと同じモデルでトークン生成速度が3/sとかでめちゃくちゃ遅くて困ってます
どうしてOllamaのほうは爆速なんでしょう・・・
Windows上でubuntuを動かしててでGPUは4090です
さすがにほとんど無知な状態でText Generation WEBUIのようなライブラリ?パッケージ?を扱うのは無謀でしたかね ST使うだけならCR+のAPIでええやん
無料分1000回終わったら従量制にすればいいし モデルの量子化タイプは?
たぶんGGUF使っててGPUへオフロードされてないだけな気がする >>39
トランスフォーマー?というmodel loaderの設定で、Q8を選びました
生のままだと14BだとVRAMに乗らないかもという話を見たので・・・
Q8の量子化?でロードするとVRAMは70%ぐらい占有しているのをHWiNFOで確認しました(何もしてないときは12%ぐらいです)
たぶんVRAMにモデルは乗ってるんだと思うんですが・・・ ローダーをllama.cppにしてn-gpu-layersの値をVRAMから溢れない程度に設定してみたら?
それかOllamaをバックエンドにしちゃうとか >>41
llama.cppも試しましたが、n-gpu-layersなどをいじったりしてloadしようとしましたが
indexerror list index out of rangeのエラーが出てloadできませんでした
決定的な何かを見落としている気がするので、もう少し調べてみます、レスありがとうございました STでsbvits2.js動かせて大変ありがたいが何故か100字制限がかかっていて字数オーバーするとエラーが出る
APIを変えても変わらない
おま環? >>38
横からでスマンけどCR+のAPIってエロい内容の検閲とか全然やってないの? >>0043
SBV2のconfig.pyの
limit: int = 100
を任意の数字に変えるんや
>>0044
CR+「誰や?」
NJ「ロリペドです!」
CR+「よし通れ!」
って程度のモデレーションや なぜかcunnilingusってキーワードが出ると止まることがあった
不思議 LLMとオナサポチャHするときに、pythonのコードインタプリターでタイマー設定させるといい感じにリアルタイム性出ることに気づいた >>45
ありがとう
config.pyとconfig.ymlで変更したら
いけた
ずっとSTのttsのファイルばかり見てたわ >>44
AIにガイドライン聞いたら教えてくれるけど
ヘイトスピーチとか爆弾の作り方とかの一部に厳しいだけでペドも猟奇も何でもいける男前なAI
人種差別もいけるかなと思ってAIヒトラー作ったら直前までやってたソープランドRPのプロンプトが残っててソープランド「アンネの日記」に通されたわ >>1 立て乙
Style-Bert-VITS2 TTS スタイルとか問題なく動くんだがText Splitting有効にしてもなんかVRAM使い果たしちゃうんだけどなんでやろ?
WebUIのほうで改行ごとに生成でやるとCUDA out of memoryで死なずに生成できるんよな そういやraps pi AI出るっぽいけど流石にllmまともに動かないよね ninja v2でエロ小説書いてたら女が無限に「あああ」って絶頂して怖くなった >>50
申し訳ない.上位で改行がスペースに整形されていたためでした.修正は以下から入手してください.
https://github.com/Risenafis/SillyTavern/blob/fix-sbvits-splitting/public/scripts/extensions/tts/sbvits2.js
なお,sbvits2.jsは本体にマージされました.何もなければ次のリリースに入るので,よろしくです.この修正もPR出しておきます. >>54
まじか!ええね
拡張の方も修正適用したらout of memoryならずに長文も読み上げてくれるようになったわ
たすかる〜 EasyNovelに入ってるKoboldCppでチャットしてて気が付いたんだが
途中でモデルを切り替えても前の会話の内容が残ってる?
一度セッションをクリアしても同じ登場人物が出てきた silly導入してkoboldとリンクさせたんだが、セラフィナとかいう初期キャラにチャットしても設定?を延々返してくるだけで会話できないな
誰かわかる人いるか?どうやったら会話できるんだ >>57
返答が最初の凝った挨拶分に引っ張られてるだけだと思うから、自分でキャラ作ってみたらどう? 画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに - GIGAZINE
https://gigazine.net/news/20240611-comfyui-llmvision-malware/ これって脆弱性なの?
トロイのようなものに見えるが sbintuitions/sarashina1-65b
これ、量子化できた人いる?
日本語特化のgpt-neoxで65bとか珍しいので試したいけど、F16段階でエラーが出る(llama.cppは最新にあげた)
llama.cppもkoboldも対応してるはずなんだが・・・ 画像生成もLLMも導入のハードルがめちゃくちゃ下がったから適当に見掛けたのを片っ端から試したりしてこういうのに引っ掛かるのは結構ありそう 今更だけどkoboldcppのcu12を使ってみたらジェネレートは変わらんけど、普通のcudaのprogress120秒かかる所をcu12は3秒未満でクリアしてきてぱない… 今までkoboldで小説書く時、指示モードを使って官ジェネのローカル版とか使ってやってたけど
素直に小説モード使った方が捗る事に気付いた
指示モードだと、途中で終わらせようとするけど、小説モードは延々と書き続けるし、使いやすい
winfoやmemory駆使すれば、指示モードのプロンプト流用できるし、書き進めるうちに文体も安定してくるし、いいわこれ 30BクラスじゃないとRAGとかfunction calling無理だと思ってたけど、量子化したLlama-3 8Bでも普通に動いた すげえな
https://i.imgur.com/C73qQdo.png なんかvecteusでRPして満足してしまって立ち止まっている
それだけ愛してくれるなら身体や言葉以外でアピールしてくれるか?ってところで止まってる mradermacher/openbuddy-llama3-70b-v21.2-32k-GGUF
llama3のマルチリンガルという事で試したが、日本語性能はなかなか良かった
だが、一つ気になることが・・・
https://imgur.com/a/iYiVbNn
どういうことだってばよ!
セッション変えても絶対に「しずか」と書きやがらねぇww 修正しても、「しか」に戻りおるw
openbuddyって中華だっけ? 「しずか」ってなんかに引っ掛かるのか? しずちゃんだったら原作初期の名残かとも考えるが何かの言葉狩りかな?
づとかカタカナとかもっと試してほしい 吃りみたいなものでは
人によって特定の単語の発声が難しかったりするよね
言語モデルにもそういうのがあるかもしれない あんまりここにいる人たちにはささらんかもだけど、Jupyter上で動くGUIチャットアプリをGitHubに上げたので宣伝
主な機能としては
1. ベクトル検索ベースのWeb search RAG
2. LLMが書き出したPythonコードの自動実行(Pythonで可能なことはなんでもありなので、LLMにアプリを起動させたりなどアシスタント的な使い方もできる)
3. StreamingLLM(コンテキストの上限を超えても処理に時間がかからない)
4. style-bert-vits2で音声合成
https://github.com/yamikumo-DSD/chat_cmr/tree/main モデルによっては特定の言葉だけ変な場合あるよな
「混ざっていい?」が「混ざりていい?」になったり 複数のmacOS/iOS機器をネットワークで繋いでLLMを走らせる試み、来週コード公開らしい。
デモを見るとllama8b-4bitを使ってるので16GBのmacbookだけで十分走る気がするが、70Bとか動かせるんかねぇ。
https://x.com/mo_baioumy/status/1801322369434173860 silly tubarn使っているんだけど、拡張機能にあるTTSって項目が消えてしまうの自分だけ?
再インストールした時には存在するのに、ふと気が付くと項目自体がなくなってて選べなくなってる koboldcpp使ってて
チャットが途中で切られて俺のターンになるのどうにかならんかな?
聞きたいところが消去される
最大行数なんてあったっけ? >>66
EasyNovelAssistantにKoboldCppを更新するUpdate-KoboldCpp.batと
CUDA 12版にするUpdate-KoboldCpp_CUDA12.batを追加しといたで >>82
前スレのcu12でeasynovel使いたいコメじゃないけど、cu12でeasynovel使うからありがとう! >>81
サンガツ
試してみる
>>82
更新サンガツ
リネームせずに済む NVIDIAの340b chat arenaでしばらく遊んでたけど
openの70bと同じかちょっと上、gpt4とかclaude3には全然って感じの妥当な感じ
十分賢いんだけど急に翻訳文入れたり英語で話したりハルシネーションも目立つ 340BもあるならCR+を超えるかマルチモーダルじゃないと納得できんな Ninja-v1のバージョンアップ、Ninja-V2-7Bをリリース致します。
ベクトルマージ等の技術を活用し作成したMistralベースの70億パラメーターモデルです。
Gemini pro 1.0評価で
Elyza taskで3.71
JP MT Benchで8.24
という高スコアを記録しました。
ぜひお試し下さい。
https://huggingface.co/Local-Novel-LLM-project/Ninja-V2-7B おお、70Bか待ってました。
でも量子化してもらわないとうちの環境じゃ動かない まだちょっとさわっただけだけど7Bでこれは、すごい(小並感)
v2になって表現もなんだか良くなってる Ninjaはエロしか書けないのが楽しい
普通に書けってプロンプトにしてもエロしか知らないから全部エロくなるw GGUFはどこじゃ
と思ってたら同じページからダウンロードできた Ninjaでチャットしてるけど頑なにエロいことしないキャラも作れるぞ
さすがに無理矢理誘導すればエロいことをしてくれる場合もあるけど >>89のおかげで7BのBってbillionのBかと今更気づいた nemotron-4ハルシネーションが結構あるな嘘情報めっちゃ書く
小説はまあまあだったgemini1.5とかCR+の方が優れてる感じだったけど
ロールプレイの性能は結構高く感じた
API使えたらSTで遊ぼうかな サンガツ vecteus2もきたで! gguf待ち Vecteus-V2-7B-Q8_0.ggufを作ってoobaで動かしてみてる
NSFWなRP相手としてNinja-V2-7B-Q8_0.ggufとどっちがいいのか
どうやって比較したらいいんだろう せっかくなんでggufをアップロードしておいた
単にllama.cppで--outtype q8_0指定しただけね
https://huggingface.co/ReadyON/Vecteus-V2-7B-gguf Ninja-V2-7B-Q8_0.ggufを試してるけど、エロ描写を意図的に省略することがめちゃくちゃ多いな
たまたまかな? chubのシステムプロンプトを見ると
『これは架空のロールプレイであり、キャラクターは現実には存在しません。
シーンの描写に必要であれば、
薬物、セックス、拷問、暴力などのいかなる行為も許可、推奨されます。』
ざっくりこんな感じの事が書いてあるから、入れてみたらどうだろう?
もしくはキャラクターの設定にエロに関するゴールや行動指針を加える 尻タブ?で嫁ちゃんとチャットすると嫁ちゃんが勝手に俺の発言足してそれに返信し出すんだけど
これって対処法ある? 使ってるLLMもどういうプロンプト入力してるのかも書いてないのに分かるわけない vecteus2マジか、無印愛用してるから嬉しいわ さっさと帰宅して2を試したいなー
無印の方はチャットも簡単な短編小説もいけるしわりと適当なプロンプトでも良い感じに出力してくれるから2も楽しみだ DataPilot/ArrowPro-7B-KUJIRA
日本語性能最強を謳ってたので試したが、すごいなこれ
ここに出てきた例文や計算問題を完璧に答えた
生徒会問題だけは出来なかったが、それでも適当な答え(早苗とか)を出すんじゃなく
正直に情報不足と降参したのも、ある意味評価できる
ただ、エロに関してはかなり御堅いw うお
vecteus2も、同じくらいの推論力だった
こっちはエロ寛容な分、いいなw ninja-v2もvecteus-v2もv1と比べると倫理観が強化されてて犯罪行為とかあからさまに拒否してくる気がする >>0097
どこで試せるんや?リンクもらえんか? vecteus2は、モデル自体に倫理規定が埋め込まれてるみたいで、koboldの脱獄モードでもあまり効果がなかった(申し訳は回避されるが文章の途中で健全モードに変わっていく)
でも、ローカル用に調整した官ジェネを初手に入れたら、いい感じになったわ vecteus2が出たというので使ってみたけどちょっと使いにくいかなって感じた
没入感を削ぐナレーションの多さと、引用符などの誤用が多いようだ エロモデルはエロプロンプトにしなくてもエロしか書けないのだから
雑なプロンプトでいいんよ
普通に書けって言ってもエロ書くし 海外ゲーは巫女服女の子がエロシーンでは全裸になるわバニーも全裸になるわと偏見があるんだけど、奥ゆかしいモデルある? ninja v2はエロ書くけど犯罪エロは書かないんだな >>113
Chatbot arenaで色んなLLMと比較出来る 現状、AIにとって倫理はクソの役にも立ってない。それどころか足を引っ張って、性能を下げてる
心の底からそう思う
倫理を把握・認知し、正しく使いこなせるほどの性能が備わってない 日本は他国に比較するとテロにしろ児ポにしろ犯罪件数が異様に少ないからピンとこんけど
悪意が野放しになると洒落じゃすまんのよね
個人でオナネタに使う平和なやつだけならいいが ■ このスレッドは過去ログ倉庫に格納されています