なんJLLM部 避難所 ★3
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:37:14.82ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★2
https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0739名無しさん@ピンキー (ベーイモ MM4e-kmAZ)2024/07/31(水) 12:39:22.69ID:mLdonqTXM
ELYZAは俺俺ベンチの本家本元だからしゃーないし期待してない
0741名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:00:44.65ID:???0
>>740
設定間違ってるのかな?

色々試してみた感じ一定の法則で文字が欠けることが多いんだよね
長音の後が欠けやすいから
「ケーキ」「ラーメン」「アーメン」「ザーメン」「ステーション」が
「ケー」「ラーン」「アーン」「ザーン」「ステーョン」になるわ
あとは文頭の文字が欠けやすいのと「楽しみ」「慈しみ」も「楽し」「慈し」になる

koboldでデフォ設定にしたり色々設定変えたりしてるけどあんまり変わらん
0743名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:14:43.72ID:???0
>>742
しかちゃんになる

「しずかに」→「しかに」
「わずかに」→「わすかに」
「おおきいかに」→「おおきいに」

脱字が多いけど「わすかに」みたいに濁点が消える場合もあるみたいだ
0744名無しさん@ピンキー (ワッチョイ 1798-wWBb)2024/07/31(水) 14:28:12.94ID:???0
AIの出力終了後、
ブラウザ側だと「# 記」だけど
kobold(v1.69.1)のコンソール側だと「# 追記」になってた。
koboldのexeとブラウザ間のhttp通信ペイロードの取込上の問題があるかも?
0753名無しさん@ピンキー (ワッチョイ 9b4f-+LaP)2024/07/31(水) 22:44:28.16ID:???0
ベンチマーク特化になってるかはベンチマークの領域外のテストすれば分かりやすい
それこそエロとかもその1つ
断られるのは別として、ベンチマーク性能は良いのにエロの表現とかが微妙なのは根本的にベンチ特化になっている
0756名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/08/01(木) 01:41:57.36ID:???0

規制の件だけど、自分から今のは少し不適切だったので、以下のように書き直しますね
って、言って書き直してきたのはワロタ
まあ、オリジナルよりは緩いわ
0759名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/08/01(木) 13:52:38.76ID:???0
繰り返しを無くす方法

■temperature高くする。
temperatureが低すぎると、モデルが非常に確率の高い次の単語を選択し続けるため、繰り返しが生じやすくなります。

■top_p(トップPサンプリング)高くする。
確率の合計がP以上になるまで単語を選択
Pの値が低いと、選択肢が制限されるため、繰り返しが発生しやすくなります。逆にPの値が高すぎると、ランダム性が増し、
文脈にそぐわない単語が選ばれやすくなるため、適切なバランスを見つけることが大切です。
一般的にはP値を0.9前後から調整を始め、状況に応じて微調整します。

■top_k(トップKサンプリング)高くする。
K個の最も確率の高い単語から選択
トップKの値を上げることで、選択肢が増えるため、より多様な単語やフレーズが選ばれる可能性が高くなります。これにより、
同じフレーズの繰り返しが減少する可能性があります。
トップKの値が小さいと、モデルは最も確率の高い単語に集中しがちですが、Kを大きくすると、より多様な単語が選ばれる可能性が増えます。
これにより、生成されるテキストの多様性が向上し、繰り返しが減少することがあります。
0763名無しさん@ピンキー (ワッチョイ 53e1-AKUD)2024/08/02(金) 08:25:52.20ID:bxiekA220
>>759
解説ありがとう、勉強になるわ。
0767名無しさん@ピンキー (ワッチョイ 9357-J9bf)2024/08/02(金) 10:53:25.05ID:???0
英語のモデル、リーダーボードに載ってる奴とかこのスレに上がってる奴いろいろ試したけど、結局Wizard-lm-2が複雑なプロンプトに対する理解では頭一つ抜けてる気がする。
自分の使い方だといかに複雑なプロンプトを理解できるかが一番重要だから、ずっとこれ一択になっちゃう
0773名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/03(土) 19:19:36.19ID:???0
頭の良さと創造力が反比例してるのが画像生成AIと同じ傾向だな
あっちも新しいモデルになる程クオリティ上がる代わりに出せる絵の幅がどんどん減っていく
人間は頭良いほど創造力が高くなるからAIはやっぱ原理的に別物なんだな
0774名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/03(土) 19:23:03.40ID:EbmL5lWm0
AI初心者なんですがトラブってるので教えてください

OllamaでモデルNinja-v1-NSFW-GGUFを実行した場合は正常にやり取りできるんですが
OllamaでモデルNinja-v1-NSFW-128k-GGUFを実行した場合は、やり取りの途中から勝手に意味不明な文字列を垂れ流すようになってしまいます
一旦こうなるとセッションを保存せずに終了して新しいセッションを開始しても意味不明な文字列を垂れ流すようになり、モデルを一旦削除するしか修正方法がなくなります

これって、モデルを作成する際のModelFileなど設定が悪いのしょうか?
それとも128kモデルの方はチャットボットのような使用目的では向いていないのでしょうか?
ダウンロード数は圧倒的に128kの方が多いのでモデルが原因の問題だとは思えないんですけども
AI初心者すぎて、なにをどうすれば問題を修正できるのか検討もつかない状態です
0775名無しさん@ピンキー (ワッチョイ 8fcf-mQXs)2024/08/03(土) 23:03:12.97ID:RggQ7Em20
>>770
初歩的な質問で申し訳ないのですが、インストール後の起動方法がよくわからないのですがどうすればいいですか?
0776名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/04(日) 00:00:08.92ID:IVhBltvZ0
>>775
コマンドラインで”jupyter lab”を実行するとJupyterっていうWebアプリが開くと思います
そしたら、chat_gui.ipynbを左側のペインから開いて下さい
そしたら、”上部メニュー -> Run -> run all cells”とクリックすると、起動するはず
途中デフォルトのモデルダウンロードのメッセージとかあると思うけど、GGUFをすでに持ってるなら、飛ばして下さい

今ちょっと調べたら出てきたJupyterの使い方
https://qiita.com/y-matsunaga/items/2c7efdae8777f15059e0
0777名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 04:53:53.79ID:???0
llama-3-elyza-jp-8bをLM Studioで使ったらちょっとでもエロ要素があると
"I cannot create explicit content."しか言わへんガチガチ倫理観で
どんだけ説得してもビクともせんのやが
koboldcppで使うと何故かユルユル倫理観なんや
最初はkoboldcppのChat PrePrompt機能がjailbreakになっとるんか?と思ったら
そうやなくてInstruct Tag Presetを(適切であろう)llama3 chatにしたらガチガチ倫理観になったんや
今度は逆にLM Studioの方でPresetをMistral Instractにしてみたらユルユル倫理観になった
これどういう仕組みなんや??
0778名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 05:32:16.88ID:???0
いやLM StudioはDefault LM Studio Presetでもユルユルやったわ
わざわざllama3 V2プリセットを選んどったからガチガチになってたんか
何にしても適切な書式の指定が検閲のオン・オフを左右してることには変わらへんけど
0780名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/04(日) 12:28:07.52ID:???0
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-ggufはまったく申し訳しないよ
逆に素直過ぎて、あれこれゲスいこと指示してやらないとエロくしてくれないまであるけど
0782名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/04(日) 20:54:04.53ID:MD/t9U/C0
>>774
一応、自己解決したので同じ症状が発生した人用に書き残しておきます

Hugging FaceでLocal-Novel-LLM-projectが公開しているNinja-v1-NSFW-128k-GGUFを使用すると>>774の症状が発生していました
これを、Hugging Faceでmmngaが公開しているNinja-v1-NSFW-128k-ggufに変更したところ症状が発生しなくなりました

モデルが原因の問題のように思えましたが、もしかしたら使用したモデルと実行ツールの組み合わせなどが原因の可能性もあるかもしれません
とりあえず以上
0789名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/05(月) 21:01:25.46ID:???0
頭が悪いモデルほどけれんみのある文章出せる、
頭良くなるほど指示には従ってくれるけど文章から面白みも創造力も失われていく
両立は難しいんだな…
0791名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/05(月) 21:36:36.12ID:???0
>>789
別にそんなことないで
claude3 opusは頭もええしエロ描写もぶっ飛んでる
最新のGeminiに小説書かせたら表現のレベルが違う
性能が悪いモデルの方が創造力があるなんて感じるのは
子供が描いたラクガキを見て大人が天才やと思うようなバイアスと一緒や
0792名無しさん@ピンキー (ワッチョイ 7371-Hqc2)2024/08/05(月) 22:52:20.37ID:WdbSQo1T0
8月中旬でGENIACのLLM開発が一旦区切りつくっぽいからそこで色々なモデル出てきそうだね
0793名無しさん@ピンキー (ワントンキン MM1f-uyn2)2024/08/05(月) 23:27:17.45ID:???M
頭が悪いモデルと呼んでてるものはいわゆる過学習を起こしてて
学習元の作品のフレーズをコピペしたりしてるから一見ケレン味が出てるように見えるんだ
悪い事は言わないから個人で楽しむ範囲に抑えとくのが吉だ
0794名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/05(月) 23:44:42.08ID:UXi1kagk0
L3.1ベースのモデルとかMistral Large 2とか色々試したけど、やっぱCommand R+の方がしっくりくるなぁ
0796名無しさん@ピンキー (ワッチョイ e3e0-kh9I)2024/08/06(火) 22:44:58.26ID:dijUXKMI0
本体の性能とは別にAI開発者が出力時にどういう制限かけるか,何で学習するかで出力結果だいぶ変わると思われる
エロ完全に潰すためにエロと関係ない用語まで不適切連発するGeminiやらおそらく温度低く設定してるからつまらん内容しか話せなくなってるGPTとかいるし
0798名無しさん@ピンキー (ワッチョイ 136a-6MSl)2024/08/07(水) 04:50:48.86ID:???0
エロ会話だけなら膨大な埋め込み空間の極々狭いところしか使わないからそりゃ小さいモデルでもいいでしょ
新規性のある会話も不要だし同じようなところをウロウロサンプリングしてくれればいいから
0800名無しさん@ピンキー (ワッチョイ 7f6f-U9zy)2024/08/07(水) 09:10:21.72ID:???0
それじゃもう予め返答が決まってるロボットを相手にしてるのと同じじゃん
まあ究極的にはAIも生身の人もそうだけど、それを感じさせないのがAIエロチャの魅力だろうに
0801名無しさん@ピンキー (ワッチョイ 03b2-J1cL)2024/08/07(水) 09:32:30.28ID:???0
silly tavernのグループ会話でなんか打ち込んだら各キャラがずらずら返事してくるけど、これを1人だけにする設定ってあるんかな?
5人が返事してきても最初の1人が変な事言ってると後の4人まで変な話始めちゃうから1人ずつチェックしていきたいんだよね
0804名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/07(水) 13:10:33.39ID:5pIkYmmo0
>>768が立ててくれた本スレ、多分>>20行かなかったからだと思うけど落ちてるね
0807名無しさん@ピンキー (ワッチョイ cfa9-3qL1)2024/08/07(水) 21:09:31.86ID:cY5a4aED0
これからはllama-70b日本語ベースのgguf悪魔合体モデルを中心に話を進めてくれ
0816名無しさん@ピンキー (ワッチョイ bf2a-1TAy)2024/08/09(金) 13:58:13.30ID:???0
最近sillyを使い始めて、キャラカード探してきて遊んでいるんだが、基本英語だから翻訳機能を噛ませると違和感のある内容が多い。
日本語対応モデルに直接日本語で回答してもらうとだいぶマシなんだけど、良いやり方なんかあるかな?
今はキャラカードの最初の挨拶を自力で翻訳するのが良い気がしているけど、やはりちょい面倒なんよな
0820名無しさん@ピンキー (ワッチョイ 7f74-WEU8)2024/08/09(金) 16:41:01.32ID:???0
Mistral Large 2407が急にchatbot arenaの上位に食い込んできたな
日本語でローカルではぶっちぎりの性能

123bだから量子化してもだいぶキッツいけど選択肢が増えるのはいいことだ
0821名無しさん@ピンキー (トンモー MMc7-vkhg)2024/08/09(金) 19:31:42.83ID:???M
翻訳自体が敬語になりやすかったりするのと、喘ぎ声なんかは適正無いに等しい。対策は難しいのではないか。api叩いて置き換えで言葉遣い整えて出力するプログラム自作するぐらいしか思い付かない。
0824名無しさん@ピンキー (トンモー MMc7-vkhg)2024/08/09(金) 19:54:00.63ID:???M
喘ぎ声出させるだけなら7bモデルでいけそうなので、モデル2つ動かしておいて、メインモデルで主文を出力、喘ぎモデルに文章を渡して文章に合った喘ぎ声を出力すれば理論上できるとは思う。一応2回生成するので相応の時間は掛かるだろうけど
0825名無しさん@ピンキー (ワッチョイ cf2d-3qL1)2024/08/09(金) 21:19:32.26ID:ObnGNhk00
エロい表現を徹底的にWikipediaに叩き込む
喘ぎ方の全てや、仕草など
0827名無しさん@ピンキー (ワッチョイ e314-kh9I)2024/08/09(金) 21:38:11.76ID:TS/RW5pn0
喘ぎ声とかエロ用語をちゃんと使ってもらうならまず日本語対応してるAIであること
加えてオープンソースならファインチューニングで喘ぎ声とか大量に覚えさせることで対応できると思う
感じ始めてる時、強く感じてる時,イッてる時とか喘ぎ声ごとのタグ付けも必要かもしれんな
0830名無しさん@ピンキー (ワッチョイ 3ede-giDl)2024/08/11(日) 03:58:04.74ID:Ue5bmtEh0
ブルームバーグが1ドル100円まで円高行くって言ってる
早くなってくれRTX4090ほしい
ついでにiPhoneも買い替える
0833名無しさん@ピンキー (ワッチョイ 7776-Jj2t)2024/08/11(日) 18:05:46.99ID:???0
利上げしないとは言ってないぞ
金融市場が不安定なら利上げを遅らせると言った
つまり金融市場が安定したら利上げされる

あと、日銀が利上げしなくてもFRBは利下げするから金利差は確実に縮小していく
0837名無しさん@ピンキー (ワッチョイ 5f74-V/Qk)2024/08/11(日) 23:18:45.91ID:???0
VRAMにおさまりさえすればLLMもコアの性能に左右されるんやけどな
RTX A6000と4090で1.5倍くらいはちゃうような感覚やな
でも4090のVRAMに収まるLLMなんて正直ワイは使わんのやけどな

あとTensorRT使い始めたら恐らくH100とかのサーバー向けのやつのが伸びしろがすごいと思う
0838名無しさん@ピンキー (ワッチョイ 7e7a-BHTg)2024/08/12(月) 12:47:01.94ID:???0
出力受け渡して逐次的に分割処理できるなら
前から順々に読み込んで処理するような方式作ればVRAM要らずじゃね?

高速ストレージだけあれば実用的に使える奴そろそろ頼むわ。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況