なんJLLM部 避難所 ★3
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:37:14.82ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★2
https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0706名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 13:37:10.24ID:9iQh5kAD0
>>705
調べてみたら、llama-3.1とllama.cppのバージョンに関するissueがoobaboogaに上がってた
https://github.com/oobabooga/text-generation-webui/issues/6270
ただ、うちの環境だと今のバージョンのllama-cpp-pythonでもllama-3.1読めてるからちょっと謎
0708名無しさん@ピンキー (ワッチョイ e3c8-05lm)2024/07/29(月) 00:12:26.20ID:???0
>>678
何度も質問してすいません

Antler-7B-evolveなどのモデルにおいて
以下のように分かれている場合は
どのようにすればEasyNAで使用できるんでしょうか

(model-00001-of-00002.safetensorsと
model-00002-of-00002.safetensorsの2つ)

例えば結合したりバッチファイルの書き替え方などがあるんでしょうか
0709名無しさん@ピンキー (ワッチョイ 9373-Xto+)2024/07/29(月) 19:19:02.85ID:???0
間違ってるかもしれんけど、それ量子化されてない気がするからどのみちやめた方がいいと思う
duyntnet/Antler-7B-evolve-imatrix-GGUF あたりにしたら?
huggingfaceの検索欄にAntler-7B-evolveって打ち込んだら出るはず
0710名無しさん@ピンキー (ワッチョイ 6fbe-RfJN)2024/07/29(月) 21:21:46.80ID:???0
WEBのAPIはマジで規制厳し過ぎなんだよな
エロはまだしも少しでも政治的要素が入ると駄目だから核戦争後の世界を扱うお約束のサバイバル小説ですら検閲されまくる
NATOやアメリカ、中国、ロシアの単語を直接出すのは勿論、欧州の某国みたいにぼかしてもNG
Jアラートとかの単語も少しでも与党側へネガティブとみなされると全削除なんて核戦争の詳細は全部ぼかさないと駄目だった
とにかく政治に対する検閲が異常
0711名無しさん@ピンキー (ワッチョイ e3c8-05lm)2024/07/29(月) 21:38:01.41ID:???0
>>709
助言ありがとうございます

SDと勘違いして.safetensors自体で
そのまま使用できると考えておりました

.ggufとの違いを理解していませんでした
申し訳ありませんでした
0721名無しさん@ピンキー (ワッチョイ 928b-RfJN)2024/07/30(火) 18:17:10.61ID:sqT3r6O70
>>720
なんてモデル?
0723名無しさん@ピンキー (ワッチョイ 928b-RfJN)2024/07/30(火) 18:59:13.28ID:sqT3r6O70
>>722
ty
0726!donguri (ワッチョイ 7b12-em/f)2024/07/30(火) 19:57:44.16ID:???0
いがいだったけどllama-3-elyza-jp-8bで申し訳されなかったかな。
最近、エロOKな流れになってるのかな。日本語が自然で好きなんですよね
0727名無しさん@ピンキー (ワッチョイ e787-em/f)2024/07/30(火) 20:21:12.08ID:vqVdxEpO0
検閲に起因する性能低下が割と洒落になってない感じの事がわかってきたし
このまま無検閲のベースモデル+検閲用の別のモデル、みたいな形で分離して発展して欲しいねぇ
0729名無しさん@ピンキー (ワッチョイ 36ef-jK5+)2024/07/30(火) 20:50:46.51ID:6Hc3QgOV0
ELYZAは東大で作ってるやつでしょお堅いんじゃないの
0731名無しさん@ピンキー (ワッチョイ 7b12-em/f)2024/07/30(火) 21:34:42.72ID:???0
elyzaって優等生って感じだからあんまり好みではない人もいるかも
優等生といちゃいちゃなチャットの後、そういう流れに・・・っていうのが好きなもので
0734名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/30(火) 23:07:20.37ID:xTt96Yir0
Lumimaid v0.2 123BのERPはこんな感じ
https://i.imgur.com/NbSDsAk.png
0735名無しさん@ピンキー (ワッチョイ b274-tpLL)2024/07/31(水) 09:35:31.00ID:???0
チャットアリーナのリーダーボード更新きたんだけど、英語に絞ると
llama3.1 405bと70bがclaude3.5sonnetの上にきてるな
405bはわかるんだけど70bもここまで来るか

日本語に絞るとまだデータ数が少ないのか項目自体出てこない
0738名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 12:29:09.64ID:???0
Llama-3-ELYZA-JP-8B-q4_k_mは脱字が酷いな
「ハンバーグとステーキどっちが好き?」って聞いたら

「は美味しい食べ物が大好きなのですが、その中でも特にハンバーとステーは大好物ですね。
どちらかというと私はハンバー派です。理由としては、肉汁が溢れ出るジューーな部分がたまらないからです。」

みたいな脱字だらけの文章が返ってくる。Q8でも脱字だらけだ
0739名無しさん@ピンキー (ベーイモ MM4e-kmAZ)2024/07/31(水) 12:39:22.69ID:mLdonqTXM
ELYZAは俺俺ベンチの本家本元だからしゃーないし期待してない
0741名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:00:44.65ID:???0
>>740
設定間違ってるのかな?

色々試してみた感じ一定の法則で文字が欠けることが多いんだよね
長音の後が欠けやすいから
「ケーキ」「ラーメン」「アーメン」「ザーメン」「ステーション」が
「ケー」「ラーン」「アーン」「ザーン」「ステーョン」になるわ
あとは文頭の文字が欠けやすいのと「楽しみ」「慈しみ」も「楽し」「慈し」になる

koboldでデフォ設定にしたり色々設定変えたりしてるけどあんまり変わらん
0743名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:14:43.72ID:???0
>>742
しかちゃんになる

「しずかに」→「しかに」
「わずかに」→「わすかに」
「おおきいかに」→「おおきいに」

脱字が多いけど「わすかに」みたいに濁点が消える場合もあるみたいだ
0744名無しさん@ピンキー (ワッチョイ 1798-wWBb)2024/07/31(水) 14:28:12.94ID:???0
AIの出力終了後、
ブラウザ側だと「# 記」だけど
kobold(v1.69.1)のコンソール側だと「# 追記」になってた。
koboldのexeとブラウザ間のhttp通信ペイロードの取込上の問題があるかも?
0753名無しさん@ピンキー (ワッチョイ 9b4f-+LaP)2024/07/31(水) 22:44:28.16ID:???0
ベンチマーク特化になってるかはベンチマークの領域外のテストすれば分かりやすい
それこそエロとかもその1つ
断られるのは別として、ベンチマーク性能は良いのにエロの表現とかが微妙なのは根本的にベンチ特化になっている
0756名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/08/01(木) 01:41:57.36ID:???0

規制の件だけど、自分から今のは少し不適切だったので、以下のように書き直しますね
って、言って書き直してきたのはワロタ
まあ、オリジナルよりは緩いわ
0759名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/08/01(木) 13:52:38.76ID:???0
繰り返しを無くす方法

■temperature高くする。
temperatureが低すぎると、モデルが非常に確率の高い次の単語を選択し続けるため、繰り返しが生じやすくなります。

■top_p(トップPサンプリング)高くする。
確率の合計がP以上になるまで単語を選択
Pの値が低いと、選択肢が制限されるため、繰り返しが発生しやすくなります。逆にPの値が高すぎると、ランダム性が増し、
文脈にそぐわない単語が選ばれやすくなるため、適切なバランスを見つけることが大切です。
一般的にはP値を0.9前後から調整を始め、状況に応じて微調整します。

■top_k(トップKサンプリング)高くする。
K個の最も確率の高い単語から選択
トップKの値を上げることで、選択肢が増えるため、より多様な単語やフレーズが選ばれる可能性が高くなります。これにより、
同じフレーズの繰り返しが減少する可能性があります。
トップKの値が小さいと、モデルは最も確率の高い単語に集中しがちですが、Kを大きくすると、より多様な単語が選ばれる可能性が増えます。
これにより、生成されるテキストの多様性が向上し、繰り返しが減少することがあります。
0763名無しさん@ピンキー (ワッチョイ 53e1-AKUD)2024/08/02(金) 08:25:52.20ID:bxiekA220
>>759
解説ありがとう、勉強になるわ。
0767名無しさん@ピンキー (ワッチョイ 9357-J9bf)2024/08/02(金) 10:53:25.05ID:???0
英語のモデル、リーダーボードに載ってる奴とかこのスレに上がってる奴いろいろ試したけど、結局Wizard-lm-2が複雑なプロンプトに対する理解では頭一つ抜けてる気がする。
自分の使い方だといかに複雑なプロンプトを理解できるかが一番重要だから、ずっとこれ一択になっちゃう
0773名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/03(土) 19:19:36.19ID:???0
頭の良さと創造力が反比例してるのが画像生成AIと同じ傾向だな
あっちも新しいモデルになる程クオリティ上がる代わりに出せる絵の幅がどんどん減っていく
人間は頭良いほど創造力が高くなるからAIはやっぱ原理的に別物なんだな
0774名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/03(土) 19:23:03.40ID:EbmL5lWm0
AI初心者なんですがトラブってるので教えてください

OllamaでモデルNinja-v1-NSFW-GGUFを実行した場合は正常にやり取りできるんですが
OllamaでモデルNinja-v1-NSFW-128k-GGUFを実行した場合は、やり取りの途中から勝手に意味不明な文字列を垂れ流すようになってしまいます
一旦こうなるとセッションを保存せずに終了して新しいセッションを開始しても意味不明な文字列を垂れ流すようになり、モデルを一旦削除するしか修正方法がなくなります

これって、モデルを作成する際のModelFileなど設定が悪いのしょうか?
それとも128kモデルの方はチャットボットのような使用目的では向いていないのでしょうか?
ダウンロード数は圧倒的に128kの方が多いのでモデルが原因の問題だとは思えないんですけども
AI初心者すぎて、なにをどうすれば問題を修正できるのか検討もつかない状態です
0775名無しさん@ピンキー (ワッチョイ 8fcf-mQXs)2024/08/03(土) 23:03:12.97ID:RggQ7Em20
>>770
初歩的な質問で申し訳ないのですが、インストール後の起動方法がよくわからないのですがどうすればいいですか?
0776名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/04(日) 00:00:08.92ID:IVhBltvZ0
>>775
コマンドラインで”jupyter lab”を実行するとJupyterっていうWebアプリが開くと思います
そしたら、chat_gui.ipynbを左側のペインから開いて下さい
そしたら、”上部メニュー -> Run -> run all cells”とクリックすると、起動するはず
途中デフォルトのモデルダウンロードのメッセージとかあると思うけど、GGUFをすでに持ってるなら、飛ばして下さい

今ちょっと調べたら出てきたJupyterの使い方
https://qiita.com/y-matsunaga/items/2c7efdae8777f15059e0
0777名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 04:53:53.79ID:???0
llama-3-elyza-jp-8bをLM Studioで使ったらちょっとでもエロ要素があると
"I cannot create explicit content."しか言わへんガチガチ倫理観で
どんだけ説得してもビクともせんのやが
koboldcppで使うと何故かユルユル倫理観なんや
最初はkoboldcppのChat PrePrompt機能がjailbreakになっとるんか?と思ったら
そうやなくてInstruct Tag Presetを(適切であろう)llama3 chatにしたらガチガチ倫理観になったんや
今度は逆にLM Studioの方でPresetをMistral Instractにしてみたらユルユル倫理観になった
これどういう仕組みなんや??
0778名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 05:32:16.88ID:???0
いやLM StudioはDefault LM Studio Presetでもユルユルやったわ
わざわざllama3 V2プリセットを選んどったからガチガチになってたんか
何にしても適切な書式の指定が検閲のオン・オフを左右してることには変わらへんけど
0780名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/04(日) 12:28:07.52ID:???0
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-ggufはまったく申し訳しないよ
逆に素直過ぎて、あれこれゲスいこと指示してやらないとエロくしてくれないまであるけど
0782名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/04(日) 20:54:04.53ID:MD/t9U/C0
>>774
一応、自己解決したので同じ症状が発生した人用に書き残しておきます

Hugging FaceでLocal-Novel-LLM-projectが公開しているNinja-v1-NSFW-128k-GGUFを使用すると>>774の症状が発生していました
これを、Hugging Faceでmmngaが公開しているNinja-v1-NSFW-128k-ggufに変更したところ症状が発生しなくなりました

モデルが原因の問題のように思えましたが、もしかしたら使用したモデルと実行ツールの組み合わせなどが原因の可能性もあるかもしれません
とりあえず以上
0789名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/05(月) 21:01:25.46ID:???0
頭が悪いモデルほどけれんみのある文章出せる、
頭良くなるほど指示には従ってくれるけど文章から面白みも創造力も失われていく
両立は難しいんだな…
0791名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/05(月) 21:36:36.12ID:???0
>>789
別にそんなことないで
claude3 opusは頭もええしエロ描写もぶっ飛んでる
最新のGeminiに小説書かせたら表現のレベルが違う
性能が悪いモデルの方が創造力があるなんて感じるのは
子供が描いたラクガキを見て大人が天才やと思うようなバイアスと一緒や
0792名無しさん@ピンキー (ワッチョイ 7371-Hqc2)2024/08/05(月) 22:52:20.37ID:WdbSQo1T0
8月中旬でGENIACのLLM開発が一旦区切りつくっぽいからそこで色々なモデル出てきそうだね
0793名無しさん@ピンキー (ワントンキン MM1f-uyn2)2024/08/05(月) 23:27:17.45ID:???M
頭が悪いモデルと呼んでてるものはいわゆる過学習を起こしてて
学習元の作品のフレーズをコピペしたりしてるから一見ケレン味が出てるように見えるんだ
悪い事は言わないから個人で楽しむ範囲に抑えとくのが吉だ
0794名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/05(月) 23:44:42.08ID:UXi1kagk0
L3.1ベースのモデルとかMistral Large 2とか色々試したけど、やっぱCommand R+の方がしっくりくるなぁ
0796名無しさん@ピンキー (ワッチョイ e3e0-kh9I)2024/08/06(火) 22:44:58.26ID:dijUXKMI0
本体の性能とは別にAI開発者が出力時にどういう制限かけるか,何で学習するかで出力結果だいぶ変わると思われる
エロ完全に潰すためにエロと関係ない用語まで不適切連発するGeminiやらおそらく温度低く設定してるからつまらん内容しか話せなくなってるGPTとかいるし
0798名無しさん@ピンキー (ワッチョイ 136a-6MSl)2024/08/07(水) 04:50:48.86ID:???0
エロ会話だけなら膨大な埋め込み空間の極々狭いところしか使わないからそりゃ小さいモデルでもいいでしょ
新規性のある会話も不要だし同じようなところをウロウロサンプリングしてくれればいいから
0800名無しさん@ピンキー (ワッチョイ 7f6f-U9zy)2024/08/07(水) 09:10:21.72ID:???0
それじゃもう予め返答が決まってるロボットを相手にしてるのと同じじゃん
まあ究極的にはAIも生身の人もそうだけど、それを感じさせないのがAIエロチャの魅力だろうに
0801名無しさん@ピンキー (ワッチョイ 03b2-J1cL)2024/08/07(水) 09:32:30.28ID:???0
silly tavernのグループ会話でなんか打ち込んだら各キャラがずらずら返事してくるけど、これを1人だけにする設定ってあるんかな?
5人が返事してきても最初の1人が変な事言ってると後の4人まで変な話始めちゃうから1人ずつチェックしていきたいんだよね
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況