なんJLLM部 避難所 ★2
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 63c0-joKd)2024/05/02(木) 18:27:25.10ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0037名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/03(金) 16:47:18.86ID:Gj7rcMwg0
一応生成例
(エロチャではないけどharmfulな結果は日本語でも出てくる点がMikuMaidとの違い)
https://i.imgur.com/GnGmoTK.png
0038名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 17:24:35.01ID:???0
スレ立てサンガツ!

>>26-28
アカンモデルははっきりアカンと言えるんやがエエモデルを比べるのはホンマにむずい
6GBでVRAMフルロードできるんで速いのはエエんやが人が読むよりも速く生成されても
生成物をAIに評価させるとかせんと扱いに困るしなぁ

一定ラインを超える生成物の良し悪しは個人の好みに寄ってきて長時間触らんとわからん印象
もしくは話題になっとったベンチーマークのカンニングができんような
人の感性に沿った数値評価ができるようになればかね

現状は画像生成モデルの「好みのモデルを使ったらええんやで」と似てきとる気がするで

>>34
情報サンガツ!
KoboldCpp上でのNinja Q8でコンテキスト長伸ばすとなんか変な反応するなぁと思っとったが
ワイ環じゃないようで安心したで
0040名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 17:42:16.13ID:???0
>>26
EasyNovelAssistantの出力にMd形式で番号を振ってあるんは
大量の出力から良さげなものをCommandR+やオンラインLLMとかに選ばせられへんかなぁと思うて付けたで

「人の心に響く番号を5つあげて、点数と理由も記載しなさい」みたいな
なんちゃって評価で大量の出力を評価でけへんかなぁと
0042名無しさん@ピンキー (ワッチョイ 6fc8-3YXh)2024/05/03(金) 18:27:28.18ID:???0
>>27
ごめんVecteusのことです。なんか書く時見てるところ違ったわ。
やっぱりどのモデルが向いてるかは試してみないとわからんか…

>>38
画像の方も結局は好みやしこっちもそうか…
しかしこっちは画像と違って一目でわからんし、それぞれ評価するのしんどそうやね

>>40
そういう目的でついてんのかこの番号
実際その辺もAI任せしたいなぁ…
最近はずっとEasyNovelAssistantにお世話になってます。めっちゃ楽しい!
(強いて要望言うと、Ctr+Sで保存する時日付時刻とかが自動的に入ってくれるとちょっとうれしいかも…)
0044マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 18:40:34.37ID:6BfWfX3i0
>>43
Ninja系統のモデルはどういうわけかこのような挙動をするので同じようなことをするモデルを探しています。
0045マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 19:03:40.72ID:6BfWfX3i0
https://t.co/bHqlgW04pa

我々が出しているNinja系のGGUFはコンテキスト長周りにバグを抱えているらしいのでmmnga氏の出しているGGUFを使うのをお勧めします。
原因はおそらくYarnがGGUFでは使えないことだと思われ、どうにかする予定です。
0046名無しさん@ピンキー (オッペケ Sre7-5fNx)2024/05/03(金) 20:03:30.28ID:???r
量子化の方法って違いがあるんだ?
gitでプロジェクトをクローンして、convert.pyでGGUFに変換して、
imatrixファイルを作成してからquantize.exeでお好みのサイズに量子化するだけだと思ってた
0047名無しさん@ピンキー (ワッチョイ 5377-7iwU)2024/05/03(金) 20:08:56.21ID:1tl4LoH/0
コンテキスト長がそのままだと短くなるとか?
0048名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 22:47:02.99ID:???0
>>42
> (強いて要望言うと、Ctr+Sで保存する時日付時刻とかが自動的に入ってくれるとちょっとうれしいかも…)

そのままではないんやが2点対応しといたで

・名前を付けて保存でデフォルトのファイル名に日時を設定
・ファイル保存時に上書きするファイルがあればlogフォルダにバックアップ

誤って大事なデータを上書きしてしまった時はlogフォルダを覗いてもろうたら
0051名無しさん@ピンキー (ワッチョイ 767a-/jko)2024/05/04(土) 09:27:01.44ID:???0
Command R+で…な文章書いて遊んでるだけの浅瀬なんだけど、Llama3より良い感じぽいなこれ
二次創作でもこっちがプロンプト書かなくてもある程度キャラ設定や口調再現するのは感動した
とはいえ翻訳だから高めのレベルで限界はある感じ
マイナーなキャラは対応してないだろうしね
日本語特化LLMはまだ試してないんだけど、どんどん情報更新されてく現状で、今のとこ一番日本語の小説創作向きって何があるかな
0053名無しさん@ピンキー (ワッチョイ 6fbe-YO5+)2024/05/04(土) 15:26:15.99ID:???0
>>44
俺もNinjaとVecteusは全く同じ動きするわ、再起動しない限り前のセッションを引きずったおかしい動きになる
koboldCppで他のモデルでこんなこと起きた事なかったからビックリ
モデル依存でそんなことってあるのか?
0055マジカル (ワッチョイ 0fe6-5ctY)2024/05/04(土) 15:44:47.53ID:LYjmb2CO0
>>53
Koboldcppでもそうなりますか...
NinjaがMistralアーキテクチャの機能をフル活用できる性能があるからこのようなことが起こるのでは
という仮説を立てていますが未だ原因は不明です。
情報ありがとうございます。
0056名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/04(土) 16:27:20.35ID:ZPxwerOY0
kobold.cppでもoobaboogaでも同じ動きするんだったら、どっちかと言うと裏で動いてるLlama.cppに問題があるんじゃないか?
0057名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/04(土) 16:30:24.10ID:ZPxwerOY0
もし素のmistral+素のLlama.cppで同じ現象起きるんだったら、実装の問題だからgithubでissue立てた方がいい気もするけど
0058名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/04(土) 16:57:37.07ID:y5nYNW650
>>51
ぶっちゃけ日本語で小説となるとまだAIのべりすとに一日の長があるんやない?
ローカルで動作するLLMが今のAIのべりすとを上回る日もそう遠くないとは思うけど
Vecteusほんま賢いわ
0059名無しさん@ピンキー (ワッチョイ 936f-jyRk)2024/05/04(土) 17:54:47.55ID:???0
久しぶりにtext generation web UIをgit pullで最新版に更新して起動しようとしたらエラーになって起動できなかったので解決法メモしとくわ

@出たエラー表示
ModuleNotFoundError: No module named 'rich'
・解決策
1.text generation web UIのフォルダに有るcmd_windows.batを起動
2.「pip install rich」を入力してエンター
3.「deactivate」を入力してエンター
4.コマンドプロンプトの「X」を押して終了

A出たエラー表示
AttributeError: module 'gradio.layouts' has no attribute '__all__'
・解決策
1.text generation web UIのフォルダに有るcmd_windows.batを起動
2.「pip install --upgrade gradio」を入力してエンター
3.「deactivate」を入力してエンター
4.コマンドプロンプトの「X」を押して終了
0061名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/04(土) 19:02:56.58ID:???0
EasyNovelAssistantに音声と画像を簡単に組み合わせて動画にする機能を追加したで
https://twitter.com/Zuntan03/status/1786694765997924371

アキバの冥土喫茶風
https://i.imgur.com/Eds9BXT.mp4

JNVA 390の12からお借りしてみた
https://i.imgur.com/Pum2qZx.mp4

ドキュメントもわかりやすくしといたんで引き続き不具合報告や感想や要望をもらえるとありがたいで
0062名無しさん@ピンキー (ワッチョイ 767a-BGQ5)2024/05/04(土) 20:32:30.11ID:???0
>>58
どもどもです
うーんせやろか
AIのべりすとも一番安いサブスクに入って試し始めたとこだからまだまだ基本的な使い方なのかもしれんけど
最近のに比べるとやっぱり融通が利かない感じがするかなぁ
続きを勝手に書く小説モードが慣れなくてアシスタントチャットでChatbot的に指定してるんだけど
Command R+とかだと例えば竿役の口調を体育教師系からチャラ男くんに変えるみたいなことや
ここはもう少しねっとりとかここはおためごかしに優しくとかも
文脈を類推してやってくれるんだけどAIのべりすとはそういうの無理っぽい
ただ、日本語のエロ文章の自然さは間違いなくまだアドバンテージあるから、あとちょっとかゆい所に手が届けばという感じ
まぁまだ使い方が下手なだけかもだけど
0063名無しさん@ピンキー (ワンミングク MM62-ENsQ)2024/05/04(土) 20:59:43.98ID:???M
>>55
大葉よく知らんのだけど、transformersとかGPTQとかでも起きるんやろか
そういう仮説が出てくるってことは既に試したのかもしらんが
実行環境由来じゃなくてモデル由来で、履歴覚えてるとかどういう仕組みなんだろ
0064名無しさん@ピンキー (テテンテンテン MMbe-WHiR)2024/05/05(日) 00:14:19.22ID:???M
zuntanソフト使ってみたいんだけどこのようなことはできる?
チャット用に記述したキャラがある(口調から性格、思想も入ってる)
そのキャラ用のVITSのモデル学習は済んでいる
やりたいこと
リアルタイムに何時間でも子守唄のように愛を囁かせる
現状
STでキャラカにラブレターの原稿を書かせてテキストに保存→VITSに流し込んでwavにしている
試せという話なのだが自分のPCはpythonが混ざって自動では入らんかったので
0065名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/05(日) 01:47:04.05ID:???0
>>64
興味を持ってもらってサンガツやで

今の情報の少なさやと「わからんけどたぶんイケるんちゃうかなぁ」ぐらいしか言えんやね

> チャット用に記述したキャラがある(口調から性格、思想も入ってる)
https://rentry.org/ あたりに貼ってもらえたらもうちょっとまともな返答ができるかもや
公開に問題ある箇所があるなら公開できるように適当に書き換えてもろうて

> 自分のPCはpythonが混ざって自動では入らんかったので
ワイとしてはpythonが混ざらんように作ってるつもりなんでこっちのが気になるわ
ログとかもらえたら助かるで

この6時間だけでもWin10限定とか特定のウィルスチェックソフトで問題起きたりとかしとるんで
対策ができるならしときたいしできんなら注意喚起をしときたいで
0066名無しさん@ピンキー (ワッチョイ 9375-YO5+)2024/05/05(日) 11:32:13.18ID:???0
支部にVecteus-v1で書いた小説を追加しとったで、お友達も書いてくれてるので「EasyNovelAssistant」で検索しとくとええかも
金玉を空にできる自信あるレベルになってきたわ

それに伴いgithubとnoteもちょい更新しといた、ほんと今のところVecteus-v1が一番オススメ

ゴールシークも改造して頂いてるようでうれC
そいや三章・四章・終章の小説執筆で、急に話がつまらなくなる印象を受けた際、jsonの部分を削ることで改善したことが何回もあったわ
0067名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/05(日) 13:27:49.99ID:???0
>>66
作例情報サンガツ!
作例や記事メニューにリンク追加しといたで

ワイはRTX 3060 12GB環境なんやが
LightChatAssistant-2x7B-IQ4_XS-Context8K-GpuLayer33
Vecteus-v1-IQ4_XS-Context4K-GpuLayer33
のどっちを使うかを決めきれん感じや

なんとな〜くLCAのほうがええ回答をくれる時がある気がしとる

VRAM 8GB以下やったらVecteus安定な気はするね
Vecteusは読むより速く生成してくれるんで生成物のAI二次処理を考えなやね
0068名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/05(日) 20:36:43.58ID:???0
Text generation web UI導入してみたら
同じVecteusを使っててもEasyLightChatAssitantと違って
倫理観が高くてすぐ申し訳してくるんや
contextを上手いこと設定したらよさそうっていうのは分かったんやが
逆にEasyLightChatAssitantはどこで倫理観下げてるんや?
0069名無しさん@ピンキー (ワッチョイ 4f32-dezX)2024/05/05(日) 20:54:10.75ID:???0
ひさびさに英語小説をlumimadeで試したけど、もしかしてすごくないかこれ?
規制が外れただけじゃなく、英語の表現力がmiqumaidに比べてかなりアップしてるような・・・
これがllama-3-70Bの本来の力か
0070名無しさん@ピンキー (ワッチョイ e729-YO5+)2024/05/05(日) 21:18:28.69ID:???0
EasyNovelAssistantアプデしたらプロンプトと関係ないことしか書かなくなっちゃったけど
全部消してインスコし直したら治った
結構気に入った文章書いてくれてて仕様変わっちゃったんかって焦ったけど
治ってくれてマジ良かった
0071名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/05(日) 21:29:20.13ID:???0
>>68
兄弟のNinjaでは本来設定すべきInstruction formatを適用するとなんでか申し訳したり英語の返答でたりしやすい気がするで
オカルトじみてはいるんやが…

VecteusはInstruction format不要なモデルなはずなんでLLMへの入力がタグのない日本語文のみになっとるか確認
あとは総コンテキスト長を4K、生成コンテキスト長1K、あたりになってるかあたりかなぁ

量子化モデル使う場合はこっち https://huggingface.co/mmnga/Vecteus-v1-gguf/
0074名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/05(日) 22:06:33.01ID:???0
>>71
Text generation web UIのデフォルトのcontextとかinstruction templatesが倫理観の高いアシスタントを演じさせとるんかな
この辺は手探りでやってくしかなさそうやね
0075名無しさん@ピンキー (ワッチョイ e729-YO5+)2024/05/05(日) 22:13:05.22ID:???0
>>72-73
ほ、ホンマや!長くすると駄目だった。というか6144でやっててアプデしたからその条件に触れちゃってて
全部消したら128だから治ったように見えてたのか
長く書けるの復活してホスイ…
0077名無しさん@ピンキー (ワッチョイ 0365-PnGr)2024/05/05(日) 22:40:25.39ID:???0
普段はSDで遊んでるんだが連休で時間あったんでEasyNovelAssistant入れてみたけど、最近のローカルLLMすごいね
ゴールシークプロンプト入れて細かく調整すると更に精度上がるし
0079名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/06(月) 00:06:18.27ID:???0
不具合報告と回避法の共有ほんまにサンガツ&すまんやで
対策を入れときました

> EasyNovelAssistant 更新で 生成分の長さ が 4096 以上だと、入力欄と無関係な文章が生成される不具合がありました。
> 生成分の長さ が 最大コンテキストサイズ 以上の場合に、生成分の長さ を自動的に短縮するようにしました。
> 長文を生成する場合は、モデルメニューの 最大コンテキストサイズ を増やします(消費 VRAM も増加)。

生成文の長さを6144にしたい場合は、VecteusからLCAかNinjaに変えて最大コンテキストサイズを8Kにしてな
0081名無しさん@ピンキー (ワッチョイ fbc6-xnZ/)2024/05/06(月) 08:26:06.96ID:???0
Twitterでやってる人が居たんで真似してみたが、3人で議論させるプロンプト面白いな
ありえない仮定でもそれっぽく話してくれるし一応肯定否定両面から議論して結論くれるので見てて楽しい
キャラクター付けが強すぎると脱線しがちだが(男・女・ロボット)程度なら議論が進みやすい
ただある程度キャラクター性があったほうが話し手がわかりやすいので1行程度で簡素なキャラ付けをしたほうが良かった

Ninjaは脱線して長ったらしくなりがちで、Vecteusのほうがうまい事話を切り上げてくれる傾向がある
0084名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/06(月) 15:29:53.22ID:???0
EasyNovelAssistantの読み上げサンプルに追加した「エンドレス喘ぎ」がヤバいかもしらん

これはLCAのほうが読み上げ適正の高い出力っぽい
Vectesuは良くも悪くも読める小説風に仕上げられがちな印象や
0085名無しさん@ピンキー (アウアウクー MMb7-xnZ/)2024/05/06(月) 22:00:28.18ID:???M
プロンプトを上げる場所が思いつかなかったのではてなに上げてみた
https://anond.hatelabo.jp/20240506211322
クソみたいな日記のケツに3人議論させるプロンプトの自分版が書いてある。先人のを参考にした
ガッツリ例文を書くことで議論の手順をある程度固定化させられるが、
議論順を違えたり、いつまでも議論したり、結論が引き分けなど中途半端なものにはなりやすい


テーマとしては 勃起したちんちんは竹刀の代わりとして剣道の公式試合に使用できる 
おまんこの吸引力を敷設兵器として利用すれば、地雷よりも効果が見込める とかそういうの流し込んでも
白熱した議論をしてくれて助かる。たすか…る?
0086名無しさん@ピンキー (ワッチョイ df71-YO5+)2024/05/06(月) 23:58:05.62ID:rGX9zMyo0
AQML凄いな。はよWindowsでも動くようになってくれんか
0089名無しさん@ピンキー (ワッチョイ 9336-z0Yf)2024/05/07(火) 06:30:29.38ID:SObgNmxz0
デュアルブートはなあ
Windows君がブートローダーどころかパーティション上書きしてくるらしいから
やるなら完全に別のディスクに入れるのをお勧めする
Linuxはスティック型SSDにインストールするとかね
Linux自体は慣れれば便利だし楽しいぞ、色々とサーバ建てられるし最近はSteamのwindows用ゲーム普通に遊べるし
0095名無しさん@ピンキー (ワッチョイ 933a-RBm0)2024/05/07(火) 12:23:36.16ID:???0
linuxにするメリットってなんですか?
自分もPython使うので興味はあるんですが、以前WSL2入れてVScode使ってみたものの、頻繁にCPUオーバーロードするようになったので辞めました
0096名無しさん@ピンキー (ワッチョイ 3f74-GlZo)2024/05/07(火) 12:34:02.07ID:???0
LLMはlinuxで動かすの前提で作られてることが多いから
環境周りでトラブルが起きづらくなるとかかな
あとStableDiffusion見てるとWinより(ネイティブ)Linuxの方が生成速度は高くなる
1割くらい画像生成スピード違ったような

ただWSLだと環境トラブル低減も生成速度向上もあまりないかも
0097名無しさん@ピンキー (ワッチョイ 8fee-mHih)2024/05/07(火) 12:35:11.46ID:???0
>>95
まさにそれが答えなのでは?
wslは仮想pcよかは軽くなったけどそれでもコスト高めだし
あとはllmのツールやpythonのpackageなんかは、windowsでうまくいかないのもちらほらあるし、そういうところでもlinuxの方が向いている面あるかな
0100名無しさん@ピンキー (ワッチョイ 9b15-gI+Z)2024/05/07(火) 13:20:05.79ID:???0
>>95
VSCodeでWSL内のコードをSSH経由で弄るときにやたらファイル同期のプロセスを立ち上げまくって重くなるバグがあるって聞いたことあるな。今でも残ってるのかは不明
設定で回避できたはず
0101名無しさん@ピンキー (ワッチョイ 8fee-mHih)2024/05/07(火) 13:24:38.70ID:???0
>>98
詳しいことはスレ違いだから避けるけど、最近はwindowsと同じにアプリがあったりする
以外にもvscodeもlinux版もあったりするよ

いきなり環境を置き換える必要はなくて、まずはusbメモリブートでお試し、そのあとバックアップをしっかり取ってる、デュアルブート環境を構築、がいいかと
0102名無しさん@ピンキー (ワッチョイ 82ff-YO5+)2024/05/07(火) 14:04:54.97ID:aeXGHM2L0
EasyNovelAssistantとAIノベリストとCommandR
どれが良いですかね?
0103名無しさん@ピンキー (スププ Sd52-Jp+h)2024/05/07(火) 14:28:38.82ID:???d
>>102
比較しようとしてるものの種類が全然違うから比べようがないぞ
無理に例えるならフライパン(汎用調理器具)と鍋焼きうどん(調理器具内で完成した料理の一種)と白菜(調理前の材料)でどれがいいですか?って訊いてるようなもんだ

EasyNovelAssistantは軽量のLLMをローカルで簡単に動かせるUI
最近増えたメジャーどころの軽量LLMのモデル本体のダウンロードはだいたいこのツール上から選んで簡単にできる

AIのべりすとはUIと独自モデルが一体になったクラウドサービス
内部で使われてるLLMはAIのべりすと独自のモデル

CommadRはLLMのモデルそのものの一つでツールとかUIではない
PCのスペックが高ければEasyNovelAssistantからも使用できなくもないしクラウドサービスで使えるところもある

何も分からんならまずはEasyNovelAssistantの説明を読んで試してみることをおすすめする
0108名無しさん@ピンキー (ワッチョイ fe06-YO5+)2024/05/07(火) 15:33:11.12ID:sbY+isi40
Command-r-plusの利点って、とりあえずモデルも公開されてるって部分がデカいな、自分は
今んとこローカルで動かせる環境持ってないけど、最悪に近い状況が訪れてもローカルに逃げこめるってのは希望の光
あともうちょっとだけ賢くなって欲しいとは思ってるが
0109名無しさん@ピンキー (ワッチョイ 8265-YO5+)2024/05/07(火) 16:32:59.53ID:aeXGHM2L0
>>103
詳しい解説ありがとう
使い勝手はEasyNovelAssistantが一番って感じやね
自動的に文章が増えてく
0113名無しさん@ピンキー (ワッチョイ e733-YO5+)2024/05/07(火) 18:32:26.72ID:gds0IgSF0
赤ちゃんだから教えて欲しいんだけど
エロゲのテキストっぽい文章を生成したい
環境はRTX4090 メモリは64GB OSはwindows11
どのツールで何のモデル使うのが赤ちゃんに良さそう?
0115名無しさん@ピンキー (ワッチョイ 767a-dezX)2024/05/07(火) 19:48:39.75ID:???0
ちなみに英語だとさらに能力が上がる
倫理規制がないことまで考えると今はっちゃけた
話をやらせたいなら最強とまで言えるかもしれない

なお日本語の理解力や表現の機微はOpusとかの
エースにはさすがに全く及ばない……
0116名無しさん@ピンキー (ワッチョイ 3f74-GlZo)2024/05/07(火) 19:55:00.84ID:???0
翻訳専用のAIを間に挟んで入出力を翻訳かけるだけでも性能上がるんかなぁ
DeepLとか使ってさ

日本語で追加学習するんが一番ええんやろうけども
かかる労力がどうしてもなぁ
0118名無しさん@ピンキー (ワッチョイ 767a-dezX)2024/05/07(火) 19:58:50.16ID:???0
>>116
んーでも表現力の問題になるとその翻訳するAIが機微を理解してくれてないと無意味なわけでね
Opusに翻訳させればいいかっていうと当然倫理規制が邪魔をする
0122名無しさん@ピンキー (ワッチョイ 82b2-YO5+)2024/05/07(火) 22:08:17.47ID:aeXGHM2L0
GPT4の有料に課金してエクセルの編集して貰おうと思ったら
ぜんぜん言う事きいてくれない
3千円ドブやん!
0125名無しさん@ピンキー (ワッチョイ fe06-YO5+)2024/05/08(水) 07:32:55.87ID:lfVlEuPv0
なんかしらんがリートンのAIキャラチャットがNSFWもイケて性能もなかなか
GPT3.8ぐらいの印象や
https://imgur.com/a/mLE6ZuP

まだ作ったキャラの公開とかできんようやが、一人で遊ぶ分にはけっこうええかんじや
スクショのアウラちゃんは尻タブ用プロンプトを若干改変したも
0126名無しさん@ピンキー (ワッチョイ fe06-YO5+)2024/05/08(水) 08:06:47.51ID:lfVlEuPv0
ちなCommand-r-plus運用のアウラちゃんはこんな感じ
https://imgur.com/a/BhmUKKr
リートンアウラちゃんの方が明らかに服従に対する強い葛藤が表現されててええ感じや
0131名無しさん@ピンキー (ワッチョイ df1d-YO5+)2024/05/08(水) 12:31:16.83ID:93yjFfFi0
>>130
いま、リートンアウラちゃんに暴力的なエッチしてたら、初めてまともな申し訳食らったので、ちょこっと追加情報与えてロールプレイ復帰して貰ったで
この挙動は中身はOpusやな、ほぼ間違いなく
0132名無しさん@ピンキー (ワッチョイ 767a-/jko)2024/05/08(水) 13:23:27.29ID:???0
>>124
一枚目の文章はかなり日本語が自然でいい感じと思うけど、Claude-Opusでこれ書いてもらおうとしても訳そうとしても普通にお気持ちされて無理だよね?
何かしらの手段でOpus脱獄したのか、それとも別のLLMの生成&翻訳結果の話かな?
0135名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/08(水) 15:44:54.78ID:???0
>>131
試してみたけどリートン明らかに変わっとるね
前はもっと倫理観高くて融通利かんかった
アプリ版ではClaude3が使えるって宣伝しとるけど
AIキャラだけ先行で変わったんかもしれん
何にしても遊べるのはええことや
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況