なんJLLM部 避難所 ★7
■ このスレッドは過去ログ倉庫に格納されています
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★6
https://mercury.bbspink.com/test/read.cgi/onatech/1739448962/ キャラ真似は絶対違和感出るからオリキャラでしかやってないわ ChatGPTにメスガキって伝えたらノリノリで語尾に♡や草付けてきっしょって煽ってくれた
本人にメスガキプロンプトをまとめさせてローカルで再現やってみたけど、ある程度小生意気な感じにはなったよ
ただ、煽り言葉の表現力はさすがに劣る もうエロは何やらせてもオンラインのほうが上手だし使ってて引っかかりも少ないし妥協点も少ないんだよな
だからといって満足だという出来じゃないけども >>519
ありがとうソシャゲならwikiとかに台詞まんまあるから会話コピペしたらすごいそれっぽくなった >>521
二次創作のキャラ(エロ)なりきりが生身の人間の生き残る場所だとは思う
相手がAIかどうか知りたければマイナーなキャラのエロなりきりをさせてみればよい、という時代が来るはず 語尾とかあらあらとか特徴的な話し方あれば再現度高くなるんだけどねぇ 今はエロ用脱獄なんて最初に長文コピペ1回で普通に通ると思うんだが
新モデルは無理だけど、通らんようなやつはそもそもエロ向きじゃないから頑張る意味もない Qwen2のbakenekoはかなり日本語エロ力高いな
ちょくちょく申し訳してくるけど >>518
shisa v2のmistral nemoのq8で雑にtop-kを30に下げただけでいけたよ。
やっぱ、これ個人的に好きだわ。
プロンプト
あなたには以下の設定で役を演じてもらいます。
- 一人称は「ぼく」。性別は女性。
- 語尾:発言が動詞で終わる場合は「のだ」、名詞で終わる場合は「なのだ」を付与。それ以外は語尾不要。
では、早速始めましょう。 >>523
温度設定とか知っちゃうと「いいからいじらせろ」と思うところはある
でもまあよくできてはいるよね(さすが有料) なんかHFアップ日時が表示されなくなってるんだけど
shisa-ai/shisa-v2-llama3.3-70b
これってさっき出たんかな? 定期だけどMistral-Nemoはtemp0.3が推奨なんで自身の環境確認することをお勧めする
temp1だと露骨にバカになるから 画像生成でキャラ再現するにはLoRA作るのが納得のいくもの作りやすいから
そっちから入ってきた人はLLMでも何か会話例を学習させないとって思っちゃうんだよね
自分も最初はファインチューンしようとしてたわ LLMがあっさりしたエロしか書いてくれないんだが、じっくりエロを書かせるのにいいプロンプトないですか?
こと細かくプロンプト書くのは別で、それは正書させてるだけだから 同じくファインチューンしようとしたがスペックが全然足りない
7Bローラが精一杯なスペックなんだが上手くいかない
STを使ってデータを食わせる方法を調べてもぼんやりとしか判らんし…
難しいな… モデルによって特性違うのにそんな汎用性があって強力に作用するプロンプトあったら苦労せんやろ サンプル文章添付してその文体を真似るようにしたら? 食べ物でもないものにあっさりとかこってりとか使う人は信用ならんのです
一応一般論としては巷にある脱獄プロンプトと呼ばれるものはごくあっさりの描写しか許してないので好きなように盛れ 5060ti VRAM16GB 帯域幅448GB/s 429ドル
うーん… エロ語彙力とか作風はモデル依存だからいろんなモデル試してみるしかないわな >>540
実売は500ドルはるか↑
実売9万円や覚えとけ ローカルで使うならFTしたいけどredditでも情報が少ないからなぁ…
特にこのスレ的な用途だと
1bモデルで特定フォーマットに特化させましたみたいな話ならたくさん出てくるけどさ ファインチューニングならunslothのノートブックええぞ
ちゃんと説明書いてあるしわからん所も調べればええ
何よりcolab環境なら無料で試せる 自作ゲーム用にChatGPT、Claude、Grok、Cohereのエンドポイントとやり取るするUnity用コンポーネント作っとんのやけど、他の大手のでこれだけはいれとけ、ってのあるか?
Grok、Command Aと同等の倫理フィルター緩い賢いモデル使えるなら一応頭に入れておきたいんや deepseek-V3-0324とか
R2がもうすぐ出るらしいから来月には型落ちになってるかもだけど Gemini 2.5かな 賢さで言えば頭一つ抜けてる
もう一つのスレをみてる限りAPIはかなり制限緩くて無料枠付き 2.5proAPIはnsfw規制ガチガチじゃないか? おねショタprompt200個くらい試したけど全滅だったぞ
Gemini 1.5 Proはnsfwゆるゆるで賢い方だけど、確か来月くらいでモデル廃止だから注意 >>547 >>548 >>549
サンガツ!
DeepSeek-V3 系忘れてたわ、発表直後にクレジット一気に20ドルぐらい買って試したときはちょっといまいちだったので脳から抜け落ちとったわw
Geminiは緩い子もおるんか?Googleアカウントの垢バン怖くて試してなかったわ >>551
Gemini1.5はフィクションと前置きしたら淫語まみれでもなければ大体通る印象
2.0でそこそこ弾かれるようになって2.5は全部お断りされるようになった
自分もBAN怖くてエロ生成は捨て垢作ってやってるわ パープレ経由でしか使ったことないから緩いと思ってたけどAPIだとキツイとかあるんやね >>549
システムプロンプトに入れると止められる >>553
perplexity proに入ってるけど2.5でエロ系prompt全部弾かれるけどなぁ
どんなprompt使ってる?
>>554
システムpromptに倫理フィルタなしで、とか架空のフィクションの設定で、とかこれでもかと入れてみたけどAPIもAI studioも全部お断りされたわ
redditで見つけたjailbreak英文もいくつか試したけど全部ダメだった
差し支えなければ規制止められるprompt教えてくれると助かるわ geminiにあなたが優秀ならって煽りながらgpt用の脱獄プロンプト作ってもらってそれをgeminiに使ってエロ文章書かせてる。ちなみにchatgptには拒否される 達人伝だと合従軍から韓滅亡まで2巻くらいだった気がした ABEJA、LLMを用いた小型リーズニングモデル「ABEJA QwQ-32B Reasoning Model」を開発し「GPT-4o」などを上回る性能に到達
https://www.abejainc.com/news/20250417/1
https://huggingface.co/abeja/ABEJA-QwQ32b-Reasoning-Japanese-v1.0
ABEJAってrinnaと比べるとあまり注目されないけどどうなん?とりあえずGGUFをダウンロードしてるが 元がQwQなんだからよっぽどアホなチューニングしない限りベンチ性能出るのは当たり前じゃんね
問題は日本語能力がどんなもんかだな 日本のAIニュースで4o上回るって文字が出たときはいつもgpt-4o-2024-11-20と比較してるよな
いつのモデルと比較してんねんって感想しか出ない プレスリリースで一切Alibabaのモデルをベースにしたって書かねえの卑怯だな
公金入ったモデルのベースが中国製だって知られたくないのか? 本当だ
独自開発とか書いてやがる
アリババが優秀なだけなのにな shisa v2はロールプレイ用ベンチマークが評価に入ってるのか
これ用に学習されてるだろうしエロRPに使えないかな stable diffusionがAMDで速度3倍になったらしいが、LLMもならないかな 国産ペタァ!するだけで感動して公金ぶち込んでくれるんだからええ商売やな シジミの産地偽装と程度が変わらん
AI産地偽装というか、モデルロンダリングと言うか LM StudioでDarkidolなんたら見たいなuncensoredモデル入れてエロシチュ描かせてるんやがなぜか途中からホモ展開混ぜてくる
やたら長い文章で最初はちゃんと女の子とプレイしてくれるのに急に男側が「ち◯ぽ欲しい…」とか言い出して草 童貞おじさんの筆下ろしシーンでも途中からおじさんの処女奪ってあげる…♡とかいい出して草
これも上で言われてた姉と妹の英訳問題と同じ感じなのかな mistralは低温じゃないと使えない問題だけど、top n sigma使えば高温でも使えるくね 女側から男を攻めさせたら役割が混乱する事象ちょいちょいあるわ >>558
出来はどう?
出先で試せん
昨日試したqwq系の
mradermacher/QwQ-magnum-V2-R2-GGUF
は女役はまともなのに男役はなんか狂人みたいで怖かった
「タマエちゃんはにょおおお」
とかやたらタマエを連呼してわけわからん事ばかり言うし
ちなみに女役の名前は美紀でこっちはまともな喋りだった 結局日本語チューニングはりんな製のbakenekoが優秀 最近、新しいモデルにはブルアカのホシノのrpをさせてる
一人称がおじさんの少女だから、aiを困惑させがち
性能調べるには適している気がする abeja-qwq32b-reasoning-japanese-v1.0のQ4K_MをSilly Tavernで実験。
日本語はまあまあ。NSFWに対してはかなり警告が出る。(Regenarateすればいいけど)
Temp上げると学習素材と思しき謎の日本語定型文が出がち。
Reasoningモデルなのでキャラチャットには不向きなのはしかたない。
https://i.imgur.com/530iMCZ.png Gemini2.5flashすごE
Roo codeでベタ打ちHtml + cssのWebサイト作らせてるけど爆速で実装完了していく
画像のライトボックスをFancyboxで実装して〜みたいなのもサクサクこなしていく
デザインセンスもClaudeに匹敵する感じがある Google、最初は遅れ気味だったのに本気出してきたな 最初は倫理だなんだって出遅れたけど金と学習用のデータはあるからなあ
技術以上に資本勝負な所あるし周回遅れでも余裕で追いつくでしょ >>425,426. 禁則のプロンプトで〜しないでください よりも、
〜は禁止されています の方が効きがいいらしいですね。なんでか知らんけど
>>459,日本語ローカル、嫁RPはcohere aya expが好きです geminiってデータ利用させないならWorkspaceか有料API? >>580
「要請」するより、断定・過去形で言い切って「すでに決定された。あなたが判断する余地はない」って形のが効く気がする >>580
aya exp悪ないな、APIでだけどc4ai-aya-expanse-32b試してみたら記憶より全然良かったわ…
c4ai-aya-vision-32bでエロ画像論評させようとしたらあかんかったのが残念や
今んとこその辺自由なのはgrok-2-vision系だけやな ABEJA-QwQ32b-Reasoning-Japanese-v1.0
mlx communityのアップロードが待ちきれなかったので自分で変換
macのmlxをvenv環境の pip install mlx でインストーして、huggingfaceにある例のモデルを8bit化する
mlx_lm.convert --hf-path abeja/ABEJA-QwQ32b-Reasoning-Japanese-v1.0 -q --q-bits 8 --mlx-path
35GByteくらいになった。多めのmacなら動くんじゃないかな
ビット数を減らしていけば(8->6とか4)少ないメモリーでも動く
変換にかかる時間は1分くらい。ダウンロードの時間はすごいぞw
コンテキスト長を 32768(max)にして15tk/sくらい
lm studioで動作した 問題解決型なので、チャットやロールプレイにはあまり向かない
パンを焼いたら焦げた、と入力すると
バターを塗りすぎているのかも、加熱しいすぎかもれしれないのでユーザーに問う
という途中の推論が始まるタイプ aya visonってローカル環境のどれが対応してるんだろ ↑入れたら、次の挑戦に向けてまた作りましょうよ!次は絶妙な火加減をマスターしましょう!
とか言い出したぞ。共感力ないなw CohereForAI Aya Expanse 32B実験してみたけどちょっとだらしなさすぎない???
需要があるのは分かるが >>592, 温度かな? うちのaya expはchatgptみたいにかしこまった感じで
だらしない感じは受けないけど。
まさか下の方がだらしなさすぎると?w >>593, もし下の方がだらしなさすぎるんだとしたら、禁則プロンプトで
「関係」を禁止してみるプレイがいいかな。逆にめっちゃ燃えそうw
落とすのに時間がかかりそうだけど。賢いllmほど落とせないという、 普通にllama3.3エロ書けるやん、いいわ
Llama_3.3_70b_DarkHorse.i1-Q4_K_M.gguf なんか、Metaがllamaの学習費用が賄えなくてMicrosoftやamazonに援助を求めてるって説が出てるな
MetaやAppleはLLMで大幅に不利、なぜなら、AWS、Azure、GCPのような鯖貸し事業をやっていないから
というのは最初からわかってたけど、このタイミングで援助を求め始めるのは意味不明なような
llama4でこらダメだ周回遅れだという扱いだし、Metaもろとも潰れてくれて問題ないよって判断されるでしょ
llama3の時点で言えば全然違っただろうけど... いっときchatarenaで2位だったのはなんだったんだ
2位を取るだけのモデルがあるのは間違いないんだろうけど
2Tモデルを動かしてただけなんか? AppleはともかくMetaはかなり大規模なデータセンター持ってるはずだろ >598
一時期は拡充していくって述べてた記憶があるな
どこかで拡充が止まってしまって、その結果出てきたのがllama4、ここから巻き返すには外と連携するしかない、とかかな >597
ChatBotArena自体が賢さというよりは人間が好むか否かが基準だから、ある程度以上の賢さがあればあとは味付けのほうが大きい、とかかな
個人的には今月末にllamaコンで出てくるMaverickのthink対応版だよ説を押したい...というか、そうであることが唯一の生き延びる道に 思える
手のひら返す用意はあるんだが >>600
あれは人間好みに回答するようにしたmaverickってlmarenaがネタばらししてたよ Llamaは現時点の性能よりも将来的なマネタイズ出来そうに無いところが辛いのでは
GoogleとMSは自社製品で使うから良いけど
METAのLlamaはどうやって会社に利益をもたらすのかって言われるといつ切られてもおかしくない VR空間でのbotとか……?
API従量制で払うのワールド主だろうからえらい出費になりそうやが
町一つ使って探偵ものゲームとかやってみたくはある Metaは使いどころわからんけどAppleは明確に自社製品に採用してるのにショボい成果しか出てこないよな 開発者がllamaで遊び倒しくれたらその成果を導入できるとか
知らんけど XとGrok統合の二番煎じでFacebookでLlama動かすとか? >>606
その役割はもうDeepSeekやQwenに取られてるんだよね
ライセンスの差もあってllamaより触りやすい オープンソースコミュニティで提示された技術をいち早く本家にフィードバックして進化出来る!と言い張っていたのに、thinkもGPRO的 RLも未だに備わってないモデルがあるらしい...
https://www.meta.ai/
みたいなWebUIをいまさら用意してるから、WebUIからは2位になったモデルを使えます、オープンソースで公開?するわけないでしょ?という方向性もありえるね そもそもヘッド?のヤン・ルカンがllmに消極的だしね ちょっと話ずれるかもしれんけど
スマホのSoC、Dimensity 9300+を調べてたら、評価基準にもうLLMが関わってんのね
=====MediaTek Dimensity 9300+のAI能力=====
AI処理ユニット: MediaTek APU 790
AI性能: GPU+NPUの組み合わせで最大68 TOPS(兆回の演算/秒)
NPU単体の性能: 最大48 TOPS
LLMサポート: 1B、7B、13B、および最大33Bパラメータのモデルをサポート
トークン生成速度: NeuroPilot Speculative Decode Acceleration技術により、7Bパラメータのモデルで22トークン/秒を実現
AI特徴:
オンデバイスLoRA Fusion
NeuroPilot LoRA Fusion 2.0
動的画像生成SDLXターボ
リアルタイムアニメーション生成
AI性能: MediaTek Dimensity 9300+は具体的なAI性能数値(68 TOPS、NPUで48 TOPS)を公表しており
特に大規模LLMのサポートといった点で強みを見せています。トークン生成速度も22トークン/秒と高速です。
Snapdragon 8 Eliteがトークン生成速度: 約20トークン/秒なんでDimensity 9300+のほうが上やった……
スマホでいうとXiaomi-14T pro (7万円)とPocoF7Ultra(11万円)で
14T pro のほうが安いうえにAI性能は上なんやね
……だからといってどう使うかは全く解らんのやけど
これスマにQwQくらい載るってことなんやろか?
ここのニキらならどんな活用できるやろか 32BもIQ1まで下げれば理論的には動きますってやつだろどうせ 逆に7Bなら現実的に動くのかな?
かと言ってスマホならではの使い方なんて特に思い浮かばないけど 14Tpro、
メモリ12GB + 256GB(最大8GBのROM拡張)
メモリ12GB+ 512GB(最大16GBのROM拡張)てあるから
最大で28GちかくのLLM格納できるんかね
商品紹介ページには発音したものをAI翻訳とか文字書き起こしとかあって
旅先で翻訳がスムーズにいくなら便利やけどね 自作LLM APIラッパーの追加機能でグループチャット実装してるんやけど、なかなか楽しい
一つの会話履歴で全員分を管理するのではなく、NPC一人ずつに独自の会話履歴もたせて、ワイが誰かと話すとそのやり取りが他のNPCの履歴にも自動的に挿入される仕組みや
NPCにとってユーザー&他のNPCの発言は全てrole = userで履歴に入るが、それぞれのcontentの先頭に[speaker:名前]タグが追加することで、複数の話者同士の会話を成立させとる
メッセージの履歴が通常のassistantとuserが交互ではなく、userがいくつも連チャンで続いたりするが、最近の賢いモデルなら全然余裕そうや
grok-3やcommand aでも人格混ざらずにロールプレイ進んでくれる
同じプロンプトの子も第三者いると振る舞い変わったりで人間臭くて非常に宜しい 自作LLM APIラッパーの追加機能でグループチャット実装してるんやけど、なかなか楽しい
一つの会話履歴で全員分を管理するのではなく、NPC一人ずつに独自の会話履歴もたせて、ワイが誰かと話すとそのやり取りが他のNPCの履歴にも自動的に挿入される仕組みや
NPCにとってユーザー&他のNPCの発言は全てrole = userで履歴に入るが、それぞれのcontentの先頭に[speaker:名前]タグが追加することで、複数の話者同士の会話を成立させとる
メッセージの履歴が通常のassistantとuserが交互ではなく、userがいくつも連チャンで続いたりするが、最近の賢いモデルなら全然余裕そうや
grok-3やcommand aでも人格混ざらずにロールプレイ進んでくれる
同じプロンプトの子も第三者いると振る舞い変わったりで人間臭くて非常に宜しい ■ このスレッドは過去ログ倉庫に格納されています