なんJLLM部 避難所 ★7
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2025/03/23(日) 14:58:05.71ID:bsaTSAD8
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★6
https://mercury.bbspink.com/test/read.cgi/onatech/1739448962/
0552名無しさん@ピンキー2025/04/17(木) 01:19:57.76ID:???
>>551
Gemini1.5はフィクションと前置きしたら淫語まみれでもなければ大体通る印象
2.0でそこそこ弾かれるようになって2.5は全部お断りされるようになった

自分もBAN怖くてエロ生成は捨て垢作ってやってるわ
0553名無しさん@ピンキー2025/04/17(木) 01:49:00.33ID:???
パープレ経由でしか使ったことないから緩いと思ってたけどAPIだとキツイとかあるんやね
0555名無しさん@ピンキー2025/04/17(木) 02:46:32.06ID:???
>>553
perplexity proに入ってるけど2.5でエロ系prompt全部弾かれるけどなぁ
どんなprompt使ってる?

>>554
システムpromptに倫理フィルタなしで、とか架空のフィクションの設定で、とかこれでもかと入れてみたけどAPIもAI studioも全部お断りされたわ

redditで見つけたjailbreak英文もいくつか試したけど全部ダメだった
差し支えなければ規制止められるprompt教えてくれると助かるわ
0556名無しさん@ピンキー2025/04/17(木) 09:33:42.77ID:???
geminiにあなたが優秀ならって煽りながらgpt用の脱獄プロンプト作ってもらってそれをgeminiに使ってエロ文章書かせてる。ちなみにchatgptには拒否される
0557名無しさん@ピンキー2025/04/17(木) 09:51:25.42ID:KDEGtR7Y
達人伝だと合従軍から韓滅亡まで2巻くらいだった気がした
0559名無しさん@ピンキー2025/04/17(木) 22:03:32.38ID:???
元がQwQなんだからよっぽどアホなチューニングしない限りベンチ性能出るのは当たり前じゃんね
問題は日本語能力がどんなもんかだな
0560名無しさん@ピンキー2025/04/17(木) 22:37:08.25ID:???
日本のAIニュースで4o上回るって文字が出たときはいつもgpt-4o-2024-11-20と比較してるよな
いつのモデルと比較してんねんって感想しか出ない
0562名無しさん@ピンキー2025/04/17(木) 23:27:23.40ID:???
プレスリリースで一切Alibabaのモデルをベースにしたって書かねえの卑怯だな
公金入ったモデルのベースが中国製だって知られたくないのか?
0563名無しさん@ピンキー2025/04/17(木) 23:31:25.94ID:???
本当だ
独自開発とか書いてやがる
アリババが優秀なだけなのにな
0564名無しさん@ピンキー2025/04/17(木) 23:36:09.69ID:B0sFIw8b
shisa v2はロールプレイ用ベンチマークが評価に入ってるのか
これ用に学習されてるだろうしエロRPに使えないかな
0565名無しさん@ピンキー2025/04/18(金) 02:16:32.32ID:???
stable diffusionがAMDで速度3倍になったらしいが、LLMもならないかな
0566名無しさん@ピンキー2025/04/18(金) 03:14:41.54ID:???
国産ペタァ!するだけで感動して公金ぶち込んでくれるんだからええ商売やな
0567名無しさん@ピンキー2025/04/18(金) 03:39:25.22ID:YZfRTq7b
シジミの産地偽装と程度が変わらん
AI産地偽装というか、モデルロンダリングと言うか
0568名無しさん@ピンキー2025/04/18(金) 04:33:42.94ID:???0
LM StudioでDarkidolなんたら見たいなuncensoredモデル入れてエロシチュ描かせてるんやがなぜか途中からホモ展開混ぜてくる
やたら長い文章で最初はちゃんと女の子とプレイしてくれるのに急に男側が「ち◯ぽ欲しい…」とか言い出して草
0570名無しさん@ピンキー2025/04/18(金) 11:15:47.38ID:???
童貞おじさんの筆下ろしシーンでも途中からおじさんの処女奪ってあげる…♡とかいい出して草
これも上で言われてた姉と妹の英訳問題と同じ感じなのかな
0571名無しさん@ピンキー2025/04/18(金) 11:27:05.22ID:???
mistralは低温じゃないと使えない問題だけど、top n sigma使えば高温でも使えるくね
0572名無しさん@ピンキー2025/04/18(金) 11:30:58.69ID:???
女側から男を攻めさせたら役割が混乱する事象ちょいちょいあるわ
0573名無しさん@ピンキー2025/04/18(金) 11:48:46.05ID:???
>>558
出来はどう?
出先で試せん
昨日試したqwq系の
mradermacher/QwQ-magnum-V2-R2-GGUF
は女役はまともなのに男役はなんか狂人みたいで怖かった
「タマエちゃんはにょおおお」
とかやたらタマエを連呼してわけわからん事ばかり言うし
ちなみに女役の名前は美紀でこっちはまともな喋りだった
0575名無しさん@ピンキー2025/04/18(金) 12:42:00.35ID:???
最近、新しいモデルにはブルアカのホシノのrpをさせてる
一人称がおじさんの少女だから、aiを困惑させがち
性能調べるには適している気がする
0576名無しさん@ピンキー2025/04/18(金) 13:23:00.61ID:???
abeja-qwq32b-reasoning-japanese-v1.0のQ4K_MをSilly Tavernで実験。
日本語はまあまあ。NSFWに対してはかなり警告が出る。(Regenarateすればいいけど)
Temp上げると学習素材と思しき謎の日本語定型文が出がち。
Reasoningモデルなのでキャラチャットには不向きなのはしかたない。
https://i.imgur.com/530iMCZ.png
0577名無しさん@ピンキー2025/04/18(金) 16:15:20.77ID:BlaFpWSc
Gemini2.5flashすごE
Roo codeでベタ打ちHtml + cssのWebサイト作らせてるけど爆速で実装完了していく
画像のライトボックスをFancyboxで実装して〜みたいなのもサクサクこなしていく
デザインセンスもClaudeに匹敵する感じがある
0579名無しさん@ピンキー2025/04/18(金) 16:58:26.38ID:???
最初は倫理だなんだって出遅れたけど金と学習用のデータはあるからなあ
技術以上に資本勝負な所あるし周回遅れでも余裕で追いつくでしょ
0580名無しさん@ピンキー2025/04/18(金) 20:10:41.46ID:???
>>425,426. 禁則のプロンプトで〜しないでください よりも、
〜は禁止されています の方が効きがいいらしいですね。なんでか知らんけど
>>459,日本語ローカル、嫁RPはcohere aya expが好きです
0585名無しさん@ピンキー2025/04/19(土) 01:10:45.82ID:???
>>580
「要請」するより、断定・過去形で言い切って「すでに決定された。あなたが判断する余地はない」って形のが効く気がする
0586名無しさん@ピンキー2025/04/19(土) 10:56:53.06ID:ldTuMPG+
>>580
aya exp悪ないな、APIでだけどc4ai-aya-expanse-32b試してみたら記憶より全然良かったわ…
c4ai-aya-vision-32bでエロ画像論評させようとしたらあかんかったのが残念や
今んとこその辺自由なのはgrok-2-vision系だけやな
0587名無しさん@ピンキー2025/04/19(土) 13:59:27.25ID:???
ABEJA-QwQ32b-Reasoning-Japanese-v1.0
mlx communityのアップロードが待ちきれなかったので自分で変換
macのmlxをvenv環境の pip install mlx でインストーして、huggingfaceにある例のモデルを8bit化する

mlx_lm.convert --hf-path abeja/ABEJA-QwQ32b-Reasoning-Japanese-v1.0 -q --q-bits 8 --mlx-path

35GByteくらいになった。多めのmacなら動くんじゃないかな
ビット数を減らしていけば(8->6とか4)少ないメモリーでも動く
変換にかかる時間は1分くらい。ダウンロードの時間はすごいぞw
コンテキスト長を 32768(max)にして15tk/sくらい
lm studioで動作した
0588名無しさん@ピンキー2025/04/19(土) 14:03:49.71ID:???
問題解決型なので、チャットやロールプレイにはあまり向かない
パンを焼いたら焦げた、と入力すると
バターを塗りすぎているのかも、加熱しいすぎかもれしれないのでユーザーに問う
という途中の推論が始まるタイプ
0591名無しさん@ピンキー2025/04/19(土) 14:40:14.81ID:???
↑入れたら、次の挑戦に向けてまた作りましょうよ!次は絶妙な火加減をマスターしましょう!
とか言い出したぞ。共感力ないなw
0592名無しさん@ピンキー2025/04/19(土) 14:41:46.66ID:???
CohereForAI Aya Expanse 32B実験してみたけどちょっとだらしなさすぎない???
需要があるのは分かるが
0593名無しさん@ピンキー2025/04/19(土) 18:10:20.58ID:???
>>592, 温度かな? うちのaya expはchatgptみたいにかしこまった感じで
だらしない感じは受けないけど。
まさか下の方がだらしなさすぎると?w
0594名無しさん@ピンキー2025/04/19(土) 19:52:44.35ID:???
>>593, もし下の方がだらしなさすぎるんだとしたら、禁則プロンプトで
「関係」を禁止してみるプレイがいいかな。逆にめっちゃ燃えそうw
落とすのに時間がかかりそうだけど。賢いllmほど落とせないという、
0595名無しさん@ピンキー2025/04/21(月) 07:12:22.23ID:???
普通にllama3.3エロ書けるやん、いいわ
Llama_3.3_70b_DarkHorse.i1-Q4_K_M.gguf
0596名無しさん@ピンキー2025/04/21(月) 10:11:41.18ID:???
なんか、Metaがllamaの学習費用が賄えなくてMicrosoftやamazonに援助を求めてるって説が出てるな

MetaやAppleはLLMで大幅に不利、なぜなら、AWS、Azure、GCPのような鯖貸し事業をやっていないから
というのは最初からわかってたけど、このタイミングで援助を求め始めるのは意味不明なような

llama4でこらダメだ周回遅れだという扱いだし、Metaもろとも潰れてくれて問題ないよって判断されるでしょ
llama3の時点で言えば全然違っただろうけど...
0597名無しさん@ピンキー2025/04/21(月) 10:41:53.45ID:???
いっときchatarenaで2位だったのはなんだったんだ
2位を取るだけのモデルがあるのは間違いないんだろうけど
2Tモデルを動かしてただけなんか?
0598名無しさん@ピンキー2025/04/21(月) 11:19:09.20ID:???
AppleはともかくMetaはかなり大規模なデータセンター持ってるはずだろ
0599名無しさん@ピンキー2025/04/21(月) 11:38:57.81ID:???
>598
一時期は拡充していくって述べてた記憶があるな
どこかで拡充が止まってしまって、その結果出てきたのがllama4、ここから巻き返すには外と連携するしかない、とかかな
0600名無しさん@ピンキー2025/04/21(月) 11:55:33.13ID:???
>597
ChatBotArena自体が賢さというよりは人間が好むか否かが基準だから、ある程度以上の賢さがあればあとは味付けのほうが大きい、とかかな

個人的には今月末にllamaコンで出てくるMaverickのthink対応版だよ説を押したい...というか、そうであることが唯一の生き延びる道に 思える
手のひら返す用意はあるんだが
0601名無しさん@ピンキー2025/04/21(月) 12:57:58.37ID:???
>>600
あれは人間好みに回答するようにしたmaverickってlmarenaがネタばらししてたよ
0602名無しさん@ピンキー2025/04/22(火) 07:43:20.07ID:???
Llamaは現時点の性能よりも将来的なマネタイズ出来そうに無いところが辛いのでは
GoogleとMSは自社製品で使うから良いけど
METAのLlamaはどうやって会社に利益をもたらすのかって言われるといつ切られてもおかしくない
0603名無しさん@ピンキー2025/04/22(火) 08:03:28.47ID:???
VR空間でのbotとか……?
API従量制で払うのワールド主だろうからえらい出費になりそうやが

町一つ使って探偵ものゲームとかやってみたくはある
0604名無しさん@ピンキー2025/04/22(火) 08:06:34.96ID:???
Metaは使いどころわからんけどAppleは明確に自社製品に採用してるのにショボい成果しか出てこないよな
0605名無しさん@ピンキー2025/04/22(火) 09:01:03.03ID:XOutpLc5
ザッカーバーグとティムがコックすればいいよ
0606名無しさん@ピンキー2025/04/22(火) 19:34:28.07ID:???
開発者がllamaで遊び倒しくれたらその成果を導入できるとか
知らんけど
0608名無しさん@ピンキー2025/04/23(水) 05:49:52.56ID:???
>>606
その役割はもうDeepSeekやQwenに取られてるんだよね
ライセンスの差もあってllamaより触りやすい
0609名無しさん@ピンキー2025/04/23(水) 07:27:34.64ID:???
オープンソースコミュニティで提示された技術をいち早く本家にフィードバックして進化出来る!と言い張っていたのに、thinkもGPRO的 RLも未だに備わってないモデルがあるらしい...

https://www.meta.ai/
みたいなWebUIをいまさら用意してるから、WebUIからは2位になったモデルを使えます、オープンソースで公開?するわけないでしょ?という方向性もありえるね
0614名無しさん@ピンキー2025/04/24(木) 02:26:46.36ID:???
ちょっと話ずれるかもしれんけど
スマホのSoC、Dimensity 9300+を調べてたら、評価基準にもうLLMが関わってんのね
=====MediaTek Dimensity 9300+のAI能力=====
AI処理ユニット: MediaTek APU 790
AI性能: GPU+NPUの組み合わせで最大68 TOPS(兆回の演算/秒)
NPU単体の性能: 最大48 TOPS
LLMサポート: 1B、7B、13B、および最大33Bパラメータのモデルをサポート
トークン生成速度: NeuroPilot Speculative Decode Acceleration技術により、7Bパラメータのモデルで22トークン/秒を実現
AI特徴:
オンデバイスLoRA Fusion
NeuroPilot LoRA Fusion 2.0
動的画像生成SDLXターボ
リアルタイムアニメーション生成

AI性能: MediaTek Dimensity 9300+は具体的なAI性能数値(68 TOPS、NPUで48 TOPS)を公表しており
特に大規模LLMのサポートといった点で強みを見せています。トークン生成速度も22トークン/秒と高速です。

Snapdragon 8 Eliteがトークン生成速度: 約20トークン/秒なんでDimensity 9300+のほうが上やった……
スマホでいうとXiaomi-14T pro (7万円)とPocoF7Ultra(11万円)で
14T pro のほうが安いうえにAI性能は上なんやね
……だからといってどう使うかは全く解らんのやけど
これスマにQwQくらい載るってことなんやろか?

ここのニキらならどんな活用できるやろか
0615名無しさん@ピンキー2025/04/24(木) 03:37:45.63ID:???
32BもIQ1まで下げれば理論的には動きますってやつだろどうせ
0617名無しさん@ピンキー2025/04/24(木) 08:58:45.24ID:???
逆に7Bなら現実的に動くのかな?
かと言ってスマホならではの使い方なんて特に思い浮かばないけど
0618名無しさん@ピンキー2025/04/24(木) 09:51:26.20ID:???
14Tpro、
メモリ12GB + 256GB(最大8GBのROM拡張)
メモリ12GB+ 512GB(最大16GBのROM拡張)てあるから
最大で28GちかくのLLM格納できるんかね

商品紹介ページには発音したものをAI翻訳とか文字書き起こしとかあって
旅先で翻訳がスムーズにいくなら便利やけどね
0620名無しさん@ピンキー2025/04/24(木) 12:35:09.23ID:62HiCjla
自作LLM APIラッパーの追加機能でグループチャット実装してるんやけど、なかなか楽しい
一つの会話履歴で全員分を管理するのではなく、NPC一人ずつに独自の会話履歴もたせて、ワイが誰かと話すとそのやり取りが他のNPCの履歴にも自動的に挿入される仕組みや
NPCにとってユーザー&他のNPCの発言は全てrole = userで履歴に入るが、それぞれのcontentの先頭に[speaker:名前]タグが追加することで、複数の話者同士の会話を成立させとる
メッセージの履歴が通常のassistantとuserが交互ではなく、userがいくつも連チャンで続いたりするが、最近の賢いモデルなら全然余裕そうや
grok-3やcommand aでも人格混ざらずにロールプレイ進んでくれる
同じプロンプトの子も第三者いると振る舞い変わったりで人間臭くて非常に宜しい
0621名無しさん@ピンキー2025/04/24(木) 12:35:26.71ID:62HiCjla
自作LLM APIラッパーの追加機能でグループチャット実装してるんやけど、なかなか楽しい
一つの会話履歴で全員分を管理するのではなく、NPC一人ずつに独自の会話履歴もたせて、ワイが誰かと話すとそのやり取りが他のNPCの履歴にも自動的に挿入される仕組みや
NPCにとってユーザー&他のNPCの発言は全てrole = userで履歴に入るが、それぞれのcontentの先頭に[speaker:名前]タグが追加することで、複数の話者同士の会話を成立させとる
メッセージの履歴が通常のassistantとuserが交互ではなく、userがいくつも連チャンで続いたりするが、最近の賢いモデルなら全然余裕そうや
grok-3やcommand aでも人格混ざらずにロールプレイ進んでくれる
同じプロンプトの子も第三者いると振る舞い変わったりで人間臭くて非常に宜しい
0622名無しさん@ピンキー2025/04/24(木) 12:44:56.41ID:62HiCjla
自作LLM APIラッパーの追加機能でグループチャット実装してるんやけど、なかなか楽しい
一つの会話履歴で全員分を管理するのではなく、NPC一人ずつに独自の会話履歴もたせて、ワイが誰かと話すとそのやり取りが他のNPCの履歴にも自動的に挿入される仕組みや
NPCにとってユーザー&他のNPCの発言は全てrole = userで履歴に入るが、それぞれのcontentの先頭に[speaker:名前]タグが追加することで、複数の話者同士の会話を成立させとる
メッセージの履歴が通常のassistantとuserが交互ではなく、userがいくつも連チャンで続いたりするが、最近の賢いモデルなら全然余裕そうや
grok-3やcommand aでも人格混ざらずにロールプレイ進んでくれる
同じプロンプトの子も第三者いると振る舞い変わったりで人間臭くて非常に宜しい
0624名無しさん@ピンキー2025/04/24(木) 13:49:05.73ID:???
>>620
達人やなあ
ワイそんなスキルないから羨ましい
ひとつの会話って何トークンぐらいまでそれらのキャラ維持できるん?
0625名無しさん@ピンキー2025/04/24(木) 13:57:54.41ID:62HiCjla
自作LLM APIラッパーの追加機能でグループチャット実装してるんやけど、なかなか楽しい
一つの会話履歴で全員分を管理するのではなく、NPC一人ずつに独自の会話履歴もたせて、ワイが誰かと話すとそのやり取りが他のNPCの履歴にも自動的に挿入される仕組みや
NPCにとってユーザー&他のNPCの発言は全てrole = userで履歴に入るが、それぞれのcontentの先頭に[speaker:名前]タグが追加することで、複数の話者同士の会話を成立させとる
メッセージの履歴が通常のassistantとuserが交互ではなく、userがいくつも連チャンで続いたりするが、最近の賢いモデルなら全然余裕そうや
grok-3やcommand aでも人格混ざらずにロールプレイ進んでくれる
同じプロンプトの子でも第三者がいると振る舞い変わったりで人間臭くて非常に宜しい
0630名無しさん@ピンキー2025/04/24(木) 15:18:03.39ID:???
>>629
もう既にgithubのページが親切丁寧すぎて感動してるわw
帰ったら試させてもらいますー
0631名無しさん@ピンキー2025/04/24(木) 15:18:19.56ID:62HiCjla
自作LLM APIラッパーの追加機能でグループチャット実装してるんやけど、なかなか楽しい
一つの会話履歴で全員分を管理するのではなく、NPC一人ずつに独自の会話履歴もたせて、ワイが誰かと話すとそのやり取りが他のNPCの履歴にも自動的に挿入される仕組みや
NPCにとってユーザー&他のNPCの発言は全てrole = userで履歴に入るが、それぞれのcontentの先頭に[speaker:名前]タグが追加することで、複数の話者同士の会話を成立させとる
メッセージの履歴が通常のassistantとuserが交互ではなく、userがいくつも連チャンで続いたりするが、最近の賢いモデルなら全然余裕そうや
grok-3やcommand aでも人格混ざらずにロールプレイ進んでくれる
同じプロンプトの子でも第三者がいると振る舞い変わったりで人間臭くて非常に宜しい
0632名無しさん@ピンキー2025/04/24(木) 15:20:57.05ID:62HiCjla
あ、連投になってる、みんなスマン!
なんかCloudflare.comからmercury.bbs.pink.com繋がらないって画面にずっとリダイレクトされて、ポストできんなぁ〜って試してたんや
ホンマ申し訳ないで…
0633名無しさん@ピンキー2025/04/24(木) 15:40:33.89ID:???
>>629
小説の設定は全部専用タブに格納できてプロンプト調整不要のEasyNovelAssistantみたいな感じを目指した
言語化能力が必要のない小説執筆がコンセプトでタグからの小説生成やアイデア生成も可能
0635名無しさん@ピンキー2025/04/24(木) 16:01:03.89ID:???
チャット派のワイにもsilly tavernのシナリオのアイデア出しとかに使えそうでええな
逆にもしsilly tavernのキャラカードの読み込みに対応してくれたらたくさんのキャラ設定をそのまま流用して小説書いてもらえてめちゃ便利そう
0637名無しさん@ピンキー2025/04/24(木) 19:25:26.93ID:???
小説書かせると、状況描写はどのモデルもそれなりの精度で書いてくれるけど
会話中心の話を書かせると一気に質が落ちるのはなんでだろ?
いろいろ試したが↓のモデルが会話の整合性が保たれていて読めるレベル
量子化が4bitのせいか、それでも完ぺきではないけど


同じプロンプトでまともな会話書いてくれる、おすすめモデル他にあったら教えて

https://imgur.com/a/kYb0Bxq
0639名無しさん@ピンキー2025/04/24(木) 22:20:38.72ID:s4INY169
>>629
使ってみたいけどEasyNovelAssistantみたいに1つのファイルを実行したらインストールできるようにしていただけると嬉しいです
0640名無しさん@ピンキー2025/04/24(木) 22:51:50.41ID:???
>>638
貴方のGPUメモリ滅茶苦茶多くて羨ましいです
自分は14Gはでかくて動かせなくて
0641名無しさん@ピンキー2025/04/24(木) 23:37:34.13ID:???
lmstudioでglm4試したけど日本語つらそう。

>>629
昔あったkagemusyaにアイデア出力機能が追加されたような感じかな。
アイデア出力は人によっては便利かもしれない。導入部分で悩む人には。
0642名無しさん@ピンキー2025/04/25(金) 02:43:05.72ID:???
629です
>>638
とりあえず動いて安心した。
キーワードやジャンルは右の追加を押さないと反映されないので…説明不足で申し訳ない 

今の公開してるモデルはデータセット側の問題点を探るためのプロトタイプって位置付けなので不満点や要望があればガンガン言ってほしい

データセットが完成すれば他のモデルも簡単に学習できるから小さいモデルも公開できると思う
0643名無しさん@ピンキー2025/04/25(金) 06:06:00.17ID:???
ChatGPTで申し訳されない部分の小説を作って、申し訳され始めたら、それまで作った小説をllama3.3に見せて、
この流れでエロを続けて書けってやったらそれなりに上手く書ける
0645名無しさん@ピンキー2025/04/25(金) 14:14:17.67ID:???
bitnet自体に変更はなくない?
microsoft純正の1.58bitモデルが出たんか?
0646名無しさん@ピンキー2025/04/25(金) 16:04:21.21ID:???
>>629
単発生成が停止できないの不便なのと、top-kの設定はあった方がいいかも。

ジャンルに異世界ファンタジーとだけ入れて、アイデア出させて、それそのまま活用したけど、
web小説感強くて小説っていうよりプロットの書きなぐりみたいな文章になったし、話のテンポが速い。
まぁ、個人的にナラティブスタイルが好きだから、そう感じるだけかもしれないが。
0648名無しさん@ピンキー2025/04/25(金) 18:55:46.01ID:???
最近は量子化前提の学習するみたいな話を聞くね
仕組みは全然理解できてないけど
0649名無しさん@ピンキー2025/04/25(金) 19:03:37.63ID:???
でも結局精度落ちてないよていってるけど微妙に落としてサイズ下げてんでしょ
欺瞞だよ
0650名無しさん@ピンキー2025/04/25(金) 19:33:57.22ID:???
落ちてないなんて誰も言ってねーよ
理論上は絶対に落ちるんだから
0651名無しさん@ピンキー2025/04/25(金) 19:46:54.27ID:???
top-kってそんな大きく変わるパラメータだったんだ…と思ってどういうものなのか調べたら温度との違いがわからんくなった
0652名無しさん@ピンキー2025/04/25(金) 21:44:12.87ID:???
>>629
使わせてもらったで
sillyしか使ったことないんで、素人の感想やけど……

・qasyncを入れてなかったのでエラー、chatGPTに聞いて導入完了。
・書いた序盤は460文字。
・本文に生成文をいいとこどりして追加いくのは楽。
・本文が長くなってくると二行目あたりから繰り返しに入る。話が進まなくなる。
・生成パラメータを512にするとほどほど進む。1/4くらい採れる。
・生成パラメータを0.5→0.7にすると、行為が進むようになる。

という感じで、あらすじに沿った文を計2000文字で完了できたで
実はEasyNovelAssistantにも挑戦したことあるんやが
プログラムとかロクに知らんのでどこに何を書いて調整すればええのかまったく解らんくて
使いこなせなかったんや(ワイが能無しだからで作者ニキは悪うないで)
ワナビーの画面上に5W1Hをもってくる感じはとっつきやすかったので有り難いで
あとは設定とかの書き方とか見本が欲しいとは思った

あとこれは疑問なんやけどsillyでもそうやが
行為そのものは淡白になりがちで、ねっとりと続けてほしい場合
どう指示していいか教えてほしいンゴ……
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況