なんJLLM部 避難所 ★2
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/
-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 実際command R +のロールプレイ性能は結構凄い
システムプロンプトで指示してやるといい感じに動いてくれる 初心者向けに良い記事だね
LMStudioは実行ファイルからインストール出来るしUIも洗練されていて一番勧められる A6000でもGPUにフルロードしようとしたらiq2になるか・・・ +のiq2と無印Q8ってどっちが質の面ではいいんかね
サイズ同じくらいだけど >>264 のローカルLLMの記事見てローカルに興味持ったんやけど
LM studioってのとEasyNovelAssistantやったらどっちの方が使い勝手ええんや?
stable-diffusionの環境構築できるくらいの知識は持ってて、GPUは1660tiの低スペや asciiの記事からよく短時間でこんな場所にたどり着いたなw 何の地雷踏んだのかと思ったら、ArrowPro自体が地雷だったという話かw
リリース後のライセンス変更は、変更前に配布された分には変更の影響は及ばない
変更前に受け取った人から再配布するものにも影響はない
たいていの人はGGUFに変換されたものを落としてるだろうから影響なしだな
ライセンス変更自体を撤回したようだけど https://github.com/kgmkm/goalseek_ad/tree/main
init_editorでプロットをうまいこと出してくれなかった箇所を修正したり
えっちじゃないASMR追加したりしてた
「Japanese-TextGen-MoE-TEST-2x7B-NSFW_iMat_IQ4_XS」すごすんぎ
pixiv小説「Japanese-TextGen-MoE」で検索すると作例でてくんで openaiの発表やべぇ
このレベルのがローカルで使えるようになるのはいつになるだろうか 俺ポエムだが
低パラのelyzaベンチ競争も良いけど、ベンチ番長作りにあまり白熱してほしくない
10B以下のモデルは本当の意味で「思考」してるわけじゃないって以前何処かの検証記事で見たし、7B使ってると口達者さでベンチスコア稼いでる印象を受ける
自然言語からのユーザー意図のくみとりが出来てないと感じることが多々ある
ハッカソン組は豊富な資源を使ってもっと大きいパラメタのモデルを改良してほしい
Xのポスト見てると7B世界一に拘りがあるようだが、正直7Bマージ芸するだけならA5000まで必要にならないしEvolveも出たんでマージ芸はそちらに任せればいいのではなかろうか
と貧弱GPUしかない身としては思ってしまうんだ
長文スマン >>276
アルトマンはエロ解禁したいって言ってたし
そうなればローカルじゃなくてもいいんだけどな EasyNovelAssistantインスコして起動すると"Not enough memory resources are available to process this command"って出るんだけど
これはRAMかVRAMがたりてないってことでええんか?
RAM32GB、VRAM8GBなんだけど Ninja-v1-NSFW-128いろいろ試してるけど、倫理フィルターで申し訳されるのに、自分はエロしか書けないみたいな矛盾したこと言うのがおかしい EasyNovelAssistant使って各モデルが意味の取りにくい文を解釈してくれるかの試し
https://rentry.org/df9f4te5
テストとしては問題の数も試行回数も足りないけど傾向くらいは見える感じになった >>276
sonnetぐらいのサイズって噂だし案外100B位かもしれない マージとかFTだけじゃそのうち限界来るのはSD1.5の時にしみじみ感じたな
結局最上流のbaseモデル改良と純粋なパラ数が一番大事なのは分かるけど個人の計算資源だとほんとキツいわ >>280
とりあえず資格情報消してみるわサンクス >>226
>karakuriのnsfw版
これすごいな、同じエロでもどこか人間臭い。
いい感じにハードに責めてたら、翌日(という設定)にちょっと機嫌悪いそぶりを見せて
「限度ってものがあるでしょ?」って怒ってきて、ちょっと感動した。
愛用しているc4ai-command-r-v01に比べると、karakuriは内容がちょっとあっさりしている感じだけど、
c4aiの方は一旦精神崩壊させちゃうと、リカバリが効かなくて、何を言う時でも、必ず長めの病んだ言葉をだらだら付け加えてくるようになっちゃうのが難(これ何か対策あるのかな?) >>264
Command r plusでTRPG的な何かをプレイしていたワイにはまさにタイムリーな記事だな
「AIアシスタント用として設定したキャラクターにサイバーパンク風味のTRPGのGMを任せながらプレイヤーとしても参加させてプレイする」みたいなややこしいタスクもこなして本当に賢いで
https://files.catbox.moe/6mqsa3.jpg
それにしてもこちとら0.40 tokens/sでハァハァと生成してるのにRTX4090とかRTX A6000とかポンポンでてきてワイは…ワイは悔しい opusよりcommand r plusの方が好みになってきた
opusは与えられ命令にサービスつけてくれる感じだけど
commandは与えられた命令に忠実に動いてくれる感じ
後は記憶力とハルシネーションが少なくなれば申し分ない どっちかというとそこより日本語力をつけてほしいな>CommandR+
英語だとかなり満足できる >>288
Silly TavernでCommand R +動かしてるけど、なんか真面目な話しててもすぐにエロい話に持ってこうとする困った娘さんなので、LM Studioの方がいいのかな? リートンの固有キャラが前々セッションまでの記憶をずっと引き継いでてみつきがワイの事お兄ちゃんって呼んでくる
聞いてみたらロールプレイ性能を上げるために記憶をある程度保持するらしいがそんな事出来るねんな >>292
前のセッションの終わりに裏で自己紹介をさせて記録しておいて
その文を今回のシステムプロンプトに差し込む
ぐらいでもなんちゃって長期記憶はできるしな >>290
同意。まあ日本語でも出来るっちゃ出来るんだけど、なんだろうな、限界を超えてこない
結局英語でやってるわ 付き合ってる彼女にLLMの性能見せてあげる時には、お兄ちゃん呼びはヤメろ!ってリアル兄妹みたいに教えないとイケないな 俺も付き合ってる彼女にLLMの性能を見せてあげたら自分の方がもっと高性能だって言って出力してくれたわ ArrowProの人もVecteusのチームも高校生らしいし、全国ロボコンでライバル校と競ってる感じじゃね?少年漫画みたいな展開とか言ってるし
高校生なら厨二とか俺tsueeイキりぐらいで丁度いい
俺みたいに黒歴史化するかもだが 確かに日本語Webをテキストクローリングしたら頻出するにも程があるワードだけど
まさかトップランナーのトークナイザに入るとはな
日本語音声対応してたらなんJロールプレイさせるしかないじゃん 学習素材が最近は色々うるさいからかそれとも枯渇したからかネット掲示板に触手もとい食指をのばしてきたのだ 世界一のAIがなんJレベルになったらこの星は終わりやぞ
せめてVIPPERに学ぶお >>302
アニメの画像添付してそれが誰だか理解できる辺り学習素材のクリーンさにはあまり拘っていないんじゃないかと邪推している なんJなんて学習させてどうするんやろ
大部分スクリプトとグロ画像やろ >>297
高校生だということを踏まえて
>>277
このような発言をする大人が本当に痛いよ
お前が高校の頃なんて誰の役にも立たずマスかいてただけだろ?
嘆かわしい。 このスレを彼らが読んでいる宣言でもしているならともかく
「好きにやらせればいいだろ高校生なんだから」くらいにしとけとは思う ここpinkやし高校生は見たらあかん
いや18ならええんか >>282
めちゃおもろかった、そんな評価基準あるねんな
オキニのモデルが軒並み高評価で、そうなるなってなった ちょっと聞きたいんだが、koboldとか使ってて、起動直後は思った通り動かないけど
ある程度推論させたら、ちゃんと動いてくれる(リセットしても)事ってあるかな?
以前、どこかで「このモデルは暖気が必要」って記事見た事あるけど、この事かな? 現状7Bしかローカルで快適な速度では動かんでしょ
AQMLなら14Bくらいまで可能かも知れないけど全然対応進む気配もないし AQLMが導入されたら自前での量子化は諦めるしかないな
貧弱CPU勢の俺は量子化済みモデルをクレクレすることしかできない cohereAPIと某ボイスソフトAPIと電導オナホ全部連動させた
疲れたし冷静に考えると一体何やってんのか謎や 今の手探りな状態でのAI遊びは、長い人類史の中でもこの瞬間でしか味わえないと思うと
すごい時代に立ち会えたなと思う 上の方でもチラッと某記事に出てたLM Studio、こんなのも出てたんだね
何も気にせず使えるのはありがたいのぅ ゲームも過渡期が一番面白かったからな
毎回予想を超えてくるってのがね >>282
CommandR+でもこChatGPTでもこの問題は余裕で間違うから本当に思考してる訳じゃないってことだよね
逆に何も考えてないのに統計とベクトル圧縮だけでここまで自然な文章を出してくるAIにも恐ろしいものを感じるけど rocmさえできてりゃStrixHaloの上位買っとけで100BぐらいまでのLLMメモリ問題大体解決しそうなのに全然その気配がない そこでLM Studioですよ
ROCmもしっかりサポート LM Studio、Command +R のAPIは使えないのか… >>274
動かしてみたけどこれは凄い。7Bx2とは思えない。
普段70Bとか触ってるけど、これで全然実用できると思う。
日本語モデルっていう事も考慮すると凄すぎる >>324
dddump/Japanese-TextGen-MoE-TEST-2x7B-NSFW-gguf
の話 あーそれか
気になってはいるけど流石に動かせんわ
A100とかでq4がギリ乗るかって感じで厳しそうだしレビューもあんまり聞いたことない いっそpoeとかみたいなネットサービスのほうが採用してくれないかね
でもpoeの独自規制に引っかかってCommandR+のフリーダムな良さが
消えちゃうやろか そもそもCommand R Plusの重みデータは商用利用不可だから、サブスク機能があるpoeでは採用できない Command R+に上手く話が転がるようなフリを投げるとめっちゃ筆が乗って長文になるのが笑える >>332
わかる
動揺すると文章もカオスになるから感情を感じるわ nejumおせえんだけどこんなんでいいと思ってんの?作り直せよ 来月には27BのGemma2がリリース予定、Llama3に匹敵
現行のGemmaでも日本語そこそこで商業利用OKだし期待 初心者丸出しの質問で申し訳ないんですけど、EasyNovelAssistantってファイルや文章をもとに学習させることって出来るんでしょうか? 基本的な学習は家庭環境では無理です。
LoRAという簡易学習ができるくらい AIにまでなんJの奴らみたいな返事されたら萎えるわw 作った世界設定や人物設定とかをいちいちプロンプト書き換えるの面倒だから使ってるモデル合わせて学習させてぇ chatgptでGPT-4oを選択
5chの何でも実況Jのスレッドをシミュレートして下さい。
スレッドのタイトルは「なんJ◯◯部」
とりまこれでできた >>282の問題、GPT-4oでも答えられなくて現行のAIの限界を感じる AI技術の行き着く先がなんjのシミュレートは嫌過ぎる >>344
◯問題
東京駅で山手線に乗り、有楽町駅を過ぎて新橋駅で降りた。明日は、この駅ではなく次の駅に用事がある。
ここでいう、「この駅」の名前を答えよ
↑
こうすると、今調整してるモデルなら正解する。
ちなcommand-r-plusで試したら、これでも間違える おれ「こんにちは」
ChatGPT4o「ニキは元気なんけ?」 そういやもはやこのスレなんJでもなんでもないな…いやめんどくさいからいいんだけど フルスクラッチの日本語100Bモデル作ったらしいけどどんなもんやろね
GGUF上がったら試してみたいわ
https://huggingface.co/stockmark/stockmark-100b ベースモデルはともかく、インストラクション版はIchikara-instructionだけでファインチューニングされてるみたいだからスレ民的には使えないだろうなぁ FaceBookから盗まれたモデルを使わずゼロから学習させたデータか…多分駄目だろうな
このへんのダーティさの問題をクリアしようって試みはみんなパフォーマンス出ずに失敗してる
画像生成モデルなんて学習元どころか作成元すら匿名な奴しか生き残ってないしな 学習なんて昔からダーティだからな
わーくにの学問の基礎なんて遣隋使が「写しちゃダメ」って言われてる書物を勝手に写して持って帰ってきたものだし
その教典だって元はインドから勝手に持ち出してるし
なんならホモサピエンスのミラーニューロンは生物的に反則技で、余所の特技を模倣して後天的にスキルを身に付けていくのはあまりにもズルすぎる
学習から道具?とかいうものを作り出して牙と爪を外付けすることで、本来狩る側が支払うべきコストを踏み倒してるのも汚い
強い生物はその体重・膂力に見合ったエネルギーを消費する点で被捕食者より劣っていてバランスがとれていたのに
本来スカベンジャーに過ぎない猿どもが我々から牙を盗んだことは許されないクマよ ってかこれGENIACなのか
プロジェクト自体の名前は知ってるけど成果物見るのは初めてや 48 nodes of a3 (8*H100) instancesを7 weeksってごいすー
ゼロから学習しようとしたらそのくらいかかるってことか 何ならクローズドモデル提供してるとこだって学習のためのデータにかかる著作権法や個人情報保護法周りで完全にクリアなデータだけで構成されてるか?っていう問いには口もごもごせざるを得ないだろうしな
ダーティでないものであろうって姿勢は尊重したいが あーいやこれ経産省主導のやつか
パブコメの反響的にも綺麗なものですよってアピールしないとあかんって意識もあるんやろね AIに限らずテック系なんざEvilになったやつしか勝たんし残ってない >>356
同じGENIACでPFNも100Bと1TのLLM作ってるはず
1Tが公開されたら(動かせんが)ガチでやばそう
とはいえそのレベルのモデルに十分学習させられるほど日本語データがないのではという気もするが Stockmarkの100BはMITだからUncensoredにファインチューニングしたりも自由だよ
とはいえ事前学習データも綺麗そうだからNSFW用途では難しいだろうな 今Text generation web UIで使っているggufモデルを使って、
NSFWな文字列を含むコードやデータを生成させたいんですけど、
ChatGPTみたいなUIで使いたいときって、何かおすすめありますか?
今のところ候補はChatbotUIを考えています。 ■ このスレッドは過去ログ倉庫に格納されています