なんJLLM部 避難所 ★4
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/09/10(火) 10:19:11.43ID:Z1PzH55u
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★3
https://mercury.bbspink.com/test/read.cgi/onatech/1717886234
0644名無しさん@ピンキー2024/11/19(火) 22:50:03.86ID:???
>>643
おお、これがそうなのか
試しにchatGPT君に出題してみたらLV1でもかなり間違えるのな
人間ならすぐ分かるレベルの問題だけど、ストロベリー問題みたいに構造上の問題でもあるのかな
推論の過程をみると、不正解の時には誤った仮定をそのまま事実として使ってしまっていて、正解した時には一度出した仮定を洗い直しているっぽいから、そういう思い込みみたいな思考の癖が根底にある感じ・・・?
勉強になった、ありがとう
0645名無しさん@ピンキー2024/11/20(水) 03:44:38.98ID:???
生徒会恋愛問題はなんというか説明の仕方が悪いだけな気もする…
まあそれも含めて能力テストなんだろうけど
0646名無しさん@ピンキー2024/11/20(水) 14:41:54.87ID:SR5EL2EN
まだLLMが思考してると思ってる馬鹿が居るのか
画像の高解像度化と同じなのに
0647名無しさん@ピンキー2024/11/20(水) 14:46:03.48ID:???
ひょっとするとあなたもわたしも
思考してないかもしれない
0648名無しさん@ピンキー2024/11/20(水) 14:46:40.44ID:???
AI学習できるマザー出すくらいならVRAM直付けで出してくれよ
0650名無しさん@ピンキー2024/11/20(水) 15:48:35.80ID:???
こんな板にも言葉尻を捕らえてマウントを取ろうとする奴が沸くのか
なんて思ったけど
やけにLlama-3.1-70B-Japanese-Instruct推してくる奴とか
そういえば強い言葉好きな奴既に居たわ
0651名無しさん@ピンキー2024/11/20(水) 16:31:45.14ID:???
o1の推論プロセスなんか見ても既にLLMの生成はオートコンプリートの延長線とは言えない段階まで来ているだろ
研究者だって多量なデータを与えたことによる応答の質が大きく向上した現象にグロッキングとかいう単語を置いて謎としているわけだし
0653名無しさん@ピンキー2024/11/20(水) 17:27:09.26ID:???
謎の進化を遂げたみたいに言うから嘘と言われるわけで、ある閾値を超えると(人間から見て)性能が劇的に向上する現象が観察された、と言えばみんな納得するでしょ
0654名無しさん@ピンキー2024/11/21(木) 01:30:23.99ID:7l2UY05J
o1レベルの性能らしいDeepSeekのR1-Lite-Previewがローカルにも来るって話だけど何Bぐらいなんだろうな
まさかDeepSeek-V2-Liteと同じ16Bってことはないだろうけど
0656名無しさん@ピンキー2024/11/21(木) 11:43:55.21ID:bbA6Yw/Y
だよなー、GPU輸入制限食らっとるのになんでやろ?
うまいこと回避しとるんかな。
0657名無しさん@ピンキー2024/11/21(木) 12:09:17.83ID:???
(日本でH100買って)中国に行って観光して帰ってくるだけで儲かるんでしょ?
0658名無しさん@ピンキー2024/11/21(木) 12:22:19.01ID:???
>>656
外国で大量にグラボ買ってそこにデータセンター作ってクラウドでやってるって聞いた
0660名無しさん@ピンキー2024/11/21(木) 15:50:18.68ID:???
4090のGPUとメモリ引っ剥がした残りのゴミを日本人に10万で売りつけてウハウハだしな
養分すぎるわ本邦は
0662名無しさん@ピンキー2024/11/21(木) 16:39:01.10ID:bbA6Yw/Y
>>658
なるほどなぁ、賢いわ…。
0664名無しさん@ピンキー2024/11/21(木) 19:04:10.99ID:???
データセンターのサービスを使うという形でならアメリカでも

https://www.moderntimes.tv/articles/20240828-01dxw/

まあ要は製品の輸出を規制したところでクラウドサービスの利用は現状ノーマークだから第三国でやりたい放題出来る
それも規制しようとしたら世界中の国に、中国相手にデータセンター使わせるなって恫喝しなきゃならん
0666名無しさん@ピンキー2024/11/22(金) 21:46:16.35ID:???
>>637
これredditで上がってたけど温度高いと出る不具合っぽい
70くらいだとほとんど出なくなった
0667名無しさん@ピンキー2024/11/24(日) 14:27:19.06ID:???
なんとかEasyNovelAssistantの導入に成功したけど今流行りのローカル環境ってどれなん?しばらくはこれでいい?
0668名無しさん@ピンキー2024/11/24(日) 15:14:58.94ID:???
>>667
それは小説書かせたい時用のやつ
チャットしたいならまた別のやつが良いし
0669名無しさん@ピンキー2024/11/25(月) 19:48:04.14ID:???
決め打ちでモデルのダウンロードとかできるから
EasyNovelAssistantでダウンロードと起動までして
対話型はSillyTavernでやればええんじゃない
0670名無しさん@ピンキー2024/11/26(火) 07:41:40.17ID:???
KoboldCppにあらすじ書いて清書してもらうってのを続けてたら
5〜6ターン目で勝手に指示を無視して書き続けるのは何なんやろ
GPTならいい感じに続くのに
0671名無しさん@ピンキー2024/11/26(火) 10:58:24.17ID:VIYqsyQ2
>>670
とりあえずモデル名書いて
おそらくコンテキストレンジ超えたことで最初のメッセージを忘れてるんだと思うけど
0672名無しさん@ピンキー2024/11/26(火) 14:17:23.84ID:???
>>671
サンガツ
Berghof-NSFW-7B.i1-Q6_K.gguf
つことる
コンテキストサイズってところは4096でやってる
0673名無しさん@ピンキー2024/11/26(火) 14:32:32.91ID:???
コンテキストサイズ4096だと日本語じゃ6000文字くらいしか覚えられないんじゃないか?
GPTってモデルにもよるけどたしか128kだったか200kあるから同じように使ったらまあそうなるんじゃないか
0677名無しさん@ピンキー2024/11/26(火) 15:33:28.16ID:jWtds6/a
8192でもちょっとチャットして遊んだらすぐに超えちゃうよね
0678名無しさん@ピンキー2024/11/26(火) 15:36:37.36ID:???
easynovelでJapanese-nsfwなんちゃらっての使ってるんやが
どうしても官能小説っぽくなるわ
AI音声に読み上げさせたいからセリフ中心で出力させたいんやけどそういうテンプレとか強いモデルってある?
0679名無しさん@ピンキー2024/11/26(火) 15:41:29.96ID:???
ローカルで128k対応モデル使ってみたことあるけど応答が遅くならん?
32Kで応答6秒くらいかかるようになってチャットだとストレスだった記憶
RTX5090のGDDR7なら良くなるのかな?
0680名無しさん@ピンキー2024/11/26(火) 16:56:48.41ID:???
他のモデルに浮気したが、Vecteus-v1は16384でも日本語破綻しなくて結局戻ってきた。
(でもスペック都合で12288で使ってる)
0681名無しさん@ピンキー2024/11/27(水) 01:15:27.21ID:???
エロい喘ぎ声聞きながら読むとすごくエッチな気分になるんだが
良い素材何処かにないだろうか?もしくは生成できないかな?
0682名無しさん@ピンキー2024/11/27(水) 04:44:36.30ID:???
EasyNovelAssistantを再インスコしようとしたんやが
[EasyNovelAssistant]ってフォルダ入れ子にならない?
最終的に[setup]ってフォルダに本体入るみたいなんやが
0683名無しさん@ピンキー2024/11/27(水) 10:07:04.55ID:???
コンテキストサイズ大きくてもチャット増えるとどんどん混乱するから6000くらいに収めてSTで要約
0684名無しさん@ピンキー2024/11/27(水) 13:48:05.91ID:???
もうスクリプト落ち着いたしもともとの板に本スレ立てない?
ここ人来ないから勢い落ちちゃってるし
0685名無しさん@ピンキー2024/11/27(水) 14:25:52.44ID:???
ええと思うけど
あっちはあっちで即死回避とか必要なんやっけ
0686名無しさん@ピンキー2024/11/27(水) 14:46:20.08ID:???
どんぐりの意味がわからなくて、向こうで書けないんだよな
ローカルAIに聞いてもブナ科の実です、しか答えてくれないし
0688名無しさん@ピンキー2024/11/27(水) 16:40:16.81ID:???
数ヶ月前なら調子良かったけどな
今の5chは規制やりすぎて普通の会話もしんどいからな
保守できるなら本家としてあっちに立てて誘導貼っとくならええのかなってくらい
0689名無しさん@ピンキー2024/11/27(水) 17:00:41.46ID:???
なんU復帰ええと思うけど戻ったところで人が集まるかといえばどうなんやろな
ずっと人気なNVAと比べてLLMの場末感よ
0690名無しさん@ピンキー2024/11/27(水) 17:04:45.95ID:???
ローカルLLMの要求スペック高すぎなのがあかんのや…
手を出しやすい7Bはもう新しく語ることもほぼないだろうし
0691名無しさん@ピンキー2024/11/27(水) 17:27:58.78ID:???
ここで言うことでもないが、チャットサービスで脱獄するリスクとコスト、ローカルで動かすコストを比較したうえで結果物のクオリティを比べるとな……
ローカル生かしてLoraとか作ってもっと好みに調教できたら良いのかもしれんがそれこそ一般家庭離れしたスペックが必要やろうし
0693名無しさん@ピンキー2024/11/27(水) 19:16:44.28ID:???
申し訳回避なんぞリスクもコストも何もないからな
サービス側ももはや諦めてて大手すら放置状態やし
0694名無しさん@ピンキー2024/11/27(水) 23:55:28.58ID:I/hkf6CQ
でもまあ避難してた理由がなくなったんやからなんJに帰るんは賛成やな
どんぐりのレベルが10を超えないとURLが貼れないって問題はあるけど、LLMの話題やとあんまり問題にならんやろうし、やっぱ人と話題が少ないんは寂しいわ
0696名無しさん@ピンキー2024/11/28(木) 16:45:29.71ID:???
LLMさわるならローカル以外邪道でGPUはRTX4090刺さなきゃ……エッチなチャットしなきゃ……っていうのは錯覚じゃん?
ここ最近ひたすらDify触ってるんだけどノーコード版のLangchainみたいなやつでエージェント(というかAituber)作る楽しみを見出したりしてる
0697名無しさん@ピンキー2024/11/28(木) 16:48:09.67ID:???
クラウドの話もべつにいいんじゃね
Anthropicの無料で使えるのHaikuになりがちになってきたからOpenrouter使い始めたけどなんかClaude3.5sonetにもシステムプロンプト設定できたんだけど
ノリで「一人称:あーし 絵文字多用」的なの設定したら流暢に正規表現やReactコンポーネント書くギャルが爆誕して気に入ったわ
0698名無しさん@ピンキー2024/11/28(木) 17:41:25.80ID:???
ボイス付きでキャラになりきりながら雑談もタスクも付き合ってくれるようなエージェント、みたいなのはもっと流行らないかな
節約とセキュリティのためにDifyでローカルとクラウドのLLMを使い分けつつ色々やろうとしてるけどフローの効率化が難しい
0699名無しさん@ピンキー2024/11/29(金) 17:12:08.88ID:64znOil6
『出力する行ごとの内容は全く同一にしないこと。』っていう指示を追加したらあんまり繰り返しループに陥らなくなった気がする
カッコ文の内容もある程度バラけるようになってより小説っぽくなる、ような気がする(当社比)
0700名無しさん@ピンキー2024/11/29(金) 20:53:06.84ID:9PCqQ/Vh
来年頭には次世代GPUが出まくるからローカルでの話題も増えるだろうし、それまでのんびり話題繋げりゃいいんじゃないの。
結構参考になる内容も書き込みあるし。
0702名無しさん@ピンキー2024/11/29(金) 22:34:11.27ID:v4qNb+Sc
まあcceは学習時に使うものだから我々に直接的な関係はないんだけどな
0703名無しさん@ピンキー2024/11/30(土) 05:39:35.51ID:3LX4oiHo
entropixってやつで小さいモデルでもよくなるんだろ?
0704名無しさん@ピンキー2024/11/30(土) 12:12:52.85ID:???
>>698
ワイはaituber-kit触ってるけど作者がOpen Interpreter使ってコード実行環境もたせてタスク実行機能持たせたりしてたな
あんま実用性ないらしいけど
ロマンは感じる
0705名無しさん@ピンキー2024/11/30(土) 14:41:09.85ID:???
このスレ知的レベル高すぎん?
何いってるのかさっぱりわからんぞ
0706名無しさん@ピンキー2024/11/30(土) 15:10:42.07ID:Tj3uJNZ8
>>703
知識面ではパラ数が物を言うから根本的な解決にはならないんだよな
あと最適な学習量じゃないと逆効果だし(qwenなんかは過学習だからスコア落ちる)
>>705
半年ローカル触ってればわかるようになるよ
さあこっちに来るんだ
0708名無しさん@ピンキー2024/11/30(土) 15:33:04.61ID:is/870ZI
用語も多いからちんぷんかんぷんになるのもしゃーないで
「温度が高いと問題が出る」なんて一般用語っぽい話も、Temperatureって専門用語を知らなければ室温とかGPU温度くらいにしか思い至らんやろうし……
0710名無しさん@ピンキー2024/11/30(土) 18:07:49.35ID:JbQL+FDs
今でも更新されてる初心者向けwiki知ってる方いたら教えていただきたい
探したけど大抵去年か今年半ばで止まってるので
0711名無しさん@ピンキー2024/11/30(土) 18:12:01.00ID:???
LLMに関してはないんだよなぁたぶん
としあきとかも触ってないんかな
0712名無しさん@ピンキー2024/11/30(土) 18:21:42.66ID:???
https://local-llm.memo.wiki
ローカル用だけど、こことかたまに見に行くけどもちょくちょく更新されてる。
初心者向けかどうかとか、求めてるものかどうかとかは分からん

個人的にはローカルで、キャラとのエチャとかをどうやったらいいのかとか
その辺具体的に書いてあるサイトとか探してるんだけどどっかにないっすかねぇ…?
0714名無しさん@ピンキー2024/11/30(土) 19:17:12.55ID:XWQ+xawP
正直ヤッて覚えるのが一番早い気がする
あと、ChatGPTにコンソールログとかUIの設定画面とか見せながら聞くとそれぞれどういう意味なのか教えてくれるよ
0715名無しさん@ピンキー2024/11/30(土) 20:17:08.07ID:CcifuKjN
AIにAIのこと聞くんですね笑
がんばって英語読みながらやってみます
0716名無しさん@ピンキー2024/12/01(日) 10:39:50.80ID:???
koboldの新機能のマルチプレイヤーモードって何ができるようになるんだ?
0717名無しさん@ピンキー2024/12/01(日) 10:50:31.40ID:PZS6Bipn
リリースに書いてある通り、俺とお前で同じAIチャットに参加できるってことじゃないのか
みんなでTRPGとかが出来るんだろう
https://github.com/LostRuins/koboldcpp/releases
0719名無しさん@ピンキー2024/12/01(日) 19:38:22.53ID:???
> Bugfix for Grammar not being reset, Bugfix for Qwen2.5 missing some UTF-8 characters when streaming.
こっちの方が嬉しいかも。
試した限り、「Token Streaming」が「SSE」のままでも
例えば「しずかちゃん」が「しかちゃん」になる問題が直ってた。
0720名無しさん@ピンキー2024/12/02(月) 12:03:08.24ID:???
easynovelassistantについての質問です。
用意されてる以外のモデルを使いたい場合、ユーザー側で気軽に追加できる方法などはあるのでしょうか。

同梱されていたkobboldの方でモデルを読み込むとeasy〜の方でもどうやら使えているようなので、今はこのやり方でやっているのですが、このやり方だとモデルの真価が出せているのか不安です。
0721名無しさん@ピンキー2024/12/02(月) 13:32:42.99ID:CD9bn16H
>>720
読み込むモデルが違うだけだから性能が出ないとかはないよ
レイヤー数いじらないと遅くなるとかはあるけど
0723名無しさん@ピンキー2024/12/02(月) 23:54:47.07ID:???
7Bにしてはそこそこマシみたいな日本語対応モデルはチラホラ出て来てるけど
14-32Bくらいの一段上のモデルが停滞してると感じるな
0724名無しさん@ピンキー2024/12/03(火) 02:03:39.71ID:???
半年ぐらい新しいモデルを見かけない気がする
探してるところが狭すぎるのかもしれないけど
0725名無しさん@ピンキー2024/12/03(火) 02:45:46.58ID:???
>>720
EasyNovelAssistant\setup\resにあるdefault_llm.jsonを書き換えろ定期
でもこれ弄るとアップデートする時にエラーになるらしいから今困ってないならそのままのやり方でもいいんじゃね
0726名無しさん@ピンキー2024/12/03(火) 04:23:34.31ID:???
Hermes-3-Llama-3.1-70BのUncensoredでそこそこの日本語エロは楽しめたけど、一回の生成に時間かかりすぎてテンポ悪すぎるんよなぁ
0727名無しさん@ピンキー2024/12/03(火) 04:50:35.22ID:xB+MPHqa
VRAM足りなくて7Bまでしかまともに使えないんだけど最近何か新しいの出てる?
ここ半年ぐらい同じモデルを使い回してるわ
0728名無しさん@ピンキー2024/12/03(火) 05:48:09.56ID:SyzUo4cA
>>725
バッチファイルと同じフォルダにあるllm.jsonをdefault_llm.jsonと同じフォーマットで書き換えれば
メニューに反映されるしアップデートもうまくいくみたいだよ
07307202024/12/03(火) 09:32:25.04ID:???
ありがとうございます、知識が増えました。
実力は足りないので無難なやり方でやっていこうと思います
0732名無しさん@ピンキー2024/12/03(火) 21:49:06.41ID:???
>>729
やっぱ70Bクラスじゃないとそこそこの性能は無理なのか…
いい加減まともなVRAM積んだグラボどっかが出してくれよ
0733名無しさん@ピンキー2024/12/03(火) 21:54:47.82ID:???
intelあたりの負け組がやってくれれば良かったのにARC Bこのまま消え去りそう
0734名無しさん@ピンキー2024/12/04(水) 00:26:23.66ID:QmurctfH
VRAM96GBらしいStrixHaloことRyzen AI Maxが希望だけど、どのくらいの値段でどういう商品として出てくるのか素人にはさっぱりわからん
普及する価格帯なら嬉しいんだけどな
0737名無しさん@ピンキー2024/12/04(水) 06:03:18.26ID:???
そもそもVRAMじゃないし何もかも間違ってるぞ
強いAPUに128GBメモリ版が出てその内96GBをVRAMとして振り分けられるってだけ
速度は所詮DDR5だから遅い
値段は最上位ノート扱いだろうから30万〜じゃね?
0738名無しさん@ピンキー2024/12/04(水) 07:03:51.52ID:???
>>737
Strix Halo APUは256ビットのLPDDR5Xメモリコントローラーを備え、273 GB/sの帯域がある
通常のDDR5の5倍、M4 Maxの0.5倍くらいの帯域じゃない?
0739名無しさん@ピンキー2024/12/04(水) 07:10:16.59ID:lHLX8ECn
Haloが成功すればMaxだのUltraだのが出る流れかもしれない
0742名無しさん@ピンキー2024/12/04(水) 19:24:44.87ID:+ClBS/it
M4 Max 並みの帯域幅か。

53万するM4 MaxのMacbookPro だと
ユニファイドメモリ36GBから28GBほどGPU割当てできる。

ARCx2個分24GBだとするとGPUだけで500ドル?高くない?
■ このスレッドは過去ログ倉庫に格納されています