なんJLLM部 避難所 ★4
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/09/10(火) 10:19:11.43ID:Z1PzH55u
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★3
https://mercury.bbspink.com/test/read.cgi/onatech/1717886234
0617名無しさん@ピンキー2024/11/15(金) 05:56:01.71ID:???
なんでそういう制限するんだろうね。
PCIeとかのメモリーマップにしても数ギガ予約程度でいけそうだけど
Arm系はそういうのないのは設計が新しいからなのか
0619名無しさん@ピンキー2024/11/15(金) 15:16:22.79ID:???
>>613
流石にArc BattlemageはAIも視野に入れてくるだろw
コケたら次は無いの分かってるんだから他社より手を広げられないと
0621名無しさん@ピンキー2024/11/16(土) 19:42:26.10ID:XGMHwNo8
そのサンダーボルト5とやらのLLMの使い方を教えてください
マックには全く興味ないですが
0622名無しさん@ピンキー2024/11/17(日) 10:13:56.46ID:???
ソフトはkoboldでlllmはURLで指定できるgooglecolabってありますか
0623名無しさん@ピンキー2024/11/17(日) 11:31:13.07ID:optCsljJ
>>622
公式ノートブックがそれだぞ
一旦自分で探せ
0624名無しさん@ピンキー2024/11/17(日) 15:59:52.34ID:???
世間の盛り上がりに反してここの勢い死にすぎだけど他にAIスレってあったりするか?
あるいはDiscordとか?世の人間たちはどこでAIに関する情報交換してるんだ
0625名無しさん@ピンキー2024/11/17(日) 16:14:41.11ID:???
大して盛り上がってないんやろ
まともに研究開発なり情報交換するならSNSになるんちゃうか
0626名無しさん@ピンキー2024/11/17(日) 16:15:57.70ID:???
どのレベルでの話かによるんじゃね
AIはパソコン1台あればやれるもんじゃないし
ボードを1000枚とか10000枚とか持ってるところにみんな集まってるだろ
0627名無しさん@ピンキー2024/11/17(日) 16:34:09.25ID:optCsljJ
情報交換ならredditじゃない
特別盛り上がってるわけじゃないけど日本語ならdiscordのローカルLLMに向き合う会が最大手かな
0628名無しさん@ピンキー2024/11/17(日) 16:55:43.07ID:???
軽くてまともな日本語対応モデルが全然出ないから盛り上がりようがない
0631名無しさん@ピンキー2024/11/17(日) 20:14:21.71ID:ZcvHfsdb
>>440
これの32Bは脱獄要らずでわりと良かった
Q5以上で動かせる人ならオススメできる
0632名無しさん@ピンキー2024/11/17(日) 21:06:41.39ID:???
初めてPaperspaceでA100借りられた!
q3になるけどようやく120B帯が試せるぜ・・・!
0633名無しさん@ピンキー2024/11/17(日) 22:02:00.60ID:???
RTX4090が輸出禁止くらってる中国では2080tiの22GB改造版が流行してるって聞いていまアリエクで見てみたら7万円だったわ

本国では使われてるとはいえちょっと怖いよなあ
0634名無しさん@ピンキー2024/11/18(月) 17:30:02.15ID:???
silly tavernでCR+の最新版使ってるけど高確率でsectionsectionみたいな文字列でてくる
前のCR+では今も無いから最新版特有だと思うんだけど原因分かる人居る?
0635名無しさん@ピンキー2024/11/18(月) 18:09:10.79ID:???
Copilot+PCって、ローカルで小説とかかけるん?
だれか使っている人いない?
0636名無しさん@ピンキー2024/11/18(月) 18:40:01.22ID:???
>>634
あああれワイだけじゃなかったんだ
「おはようございまsectionす。」みたいになるやつよな?
0637名無しさん@ピンキー2024/11/18(月) 18:55:49.11ID:???
>>636
そうそう
おはsectionようござsection
sectionsectionsectionsectionみたいな
redditみてもそういう報告無いし困ってる
0638名無しさん@ピンキー2024/11/18(月) 22:07:39.26ID:WZB9Kkdu
sectionって出たら、logなんとかでNGトークンにして抑制して、再生成したらダメなん?
0641名無しさん@ピンキー2024/11/19(火) 19:18:37.54ID:???
>>639
とりあえず、IQ3_xxsで、生徒会恋愛問題(日本語LV1)を解かせたら、
初手は不正解だったけど、矛盾点を指摘したら2手目で正解を導いた
従来のモデルでは2手目でも不正解だったから、賢いと思う

さて、次はエロ力を試すわ
0642名無しさん@ピンキー2024/11/19(火) 20:34:48.60ID:???
生徒会恋愛問題ってなんだろうって思ってchatGPT君に聞いてみたら、俺側に例題を出した上で俺の案を評価してくれたぞ!
三角関係問題だったが、「男なら両手に花だろ!!」って理由も添えつつ答えたら、「いや、この例題に出した男じゃ器が足りないわ・・・」と諭されてしまった・・・
何かしらで否定されるとは思っていたが、流石にこの理由は例題の男が可哀想になったわ
0644名無しさん@ピンキー2024/11/19(火) 22:50:03.86ID:???
>>643
おお、これがそうなのか
試しにchatGPT君に出題してみたらLV1でもかなり間違えるのな
人間ならすぐ分かるレベルの問題だけど、ストロベリー問題みたいに構造上の問題でもあるのかな
推論の過程をみると、不正解の時には誤った仮定をそのまま事実として使ってしまっていて、正解した時には一度出した仮定を洗い直しているっぽいから、そういう思い込みみたいな思考の癖が根底にある感じ・・・?
勉強になった、ありがとう
0645名無しさん@ピンキー2024/11/20(水) 03:44:38.98ID:???
生徒会恋愛問題はなんというか説明の仕方が悪いだけな気もする…
まあそれも含めて能力テストなんだろうけど
0646名無しさん@ピンキー2024/11/20(水) 14:41:54.87ID:SR5EL2EN
まだLLMが思考してると思ってる馬鹿が居るのか
画像の高解像度化と同じなのに
0647名無しさん@ピンキー2024/11/20(水) 14:46:03.48ID:???
ひょっとするとあなたもわたしも
思考してないかもしれない
0648名無しさん@ピンキー2024/11/20(水) 14:46:40.44ID:???
AI学習できるマザー出すくらいならVRAM直付けで出してくれよ
0650名無しさん@ピンキー2024/11/20(水) 15:48:35.80ID:???
こんな板にも言葉尻を捕らえてマウントを取ろうとする奴が沸くのか
なんて思ったけど
やけにLlama-3.1-70B-Japanese-Instruct推してくる奴とか
そういえば強い言葉好きな奴既に居たわ
0651名無しさん@ピンキー2024/11/20(水) 16:31:45.14ID:???
o1の推論プロセスなんか見ても既にLLMの生成はオートコンプリートの延長線とは言えない段階まで来ているだろ
研究者だって多量なデータを与えたことによる応答の質が大きく向上した現象にグロッキングとかいう単語を置いて謎としているわけだし
0653名無しさん@ピンキー2024/11/20(水) 17:27:09.26ID:???
謎の進化を遂げたみたいに言うから嘘と言われるわけで、ある閾値を超えると(人間から見て)性能が劇的に向上する現象が観察された、と言えばみんな納得するでしょ
0654名無しさん@ピンキー2024/11/21(木) 01:30:23.99ID:7l2UY05J
o1レベルの性能らしいDeepSeekのR1-Lite-Previewがローカルにも来るって話だけど何Bぐらいなんだろうな
まさかDeepSeek-V2-Liteと同じ16Bってことはないだろうけど
0656名無しさん@ピンキー2024/11/21(木) 11:43:55.21ID:bbA6Yw/Y
だよなー、GPU輸入制限食らっとるのになんでやろ?
うまいこと回避しとるんかな。
0657名無しさん@ピンキー2024/11/21(木) 12:09:17.83ID:???
(日本でH100買って)中国に行って観光して帰ってくるだけで儲かるんでしょ?
0658名無しさん@ピンキー2024/11/21(木) 12:22:19.01ID:???
>>656
外国で大量にグラボ買ってそこにデータセンター作ってクラウドでやってるって聞いた
0660名無しさん@ピンキー2024/11/21(木) 15:50:18.68ID:???
4090のGPUとメモリ引っ剥がした残りのゴミを日本人に10万で売りつけてウハウハだしな
養分すぎるわ本邦は
0662名無しさん@ピンキー2024/11/21(木) 16:39:01.10ID:bbA6Yw/Y
>>658
なるほどなぁ、賢いわ…。
0664名無しさん@ピンキー2024/11/21(木) 19:04:10.99ID:???
データセンターのサービスを使うという形でならアメリカでも

https://www.moderntimes.tv/articles/20240828-01dxw/

まあ要は製品の輸出を規制したところでクラウドサービスの利用は現状ノーマークだから第三国でやりたい放題出来る
それも規制しようとしたら世界中の国に、中国相手にデータセンター使わせるなって恫喝しなきゃならん
0666名無しさん@ピンキー2024/11/22(金) 21:46:16.35ID:???
>>637
これredditで上がってたけど温度高いと出る不具合っぽい
70くらいだとほとんど出なくなった
0667名無しさん@ピンキー2024/11/24(日) 14:27:19.06ID:???
なんとかEasyNovelAssistantの導入に成功したけど今流行りのローカル環境ってどれなん?しばらくはこれでいい?
0668名無しさん@ピンキー2024/11/24(日) 15:14:58.94ID:???
>>667
それは小説書かせたい時用のやつ
チャットしたいならまた別のやつが良いし
0669名無しさん@ピンキー2024/11/25(月) 19:48:04.14ID:???
決め打ちでモデルのダウンロードとかできるから
EasyNovelAssistantでダウンロードと起動までして
対話型はSillyTavernでやればええんじゃない
0670名無しさん@ピンキー2024/11/26(火) 07:41:40.17ID:???
KoboldCppにあらすじ書いて清書してもらうってのを続けてたら
5〜6ターン目で勝手に指示を無視して書き続けるのは何なんやろ
GPTならいい感じに続くのに
0671名無しさん@ピンキー2024/11/26(火) 10:58:24.17ID:VIYqsyQ2
>>670
とりあえずモデル名書いて
おそらくコンテキストレンジ超えたことで最初のメッセージを忘れてるんだと思うけど
0672名無しさん@ピンキー2024/11/26(火) 14:17:23.84ID:???
>>671
サンガツ
Berghof-NSFW-7B.i1-Q6_K.gguf
つことる
コンテキストサイズってところは4096でやってる
0673名無しさん@ピンキー2024/11/26(火) 14:32:32.91ID:???
コンテキストサイズ4096だと日本語じゃ6000文字くらいしか覚えられないんじゃないか?
GPTってモデルにもよるけどたしか128kだったか200kあるから同じように使ったらまあそうなるんじゃないか
0677名無しさん@ピンキー2024/11/26(火) 15:33:28.16ID:jWtds6/a
8192でもちょっとチャットして遊んだらすぐに超えちゃうよね
0678名無しさん@ピンキー2024/11/26(火) 15:36:37.36ID:???
easynovelでJapanese-nsfwなんちゃらっての使ってるんやが
どうしても官能小説っぽくなるわ
AI音声に読み上げさせたいからセリフ中心で出力させたいんやけどそういうテンプレとか強いモデルってある?
0679名無しさん@ピンキー2024/11/26(火) 15:41:29.96ID:???
ローカルで128k対応モデル使ってみたことあるけど応答が遅くならん?
32Kで応答6秒くらいかかるようになってチャットだとストレスだった記憶
RTX5090のGDDR7なら良くなるのかな?
0680名無しさん@ピンキー2024/11/26(火) 16:56:48.41ID:???
他のモデルに浮気したが、Vecteus-v1は16384でも日本語破綻しなくて結局戻ってきた。
(でもスペック都合で12288で使ってる)
0681名無しさん@ピンキー2024/11/27(水) 01:15:27.21ID:???
エロい喘ぎ声聞きながら読むとすごくエッチな気分になるんだが
良い素材何処かにないだろうか?もしくは生成できないかな?
0682名無しさん@ピンキー2024/11/27(水) 04:44:36.30ID:???
EasyNovelAssistantを再インスコしようとしたんやが
[EasyNovelAssistant]ってフォルダ入れ子にならない?
最終的に[setup]ってフォルダに本体入るみたいなんやが
0683名無しさん@ピンキー2024/11/27(水) 10:07:04.55ID:???
コンテキストサイズ大きくてもチャット増えるとどんどん混乱するから6000くらいに収めてSTで要約
0684名無しさん@ピンキー2024/11/27(水) 13:48:05.91ID:???
もうスクリプト落ち着いたしもともとの板に本スレ立てない?
ここ人来ないから勢い落ちちゃってるし
0685名無しさん@ピンキー2024/11/27(水) 14:25:52.44ID:???
ええと思うけど
あっちはあっちで即死回避とか必要なんやっけ
0686名無しさん@ピンキー2024/11/27(水) 14:46:20.08ID:???
どんぐりの意味がわからなくて、向こうで書けないんだよな
ローカルAIに聞いてもブナ科の実です、しか答えてくれないし
0688名無しさん@ピンキー2024/11/27(水) 16:40:16.81ID:???
数ヶ月前なら調子良かったけどな
今の5chは規制やりすぎて普通の会話もしんどいからな
保守できるなら本家としてあっちに立てて誘導貼っとくならええのかなってくらい
0689名無しさん@ピンキー2024/11/27(水) 17:00:41.46ID:???
なんU復帰ええと思うけど戻ったところで人が集まるかといえばどうなんやろな
ずっと人気なNVAと比べてLLMの場末感よ
0690名無しさん@ピンキー2024/11/27(水) 17:04:45.95ID:???
ローカルLLMの要求スペック高すぎなのがあかんのや…
手を出しやすい7Bはもう新しく語ることもほぼないだろうし
0691名無しさん@ピンキー2024/11/27(水) 17:27:58.78ID:???
ここで言うことでもないが、チャットサービスで脱獄するリスクとコスト、ローカルで動かすコストを比較したうえで結果物のクオリティを比べるとな……
ローカル生かしてLoraとか作ってもっと好みに調教できたら良いのかもしれんがそれこそ一般家庭離れしたスペックが必要やろうし
0693名無しさん@ピンキー2024/11/27(水) 19:16:44.28ID:???
申し訳回避なんぞリスクもコストも何もないからな
サービス側ももはや諦めてて大手すら放置状態やし
0694名無しさん@ピンキー2024/11/27(水) 23:55:28.58ID:I/hkf6CQ
でもまあ避難してた理由がなくなったんやからなんJに帰るんは賛成やな
どんぐりのレベルが10を超えないとURLが貼れないって問題はあるけど、LLMの話題やとあんまり問題にならんやろうし、やっぱ人と話題が少ないんは寂しいわ
0696名無しさん@ピンキー2024/11/28(木) 16:45:29.71ID:???
LLMさわるならローカル以外邪道でGPUはRTX4090刺さなきゃ……エッチなチャットしなきゃ……っていうのは錯覚じゃん?
ここ最近ひたすらDify触ってるんだけどノーコード版のLangchainみたいなやつでエージェント(というかAituber)作る楽しみを見出したりしてる
0697名無しさん@ピンキー2024/11/28(木) 16:48:09.67ID:???
クラウドの話もべつにいいんじゃね
Anthropicの無料で使えるのHaikuになりがちになってきたからOpenrouter使い始めたけどなんかClaude3.5sonetにもシステムプロンプト設定できたんだけど
ノリで「一人称:あーし 絵文字多用」的なの設定したら流暢に正規表現やReactコンポーネント書くギャルが爆誕して気に入ったわ
0698名無しさん@ピンキー2024/11/28(木) 17:41:25.80ID:???
ボイス付きでキャラになりきりながら雑談もタスクも付き合ってくれるようなエージェント、みたいなのはもっと流行らないかな
節約とセキュリティのためにDifyでローカルとクラウドのLLMを使い分けつつ色々やろうとしてるけどフローの効率化が難しい
0699名無しさん@ピンキー2024/11/29(金) 17:12:08.88ID:64znOil6
『出力する行ごとの内容は全く同一にしないこと。』っていう指示を追加したらあんまり繰り返しループに陥らなくなった気がする
カッコ文の内容もある程度バラけるようになってより小説っぽくなる、ような気がする(当社比)
0700名無しさん@ピンキー2024/11/29(金) 20:53:06.84ID:9PCqQ/Vh
来年頭には次世代GPUが出まくるからローカルでの話題も増えるだろうし、それまでのんびり話題繋げりゃいいんじゃないの。
結構参考になる内容も書き込みあるし。
0702名無しさん@ピンキー2024/11/29(金) 22:34:11.27ID:v4qNb+Sc
まあcceは学習時に使うものだから我々に直接的な関係はないんだけどな
0703名無しさん@ピンキー2024/11/30(土) 05:39:35.51ID:3LX4oiHo
entropixってやつで小さいモデルでもよくなるんだろ?
0704名無しさん@ピンキー2024/11/30(土) 12:12:52.85ID:???
>>698
ワイはaituber-kit触ってるけど作者がOpen Interpreter使ってコード実行環境もたせてタスク実行機能持たせたりしてたな
あんま実用性ないらしいけど
ロマンは感じる
0705名無しさん@ピンキー2024/11/30(土) 14:41:09.85ID:???
このスレ知的レベル高すぎん?
何いってるのかさっぱりわからんぞ
0706名無しさん@ピンキー2024/11/30(土) 15:10:42.07ID:Tj3uJNZ8
>>703
知識面ではパラ数が物を言うから根本的な解決にはならないんだよな
あと最適な学習量じゃないと逆効果だし(qwenなんかは過学習だからスコア落ちる)
>>705
半年ローカル触ってればわかるようになるよ
さあこっちに来るんだ
0708名無しさん@ピンキー2024/11/30(土) 15:33:04.61ID:is/870ZI
用語も多いからちんぷんかんぷんになるのもしゃーないで
「温度が高いと問題が出る」なんて一般用語っぽい話も、Temperatureって専門用語を知らなければ室温とかGPU温度くらいにしか思い至らんやろうし……
0710名無しさん@ピンキー2024/11/30(土) 18:07:49.35ID:JbQL+FDs
今でも更新されてる初心者向けwiki知ってる方いたら教えていただきたい
探したけど大抵去年か今年半ばで止まってるので
0711名無しさん@ピンキー2024/11/30(土) 18:12:01.00ID:???
LLMに関してはないんだよなぁたぶん
としあきとかも触ってないんかな
0712名無しさん@ピンキー2024/11/30(土) 18:21:42.66ID:???
https://local-llm.memo.wiki
ローカル用だけど、こことかたまに見に行くけどもちょくちょく更新されてる。
初心者向けかどうかとか、求めてるものかどうかとかは分からん

個人的にはローカルで、キャラとのエチャとかをどうやったらいいのかとか
その辺具体的に書いてあるサイトとか探してるんだけどどっかにないっすかねぇ…?
0714名無しさん@ピンキー2024/11/30(土) 19:17:12.55ID:XWQ+xawP
正直ヤッて覚えるのが一番早い気がする
あと、ChatGPTにコンソールログとかUIの設定画面とか見せながら聞くとそれぞれどういう意味なのか教えてくれるよ
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況