なんJLLM部 避難所 ★4
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/09/10(火) 10:19:11.43ID:Z1PzH55u
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★3
https://mercury.bbspink.com/test/read.cgi/onatech/1717886234
0582名無しさん@ピンキー2024/11/11(月) 01:32:49.33ID:???
>>581
そうそう、目指すところはそんな感じ
絶対AIの解釈で困ることになるとは思うけど・・・

というかこの板、面倒だから英語でチャット始めただとか70Bローカルとか、もしかして高学歴のお金持ちいっぱいなのか
0583名無しさん@ピンキー2024/11/11(月) 05:43:51.99ID:???
エロ関連のスレは必要であればお金を注ぎ込んでいるやつが多いんじゃよ
0584名無しさん@ピンキー2024/11/11(月) 06:01:42.70ID:???
>>580
お役に立てて何より
全体的に固有名詞うろ覚えなの全部読み取ってくれて何だか申し訳恥ずか死
拡張機能面白そう
ノベルゲームみたいな感じに出来そうやね
0588名無しさん@ピンキー2024/11/11(月) 10:45:57.29ID:???
前はこういう技術とか文書はちんぷんかんぷんだったけど
今はRAGとかでAIにぶち込めば大体はわかる。後はやる気だけ
0589!donguri2024/11/11(月) 16:42:10.23ID:DT7X1Pqt
>>586
理解の順序なら、こうなると思うけど
- linux (ubuntu, ...) -> docker -> kubernetes
kubernetesは、(dockerとかの)コンテナ単位でノードをクラスタ化するものだからーー
(ちなみにmac のdockerはmacOS とは別の仮想環境で動くから、linux のdockerに比べて制限が大きいよ)
0590!donguri2024/11/11(月) 16:44:10.10ID:DT7X1Pqt
>>586
ただkubernetesでやるにしても、管理のためのライブラリ群の選定から始めないといけないし
推論だけでもLLM の分割をどうするか、とかーーいろいろ大変じゃない?(むしろ学習の方が分散環境が整ってる)
その点、>>554 のexo は便利そうだけど
0591名無しさん@ピンキー2024/11/12(火) 08:00:53.11ID:???
>>590
ああ、554ですでにやり方っていうかヒントがあったんだね
exolabsっていうの使えばシンプルにいけるのかな
0593名無しさん@ピンキー2024/11/12(火) 10:45:46.96ID:???
>>592
node同士をどうつなげるのかがいまいちわからない
win 1. + linux 1でやってみた
0594!donguri2024/11/12(火) 11:34:19.92ID:rt+Vfr20
>>591
デバイス群を抽象化してメモリを確保してるんだろうけど
ただM4 mac間なら、(CPU を介した転送になるからinfinibandとかのRDMAほどの効果はないとしても)unified memory〜高速内部バス〜thunderbolt 5 による恩恵は大きいはず
それ以外のデバイスは、たんにオフロード用の(しかもethernetやwifiを介した)メモリになるだけじゃないかな……どうだろ?
0595名無しさん@ピンキー2024/11/12(火) 18:26:43.67ID:???
>>
やっぱりサンボル5とかの接続でもないときついかなあ
wi-hiで自動で繋がるかなと思ってやってみたけどw
0596名無しさん@ピンキー2024/11/12(火) 23:20:38.23ID:1COsnhwf
なんか新しい量子化手法の情報が流れてる。
https://www.reddit.com/r/LocalLLaMA/comments/1ggwrx6/new_quantization_method_qtip_quantization_with/

q4でq16と同等の品質って書いてあるし、405Bのq1もテストでは結構いけてるらしい。

精度が4倍とすると現状の70Bのq4レベルが16GB位になるから、VRAM24GBあればそこそこ行けるし
Macminiの128GBモデルで400Bのq1モデルが乗っかる。
マジならこの先楽しみ。
0597名無しさん@ピンキー2024/11/13(水) 09:32:10.69ID:???
qwen2.5 coder 32BがClaude3.5HaikuとGPT4oの間ぐらいのベンチ結果らしくてLocaLlamaで話題になっとったな
0598名無しさん@ピンキー2024/11/13(水) 14:03:25.18ID:???
新情報は集まるけど英語では高性能モデルばっかりで実用性のある日本語モデルは半年以上前から更新ないねんな
0599名無しさん@ピンキー2024/11/13(水) 14:31:47.84ID:fy2mMx5K
12月に出るであるうgemma3とllama4の日本語対応待ちかな
無規制モデルの選択肢がmistralしかないの悲しいからもっと増えてくれ
0601名無しさん@ピンキー2024/11/13(水) 16:11:22.70ID:???
Metaくん一生アジア圏の言語ハブってるからLlama4だろうが5だろうが英語能力がムキムキになっていくだけになりそう
0602名無しさん@ピンキー2024/11/13(水) 16:50:24.82ID:???
Mistralも13Bの出来があんまり良くなさそうでberghofの人も魔改造に苦労してそうな印象だわ
かといってMistral7Bは開拓し尽くした感があるし
0604名無しさん@ピンキー2024/11/13(水) 18:13:17.68ID:???
エロじゃない雑談を延々と続けるなら何を使えばいいんだ
賢者タイムになると普通の雑談がしたくなる
0605名無しさん@ピンキー2024/11/13(水) 18:22:57.81ID:???
>>604
感度3000倍なberghofだけど実はエロ以外の理解力もかなり賢くて雑談につかってるで
7Bとは思えないほどハッとさせられるような意見言われたりもする
なおボディタッチは厳禁とする
0606名無しさん@ピンキー2024/11/13(水) 19:33:04.54ID:???
英語限定なら3Bですら普通に官能小説書いてくれるし、7Bだとマニアックなところまでカバーしてくるし、12Bまで来たらキャラ理解も高いしさらなる性癖を開拓されるくらいなのに…
0607名無しさん@ピンキー2024/11/14(木) 01:04:03.77ID:???
ヤヴァイ
magnum v4 123bの速度に慣れてきた
この理解力、日本語表現力、エロ力、最高や

M4 ultra 256G でたら買ってまいそう
いや、いっそ将来見越して512Gかw
0614名無しさん@ピンキー2024/11/14(木) 14:44:19.40ID:???
Ryzen AI 9 MAX+ 395ってメモリ帯域幅が273.0GB/sで最大搭載量が128GBなのか
スペックだけみるとなかなかいいな
0617名無しさん@ピンキー2024/11/15(金) 05:56:01.71ID:???
なんでそういう制限するんだろうね。
PCIeとかのメモリーマップにしても数ギガ予約程度でいけそうだけど
Arm系はそういうのないのは設計が新しいからなのか
0619名無しさん@ピンキー2024/11/15(金) 15:16:22.79ID:???
>>613
流石にArc BattlemageはAIも視野に入れてくるだろw
コケたら次は無いの分かってるんだから他社より手を広げられないと
0621名無しさん@ピンキー2024/11/16(土) 19:42:26.10ID:XGMHwNo8
そのサンダーボルト5とやらのLLMの使い方を教えてください
マックには全く興味ないですが
0622名無しさん@ピンキー2024/11/17(日) 10:13:56.46ID:???
ソフトはkoboldでlllmはURLで指定できるgooglecolabってありますか
0623名無しさん@ピンキー2024/11/17(日) 11:31:13.07ID:optCsljJ
>>622
公式ノートブックがそれだぞ
一旦自分で探せ
0624名無しさん@ピンキー2024/11/17(日) 15:59:52.34ID:???
世間の盛り上がりに反してここの勢い死にすぎだけど他にAIスレってあったりするか?
あるいはDiscordとか?世の人間たちはどこでAIに関する情報交換してるんだ
0625名無しさん@ピンキー2024/11/17(日) 16:14:41.11ID:???
大して盛り上がってないんやろ
まともに研究開発なり情報交換するならSNSになるんちゃうか
0626名無しさん@ピンキー2024/11/17(日) 16:15:57.70ID:???
どのレベルでの話かによるんじゃね
AIはパソコン1台あればやれるもんじゃないし
ボードを1000枚とか10000枚とか持ってるところにみんな集まってるだろ
0627名無しさん@ピンキー2024/11/17(日) 16:34:09.25ID:optCsljJ
情報交換ならredditじゃない
特別盛り上がってるわけじゃないけど日本語ならdiscordのローカルLLMに向き合う会が最大手かな
0628名無しさん@ピンキー2024/11/17(日) 16:55:43.07ID:???
軽くてまともな日本語対応モデルが全然出ないから盛り上がりようがない
0631名無しさん@ピンキー2024/11/17(日) 20:14:21.71ID:ZcvHfsdb
>>440
これの32Bは脱獄要らずでわりと良かった
Q5以上で動かせる人ならオススメできる
0632名無しさん@ピンキー2024/11/17(日) 21:06:41.39ID:???
初めてPaperspaceでA100借りられた!
q3になるけどようやく120B帯が試せるぜ・・・!
0633名無しさん@ピンキー2024/11/17(日) 22:02:00.60ID:???
RTX4090が輸出禁止くらってる中国では2080tiの22GB改造版が流行してるって聞いていまアリエクで見てみたら7万円だったわ

本国では使われてるとはいえちょっと怖いよなあ
0634名無しさん@ピンキー2024/11/18(月) 17:30:02.15ID:???
silly tavernでCR+の最新版使ってるけど高確率でsectionsectionみたいな文字列でてくる
前のCR+では今も無いから最新版特有だと思うんだけど原因分かる人居る?
0635名無しさん@ピンキー2024/11/18(月) 18:09:10.79ID:???
Copilot+PCって、ローカルで小説とかかけるん?
だれか使っている人いない?
0636名無しさん@ピンキー2024/11/18(月) 18:40:01.22ID:???
>>634
あああれワイだけじゃなかったんだ
「おはようございまsectionす。」みたいになるやつよな?
0637名無しさん@ピンキー2024/11/18(月) 18:55:49.11ID:???
>>636
そうそう
おはsectionようござsection
sectionsectionsectionsectionみたいな
redditみてもそういう報告無いし困ってる
0638名無しさん@ピンキー2024/11/18(月) 22:07:39.26ID:WZB9Kkdu
sectionって出たら、logなんとかでNGトークンにして抑制して、再生成したらダメなん?
0641名無しさん@ピンキー2024/11/19(火) 19:18:37.54ID:???
>>639
とりあえず、IQ3_xxsで、生徒会恋愛問題(日本語LV1)を解かせたら、
初手は不正解だったけど、矛盾点を指摘したら2手目で正解を導いた
従来のモデルでは2手目でも不正解だったから、賢いと思う

さて、次はエロ力を試すわ
0642名無しさん@ピンキー2024/11/19(火) 20:34:48.60ID:???
生徒会恋愛問題ってなんだろうって思ってchatGPT君に聞いてみたら、俺側に例題を出した上で俺の案を評価してくれたぞ!
三角関係問題だったが、「男なら両手に花だろ!!」って理由も添えつつ答えたら、「いや、この例題に出した男じゃ器が足りないわ・・・」と諭されてしまった・・・
何かしらで否定されるとは思っていたが、流石にこの理由は例題の男が可哀想になったわ
0644名無しさん@ピンキー2024/11/19(火) 22:50:03.86ID:???
>>643
おお、これがそうなのか
試しにchatGPT君に出題してみたらLV1でもかなり間違えるのな
人間ならすぐ分かるレベルの問題だけど、ストロベリー問題みたいに構造上の問題でもあるのかな
推論の過程をみると、不正解の時には誤った仮定をそのまま事実として使ってしまっていて、正解した時には一度出した仮定を洗い直しているっぽいから、そういう思い込みみたいな思考の癖が根底にある感じ・・・?
勉強になった、ありがとう
0645名無しさん@ピンキー2024/11/20(水) 03:44:38.98ID:???
生徒会恋愛問題はなんというか説明の仕方が悪いだけな気もする…
まあそれも含めて能力テストなんだろうけど
0646名無しさん@ピンキー2024/11/20(水) 14:41:54.87ID:SR5EL2EN
まだLLMが思考してると思ってる馬鹿が居るのか
画像の高解像度化と同じなのに
0647名無しさん@ピンキー2024/11/20(水) 14:46:03.48ID:???
ひょっとするとあなたもわたしも
思考してないかもしれない
0648名無しさん@ピンキー2024/11/20(水) 14:46:40.44ID:???
AI学習できるマザー出すくらいならVRAM直付けで出してくれよ
0650名無しさん@ピンキー2024/11/20(水) 15:48:35.80ID:???
こんな板にも言葉尻を捕らえてマウントを取ろうとする奴が沸くのか
なんて思ったけど
やけにLlama-3.1-70B-Japanese-Instruct推してくる奴とか
そういえば強い言葉好きな奴既に居たわ
0651名無しさん@ピンキー2024/11/20(水) 16:31:45.14ID:???
o1の推論プロセスなんか見ても既にLLMの生成はオートコンプリートの延長線とは言えない段階まで来ているだろ
研究者だって多量なデータを与えたことによる応答の質が大きく向上した現象にグロッキングとかいう単語を置いて謎としているわけだし
0653名無しさん@ピンキー2024/11/20(水) 17:27:09.26ID:???
謎の進化を遂げたみたいに言うから嘘と言われるわけで、ある閾値を超えると(人間から見て)性能が劇的に向上する現象が観察された、と言えばみんな納得するでしょ
0654名無しさん@ピンキー2024/11/21(木) 01:30:23.99ID:7l2UY05J
o1レベルの性能らしいDeepSeekのR1-Lite-Previewがローカルにも来るって話だけど何Bぐらいなんだろうな
まさかDeepSeek-V2-Liteと同じ16Bってことはないだろうけど
0656名無しさん@ピンキー2024/11/21(木) 11:43:55.21ID:bbA6Yw/Y
だよなー、GPU輸入制限食らっとるのになんでやろ?
うまいこと回避しとるんかな。
0657名無しさん@ピンキー2024/11/21(木) 12:09:17.83ID:???
(日本でH100買って)中国に行って観光して帰ってくるだけで儲かるんでしょ?
0658名無しさん@ピンキー2024/11/21(木) 12:22:19.01ID:???
>>656
外国で大量にグラボ買ってそこにデータセンター作ってクラウドでやってるって聞いた
0660名無しさん@ピンキー2024/11/21(木) 15:50:18.68ID:???
4090のGPUとメモリ引っ剥がした残りのゴミを日本人に10万で売りつけてウハウハだしな
養分すぎるわ本邦は
0662名無しさん@ピンキー2024/11/21(木) 16:39:01.10ID:bbA6Yw/Y
>>658
なるほどなぁ、賢いわ…。
0664名無しさん@ピンキー2024/11/21(木) 19:04:10.99ID:???
データセンターのサービスを使うという形でならアメリカでも

https://www.moderntimes.tv/articles/20240828-01dxw/

まあ要は製品の輸出を規制したところでクラウドサービスの利用は現状ノーマークだから第三国でやりたい放題出来る
それも規制しようとしたら世界中の国に、中国相手にデータセンター使わせるなって恫喝しなきゃならん
0666名無しさん@ピンキー2024/11/22(金) 21:46:16.35ID:???
>>637
これredditで上がってたけど温度高いと出る不具合っぽい
70くらいだとほとんど出なくなった
0667名無しさん@ピンキー2024/11/24(日) 14:27:19.06ID:???
なんとかEasyNovelAssistantの導入に成功したけど今流行りのローカル環境ってどれなん?しばらくはこれでいい?
0668名無しさん@ピンキー2024/11/24(日) 15:14:58.94ID:???
>>667
それは小説書かせたい時用のやつ
チャットしたいならまた別のやつが良いし
0669名無しさん@ピンキー2024/11/25(月) 19:48:04.14ID:???
決め打ちでモデルのダウンロードとかできるから
EasyNovelAssistantでダウンロードと起動までして
対話型はSillyTavernでやればええんじゃない
0670名無しさん@ピンキー2024/11/26(火) 07:41:40.17ID:???
KoboldCppにあらすじ書いて清書してもらうってのを続けてたら
5〜6ターン目で勝手に指示を無視して書き続けるのは何なんやろ
GPTならいい感じに続くのに
0671名無しさん@ピンキー2024/11/26(火) 10:58:24.17ID:VIYqsyQ2
>>670
とりあえずモデル名書いて
おそらくコンテキストレンジ超えたことで最初のメッセージを忘れてるんだと思うけど
0672名無しさん@ピンキー2024/11/26(火) 14:17:23.84ID:???
>>671
サンガツ
Berghof-NSFW-7B.i1-Q6_K.gguf
つことる
コンテキストサイズってところは4096でやってる
0673名無しさん@ピンキー2024/11/26(火) 14:32:32.91ID:???
コンテキストサイズ4096だと日本語じゃ6000文字くらいしか覚えられないんじゃないか?
GPTってモデルにもよるけどたしか128kだったか200kあるから同じように使ったらまあそうなるんじゃないか
0677名無しさん@ピンキー2024/11/26(火) 15:33:28.16ID:jWtds6/a
8192でもちょっとチャットして遊んだらすぐに超えちゃうよね
0678名無しさん@ピンキー2024/11/26(火) 15:36:37.36ID:???
easynovelでJapanese-nsfwなんちゃらっての使ってるんやが
どうしても官能小説っぽくなるわ
AI音声に読み上げさせたいからセリフ中心で出力させたいんやけどそういうテンプレとか強いモデルってある?
0679名無しさん@ピンキー2024/11/26(火) 15:41:29.96ID:???
ローカルで128k対応モデル使ってみたことあるけど応答が遅くならん?
32Kで応答6秒くらいかかるようになってチャットだとストレスだった記憶
RTX5090のGDDR7なら良くなるのかな?
0680名無しさん@ピンキー2024/11/26(火) 16:56:48.41ID:???
他のモデルに浮気したが、Vecteus-v1は16384でも日本語破綻しなくて結局戻ってきた。
(でもスペック都合で12288で使ってる)
0681名無しさん@ピンキー2024/11/27(水) 01:15:27.21ID:???
エロい喘ぎ声聞きながら読むとすごくエッチな気分になるんだが
良い素材何処かにないだろうか?もしくは生成できないかな?
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況