なんJLLM部 避難所 ★5
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/12/26(木) 13:13:11.15ID:Vhp+tTX0
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/
0034名無しさん@ピンキー2024/12/27(金) 00:55:27.43ID:???
>>33
600MAXなわけであって1200W使うかと言われれば多分そうじゃないから安心しとけ。
今までのマルチGPU環境とかデータセンターとかもそうだが無謀なことしない限りはカタログスペック上の消費電力なんてまぁ100パーでも出ることない。

この辺は車の燃費と一緒でちょっとかけ離れてる。ある程度ボーダーで書いておくのはいいことかもしれんが…(CPUは青天井)
0035名無しさん@ピンキー2024/12/27(金) 00:57:49.22ID:???
まぁいうてLLMでGPU100%使い切るかどうかはさておいて500W前後x2あたりだからかなりキツそうではある
0036名無しさん@ピンキー2024/12/27(金) 01:05:18.60ID:???
よそのやつを日本企業がチューニングしたパターンが1番精度良さそうなんやけどな
0037名無しさん@ピンキー2024/12/27(金) 01:19:03.65ID:???
例えば4090ってPL60%にすると消費電力は270W前後まで下がる
そんで性能はというと6%程度しか下がらん
これはゲーミング性能の事だからLLMだともっと影響低いと思う
なので5090もPL60%にすれば多分400W以下で不自由無く使えるはず
0038名無しさん@ピンキー2024/12/27(金) 05:42:43.26ID:mvFMk8yO
7B以下で良いモデルが大量に出てこないかぎりローカルは盛り上がらんだろうなあ
そろそろLLMに食わせるデータが無くなるって話だし
効率化の研究が進むといいんだが
0039名無しさん@ピンキー2024/12/27(金) 08:35:51.08ID:???
賢いままでもっとサイズを圧縮する技術や
ハードウェア側で大きなサイズを高速に動かす技術
この辺の進展に期待したい
0040名無しさん@ピンキー2024/12/27(金) 12:08:31.06ID:axyx5LTS
モデルのファイルが壊れる場合ってハードウェア要因以外である?
koboldでメモリが足りないってエラー出たんで、
ファイル落とし直したら直ったけど、MD5値調べたら一致してなかった
0044名無しさん@ピンキー2024/12/27(金) 22:44:52.73ID:???
>> 43です
軽めのエロだったら拒否されなかったです。明日また試します
0046名無しさん@ピンキー2024/12/28(土) 07:59:44.22ID:???
>> 43,44です
deepseek api。エッチは普通にできた。温度を1.5くらいにすると良くなる
激しいのとか、表現力はまだわからない
頭の良さはgpt-4o並みとのこと
0047名無しさん@ピンキー2024/12/28(土) 10:42:26.66ID:???
>>38
アメリカからグラボ制裁されてる中国が少量の計算資源で効率的に推論する技術を発明するとか、bitnetやphi系モデル開発して小規模言語モデルに注力しるMicrosoftに期待したい
0048名無しさん@ピンキー2024/12/28(土) 15:27:00.62ID:L24a2Ks4
deepseekも感じさせすぎるとcommand r的な言葉の連続になっちゃうな
まあ、しょうがないか
0049名無しさん@ピンキー2024/12/28(土) 16:57:06.37ID:???
cyberagentのMistral-Nemo-Japanese-Instruct使ってる人っている?
日本語RPのベンチ見てたらスコアくそ高かったんで感触いいならabliteratedしてファインチューニングしようと思うんだけれども
0053名無しさん@ピンキー2024/12/29(日) 00:30:02.06ID:???
>>49
あの処理って、70Bクラスのモデルだとどのくらいのメモリ必要なのかな?
0054名無しさん@ピンキー2024/12/29(日) 01:06:43.56ID:???
>>53
モデルサイズ分のメモリがあればいけるよ
やってることは単純で、推論→拒否部分を特定→拒否部分を無効化して保存だから
0055名無しさん@ピンキー2024/12/29(日) 07:48:58.40ID:???
>>54
おー
と言うことは既存のデータセットに日本語でヤヴァイ指示入れまくったらさらに無力化出来るってことか
0056名無しさん@ピンキー2024/12/29(日) 21:39:39.82ID:Xq5dA+eo
それで効果あったら面白いな
どんな質問にもエロを見出す脳内ピンクモデルとか作れそう
0057名無しさん@ピンキー2024/12/29(日) 22:09:43.39ID:wNMTdH61
Mistral-Nemo使ってるよ。普通に賢いし、特に小説の一節を読ませて質問に答えさせるとかの長文読解をさせると、他のモデルと比べて格段に長い問題を読めるし良い感じに解ける
お手軽に使えるサイズのモデルだと今でもトップクラスだと思うよ。日本語トークンを学習してるのも嬉しい所
0058名無しさん@ピンキー2024/12/29(日) 23:53:49.34ID:???
>>57
それは素のmistral-nemo?それともcyberagentが再学習したやつ?
もしcyberagentのなら素のnemoと比べて日本語能力やRP能力に差を感じるか教えてくれると助かる
0059名無しさん@ピンキー2024/12/30(月) 06:46:39.99ID:???
Mistral-Nemo-Japanese-Instruct-2408.Q8_0
Mistral-Nemo-Instruct-2407-Q8_0 (imatrix)
Mistral-Nemo-Instruct-2407-abliterated.i1-Q6_K (imatrix)
の3つ試してきた。
RPじゃなくて、1000文字程度の小説書かせただけだけど。
全部koboldのLegacyの値使ったけど、cyberagentが一番日本語能力低く感じたよ。
ストーリー展開と会話も他2つの方が好み。
0061名無しさん@ピンキー2024/12/30(月) 12:29:00.88ID:DCZZty0k
アドバイスお願いします。
漫画のセリフを別キャラのセリフとして変換するのにオススメモデルはありますか?

rtx4090でメインメモリ64GBを使ってます。
現状はローカルでエロセリフはBerghof-NSFW-7B、
非エロのセリフはperplexltyを使ってます。
0062名無しさん@ピンキー2024/12/30(月) 12:33:00.79ID:???
完全にオープンな約1,720億パラメータ(GPT-3級)の大規模言語モデル 「llm-jp-3-172b-instruct3」を一般公開
〜GPT-3.5を超える性能を達成〜
https://www.nii.ac.jp/news/release/2024/1224.html

これが先週のニュースだからな
国の金つかってこんなしょぼいLLM作ってるんだから日本は
0063名無しさん@ピンキー2024/12/30(月) 13:00:36.74ID:???
しかもフルスクラッチで始めて日本語ベンチでgpt3.5並て(笑)
下手糞すぎひん?
0064名無しさん@ピンキー2024/12/30(月) 13:21:07.77ID:???
nicky氏のsuperswallowXをメモリ96G積んでるニキ、例の規制解除処理しておくれでやんす
0065名無しさん@ピンキー2024/12/30(月) 13:36:06.70ID:???
ちなAbliteratedは4bit推論も可能なんでメモリ弱者にも優しい仕様になってるで
0066名無しさん@ピンキー2024/12/30(月) 18:57:55.66ID:???
大規模モデルは信じられないぐらい金かかるから簡単には出来ないとはいえ淋しい結果だな
0069名無しさん@ピンキー2024/12/31(火) 12:07:35.15ID:ze/4uz85
DeepSeekV3の普及速度えぐいわ
あっという間にSonnetとかレベルで利用されだしてる
https://i.imgur.com/tCVMetL.jpeg
0070名無しさん@ピンキー2024/12/31(火) 13:45:47.51ID:???
AIサービスはdeepseekv3一択になりつつある
高性能だし安い
LLMチャットサイトも大半が移行してる
0071名無しさん@ピンキー2024/12/31(火) 14:09:03.42ID:???
安さがぶっちぎりなんだよな
価格で対抗できそうなのはawsのやつくらいか
0072名無しさん@ピンキー2024/12/31(火) 15:26:50.21ID:???
deepseekのベンチがいいのは分かったけど実際はどうなの?🤔
0075名無しさん@ピンキー2024/12/31(火) 18:01:07.30ID:ze/4uz85
DeepSeekV3、OpenRouterを介してSillyTavernで試してみたけど
日本語もだいぶ話せると思うよ。多言語対応してるのは偉い(ふつうに申し訳されるけど)
3.5Sonnet超えてるかというとコーディング領域じゃ微妙だけど会話とかは結構イケてると思う
オープンウェイトだからローカルでも動かせる!(動かせるとは言ってない)
0076名無しさん@ピンキー2024/12/31(火) 19:00:48.40ID:???
DeepseekAPIは激安のcohereAPIより更に激安なのがいい
というかチャットだとcohereでも結構かかる
0077名無しさん@ピンキー2024/12/31(火) 19:45:59.10ID:???
モデルの規制解除試してるんだけど、parquetファイルを追加する手段ってなかなかないのね
どっかいいのないかな?
0078名無しさん@ピンキー2024/12/31(火) 20:02:02.86ID:???
chatgptとかに.txtを読み込むようにして〜ってお願いすればやってくれるで
0079名無しさん@ピンキー2024/12/31(火) 21:19:05.08ID:???
DeepSeek V3をローカルで動かすならMacクラスターが良いらしい
Macはメモリは優秀だけどGPUがショボくて今までのLLMだと遅すぎて使い物にならなかった
でもDeepSeek V3のMoEモデルはそんなMac相性が良くてかなり高速に動くみたい
https://blog.exolabs.net/day-2/
0080名無しさん@ピンキー2025/01/01(水) 01:25:05.09ID:???
>>65
.bitsandbytesがcpu量子化に対応してないから、メモリ64Gの環境では無理ですた
macメモリ増し増しのニキ頼むー
swallow v0.3 70Bが規制なくなればかなり良さげなんだわ
0081名無しさん@ピンキー2025/01/01(水) 13:48:26.33ID:???
>>79
4bit量子化とはいえ、671Bとはすごいね
しかも5.37token/sもでるのはMoEモデルならではとな
その構成のM4 pro 8台なら270万円〜 ww
でも研究者用にはよさそうだ
Apple のAIサーバーはM2 Ultraを並べてて色々欠点をあぶり出していて
その結果M5からGPUがAI向けにチューニングされているという噂
でもM4 maxがでたら我慢できないかも
0082名無しさん@ピンキー2025/01/01(水) 14:01:05.46ID:???
>>81
270万円は高くはあるけどNvidiaでこのメモリサイズ揃えるよりは圧倒的に安いんだよな
0083名無しさん@ピンキー2025/01/01(水) 17:56:49.81ID:DMpXKIh6
>>58
ごめんよく読んでなかった、素のmistral-nemoの方だわ
オリキャラ数人とパラメータいじりつつ会話してみたけど、cyberagent版の方が言葉遣いとかは自然だけどRPの演じ分けはあまり上手くない気がする

素の方は設定に忠実な、悪く言えば設定をなぞっただけの、翻訳文みたいな味気ない会話文を出すことがしばしばあるけど、総合的なPR能力はまあまあある方だと思う
cyberagentの方は会話の表現力自体は高いんだけど、どうにもチャットAIの回答に味付けしてくれるって感じで、特に無口系のキャラとかチャットAIと方向性が違う性格になると途端に忠実さが下がる
キャラなりきりチャットで遊ぶなら、多少表現が固くても素の方を選ぶかな

あと長文読解に関しては、素の方が圧勝だわ。まあこれに関してはほとんどの人は興味ないだろうけど……書きかけのテキストまとめる用途とかに便利なんだよ
素のmistral-nemo Q8_0だと、4.5万トークン(4bit/8bitキャッシュでVRAM16GB)くらいの小説を読ませて質問してもまともに説明できるし、説得力のある解説や解釈を入れてくれる
Q4_K_Mで8.5万トークンの小説読ませた時も日本語としてギリギリ成立するくらいの文章が出せたから、Q8とかFP16ならちゃんと応えられそうな気がする
cyberagent版やmagnum、phi-4とかのモデルだと3万トークン以下でも日本語として全く成立しないくらいに破綻するから、やっぱり素のmistral-nemoは総合的なポテンシャルがかなり高いと思う
0084名無しさん@ピンキー2025/01/01(水) 18:35:25.47ID:???
>>83
はえ〜勉強になるわ
ワイEasyNovelAssistantをちらっと触っただけなんやけど
小説を読ませて質問、てどういう風にやるんやろか?

イラストスレでも前スレ食わせてまとめさせとるニキおるし
めちゃロマン感じるんや
青空文庫から江戸川乱歩や吉川英治読ませて明智探偵や曹操丞相と会話したいんコ゚
0085名無しさん@ピンキー2025/01/01(水) 18:42:55.89ID:???
あと「そちら荊州借りパクしてますよね?」と魯粛先生の代わりに孔明を説い正したい
でも本気で罵倒してきたら王朗みたいに血ぃ吐いて憤死するかもしれんけど
楽しみでしょうがないんや
0086名無しさん@ピンキー2025/01/01(水) 22:09:23.10ID:???
2024年は大変お世話になりました。
ENA初心者いるっぽいんで、役立ちそうなこと書いときます。

・huggingfaceからDLしたgguf使いたい!
ggufが保存されているフォルダ(自分の環境だとKoboldCpp)に入れて、
ファイル名をVecteus-v1-IQ4_XS等、ENAからDLできるファイル名に置き換えると使えます。
jsonファイルを書き換える方法もあるっぽいけど、この方法で困ったことないです。

・localhostにアクセスしてKoboldAI Liteを使おう!
モデル読み込んだら一番下にURL出てくるはず。
ENAだと温度しか設定変更できないが、こっちだと色々なSamplersが変更可。
(コンテキストサイズはENAからのみ変更可)。
Sampler Presetの下部にあるLegacy設定がおすすめ。

XTC、DRY、Min-pを変更するのが最近の主流らしい。
まだ使いこなせてないので、良い値あったら教えてください・・・
0087名無しさん@ピンキー2025/01/01(水) 22:53:14.77ID:???
>>59,83
わざわざ検証サンクス
やっぱり元々日本語喋れるモデルに日本語チューニングしてもあんま意味ないんやろな
>>84
EasyNovelAssistant使ってるならkoboldcppってのが入ってるはずだからそれを立ち上げてcontext sizeをデカく&tokensタブからkvキャッシュの量子化をしてコンテキスト長が長いモデル(mistral-nemoとか)を起動
そしてlocalhost:5001に行けばGUIが立ち上がるからそこに長文ぶち込んで質問すればええよ
0088名無しさん@ピンキー2025/01/02(木) 01:39:59.73ID:eWlWc+tE
>>84
Oobabooga / Text generation web UI 使ってる。>>87ニキの通りEasyNovelAssistantでもできるはず
Mistral-NemoのQ8版をダウンロードしてきて、フォルダごとmodelフォルダに入れて、Web-uiのModelタブで設定を調整してロードすればOK
n_ctxの値が消費VRAM量に直結するから、そこはVRAMに合わせて調整してもろて。16GBなら4.5万トークンまではVRAMに乗り切ると思う
https://i.imgur.com/G0YjNQF.jpeg

ロードできたらDefaultタブか、NotebookタブのRawを開いて、こんな感じのプロンプトの中に小説や文章を貼り付けてGenerateすれば読解してもらえる
https://pastebin.com/UJE6muvi
プロンプトは以前やっつけで作ったヤツだから、適宜直してな

後は好きに質問したり、要約させたり、「(登場人物)は、こういう時にどう思いますか?」って聞いたり、「(シチュエーション)の台詞を考えて書きなさい」って指示すればいい
長文やってる人は少ないから、何か面白い会話とか出たら共有してくれると嬉しいで
0089名無しさん@ピンキー2025/01/02(木) 02:16:53.93ID:???
>>87>86>88
丁寧にサンガツやで!
EasyNovelAssistantの最大文字数?くらいしかいじったことないんやけど
全然足りとらんかったのね……画像までありがとう、やってみるで

LLMうまい人は質問の仕方や出力フォーマット指定も上手なんやろな
ワイは電子書籍化したpdfとか山とあるんやが、歴史系の専門書はまだ裁断しとらんのや
検索性は紙媒体が優れてるけど部屋にはもう置けんし、AIが司書さんになってくれたら
本処分して引っ越しも楽になるし
LLMの進化は楽しみなんや
0092名無しさん@ピンキー2025/01/02(木) 10:38:52.94ID:UaaINJ/a
GPT-4 = 8x220B = 1.76T のMoEなのか
4oのマルチモーダルは精度えぐいからまぁええけどLLM性能だけ見たらなんか劣化してそうだな
0093名無しさん@ピンキー2025/01/02(木) 10:40:45.45ID:???
実際に4oは最初なんだこりゃってなったからな
コーディング向けというか、とにかく事務的で人と話してる感が4よりも遥かに劣っていた
今もそうだけど
0094名無しさん@ピンキー2025/01/02(木) 11:12:56.29ID:???
ローカルLLMとパラ数が大差ないことが驚き
下手したら個人のPCでもGPT-4oが動かせそう
0095名無しさん@ピンキー2025/01/02(木) 11:47:39.71ID:???
推定値ってはっきり画像に書いてあるんで鵜呑みにしない方がいいよ
さすがに4o-miniが8bは賢すぎる
0097名無しさん@ピンキー2025/01/02(木) 12:55:45.88ID:???
8BぐらいならモデルをうっかりHuggingfaceにリークしてほしい
いつも情報をうっかりリークするOpenAIさん
0099名無しさん@ピンキー2025/01/02(木) 13:06:20.22ID:???
巨大モデル作成→枝刈りが軽量モデルの訓練最適解だとすればローカルLLM界隈は厳しい状況にある気がする
大規模なグラボがないと軽量かつ高性能なモデルが作れない
0100名無しさん@ピンキー2025/01/02(木) 13:12:14.62ID:???
7Bモデルまで軽量化する時にオホ声やメスガキの枝を大事に残してるとか草
0102名無しさん@ピンキー2025/01/02(木) 14:22:31.43ID:???
確かに文字の出てくる速度からして相当パラメータ数少なそうだなとは思ってたけど
もし本当に8bなのだとするとローカル界にもかなり希望があるってことにはなるなぁ
0103名無しさん@ピンキー2025/01/02(木) 14:33:27.02ID:???
言ってることが正しくても投資家の文字が出てくると胡散臭さが5割増に見える不思議
0104名無しさん@ピンキー2025/01/02(木) 16:14:44.46ID:???
macってメモリをGPUにシフトできるけど、koboldとかで使う場合GPUレイヤーに載せた方が速いの?
同じユニファイドメモリなんだからcpuモードでも同じと思ってたけど違うんかな?
0107名無しさん@ピンキー2025/01/02(木) 21:35:48.93ID:???
理論的にはエロ性能に特化した4o-miniをローカルで動かすことも不可能ではない
誰か頭が良くてエロい人頼んだ
0108名無しさん@ピンキー2025/01/03(金) 08:18:17.15ID:???
>>104
CPUとGPUではアクセスの粒度がぜんぜん違うので
MMUに対して領域を指定してその部分DRAMバンクのアクセス方法が切り替わる
(画面表示の時の読み出し割り込みが定期的にかかるから違うバンクのほうが予測率あがる)
さらにM3以降はそこの改良が進んでてダイナミックキャッシュの圧縮もしている
どうやって圧縮しているかはみつからんかった。最大2倍という広告は見たけど
0109名無しさん@ピンキー2025/01/03(金) 09:07:49.01ID:n0X7VVCV
wabisabiで4000超えたあたりから文章がぶっ壊れるな
context sizeは8192にしてるんだけど
0110名無しさん@ピンキー2025/01/03(金) 09:07:49.55ID:n0X7VVCV
wabisabiで4000超えたあたりから文章がぶっ壊れるな
context sizeは8192にしてるんだけど
0111名無しさん@ピンキー2025/01/03(金) 09:11:19.75ID:???
cohereのaya exp 8bはしゃべり方とかだいぶ4o-mini的かも
ただもとが優等生的なキャラなのでエロいのが好きな人は物足りないかも
0112名無しさん@ピンキー2025/01/03(金) 09:15:42.26ID:n0X7VVCV
尻タブだと問題ない
koboldだとぶっ壊れる
chat modeがダメなのか?
0113名無しさん@ピンキー2025/01/03(金) 14:27:41.47ID:???
アダルトなフォルダ群と、それに対応するサムネ画像群があります。両者のファイル名は表記揺れが多かったり、無駄に日付やバージョンが追記されていたりします。サムネ画像群をlsして200行ごとにA〜Kへと分けています。

AIに対して一つのフォルダ名とサムネ画像群ファイル名リストAを渡し対応しそうな名前を返してもらう、という処理をローカルで行いたいです。

powershellとkoboldcppでこういった処理は実現できそうでしょうか?
0114名無しさん@ピンキー2025/01/03(金) 15:03:16.85ID:n0X7VVCV
LLMとしりとりするの難しいな……GPTでも上手くいかないことがあるぞ
0115名無しさん@ピンキー2025/01/03(金) 15:08:09.90ID:???
>>113
フォルダ名から画像ファイル名探すだけならkoboldにファイル名リストぶち込んで質問でもいいんじゃね
ちゃんとやるならベクトルDB構築することになるけど
>>114
トークン化されてるからね
strawberry問題と同じよ
0116名無しさん@ピンキー2025/01/03(金) 15:21:13.72ID:n0X7VVCV
>>115
GPTだとちゃんと語尾を取ってくれるんだけど
「ん」で終わってしまったときの仕切り直しでおかしくなるんだよね

AI:「メロン」!
俺:「ン」で終わったらダメだよ!
AI:あ、すみません!「メロン」の「ン」ですね。じゃあ、「ノート」!

みたいな感じで
アホなLLMはそもそも全くしりとりが成立しない
0117名無しさん@ピンキー2025/01/03(金) 16:00:47.92ID:???
aya
cohereのとこだし似たようなもんだろって思ってたけどCR+よりは賢い気がする

ただ、軽めのマグナムが現状やっぱ最強
重いのも一応動くけどおっっそいし、俺調教モノがしたいからレスポンス早いの大事なんよなぁ
0119名無しさん@ピンキー2025/01/03(金) 18:28:30.76ID:dXFWaIdU
たしかに並のLLMだとしりとりダメだったわ面白い
QwenとかCohereとかだと単に似てる単語を返したりしてくる
4oとかClaudeレベルじゃないとルール理解してくれんかった
0120名無しさん@ピンキー2025/01/03(金) 23:55:50.93ID:W3BUnxUQ
尻タブでAPIからDeepSeek試してみたけど、いまいちだな…
同じような繰り返しばかりだし、LLMにありがちな明るい未来病をにおわせるフレーズが多くて響かん
設定煮詰めたらましになるのか?
0121名無しさん@ピンキー2025/01/04(土) 14:48:54.56ID:M2WOJj40
ワイもSillyTavernでDeepSeekV3試したけど
同じ語句くりかえしたり出力途中で途切れたり長い文章の出力途中で違う言語になったり
みたいな挙動は確認した
0122名無しさん@ピンキー2025/01/04(土) 21:19:09.29ID:???
俺もdeepseekのapi呼び出しで全く同じ症状出てるわ
繰り返しと文章の破綻
とてもじゃないけどこれがclaude越えはない
apiクレジット多めに買っちまったよちくしょう
0124名無しさん@ピンキー2025/01/04(土) 21:38:17.17ID:Cts7xg66
>>apiクレジット多めに買っちまったよちくしょう
(´・ω・`)人(´・ω・`)ナカーマ
0125名無しさん@ピンキー2025/01/04(土) 22:00:55.69ID:???
文章出力変のはトークナイザーやらテンプレートの設定を間違ってるからだろ
0126名無しさん@ピンキー2025/01/04(土) 22:50:00.83ID:???
そういう設定ってどこかにまとまってたりすんのかな
というかどう詰めていけばいいのか謎
0128名無しさん@ピンキー2025/01/05(日) 04:16:34.25ID:m82up0/D
>>126
そこらへんの情報ググっても全然出てこないよな
chatGPTに頼んでもまともな答えが返ってこないし
何がどう間違ってるのか確かめる方法と基準が分からん
0130名無しさん@ピンキー2025/01/05(日) 10:53:29.86ID:???
reddit以外だとDiscordとかになるんかね
Googleはオワコンだし、LLMの知識はそこの情報食ってウンコ出してるようなものだからもっと使えん
0131名無しさん@ピンキー2025/01/05(日) 12:05:27.52ID:???
ローカルがパワー不足(12GB)だから月課金のサービス使ってMagnum72B動かしたけど、当然ながら12Bより理解度高い上にキチンと下品な対応をしてくれるね……
0132名無しさん@ピンキー2025/01/05(日) 12:10:02.60ID:???
mradermacher/Writer-Large-2411-v2.1-i1-GGUF
期待してたこれようやくimatrix量子化してくれて感謝
小説特化のせいか評価問題は指示がうまく入らなかったけど、なんか知らんが隠語表現がぶっ飛んでたわw
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況