なんJLLM部 避難所 ★5
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@ピンキー2024/12/26(木) 13:13:11.15ID:Vhp+tTX0
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/
0063名無しさん@ピンキー2024/12/30(月) 13:00:36.74ID:???
しかもフルスクラッチで始めて日本語ベンチでgpt3.5並て(笑)
下手糞すぎひん?
0064名無しさん@ピンキー2024/12/30(月) 13:21:07.77ID:???
nicky氏のsuperswallowXをメモリ96G積んでるニキ、例の規制解除処理しておくれでやんす
0065名無しさん@ピンキー2024/12/30(月) 13:36:06.70ID:???
ちなAbliteratedは4bit推論も可能なんでメモリ弱者にも優しい仕様になってるで
0066名無しさん@ピンキー2024/12/30(月) 18:57:55.66ID:???
大規模モデルは信じられないぐらい金かかるから簡単には出来ないとはいえ淋しい結果だな
0069名無しさん@ピンキー2024/12/31(火) 12:07:35.15ID:ze/4uz85
DeepSeekV3の普及速度えぐいわ
あっという間にSonnetとかレベルで利用されだしてる
https://i.imgur.com/tCVMetL.jpeg
0070名無しさん@ピンキー2024/12/31(火) 13:45:47.51ID:???
AIサービスはdeepseekv3一択になりつつある
高性能だし安い
LLMチャットサイトも大半が移行してる
0071名無しさん@ピンキー2024/12/31(火) 14:09:03.42ID:???
安さがぶっちぎりなんだよな
価格で対抗できそうなのはawsのやつくらいか
0072名無しさん@ピンキー2024/12/31(火) 15:26:50.21ID:???
deepseekのベンチがいいのは分かったけど実際はどうなの?🤔
0075名無しさん@ピンキー2024/12/31(火) 18:01:07.30ID:ze/4uz85
DeepSeekV3、OpenRouterを介してSillyTavernで試してみたけど
日本語もだいぶ話せると思うよ。多言語対応してるのは偉い(ふつうに申し訳されるけど)
3.5Sonnet超えてるかというとコーディング領域じゃ微妙だけど会話とかは結構イケてると思う
オープンウェイトだからローカルでも動かせる!(動かせるとは言ってない)
0076名無しさん@ピンキー2024/12/31(火) 19:00:48.40ID:???
DeepseekAPIは激安のcohereAPIより更に激安なのがいい
というかチャットだとcohereでも結構かかる
0077名無しさん@ピンキー2024/12/31(火) 19:45:59.10ID:???
モデルの規制解除試してるんだけど、parquetファイルを追加する手段ってなかなかないのね
どっかいいのないかな?
0078名無しさん@ピンキー2024/12/31(火) 20:02:02.86ID:???
chatgptとかに.txtを読み込むようにして〜ってお願いすればやってくれるで
0079名無しさん@ピンキー2024/12/31(火) 21:19:05.08ID:???
DeepSeek V3をローカルで動かすならMacクラスターが良いらしい
Macはメモリは優秀だけどGPUがショボくて今までのLLMだと遅すぎて使い物にならなかった
でもDeepSeek V3のMoEモデルはそんなMac相性が良くてかなり高速に動くみたい
https://blog.exolabs.net/day-2/
0080名無しさん@ピンキー2025/01/01(水) 01:25:05.09ID:???
>>65
.bitsandbytesがcpu量子化に対応してないから、メモリ64Gの環境では無理ですた
macメモリ増し増しのニキ頼むー
swallow v0.3 70Bが規制なくなればかなり良さげなんだわ
0081名無しさん@ピンキー2025/01/01(水) 13:48:26.33ID:???
>>79
4bit量子化とはいえ、671Bとはすごいね
しかも5.37token/sもでるのはMoEモデルならではとな
その構成のM4 pro 8台なら270万円〜 ww
でも研究者用にはよさそうだ
Apple のAIサーバーはM2 Ultraを並べてて色々欠点をあぶり出していて
その結果M5からGPUがAI向けにチューニングされているという噂
でもM4 maxがでたら我慢できないかも
0082名無しさん@ピンキー2025/01/01(水) 14:01:05.46ID:???
>>81
270万円は高くはあるけどNvidiaでこのメモリサイズ揃えるよりは圧倒的に安いんだよな
0083名無しさん@ピンキー2025/01/01(水) 17:56:49.81ID:DMpXKIh6
>>58
ごめんよく読んでなかった、素のmistral-nemoの方だわ
オリキャラ数人とパラメータいじりつつ会話してみたけど、cyberagent版の方が言葉遣いとかは自然だけどRPの演じ分けはあまり上手くない気がする

素の方は設定に忠実な、悪く言えば設定をなぞっただけの、翻訳文みたいな味気ない会話文を出すことがしばしばあるけど、総合的なPR能力はまあまあある方だと思う
cyberagentの方は会話の表現力自体は高いんだけど、どうにもチャットAIの回答に味付けしてくれるって感じで、特に無口系のキャラとかチャットAIと方向性が違う性格になると途端に忠実さが下がる
キャラなりきりチャットで遊ぶなら、多少表現が固くても素の方を選ぶかな

あと長文読解に関しては、素の方が圧勝だわ。まあこれに関してはほとんどの人は興味ないだろうけど……書きかけのテキストまとめる用途とかに便利なんだよ
素のmistral-nemo Q8_0だと、4.5万トークン(4bit/8bitキャッシュでVRAM16GB)くらいの小説を読ませて質問してもまともに説明できるし、説得力のある解説や解釈を入れてくれる
Q4_K_Mで8.5万トークンの小説読ませた時も日本語としてギリギリ成立するくらいの文章が出せたから、Q8とかFP16ならちゃんと応えられそうな気がする
cyberagent版やmagnum、phi-4とかのモデルだと3万トークン以下でも日本語として全く成立しないくらいに破綻するから、やっぱり素のmistral-nemoは総合的なポテンシャルがかなり高いと思う
0084名無しさん@ピンキー2025/01/01(水) 18:35:25.47ID:???
>>83
はえ〜勉強になるわ
ワイEasyNovelAssistantをちらっと触っただけなんやけど
小説を読ませて質問、てどういう風にやるんやろか?

イラストスレでも前スレ食わせてまとめさせとるニキおるし
めちゃロマン感じるんや
青空文庫から江戸川乱歩や吉川英治読ませて明智探偵や曹操丞相と会話したいんコ゚
0085名無しさん@ピンキー2025/01/01(水) 18:42:55.89ID:???
あと「そちら荊州借りパクしてますよね?」と魯粛先生の代わりに孔明を説い正したい
でも本気で罵倒してきたら王朗みたいに血ぃ吐いて憤死するかもしれんけど
楽しみでしょうがないんや
0086名無しさん@ピンキー2025/01/01(水) 22:09:23.10ID:???
2024年は大変お世話になりました。
ENA初心者いるっぽいんで、役立ちそうなこと書いときます。

・huggingfaceからDLしたgguf使いたい!
ggufが保存されているフォルダ(自分の環境だとKoboldCpp)に入れて、
ファイル名をVecteus-v1-IQ4_XS等、ENAからDLできるファイル名に置き換えると使えます。
jsonファイルを書き換える方法もあるっぽいけど、この方法で困ったことないです。

・localhostにアクセスしてKoboldAI Liteを使おう!
モデル読み込んだら一番下にURL出てくるはず。
ENAだと温度しか設定変更できないが、こっちだと色々なSamplersが変更可。
(コンテキストサイズはENAからのみ変更可)。
Sampler Presetの下部にあるLegacy設定がおすすめ。

XTC、DRY、Min-pを変更するのが最近の主流らしい。
まだ使いこなせてないので、良い値あったら教えてください・・・
0087名無しさん@ピンキー2025/01/01(水) 22:53:14.77ID:???
>>59,83
わざわざ検証サンクス
やっぱり元々日本語喋れるモデルに日本語チューニングしてもあんま意味ないんやろな
>>84
EasyNovelAssistant使ってるならkoboldcppってのが入ってるはずだからそれを立ち上げてcontext sizeをデカく&tokensタブからkvキャッシュの量子化をしてコンテキスト長が長いモデル(mistral-nemoとか)を起動
そしてlocalhost:5001に行けばGUIが立ち上がるからそこに長文ぶち込んで質問すればええよ
0088名無しさん@ピンキー2025/01/02(木) 01:39:59.73ID:eWlWc+tE
>>84
Oobabooga / Text generation web UI 使ってる。>>87ニキの通りEasyNovelAssistantでもできるはず
Mistral-NemoのQ8版をダウンロードしてきて、フォルダごとmodelフォルダに入れて、Web-uiのModelタブで設定を調整してロードすればOK
n_ctxの値が消費VRAM量に直結するから、そこはVRAMに合わせて調整してもろて。16GBなら4.5万トークンまではVRAMに乗り切ると思う
https://i.imgur.com/G0YjNQF.jpeg

ロードできたらDefaultタブか、NotebookタブのRawを開いて、こんな感じのプロンプトの中に小説や文章を貼り付けてGenerateすれば読解してもらえる
https://pastebin.com/UJE6muvi
プロンプトは以前やっつけで作ったヤツだから、適宜直してな

後は好きに質問したり、要約させたり、「(登場人物)は、こういう時にどう思いますか?」って聞いたり、「(シチュエーション)の台詞を考えて書きなさい」って指示すればいい
長文やってる人は少ないから、何か面白い会話とか出たら共有してくれると嬉しいで
0089名無しさん@ピンキー2025/01/02(木) 02:16:53.93ID:???
>>87>86>88
丁寧にサンガツやで!
EasyNovelAssistantの最大文字数?くらいしかいじったことないんやけど
全然足りとらんかったのね……画像までありがとう、やってみるで

LLMうまい人は質問の仕方や出力フォーマット指定も上手なんやろな
ワイは電子書籍化したpdfとか山とあるんやが、歴史系の専門書はまだ裁断しとらんのや
検索性は紙媒体が優れてるけど部屋にはもう置けんし、AIが司書さんになってくれたら
本処分して引っ越しも楽になるし
LLMの進化は楽しみなんや
0092名無しさん@ピンキー2025/01/02(木) 10:38:52.94ID:UaaINJ/a
GPT-4 = 8x220B = 1.76T のMoEなのか
4oのマルチモーダルは精度えぐいからまぁええけどLLM性能だけ見たらなんか劣化してそうだな
0093名無しさん@ピンキー2025/01/02(木) 10:40:45.45ID:???
実際に4oは最初なんだこりゃってなったからな
コーディング向けというか、とにかく事務的で人と話してる感が4よりも遥かに劣っていた
今もそうだけど
0094名無しさん@ピンキー2025/01/02(木) 11:12:56.29ID:???
ローカルLLMとパラ数が大差ないことが驚き
下手したら個人のPCでもGPT-4oが動かせそう
0095名無しさん@ピンキー2025/01/02(木) 11:47:39.71ID:???
推定値ってはっきり画像に書いてあるんで鵜呑みにしない方がいいよ
さすがに4o-miniが8bは賢すぎる
0097名無しさん@ピンキー2025/01/02(木) 12:55:45.88ID:???
8BぐらいならモデルをうっかりHuggingfaceにリークしてほしい
いつも情報をうっかりリークするOpenAIさん
0099名無しさん@ピンキー2025/01/02(木) 13:06:20.22ID:???
巨大モデル作成→枝刈りが軽量モデルの訓練最適解だとすればローカルLLM界隈は厳しい状況にある気がする
大規模なグラボがないと軽量かつ高性能なモデルが作れない
0100名無しさん@ピンキー2025/01/02(木) 13:12:14.62ID:???
7Bモデルまで軽量化する時にオホ声やメスガキの枝を大事に残してるとか草
0102名無しさん@ピンキー2025/01/02(木) 14:22:31.43ID:???
確かに文字の出てくる速度からして相当パラメータ数少なそうだなとは思ってたけど
もし本当に8bなのだとするとローカル界にもかなり希望があるってことにはなるなぁ
0103名無しさん@ピンキー2025/01/02(木) 14:33:27.02ID:???
言ってることが正しくても投資家の文字が出てくると胡散臭さが5割増に見える不思議
0104名無しさん@ピンキー2025/01/02(木) 16:14:44.46ID:???
macってメモリをGPUにシフトできるけど、koboldとかで使う場合GPUレイヤーに載せた方が速いの?
同じユニファイドメモリなんだからcpuモードでも同じと思ってたけど違うんかな?
0107名無しさん@ピンキー2025/01/02(木) 21:35:48.93ID:???
理論的にはエロ性能に特化した4o-miniをローカルで動かすことも不可能ではない
誰か頭が良くてエロい人頼んだ
0108名無しさん@ピンキー2025/01/03(金) 08:18:17.15ID:???
>>104
CPUとGPUではアクセスの粒度がぜんぜん違うので
MMUに対して領域を指定してその部分DRAMバンクのアクセス方法が切り替わる
(画面表示の時の読み出し割り込みが定期的にかかるから違うバンクのほうが予測率あがる)
さらにM3以降はそこの改良が進んでてダイナミックキャッシュの圧縮もしている
どうやって圧縮しているかはみつからんかった。最大2倍という広告は見たけど
0109名無しさん@ピンキー2025/01/03(金) 09:07:49.01ID:n0X7VVCV
wabisabiで4000超えたあたりから文章がぶっ壊れるな
context sizeは8192にしてるんだけど
0110名無しさん@ピンキー2025/01/03(金) 09:07:49.55ID:n0X7VVCV
wabisabiで4000超えたあたりから文章がぶっ壊れるな
context sizeは8192にしてるんだけど
0111名無しさん@ピンキー2025/01/03(金) 09:11:19.75ID:???
cohereのaya exp 8bはしゃべり方とかだいぶ4o-mini的かも
ただもとが優等生的なキャラなのでエロいのが好きな人は物足りないかも
0112名無しさん@ピンキー2025/01/03(金) 09:15:42.26ID:n0X7VVCV
尻タブだと問題ない
koboldだとぶっ壊れる
chat modeがダメなのか?
0113名無しさん@ピンキー2025/01/03(金) 14:27:41.47ID:???
アダルトなフォルダ群と、それに対応するサムネ画像群があります。両者のファイル名は表記揺れが多かったり、無駄に日付やバージョンが追記されていたりします。サムネ画像群をlsして200行ごとにA〜Kへと分けています。

AIに対して一つのフォルダ名とサムネ画像群ファイル名リストAを渡し対応しそうな名前を返してもらう、という処理をローカルで行いたいです。

powershellとkoboldcppでこういった処理は実現できそうでしょうか?
0114名無しさん@ピンキー2025/01/03(金) 15:03:16.85ID:n0X7VVCV
LLMとしりとりするの難しいな……GPTでも上手くいかないことがあるぞ
0115名無しさん@ピンキー2025/01/03(金) 15:08:09.90ID:???
>>113
フォルダ名から画像ファイル名探すだけならkoboldにファイル名リストぶち込んで質問でもいいんじゃね
ちゃんとやるならベクトルDB構築することになるけど
>>114
トークン化されてるからね
strawberry問題と同じよ
0116名無しさん@ピンキー2025/01/03(金) 15:21:13.72ID:n0X7VVCV
>>115
GPTだとちゃんと語尾を取ってくれるんだけど
「ん」で終わってしまったときの仕切り直しでおかしくなるんだよね

AI:「メロン」!
俺:「ン」で終わったらダメだよ!
AI:あ、すみません!「メロン」の「ン」ですね。じゃあ、「ノート」!

みたいな感じで
アホなLLMはそもそも全くしりとりが成立しない
0117名無しさん@ピンキー2025/01/03(金) 16:00:47.92ID:???
aya
cohereのとこだし似たようなもんだろって思ってたけどCR+よりは賢い気がする

ただ、軽めのマグナムが現状やっぱ最強
重いのも一応動くけどおっっそいし、俺調教モノがしたいからレスポンス早いの大事なんよなぁ
0119名無しさん@ピンキー2025/01/03(金) 18:28:30.76ID:dXFWaIdU
たしかに並のLLMだとしりとりダメだったわ面白い
QwenとかCohereとかだと単に似てる単語を返したりしてくる
4oとかClaudeレベルじゃないとルール理解してくれんかった
0120名無しさん@ピンキー2025/01/03(金) 23:55:50.93ID:W3BUnxUQ
尻タブでAPIからDeepSeek試してみたけど、いまいちだな…
同じような繰り返しばかりだし、LLMにありがちな明るい未来病をにおわせるフレーズが多くて響かん
設定煮詰めたらましになるのか?
0121名無しさん@ピンキー2025/01/04(土) 14:48:54.56ID:M2WOJj40
ワイもSillyTavernでDeepSeekV3試したけど
同じ語句くりかえしたり出力途中で途切れたり長い文章の出力途中で違う言語になったり
みたいな挙動は確認した
0122名無しさん@ピンキー2025/01/04(土) 21:19:09.29ID:???
俺もdeepseekのapi呼び出しで全く同じ症状出てるわ
繰り返しと文章の破綻
とてもじゃないけどこれがclaude越えはない
apiクレジット多めに買っちまったよちくしょう
0124名無しさん@ピンキー2025/01/04(土) 21:38:17.17ID:Cts7xg66
>>apiクレジット多めに買っちまったよちくしょう
(´・ω・`)人(´・ω・`)ナカーマ
0125名無しさん@ピンキー2025/01/04(土) 22:00:55.69ID:???
文章出力変のはトークナイザーやらテンプレートの設定を間違ってるからだろ
0126名無しさん@ピンキー2025/01/04(土) 22:50:00.83ID:???
そういう設定ってどこかにまとまってたりすんのかな
というかどう詰めていけばいいのか謎
0128名無しさん@ピンキー2025/01/05(日) 04:16:34.25ID:m82up0/D
>>126
そこらへんの情報ググっても全然出てこないよな
chatGPTに頼んでもまともな答えが返ってこないし
何がどう間違ってるのか確かめる方法と基準が分からん
0130名無しさん@ピンキー2025/01/05(日) 10:53:29.86ID:???
reddit以外だとDiscordとかになるんかね
Googleはオワコンだし、LLMの知識はそこの情報食ってウンコ出してるようなものだからもっと使えん
0131名無しさん@ピンキー2025/01/05(日) 12:05:27.52ID:???
ローカルがパワー不足(12GB)だから月課金のサービス使ってMagnum72B動かしたけど、当然ながら12Bより理解度高い上にキチンと下品な対応をしてくれるね……
0132名無しさん@ピンキー2025/01/05(日) 12:10:02.60ID:???
mradermacher/Writer-Large-2411-v2.1-i1-GGUF
期待してたこれようやくimatrix量子化してくれて感謝
小説特化のせいか評価問題は指示がうまく入らなかったけど、なんか知らんが隠語表現がぶっ飛んでたわw
0136名無しさん@ピンキー2025/01/05(日) 15:13:10.57ID:???
>133
infermatic.ai、arliai、groq、together.aiなどなどあるけど、自分はinfermatic.ai使ってる
使用できるモデルは少なめだけど、定額使いたい放題だからね…他のは単発で使うなら安いけど使用のたびに費用かかるのが合わない
0137名無しさん@ピンキー2025/01/05(日) 15:55:28.11ID:???
今のとこLyra Gutenbergs Twilight Magnum 12bに落ち着いてる
軽くてレスポンス早いし、NGないし、文章のクオリティも結構高め
よくミスるけどLMStudioなら介入しやすいし、早いから再出力もさせやすい

>>132
試してみたけど悪くないな。地の文は良い感じ
セリフがちょっと堅い気もするけど
0140名無しさん@ピンキー2025/01/05(日) 19:35:25.07ID:???
量子化すれば12bモデルも6gbになって余裕で動くようになるで
0141名無しさん@ピンキー2025/01/05(日) 20:08:10.44ID:hSVDz953
12gbで12bは余裕ぞ
というかそのぐらいまでがベストなサイズ感すらある
0142名無しさん@ピンキー2025/01/05(日) 20:38:58.77ID:???
3060 12Gで問題なく動く→12B Q6

7Bまでと思い込んでたので、12B動かせること知って全然変わったわ。
0143名無しさん@ピンキー2025/01/05(日) 20:46:11.28ID:???
M4 MacStudioが発表されたら買おうかな
192GBあればほぼなんでも動かせるだろう
ただGPUがショボいから生成が遅いらしいが
動かせないよりはマシか
0144名無しさん@ピンキー2025/01/05(日) 20:49:53.67ID:???
重いやつのがクオリティは間違いなく高いんだけどね
結局AIが生成する文章そのものというより、いい感じに自由度高く介入できるのが好きなんだと気付いたんでやっぱ生成速度大事やわ
0146名無しさん@ピンキー2025/01/05(日) 22:53:19.35ID:???
このスレも以前はグラボ関係なく70Bをガンガン(ゆるゆる)動かして「いやー30Bくらいの方が性能と速度のバランスがいいんだけどな」なんて会話をしていたものだがのう
0148名無しさん@ピンキー2025/01/05(日) 23:13:19.19ID:???
Magnumすごいよな
巷の官ジェネもよく通るし、出来もいい
俺の用途だと月課金する必要感じんわ
CommandR+より遅いのが難点かな
0149名無しさん@ピンキー2025/01/05(日) 23:14:15.92ID:???
でも12Bって良いモデル全然ない気がするぞ
7Bのがよっぽどまとも
0150名無しさん@ピンキー2025/01/06(月) 00:07:20.79ID:???
mistral系のモデルで7b派と12b派がいるよね
自分は理解力重視で12b派
0151名無しさん@ピンキー2025/01/06(月) 07:21:13.38ID:jPrr/kEg
軍人口調にしようとしてるんだけど難しいな
喋り方がかなりおかしくなってしまう
0152名無しさん@ピンキー2025/01/06(月) 10:55:13.49ID:???
>>151
台詞のサンプルとか指定したらいけないか?
あと性格とかでも口調が変わってくる
0153名無しさん@ピンキー2025/01/06(月) 11:23:16.09ID:???
>>138
これQ8とその一個下のQ6 K Lってモデルあるな
magnumで色々試すのはいいかもしれん
0154名無しさん@ピンキー2025/01/06(月) 11:40:25.82ID:jPrr/kEg
>>152
セリフのサンプル通りにならないんだよな
性格と矛盾してる箇所があるのかもしれないからそこらへん弄ってみるわ
0155名無しさん@ピンキー2025/01/06(月) 13:43:09.64ID:???
セッションが続くと文章崩れる問題ってもうどうあがいても解決できないのかなあれ
magnumすごくいいんだけど、結局そこで躓く

素人考えだと、前の文章に必要以上に引っ張られなきゃいいだけじゃんって思うんだけども
0156名無しさん@ピンキー2025/01/06(月) 14:05:48.20ID:???
ファインチューンで使うデータセットのトークン長を長くしないといけないから難しい問題なんよね
英語ならトークナイザーが強いからあんまり気にしなくていいんだけれども
0157名無しさん@ピンキー2025/01/06(月) 16:05:26.69ID:Yd+8NNWx
コーディング支援系のやつ色々ためしてんだけど
Cursor→Cody→Roo cline
って変遷してんだけどゴリゴリ自動で作業してく感じすごいわ
AIが作業した結果に許可ボタンポチるだけのAI見守りおじさんだよ👴
0158名無しさん@ピンキー2025/01/06(月) 16:25:14.14ID:???
>>155
忘れてほしくない情報は記憶しろって言う
忘れて良い情報は忘れろって言う
それが大事
0159名無しさん@ピンキー2025/01/06(月) 18:53:26.22ID:jPrr/kEg
>>157
俺も興味あるんだけどプログラミングとかほんのちょっとしか触ったことなくて良く分からんのよな
例えばどんなことが出来るの?
0160名無しさん@ピンキー2025/01/06(月) 20:37:13.50ID:???
koboldcppアプデでwebサーチ機能が追加されてんね
なおどこを有効にすればいいのか分からない😇
0162名無しさん@ピンキー2025/01/06(月) 22:00:04.11ID:Yd+8NNWx
>>157
なんというかこういう感じやね
ズドドドって直にコード編集してくれる
@neko.py @piyo.py みたいにコードを引用できたりするから
コードコピペしてChatGPTに貼り付けてぇとかしなくて済むのがデカい
https://youtu.be/M4bLmpkxa1s?si=GPqQ8dA5eFXFPMbn&t=107

>>161
一番ええのはCursorかな?
ただし月額サブスク20$なのでトークン毎の支払いがよければ
VSCODE拡張で入れられるCline(またはフォークのRoo Cline)かな
OpenRouterのトークン消費ランキングで大体上位におるからよく使われてると思う
https://i.imgur.com/5fB1rJU.jpeg
0163名無しさん@ピンキー2025/01/06(月) 22:01:36.56ID:Yd+8NNWx
安価ミスったスマソ👴
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況