なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0803名無しさん@ピンキー (ワッチョイ ef3f-mzUR)2025/11/06(木) 12:42:12.94ID:lMCuk1c10
モデルを学習させたいのならRTX、
大きいのを推論させたいだけならMACでしょう
0804名無しさん@ピンキー (ワッチョイ eeca-dW62)2025/11/06(木) 14:03:53.68ID:5ogRukTi0
みんな一体何を推論させてるんだ…夢は感じるけど具体的に何しようか自分でははっきり定められない。
0806名無しさん@ピンキー (ワッチョイ 3a1a-mzUR)2025/11/06(木) 15:04:13.91ID:H0Wl2rhX0
やっぱ推論だけじゃなくて学習させたいよなー
0807名無しさん@ピンキー (ワッチョイ 1a49-EU/t)2025/11/06(木) 15:12:09.62ID:BwdvnsPb0
学習させようとなるとローカルではさすがにきびしい
サーバーレンタルしたほうが絶対にいい
0810名無しさん@ピンキー (ワッチョイ 3a1a-mzUR)2025/11/06(木) 16:14:40.70ID:H0Wl2rhX0
難しいのかぁ
べつに30Bくらいのを学習できるとは思ってないけど、ちっちゃいのでもやれるといいけど
RAGのことも勉強しなければ
0811名無しさん@ピンキー (ワッチョイ 13e7-nV2F)2025/11/06(木) 17:25:25.55ID:4cAqsVGl0
>>802
Ti SUPER相当のシリーズがRTX Proでも来るってリークあったんよ。そっちの5000PROが72GBという話。6000PRO SUPERが来るならワンチャン128GBもあるかもしれへんね
0812名無しさん@ピンキー (ワッチョイ 131c-0U8u)2025/11/06(木) 20:09:27.05ID:OT25Em3L0
>>804 OpenHands とかで「改良しつづけよ」という雑なプロンプトで自動的にプログラムを改良してもらってる
時間かかるし、途中自分でスナップショットとって失敗に気づいてgit巻き戻して、と人間臭くて笑ってしまう
何度も失敗するから有料API使うと目の玉飛び出す金額になってしまうから、こういう用途はローカル向き

M4 Max 128G でVRAMに120GByte回してるから、python側(推論しない)は mbpで回している
120GByteでギリギリだよ。96Gだと頭の悪いLLMしか動作させられなくて結局成果物ができない
AI Max+ は Linuxなら120GByteくらい回せるらしいからワンチャン動く
0813名無しさん@ピンキー (ワッチョイ 3a5c-mzUR)2025/11/06(木) 21:22:16.20ID:H0Wl2rhX0
96でも頭わるいのかぁ困ったな
金がいくらあっても足らん
今のM3はファインチューニング向いてないらしいけど、M5出たらそこも改善されるといいなあ
0817名無しさん@ピンキー (ワッチョイ 6f03-mTOK)2025/11/06(木) 23:46:10.80ID:VQ2HluPM0
クラウドで微調整するにしても最低3090以上のローカルGPUも欲しい
学習設定やデータセットをテストを小さいモデルでやるにしても全部クラウドでやると無駄に金いくらあっても足りないし微調整後の推論は結局ローカルGPUだし
0818名無しさん@ピンキー (ワッチョイ 2ac7-kIgr)2025/11/07(金) 00:00:29.77ID:ynemYx0F0
火出そうって・・・
マイニング流行ってた頃はパワーリミットしてたとは言え、20枚挿しも珍しくなかったんだから8枚挿しくらい余裕だろ
マンションとかならともかく一軒家ならブレーカー落ちることないし
0824名無しさん@ピンキー (ワッチョイ 2ac7-kIgr)2025/11/07(金) 11:23:17.12ID:ynemYx0F0
電力会社によっては100Aとか普通に使えるからな
マイニングしてたときは1部屋で計2500W超を24時間常時動かしてたぞ
夏はエアコン、冬は窓開けっ放しで問題なかったな
0825名無しさん@ピンキー (ワッチョイ ef12-dW62)2025/11/07(金) 11:27:33.51ID:zDkRZzoS0
ハードル高すぎる…
ローカルllmはロマンがあるなと思ってたけど、実現が難しく夢のようだからロマンがあると感じてるだけな気がしてきた。

>>812
なるほど、半年前にちょっと32bとかのモデルでコーティングエージェント試したときはあんまりだなと思ったが、やはり大規模は賢いのか。
0827名無しさん@ピンキー (ワッチョイ ef47-mzUR)2025/11/07(金) 14:02:55.05ID:0Urjr8TJ0
32Bとかでも、FTしてコーディング特化させても無理なのかな?
全然わからん
0829名無しさん@ピンキー (ワッチョイ 1a49-JEdv)2025/11/07(金) 23:00:18.35ID:4AEqnHGL0
りんなは貴重な日本のAI企業だったのに
0831名無しさん@ピンキー (ワッチョイ 3a24-mzUR)2025/11/07(金) 23:03:50.97ID:/wC3jWy70
俺がAIを作る
0832名無しさん@ピンキー (ワッチョイ cf20-qekO)2025/11/08(土) 00:04:47.22ID:m032+gq00
上を見てるとキリがないから16GBのVRAMでも快適にエロを出力できるモデルでいいのはないかな?
個人的にはyamatazenさんの「EsotericSage-12B」や「NeonMaid-12B-v2 」が12Bにしては良かった
この作者は12Bのモデルがメインっぽいけど24Bの「EsotericKnowledge-24B」もなかなか良い感じ
0834名無しさん@ピンキー (ワッチョイ bf49-MSRj)2025/11/08(土) 07:39:15.01ID:S1Z1naTn0
kimi k2 thinkingすごいな
0835名無しさん@ピンキー (ワッチョイ cfa0-Pj3+)2025/11/08(土) 08:47:17.25ID:EAEk+Zkn0
りんなは早すぎたんだろうな、時代が今頃追いついて、あっという間に追い抜いて行った。

チャッピーが出たタイミングで出せばよかったのに、支援する側が気づいたころには無くなっていたんじゃな
0836名無しさん@ピンキー (ワッチョイ 53d6-t3bi)2025/11/08(土) 12:46:40.77ID:9jrhr8L/0
>>798
aquif-ai/aquif-3.5-Max-42B-A3B、
これa3bだから低スぺgpu(4gb)でも推論できる。ほとんどメインメモリからだからvram使ってるのか?
42bのモデルはやっぱり語彙力が高いですね
色々ためしてみます
0838名無しさん@ピンキー (ワッチョイ cfa0-Pj3+)2025/11/08(土) 13:49:04.34ID:EAEk+Zkn0
Grokで大体のエロはマスターしたから、もっとハードなエロ専用モデルがほしいのよな、バカでもいいから

そういう専用モデルを作るのが今後のローカルLLMだと思うのだが

学問方面とかもな
0840名無しさん@ピンキー (ワッチョイ 7397-t3bi)2025/11/08(土) 16:51:35.14ID:r4q5rRrN0
GPT 5 Thinkingバグってないか
回答が不安定でエラー連発
0841名無しさん@ピンキー (ワッチョイ 6f7c-usgL)2025/11/08(土) 17:38:53.08ID:pCVG21Oa0
>>832
自分は>>8のBerghofとCydonia 24B、
あとMistralPrism-24Bが良かったです
Qwen系はなんかすぐ簡字体を出してきて
あまり相性が良くなかったです

EsotericKnowledge-24B気になるので使ってみます
レスを投稿する


ニューススポーツなんでも実況