なんJLLM部 避難所 ★9
0818名無しさん@ピンキー (ワッチョイ 2ac7-kIgr)2025/11/07(金) 00:00:29.77ID:ynemYx0F0
火出そうって・・・
マイニング流行ってた頃はパワーリミットしてたとは言え、20枚挿しも珍しくなかったんだから8枚挿しくらい余裕だろ
マンションとかならともかく一軒家ならブレーカー落ちることないし
0824名無しさん@ピンキー (ワッチョイ 2ac7-kIgr)2025/11/07(金) 11:23:17.12ID:ynemYx0F0
電力会社によっては100Aとか普通に使えるからな
マイニングしてたときは1部屋で計2500W超を24時間常時動かしてたぞ
夏はエアコン、冬は窓開けっ放しで問題なかったな
0825名無しさん@ピンキー (ワッチョイ ef12-dW62)2025/11/07(金) 11:27:33.51ID:zDkRZzoS0
ハードル高すぎる…
ローカルllmはロマンがあるなと思ってたけど、実現が難しく夢のようだからロマンがあると感じてるだけな気がしてきた。

>>812
なるほど、半年前にちょっと32bとかのモデルでコーティングエージェント試したときはあんまりだなと思ったが、やはり大規模は賢いのか。
0827名無しさん@ピンキー (ワッチョイ ef47-mzUR)2025/11/07(金) 14:02:55.05ID:0Urjr8TJ0
32Bとかでも、FTしてコーディング特化させても無理なのかな?
全然わからん
0829名無しさん@ピンキー (ワッチョイ 1a49-JEdv)2025/11/07(金) 23:00:18.35ID:4AEqnHGL0
りんなは貴重な日本のAI企業だったのに
0831名無しさん@ピンキー (ワッチョイ 3a24-mzUR)2025/11/07(金) 23:03:50.97ID:/wC3jWy70
俺がAIを作る
0832名無しさん@ピンキー (ワッチョイ cf20-qekO)2025/11/08(土) 00:04:47.22ID:m032+gq00
上を見てるとキリがないから16GBのVRAMでも快適にエロを出力できるモデルでいいのはないかな?
個人的にはyamatazenさんの「EsotericSage-12B」や「NeonMaid-12B-v2 」が12Bにしては良かった
この作者は12Bのモデルがメインっぽいけど24Bの「EsotericKnowledge-24B」もなかなか良い感じ
0834名無しさん@ピンキー (ワッチョイ bf49-MSRj)2025/11/08(土) 07:39:15.01ID:S1Z1naTn0
kimi k2 thinkingすごいな
0835名無しさん@ピンキー (ワッチョイ cfa0-Pj3+)2025/11/08(土) 08:47:17.25ID:EAEk+Zkn0
りんなは早すぎたんだろうな、時代が今頃追いついて、あっという間に追い抜いて行った。

チャッピーが出たタイミングで出せばよかったのに、支援する側が気づいたころには無くなっていたんじゃな
0836名無しさん@ピンキー (ワッチョイ 53d6-t3bi)2025/11/08(土) 12:46:40.77ID:9jrhr8L/0
>>798
aquif-ai/aquif-3.5-Max-42B-A3B、
これa3bだから低スぺgpu(4gb)でも推論できる。ほとんどメインメモリからだからvram使ってるのか?
42bのモデルはやっぱり語彙力が高いですね
色々ためしてみます
0838名無しさん@ピンキー (ワッチョイ cfa0-Pj3+)2025/11/08(土) 13:49:04.34ID:EAEk+Zkn0
Grokで大体のエロはマスターしたから、もっとハードなエロ専用モデルがほしいのよな、バカでもいいから

そういう専用モデルを作るのが今後のローカルLLMだと思うのだが

学問方面とかもな
0840名無しさん@ピンキー (ワッチョイ 7397-t3bi)2025/11/08(土) 16:51:35.14ID:r4q5rRrN0
GPT 5 Thinkingバグってないか
回答が不安定でエラー連発
0841名無しさん@ピンキー (ワッチョイ 6f7c-usgL)2025/11/08(土) 17:38:53.08ID:pCVG21Oa0
>>832
自分は>>8のBerghofとCydonia 24B、
あとMistralPrism-24Bが良かったです
Qwen系はなんかすぐ簡字体を出してきて
あまり相性が良くなかったです

EsotericKnowledge-24B気になるので使ってみます
レスを投稿する


ニューススポーツなんでも実況