なんJLLM部 避難所 ★10
0658名無しさん@ピンキー (ワッチョイ ef2e-L/jz)2026/01/06(火) 11:03:58.94ID:9qL/623Z0
横からだが24GB以上必要で72GBに収まるモデルならCPUとかメインメモリ経由しなくて済むんだから全然違うのでは
LLMは画像生成みたいに1枚に乗せきらなきゃいけない制約ないし
0659名無しさん@ピンキー (JP 0H9f-nnfO)2026/01/06(火) 11:50:25.82ID:ywC8AgtMH
TITAN RTXがリース落ちで出回っていた頃に全部狩っておけば良かった
1台しか拾わなかったことが悔やまれる
0660名無しさん@ピンキー (スププ Sd5f-PPr4)2026/01/06(火) 12:26:23.16ID:fmj2E9aGd
4070Ti Super に 4060Ti(16GB)を増設しようと中古購入したぜ。
いざ届くとPCIeケーブルが足りないから電源ユニット追加注文したり、4060がマザボのコネクタに干渉することわかったからライザーケーブル追加注文したり
LLMのための工作はこれはこれで楽しいな
0664名無しさん@ピンキー (ワッチョイ ef27-5PTw)2026/01/06(火) 13:10:02.75ID:dIRnQUx/0
AIバブルにあぐらかくわけにもいかんやろ
ゲーマー市場キープしとかんと足元掬われるで

LLMの演算って専用チップ作った方が性能出せるってんで大手サービスは独自設計に移りつつある
0666名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 13:52:38.64ID:kVrC8SoO0
>>658
NVLINKみたいなのならともかくPCIが遅いから枚数が増えれば増えるほど効率が悪くなると思う
もし無尽蔵に早くなるならH100とか買わずに12や16GBのカード大量に買えば良いわけだが企業がそうしてないわけだし
多分限界があるんだと思う 実際どこに限界があるのかわからないけど
0667名無しさん@ピンキー (ワッチョイ cf6f-F/Mu)2026/01/06(火) 13:56:21.97ID:hOIOeKTE0
>>651
ありがとう、試してみる
0668名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 13:57:27.67ID:kVrC8SoO0
>>663
AI特需で今は良いけど巨額を出して買ってくれてるのは世界で数社だけ
しかもGoogleなど自社でTPUを開発してそろそろ売り出しそうな勢い、お客がライバルにクラスチェンジする
特需と顧客がライバルになった時、他の市場を持ってないと長期ではかなり危ういんじゃない?

ただメモリとかすごく高いしPCそのものから人が離れたらどうするのかって問題はありそうだけど
AIに相談したらPCが高級品にになると、多くの人はスマホとかやすい端末でクラウド使うのが当たり前になるみたいな予想もあったけどな
0669名無しさん@ピンキー (オッペケ Sr37-hOy0)2026/01/06(火) 14:06:28.28ID:IifJsPNir
>663
今の立場で儲けを優先すること自体がメリットは少なくデメリットが山盛りの潜在的大ダメージ戦略でしょ
慈善事業をバンバンやらなきゃ独占禁止法が飛んでくる
0670名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 20:55:30.64ID:kVrC8SoO0
中国、「日本の軍事力強化につながる」品目の輸出禁止 だってさ
メモリ不足とか中国の企業が想像以上に頑張って暴落するかと思ってたけどPC関連ますます下がらなくなりそうだな
0671名無しさん@ピンキー (ワッチョイ 7323-slrW)2026/01/07(水) 12:41:05.37ID:FS0KNYav0
AMD製グラボでの画像生成AIが爆速になるComfyUIアップデートが配信、ROCm統合で生成速度が5.4倍に
https://gigazine.net/news/20260107-amd-comfyui-rocm/

期待できるか分からないけど色々出来るようになったらいいな
0672名無しさん@ピンキー (ワッチョイ 3f32-kpE1)2026/01/07(水) 12:56:58.54ID:dyjeItMh0
radeonばっか使ってるけどllm方面じゃ理論値のrocm頑張るよりvulkanド安定なんよな ってのがこれまでの話だけどどうなるか
大差付くなら良いよね
0677名無しさん@ピンキー (ワッチョイ 1332-G60N)2026/01/07(水) 14:45:15.83ID:MvnRioxH0
ROCmは元々AMD Instinctとかの業務用GPU向けだったから
コンシューマーしか使わないWindowsは眼中になかった模様
PCでローカルAIを動かすのが流行り出したのはほんの数年前の話
0679名無しさん@ピンキー (ワッチョイ 636b-Che8)2026/01/08(木) 10:38:07.66ID:M6Ah6DRS0
LFM2.5B-1.2B-JP思ったよりプロンプトに従うし一応エロもいけるな
このサイズにしては中々やりおる
0680名無しさん@ピンキー (ワッチョイ 3fac-XxT8)2026/01/08(木) 12:50:01.03ID:SSPBWWsE0
https://www.youtube.com/shorts/odx5NLbYz8g
半導体の拡大画像だけど、これってフェイクではなく本物かな?

最近、半導体がやたらと高いけど、それでも個人の予算で買えるってなんか不思議な気がするわ
こんなのどんなに頑張っても自作できる気がしない
更に、エロの為にこんな高度な技術を使うってのも何かもっと他に使い道ないのかと思ってしまう
0681名無しさん@ピンキー (ワッチョイ 8f07-SX/8)2026/01/08(木) 13:39:01.67ID:QTqEB4/I0
CGですよ
詐欺に遭わんようにな
0682名無しさん@ピンキー (ワッチョイ 73a7-XxT8)2026/01/08(木) 16:01:11.57ID:qDkOWa730
LFM2.5 JPはサイズの割りにはかなり上手くやれてる方なんだけど、やっぱり1.2Bってのはちょっとしんどいところある
意味わからんくらい爆速で動くし、個人でFinetuningできるのは面白そうだけどデータセットがねぇ……
0684名無しさん@ピンキー (ワッチョイ 636a-ER82)2026/01/08(木) 19:16:46.59ID:FVGHXFax0
頭悪いのそのモデル
0686名無しさん@ピンキー (ワッチョイ 3332-FNoR)2026/01/08(木) 21:42:27.44ID:5QVndZy40
小規模モデルの性能が上がってくるとそれはそれでワクワクするな
0689名無しさん@ピンキー (ワッチョイ cfa9-G60N)2026/01/08(木) 23:39:37.11ID:C3uPfQRe0
実例が今あるのかわからんけど
もしやるならガッチガチにファインチューンしたら
ゲーム内の話題だけならまともな応答返すくらいは一桁bでも出来そうな気はする
0692名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/09(金) 08:06:00.67ID:4HlRfj7C0
やったこと無いから知らないけど,アダルトな会話が楽しめるスマホアプリはローカルじゃないのか?
0693名無しさん@ピンキー (ワッチョイ 636a-ER82)2026/01/09(金) 08:54:24.24ID:uQ17JKwQ0
いやー無理だろ
0696名無しさん@ピンキー (ワッチョイ 231e-XxT8)2026/01/09(金) 11:27:25.15ID:mNJOAcl90
LFM2.5B-1.2B-JP気になって覗きに来たけどローカルでエロチャするには微妙な感じか
0697名無しさん@ピンキー (ワッチョイ 3ff8-yDMQ)2026/01/09(金) 11:34:42.40ID:ijDoORFo0
ローカルLLM使ったゲームはすでにたくさんあると思うよ
llama.cppを組み込むだけだし軽くググってもそれっぽいのが出てくる
0698名無しさん@ピンキー (ワッチョイ 53d0-F/Mu)2026/01/09(金) 14:18:27.68ID:SpJSB7Fb0
>>691
FANZAにあったで
需要ないのか100円足らずで売られてた
0701名無しさん@ピンキー (ワッチョイ 3fd5-s3Q7)2026/01/09(金) 18:07:58.26ID:PZmIb37G0
>>699
すごい
今までクオリティと速度を両立してたのってGemini Flashだけだったけど
これは段違いに速いうえにクオリティも高い
0702名無しさん@ピンキー (スププ Sd5f-PPr4)2026/01/09(金) 18:29:48.22ID:EV20mKt7d
4.7Vか4.7-Airきてくれー
0704名無しさん@ピンキー (ワッチョイ 7273-oSIQ)2026/01/10(土) 12:37:17.37ID:Wwd3v/Sq0
Cerebrasは半導体ウェハを切り取らずにそのまま使ってる
どんなマザーボードに載せてるんだろ
https://i.imgur.com/33194P8.jpeg
0705名無しさん@ピンキー (ワッチョイ 32ac-dyKC)2026/01/10(土) 13:47:59.81ID:Yar5XSuB0
>>680
>>681
実際、この縮尺って合ってるのかね?
ちょっとした寒気みたいなものを覚えたんだけど
0708名無しさん@ピンキー (ワッチョイ b7dd-vGEt)2026/01/12(月) 13:24:07.64ID:lnBKDwIn0
>>699
GGUFで130GBもあるのか・・・
0711名無しさん@ピンキー (ワッチョイ 3e27-5de0)2026/01/12(月) 14:22:17.16ID:8opZO6jU0
>>709
いつの話してるんだ…
LLM出始めは学習が不十分でその程度の話も答えられないケースはあったけど
2年ぐらい前にはそんなの何の役にも立たない質問するのは馬鹿のやることだって言われてたよ
今もそれ聞いてるのは知識がアップデートされてない老害だよ
0712名無しさん@ピンキー (ワッチョイ e36a-SydR)2026/01/12(月) 14:34:36.73ID:GrWr5tZm0
>>709
それ通用したの2022年末くらいでは?
0713名無しさん@ピンキー (ワッチョイ 6f32-cVtm)2026/01/12(月) 14:56:28.29ID:LxRHWzDP0
ワイは
「小学生の男女がうんどうかいについて悪戯っ子ぽく話す会話を書いてくれ」って最初に聞いてる
これで日本語の小説のセリフ周りの性能や文の整合性チェックが分かるのでおすすめ
0715名無しさん@ピンキー (オッペケ Sr17-UF1D)2026/01/12(月) 15:15:08.69ID:UceslG1Pr
文章の良し悪しを判別すること自体も難易度が高いタスクなんだよな
判別できる人はLLMって文章上手くないな、じゃあこれで計ればいいやって自分で気付くはず

判別できないひとは、そもそもLLMって文章上手いよなとか、自信たっぷりだから信頼できるよなとか、言いだすわけで...
0716名無しさん@ピンキー (ワッチョイ 32c7-dyKC)2026/01/12(月) 15:37:44.32ID:2OmvCRAT0
自分の得意な専門分野の事を聞いたら良いんじゃない?
LLMが偉くてもまだまだ人が強い分野だと思う
逆に知らないことを聞いたら全部説得力あって判定できないけどw
0718名無しさん@ピンキー (ワッチョイ 3381-NUe/)2026/01/12(月) 20:50:57.53ID:AZ66r3L40
エロ画像を認識させて画像の内容をエロく説明させたいんだけど、おすすめの環境ある?
0720名無しさん@ピンキー (ワッチョイ 3365-NUe/)2026/01/12(月) 23:31:00.56ID:AZ66r3L40
ありがとう
LMstudioでスレに有ったqwen3〜ったので動かしてみた
期待した返答が来たけど、ちょっと速度が遅いな…
この辺はスペックをどうにかするしかないか
0722名無しさん@ピンキー (オッペケ Sr17-SydR)2026/01/13(火) 09:54:32.11ID:AHx2N4uir
slmが凄いとかいう風潮やめて欲しいわ
gpt5.2ですら怪しいときがあるんだからそれより少ないのが役立つわけがない
0723名無しさん@ピンキー (ワッチョイ b732-8cZs)2026/01/13(火) 10:39:18.45ID:gPGsq1yO0
そんな風潮あるか?
0724名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/13(火) 10:53:36.90ID:KI0ClFsj0
SLMは色々な用途で普通に役に立ってるし
性能が上がればさらなる小型化や同サイズでやれること増えるし
通信環境整えてサービスのAPIにつなげみたいな器材ばかりやないし
凄いの出てきたら開発も利用も用途増えるしすごいというよそりゃ
0725名無しさん@ピンキー (オッペケ Sr17-UF1D)2026/01/13(火) 11:14:32.58ID:Uk1lac2Cr
釣りタイトル文化に問題があるような
LFM2.5がすごい!という動画を拡散すると中身は見てないやつがすごいんだって記憶するという

LFM2.5は日本語が喋れるのに700MB!凄い!ってタイトルに入れてくれ
0728名無しさん@ピンキー (ワッチョイ 6f32-5de0)2026/01/13(火) 13:34:38.68ID:KI0ClFsj0
SNSで新しいAI情報を紹介してるだけみたいなのまでAI驚き屋といって叩いて煽ってる側が
有料でAIの本質情報教えますマンみたいなのだったりする時代
0729名無しさん@ピンキー (ワッチョイ c7a8-btwR)2026/01/13(火) 14:22:39.00ID:WR1YxfAx0
PC新調したしローカルLLM始めたいなと思ってスレ読んでたけど、割とグラボ複数でVRAM増強してる感じなんやね
グラボ1枚(VRAM16GB)だとローカルLLMはまだ難しい感じ?
0730名無しさん@ピンキー (ワッチョイ b732-8cZs)2026/01/13(火) 14:27:27.51ID:gPGsq1yO0
VRAM16GBでもMoEならそれなりに遊べる
0731名無しさん@ピンキー (ワッチョイ 7247-YDYy)2026/01/13(火) 14:29:25.64ID:/2Cg9zMf0
>>729
7B~14Bモデルならちゃんと動くよ
もちろんチャッピーなどオンラインモデルの性能を期待してはいけない
でも7Bってエロに関しては完全フリーだった頃のモデルばっかだから意外と楽しめる
0732名無しさん@ピンキー (ワッチョイ f232-+fC0)2026/01/13(火) 14:35:31.61ID:O7FR8Zm10
ちょっと前に比べたらvram16gbに乗り切って日本語ちゃんと返せるモデルが乱立してるのは劇的進歩ではあるよ
普通に使えるっちゃ使える
moeも出てきたし
0733名無しさん@ピンキー (スッププ Sd12-PuTB)2026/01/13(火) 14:42:37.09ID:f0/mo2LTd
Qwen235bが出た時に速攻でメインメモリ128GB以上の環境を作れた奴が勝ち組

denseモデルだとVRAMかメインメモリかの2択になって大型モデルでGPUを全く活かせないからな
0734名無しさん@ピンキー (ワッチョイ c7a8-btwR)2026/01/13(火) 14:48:54.18ID:WR1YxfAx0
軽量でも動く設定いれて軽いモデル入れれば動くやつもあるよって感じかな
もうちょい調べてお試ししてみるわ、あんがと
0735名無しさん@ピンキー (ワッチョイ 72c7-3e1D)2026/01/13(火) 14:50:40.63ID:i0hzGkdj0
qwenやgpt-ossなどMoEだとGPUは1枚で十分
MoEはGPUの枚数増やすと性能が低下しちゃうんだよな
モデルを全部VRAMに載せられるならGPUの複数枚挿しもありだね
0737名無しさん@ピンキー (ワッチョイ 07d7-NCp1)2026/01/13(火) 20:35:24.00ID:q/F/NBED0
ryzen haloってのはcpuオンダイメモリなん?
この時代マザーにポン付けで128GBもあって何かそこそこに動いたらええなあ
レスを投稿する


ニューススポーツなんでも実況