なんJLLM部 避難所 ★10

!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

0655名無しさん@ピンキー (ワッチョイ cfa0-G60N)2026/01/06(火) 09:56:46.27ID:/7MLUjnj0
4090VRAM24GB×4だと電源がもたないのでは?

0656名無しさん@ピンキー (ワッチョイ 1332-fu7G)2026/01/06(火) 09:58:55.49ID:4WspyGCi0
>>649
4枚さしでexpo1設定で5600にしてメモリチェック回して問題なかったけど
なんせクソ高かったから精神衛生上安くなってからexpoに戻そうと思います

0657名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 10:05:59.43ID:kVrC8SoO0
>>654
それ、4090+メインメモリと比べてどの程度速度出るんだろ?

0658名無しさん@ピンキー (ワッチョイ ef2e-L/jz)2026/01/06(火) 11:03:58.94ID:9qL/623Z0
横からだが24GB以上必要で72GBに収まるモデルならCPUとかメインメモリ経由しなくて済むんだから全然違うのでは
LLMは画像生成みたいに1枚に乗せきらなきゃいけない制約ないし

0659名無しさん@ピンキー (JP 0H9f-nnfO)2026/01/06(火) 11:50:25.82ID:ywC8AgtMH
TITAN RTXがリース落ちで出回っていた頃に全部狩っておけば良かった
1台しか拾わなかったことが悔やまれる

0660名無しさん@ピンキー (スププ Sd5f-PPr4)2026/01/06(火) 12:26:23.16ID:fmj2E9aGd
4070Ti Super に 4060Ti(16GB)を増設しようと中古購入したぜ。
いざ届くとPCIeケーブルが足りないから電源ユニット追加注文したり、4060がマザボのコネクタに干渉することわかったからライザーケーブル追加注文したり
LLMのための工作はこれはこれで楽しいな

0661名無しさん@ピンキー (ワッチョイ 3f32-kpE1)2026/01/06(火) 12:33:20.68ID:czaMjSi90
mGPUなんて殆どやらなくなったし折角なら一度やっておくべきよね

0662名無しさん@ピンキー (ワッチョイ cfa0-G60N)2026/01/06(火) 12:36:35.02ID:/7MLUjnj0
だからNVIDIAは高額なGPU一枚売るより、安価な3060を大量に売った方が儲かると考えたわけ

0663名無しさん@ピンキー (JP 0H9f-nnfO)2026/01/06(火) 12:37:48.86ID:ywC8AgtMH
NVIDIAにとってコンシューマ向けGPUなんて慈善事業
いつ辞めてもノーダメージ

0664名無しさん@ピンキー (ワッチョイ ef27-5PTw)2026/01/06(火) 13:10:02.75ID:dIRnQUx/0
AIバブルにあぐらかくわけにもいかんやろ
ゲーマー市場キープしとかんと足元掬われるで

LLMの演算って専用チップ作った方が性能出せるってんで大手サービスは独自設計に移りつつある

0665名無しさん@ピンキー (JP 0H9f-nnfO)2026/01/06(火) 13:14:34.06ID:ywC8AgtMH
>>664
革ジャンはGrokを買ったからそっちでも勝つつもりや

0666名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 13:52:38.64ID:kVrC8SoO0
>>658
NVLINKみたいなのならともかくPCIが遅いから枚数が増えれば増えるほど効率が悪くなると思う
もし無尽蔵に早くなるならH100とか買わずに12や16GBのカード大量に買えば良いわけだが企業がそうしてないわけだし
多分限界があるんだと思う 実際どこに限界があるのかわからないけど

0667名無しさん@ピンキー (ワッチョイ cf6f-F/Mu)2026/01/06(火) 13:56:21.97ID:hOIOeKTE0
>>651
ありがとう、試してみる

0668名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 13:57:27.67ID:kVrC8SoO0
>>663
AI特需で今は良いけど巨額を出して買ってくれてるのは世界で数社だけ
しかもGoogleなど自社でTPUを開発してそろそろ売り出しそうな勢い、お客がライバルにクラスチェンジする
特需と顧客がライバルになった時、他の市場を持ってないと長期ではかなり危ういんじゃない?

ただメモリとかすごく高いしPCそのものから人が離れたらどうするのかって問題はありそうだけど
AIに相談したらPCが高級品にになると、多くの人はスマホとかやすい端末でクラウド使うのが当たり前になるみたいな予想もあったけどな

0669名無しさん@ピンキー (オッペケ Sr37-hOy0)2026/01/06(火) 14:06:28.28ID:IifJsPNir
>663
今の立場で儲けを優先すること自体がメリットは少なくデメリットが山盛りの潜在的大ダメージ戦略でしょ
慈善事業をバンバンやらなきゃ独占禁止法が飛んでくる

0670名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/06(火) 20:55:30.64ID:kVrC8SoO0
中国、「日本の軍事力強化につながる」品目の輸出禁止 だってさ
メモリ不足とか中国の企業が想像以上に頑張って暴落するかと思ってたけどPC関連ますます下がらなくなりそうだな

0671名無しさん@ピンキー (ワッチョイ 7323-slrW)2026/01/07(水) 12:41:05.37ID:FS0KNYav0
AMD製グラボでの画像生成AIが爆速になるComfyUIアップデートが配信、ROCm統合で生成速度が5.4倍に
https://gigazine.net/news/20260107-amd-comfyui-rocm/

期待できるか分からないけど色々出来るようになったらいいな

0672名無しさん@ピンキー (ワッチョイ 3f32-kpE1)2026/01/07(水) 12:56:58.54ID:dyjeItMh0
radeonばっか使ってるけどllm方面じゃ理論値のrocm頑張るよりvulkanド安定なんよな ってのがこれまでの話だけどどうなるか
大差付くなら良いよね

0673名無しさん@ピンキー (ワッチョイ cfa0-G60N)2026/01/07(水) 13:08:46.98ID:Y/amd7hW0
VRAMの数とCUDA対応かしか気にしてないけど、他に見る要素あるの?

0674名無しさん@ピンキー (ワッチョイ 3f32-kpE1)2026/01/07(水) 13:27:12.55ID:dyjeItMh0
VRAM帯域までは見て

0675名無しさん@ピンキー (ワッチョイ ef27-G60N)2026/01/07(水) 14:00:10.07ID:f2bFd25i0
やっとWindowsでrocm使えるようになったんだ
ところでCUDAは19年前から使えるんだけど今まで何してたん?

0676名無しさん@ピンキー (ワッチョイ 3f32-kpE1)2026/01/07(水) 14:09:42.61ID:dyjeItMh0
アピールを捨ててるけど使えました

0677名無しさん@ピンキー (ワッチョイ 1332-G60N)2026/01/07(水) 14:45:15.83ID:MvnRioxH0
ROCmは元々AMD Instinctとかの業務用GPU向けだったから
コンシューマーしか使わないWindowsは眼中になかった模様
PCでローカルAIを動かすのが流行り出したのはほんの数年前の話

0678名無しさん@ピンキー (ワッチョイ cfa0-G60N)2026/01/07(水) 17:03:10.02ID:Y/amd7hW0
Rakuten AI 700Bか、なかなかやるな三木谷

0679名無しさん@ピンキー (ワッチョイ 636b-Che8)2026/01/08(木) 10:38:07.66ID:M6Ah6DRS0
LFM2.5B-1.2B-JP思ったよりプロンプトに従うし一応エロもいけるな
このサイズにしては中々やりおる

0680名無しさん@ピンキー (ワッチョイ 3fac-XxT8)2026/01/08(木) 12:50:01.03ID:SSPBWWsE0
https://www.youtube.com/shorts/odx5NLbYz8g
半導体の拡大画像だけど、これってフェイクではなく本物かな?

最近、半導体がやたらと高いけど、それでも個人の予算で買えるってなんか不思議な気がするわ
こんなのどんなに頑張っても自作できる気がしない
更に、エロの為にこんな高度な技術を使うってのも何かもっと他に使い道ないのかと思ってしまう

0681名無しさん@ピンキー (ワッチョイ 8f07-SX/8)2026/01/08(木) 13:39:01.67ID:QTqEB4/I0
CGですよ
詐欺に遭わんようにな

0682名無しさん@ピンキー (ワッチョイ 73a7-XxT8)2026/01/08(木) 16:01:11.57ID:qDkOWa730
LFM2.5 JPはサイズの割りにはかなり上手くやれてる方なんだけど、やっぱり1.2Bってのはちょっとしんどいところある
意味わからんくらい爆速で動くし、個人でFinetuningできるのは面白そうだけどデータセットがねぇ……

0683名無しさん@ピンキー (ワッチョイ cf7a-G60N)2026/01/08(木) 18:19:49.46ID:898P0C8x0
LFM2.5B-1.2B-JP使ってみたけど、爆速なだけで
実用性はどう使えばいいかわからん

0684名無しさん@ピンキー (ワッチョイ 636a-ER82)2026/01/08(木) 19:16:46.59ID:FVGHXFax0
頭悪いのそのモデル

0685名無しさん@ピンキー (ワッチョイ 2320-hOy0)2026/01/08(木) 19:48:17.46ID:XO3mr2jw0
いまどきは自宅のラボで作ってみたする奴もいるらしいぞ

0686名無しさん@ピンキー (ワッチョイ 3332-FNoR)2026/01/08(木) 21:42:27.44ID:5QVndZy40
小規模モデルの性能が上がってくるとそれはそれでワクワクするな

0687名無しさん@ピンキー (ワッチョイ 7365-Lv33)2026/01/08(木) 23:00:25.74ID:1dVKKogr0
5b未満のモデルはゲーム組み込み用とかそういうニーズもあるやで

0688名無しさん@ピンキー (スッププ Sd5f-nnfO)2026/01/08(木) 23:08:44.33ID:Glpn+tsMd
会話らしい会話が出来る性能ではないがゲームでどう使うの

0689名無しさん@ピンキー (ワッチョイ cfa9-G60N)2026/01/08(木) 23:39:37.11ID:C3uPfQRe0
実例が今あるのかわからんけど
もしやるならガッチガチにファインチューンしたら
ゲーム内の話題だけならまともな応答返すくらいは一桁bでも出来そうな気はする

0690名無しさん@ピンキー (ワッチョイ 7370-5PTw)2026/01/09(金) 02:22:52.53ID:7u2K8Dnp0
スマホで小型モデルを動かすのが理想だけど
どうせネット繋がってるんだから大型モデルに繋いだほうが早いってね

0691名無しさん@ピンキー (ワッチョイ 1332-G60N)2026/01/09(金) 07:53:07.91ID:KvRiQaTo0
ChatGPTを使ってるゲームはあるけど
ローカルLLMを使ってるゲームは今のところなさそうだよな

0692名無しさん@ピンキー (ワッチョイ 3fc7-XxT8)2026/01/09(金) 08:06:00.67ID:4HlRfj7C0
やったこと無いから知らないけど,アダルトな会話が楽しめるスマホアプリはローカルじゃないのか?

0693名無しさん@ピンキー (ワッチョイ 636a-ER82)2026/01/09(金) 08:54:24.24ID:uQ17JKwQ0
いやー無理だろ

0694名無しさん@ピンキー (ワッチョイ cfa0-G60N)2026/01/09(金) 09:28:44.94ID:GOSYtxZi0
学習が少ないと日本語をまともに喋れない。

0695名無しさん@ピンキー (ワッチョイ cfd9-fu7G)2026/01/09(金) 10:51:23.37ID:QgvGH3Ck0
>>691
あれってchatgpt以外のAPって使えないのかな?
macでAP発行してローカルで使うとかできんかな

0696名無しさん@ピンキー (ワッチョイ 231e-XxT8)2026/01/09(金) 11:27:25.15ID:mNJOAcl90
LFM2.5B-1.2B-JP気になって覗きに来たけどローカルでエロチャするには微妙な感じか

0697名無しさん@ピンキー (ワッチョイ 3ff8-yDMQ)2026/01/09(金) 11:34:42.40ID:ijDoORFo0
ローカルLLM使ったゲームはすでにたくさんあると思うよ
llama.cppを組み込むだけだし軽くググってもそれっぽいのが出てくる

0698名無しさん@ピンキー (ワッチョイ 53d0-F/Mu)2026/01/09(金) 14:18:27.68ID:SpJSB7Fb0
>>691
FANZAにあったで
需要ないのか100円足らずで売られてた

0699名無しさん@ピンキー (スッププ Sd5f-nnfO)2026/01/09(金) 14:52:11.04ID:rpg+hvq7d
Cerebrasがzai-glm-4.7の無料Tierを公開したで
激烈に速いで
https://www.cerebras.ai/blog/glm-4-7

0700名無しさん@ピンキー (ワッチョイ 3f9f-/lw7)2026/01/09(金) 17:07:18.90ID:QRUXNry/0
Free TierでRPD=100か
性能もGemini3Pro並なら代替になるんやが

0701名無しさん@ピンキー (ワッチョイ 3fd5-s3Q7)2026/01/09(金) 18:07:58.26ID:PZmIb37G0
>>699
すごい
今までクオリティと速度を両立してたのってGemini Flashだけだったけど
これは段違いに速いうえにクオリティも高い

0702名無しさん@ピンキー (スププ Sd5f-PPr4)2026/01/09(金) 18:29:48.22ID:EV20mKt7d
4.7Vか4.7-Airきてくれー

0703名無しさん@ピンキー (ワッチョイ 4264-kaFj)2026/01/10(土) 00:46:48.25ID:twt9hJur0
これはモデルが早いというよりはハードウェアが超特殊だからな・・・。
確か一枚数億とかだったよなCerebrasのユニット

0704名無しさん@ピンキー (ワッチョイ 7273-oSIQ)2026/01/10(土) 12:37:17.37ID:Wwd3v/Sq0
Cerebrasは半導体ウェハを切り取らずにそのまま使ってる
どんなマザーボードに載せてるんだろ
https://i.imgur.com/33194P8.jpeg

0705名無しさん@ピンキー (ワッチョイ 32ac-dyKC)2026/01/10(土) 13:47:59.81ID:Yar5XSuB0
>>680
>>681
実際、この縮尺って合ってるのかね?
ちょっとした寒気みたいなものを覚えたんだけど

新着レスの表示
レスを投稿する