なんJLLM部 避難所 ★8
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@ピンキー 転載ダメ (ワッチョイ f3c0-9L8h)2025/05/10(土) 22:18:32.02ID:0Ak3eO5y0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0994名無しさん@ピンキー (ワッチョイ 1f73-Zqh3)2025/08/22(金) 17:57:09.89ID:bK/Vt5N00
>>993
coreだとメモリ帯域足りなくてAMX搭載しても活かしきれなさそう
0995名無しさん@ピンキー (ワッチョイ 6bad-9CBc)2025/08/22(金) 18:03:48.37ID:YJ+F97c90
core ultraとか言う中途半端オブ中途半端sの事は考えなくて良いと思う
0996名無しさん@ピンキー (ワッチョイ 1fe2-tp/S)2025/08/22(金) 23:02:39.73ID:sywHngdj0
もうみんなローカルLLMは使ってないの?APIのみ?
0997名無しさん@ピンキー (ワッチョイ fbf8-GMkG)2025/08/23(土) 03:57:02.83ID:XYdbbERa0
ddr6と同時にintelもAMDも4ch動作をコンシューマで解禁するみたいな噂もあるしローカルはCPU推論がメインになりそうではあるな
nova lakeとか52コアで高くても20万円くらいでしょ 4ch ddr6なら帯域幅256GB-512GB/sも狙えるしMoEなら70万円程度でSOTAモデルを実用レベルで動かせる可能性高そう
というかそう考えるとmac studioの先見性すごいな
0998名無しさん@ピンキー (JP 0H0e-TcND)2025/08/23(土) 04:46:12.08ID:hvD7X/jjH
Mac Stuidoの場合基板にメモリ直付けでオクタチャンネルだしな
NVIDIAにしてもサーバー向けのGrace HopperはArmCPUにGPUとHBMメモリの一体設計だし

ソケットやスロットで全部のパーツを交換可能なのが自作PCの強みだけど、AIでハイパフォーマンスを目指すとなると、ソケットやスロットで配線が厳しいのがボトルネックになってきてる
0999名無しさん@ピンキー (ワッチョイ f251-53nT)2025/08/23(土) 08:53:46.42ID:4DO7qNsY0
ローカルLLM初心者なんだがLM StudioでNSFWで検索したら出てきたQwen-72B-nsfw-novel-GGUFをダウンロード中なんだが
もしかしてNSFWよりUncensoredの方がファイル名としては一般的?
1000名無しさん@ピンキー (ワッチョイ e626-TnY8)2025/08/23(土) 09:51:52.68ID:ZvENN5EZ0
どっちなんだろうね?
10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 104日 11時間 33分 22秒
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況