なんJLLM部 避難所 ★9
0635名無しさん@ピンキー (ワッチョイ 5f27-oOwG)2025/10/15(水) 10:41:05.99ID:es2b6e2F0
なんか最新のLLMモデル軽くなった?
gpt-oss:120bで久々にローカルLLM入れたけど
5-6token/secが昔のllama:120bとかは限界だったのに

gpt-ossだと普通に思考4-5秒で20~token/secで出力されるし精度がgptと変わらんやん
Mac StudioM1Ultraの128GB環境だけどモデル側でこんな変わるんかって感じ
0638名無しさん@ピンキー (ワッチョイ 6f04-iD00)2025/10/15(水) 11:26:18.43ID:WXX2Ugeo0
チャッピー12月にエロ解禁らしい
0639名無しさん@ピンキー (ワッチョイ 5fe9-eRny)2025/10/15(水) 11:54:02.19ID:JZDrNw2x0
ChatGPT、成人向けコンテンツを12月に解禁へ
https://japan.cnet.com/article/35239194/

ほんまか知らんけど
0641名無しさん@ピンキー (ワッチョイ 0fa9-CQ64)2025/10/15(水) 12:06:36.78ID:nO9EZyoQ0
ここ最近このスレでmoeのことをわかってない人が急に増えた気がするんやが外でこのスレ紹介されたりしたんやろか
llamacppがcpumoe実装してからモデルがmoeかどうかは個人でLLM動かす人には超重要事項になっとるで
0643名無しさん@ピンキー (ワッチョイ 5f27-oOwG)2025/10/15(水) 12:55:14.54ID:es2b6e2F0
>>640
なるほどなー
magnum v4 123bでシコってた頃から随分進化したもんや
gpt-oss abiliteratedがかなり期待外れだったからmagnumとかの生成早くなってるやつがあったらかなり良さそう
0644名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/15(水) 12:57:15.70ID:NIWsAMFT0
lammacppのrocm対応が進んで今だとQwen3-coder-30BならradeonでもRX7900XTXなら80tok/sぐらい出るようになったし、MoEの成熟も進んで春先あたりの頃の常識がだいぶ変わったよな
0645名無しさん@ピンキー (ワッチョイ 5ffb-xebt)2025/10/15(水) 13:16:34.80ID:c2WDOR3F0
俺が一番シコれる文章を生成してくれるのは
QuantFactory/Berghof-NSFW-7B-GGUF
だけなんだよな
他のモデルは文章こそ滑らかかも知れんけどチンポにズドンとくる文章じゃなくて惜しい
0647名無しさん@ピンキー (ワッチョイ cb22-Z99m)2025/10/15(水) 13:50:43.68ID:NCAaGl2s0
最近grokが申し訳する
0648名無しさん@ピンキー (ワッチョイ 5fef-x06C)2025/10/15(水) 14:48:23.86ID:JyU1FamW0
もともとガチガチに禁止してなかったもんを解禁とか言い出したときは「キッチリ監視の目を入れて安全に使えるようにした、今までの無法地帯ではない」にしか聞こえない
最近ちょっと固い期間あったとはいえ
0649名無しさん@ピンキー (ワッチョイ 5fcd-KVVk)2025/10/15(水) 15:34:18.16ID:dOcrs+BU0
エロokなのと無検閲は全く違うからな
非同意系は今まで通り無理だろうしopenAIは顧客のチャット履歴精査して中国政府の機密資料を晒上げる程度のプライバシー意識の会社だしエロチャするの怖すぎ
0650名無しさん@ピンキー (ワッチョイ cb77-rcem)2025/10/15(水) 16:24:56.21ID:fBcQWT3N0
◯学生OKってマジ?
0652名無しさん@ピンキー (スップー Sd7f-CiX/)2025/10/15(水) 17:41:36.73ID:PvQboaN7d
>>649
逆に履歴提供してる前提でモデル改善オンにしてAIと深い話やOpenAIの横暴についてや正当なコミュニケーションの進展におけるスキンシップの正当性について話してるわ
一番直接的で有効なフィードバックになるからね
チャット履歴提供上等だよ
0654名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/15(水) 21:26:42.52ID:NIWsAMFT0
>>653
ModelfileうんぬんってことはOllama?確かまだ未対応やったんちゃうかな?modelcardにあるようにlammacppかその派生(コボちゃんとか)でないと対応してないはず
0657名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/16(木) 09:48:37.74ID:U3eWIMKC0
>>651
横からだが試してみた。回答内容は悪くないけど重いなぁ。Qwen3-Nextが速杉とも言えるが小説支援には良いけど尻とかでチャットに使うには個人的にびみょかった(個人の感想です)
0658名無しさん@ピンキー (ワッチョイ 0fa9-dmQm)2025/10/16(木) 13:30:03.77ID:3FIeU2zk0
DGX Sparkは結局Ryzen AI Maxくらいしかパフォーマンス出なさそうだし微妙だね。
CUDA使えるのとConnect-X付いてるのはいいけどRyzenと比べて価格が倍以上だし
それならMac買うかってなるな
レスを投稿する


ニューススポーツなんでも実況