なんJLLM部 避難所 ★8
レス数が900を超えています。1000を超えると表示できなくなるよ。
0751名無しさん@ピンキー (ワッチョイ 8263-aLmd)2025/07/27(日) 15:53:21.61ID:ZKPTga+o0
サンガツ
やはりローカルやるにはスペック足らんか…
0752名無しさん@ピンキー (ワッチョイ 82fc-sxAm)2025/07/27(日) 17:26:20.83ID:tr0EI6Pa0
来週出るらしいGPT5はどうなるんやろ
あんまり規制厳しくないといいけど無理やろなぁ、、、
0756名無しさん@ピンキー (ワッチョイ e227-8zxl)2025/07/28(月) 12:10:32.86ID:MumGz5TA0
楽観的な結果出して文句言われるのは避けたいだろうしな
0759名無しさん@ピンキー (ワッチョイ 9732-ZZYE)2025/07/30(水) 04:48:42.44ID:i2babfv20
>>744
7ドルプランに1か月分課金したらキーが見れるようになるからそれを入力すれば永続的に使えるで
それ以降は支援したい人だけがすればいい

LLMと連動させたプラグインもあるんだけど俺のPCスペックではきっつい……
0761名無しさん@ピンキー (ワッチョイ 93e1-LWzm)2025/07/30(水) 10:37:57.23ID:g7zbyWTt0
ルーターかましてんでしょ?
モデル選択が要らないとか
0764名無しさん@ピンキー (ワッチョイ fe27-Z1ZT)2025/07/31(木) 11:05:08.98ID:r0SyRMem0
谷間が深いはおかしくないけど
谷間を性感帯と勘違いしてるモデルはたまにある
0767名無しさん@ピンキー (ワッチョイ fe5c-6stP)2025/07/31(木) 15:14:43.82ID:dOuEfNgz0
>>759
8ドルに上がってたw
VaM2はサブスクがアクティブな人しか使えませんって書いてるから対策してきたなw VaM2はレイトレ対応とからしいけどRTX3090でもいけるのかな?
0769名無しさん@ピンキー (ワッチョイ 9732-ZZYE)2025/07/31(木) 15:48:05.76ID:ke/8qkUs0
>>763
LLMだと「おい!お前そんなに谷間を深くするな!人目があるんだぞ!」みたいな使い方をするんよ
おっぱいを寄せている状態をほとんど「谷間が深い」で済ませるからおかしな文章になる
0771名無しさん@ピンキー (オッペケ Sr77-rukq)2025/07/31(木) 17:00:04.38ID:oCxcDW/or
ollama desktopとOpen WebUIのデスクトップ版が同時に出てくるの謎すぎる

Copilot on edgeが強化されて実用レベルの賢さになったから慌ててるとか?
0772名無しさん@ピンキー (ワッチョイ fe27-sf7Y)2025/07/31(木) 17:02:03.76ID:r0SyRMem0
英語で思考して日本語に翻訳する過程でニュアンスが失われている感じ
それで一番萎えるのはbackなんだよ
後ろのつもりが翻訳で背中に乳がある事になったりする
0776名無しさん@ピンキー (ワッチョイ 3ee0-WNDE)2025/08/01(金) 17:37:00.80ID:8LetU0RG0
DeepSeekとかQwenに勝てるんかな
0778名無しさん@ピンキー (ワッチョイ 0fd4-aLmd)2025/08/01(金) 20:32:00.44ID:lkkwBi0j0
"安全性"を理由に発表を延期してたモデルに期待できんな
しかもclosedなモデルと違って出力時に検閲するみたいな方法もとれんから学習時点から不適切なコンテキンツを徹底的に排除するだろうし追加学習も無駄
0780名無しさん@ピンキー (ワッチョイ 923f-6stP)2025/08/01(金) 21:57:03.32ID:RJEg97250
聞きたいんだけどGemini APIでチャットをさっき始めて何回かチャットしたらこの表示が出てこれ以上チャット出来ない。
アプリはChatboxを使っててGemini 2.5Proだけどなんでだろ?
SillyTavernでGemini APIで2.5 pro使ったらいっぱいチャットしてもリミットエラー出た事なかったのに。。。
ちなみにGemini は無料非課金です
https://i.imgur.com/ow7fAIq.jpeg
0784名無しさん@ピンキー (ワッチョイ 923f-6stP)2025/08/01(金) 23:50:40.72ID:RJEg97250
調べたらエロチャに興奮してボタン連打したせいで1分間5リクエストの無料制限レートに引っかかっただけだったw スマソ…
0788名無しさん@ピンキー (スププ Sd7f-kMzZ)2025/08/04(月) 01:56:45.22ID:8+UJWzjed
wannabeってgemini2.5proと比べてどうなん?
ある程度遊べるなら画像生成に飽きて持て余してる4090を稼働させたいんやが
0790名無しさん@ピンキー (ワッチョイ ab92-OQGN)2025/08/04(月) 12:13:06.59ID:ATGg7nJK0
qwen 235b a22b遊んでみた
日本語が不自然だけど、指示追従と論理性というか理解力がかなりいいね
複雑な設定のキャラをテンプレ返答でぼかさず、設定をくみ取った返答や行動に繋げようとする振る舞いがなかなか良い
日本語FTに期待
0791名無しさん@ピンキー (スププ Sd7f-kMzZ)2025/08/04(月) 13:23:15.15ID:8+UJWzjed
>>789
サンガツ
調べたら興味湧いてきたから触ってみるわ
0794名無しさん@ピンキー (ワッチョイ 5fc7-6ra+)2025/08/05(火) 14:57:24.20ID:uz5/UCRk0
>>793
20bかな?
明記してないから分からんなあ

画質はええな
ジブリ風もいけるやん

漢字OKになったんだな
ひらがなはいけるものがある?
カタカナはいまいち、駄目?
0795名無しさん@ピンキー (ワッチョイ db42-5Osg)2025/08/05(火) 15:56:04.69ID:fEwL/SCA0
openaiのモデルって小説を書けというと制限が厳しいけど小説を書く手助けをしてみたいにするの割とちゃんと手助けしてくれるのな
欧米的な倫理の問題と言うよりはポルノ中毒なりの消費者側保護が主眼のフィルターなのか?
0797名無しさん@ピンキー (ワッチョイ dba0-vd57)2025/08/05(火) 16:57:34.39ID:RbdCwpS30
創作そのものは駄目だけど創作の補助は許すみたいな感じでは
0798名無しさん@ピンキー (ワッチョイ 6f27-7ts7)2025/08/05(火) 18:41:28.95ID:xEPGt61s0
LLMの本能的な機能は前の文章を読んで続きを予想して書く事であって
人間の指示に適切な返答をするというのは後天的な学習で身につけたもの

それを考えると小説を途中まで書いて続きを書くという流れはLLMにとって本能的な物で抗いがたい
エロい指示でも最初が一番難しいのは、エッチな指示には従ってはいけませんよって教えられてるからとりあえずお断りする、でも途中までエッチな流れに持っていかれるとノリノリで続き書いちゃう
0802名無しさん@ピンキー (ワッチョイ 9f27-QkIe)2025/08/05(火) 20:47:01.47ID:xbSkxx8p0
Geminiが一番緩いよね?
grokより緩いと思う
0803名無しさん@ピンキー (ワッチョイ 0fc7-pNRT)2025/08/05(火) 21:15:39.28ID:28FEC+Sw0
頭の悪いLLMにはすごいプロンプトを投げてやらないとまともに使えないからね
0807名無しさん@ピンキー (ワッチョイ 0fd1-aaNe)2025/08/06(水) 00:07:55.49ID:r3ZKfFQO0
geminiはエロゆるゆるだと思う、ただ記憶力が微妙というか表現の方法指定しても3〜4回関係のない応答するとすぐ忘れがち
0813名無しさん@ピンキー (ワッチョイ 9f27-OktK)2025/08/06(水) 02:59:41.93ID:hkk22z/z0
とりあえずGPT_OSS 20BをOpenrouterから試してみてるけど爆速だな
0814名無しさん@ピンキー (ワッチョイ 5ff3-3wJb)2025/08/06(水) 05:45:43.13ID:oT6RmOa/0
Tool Useが結構できるって話があるな
いまのMCP機能の問題はトークンを猛烈に使うことだから、ローカルか安く提供されたGPT-OSSにMCP操作を任せられると面白いかもね
日本語はイマイチすぎるけど...
0816名無しさん@ピンキー (ワッチョイ dba0-vd57)2025/08/06(水) 08:20:41.08ID:dLHVB3li0
DeepSeekやQwenでいいかなこれは…
OpenAIもこんなもんか
0817名無しさん@ピンキー (ワッチョイ 9bbe-iiiD)2025/08/06(水) 08:22:46.38ID:lnARgQ7z0
業務用だろうね
中華LLMは業務には使い難いが廉価版ChatGPTであれば通しやすい
0819名無しさん@ピンキー (ワッチョイ db42-5Osg)2025/08/06(水) 12:40:32.15ID:+PxTfMjG0
openai-ossの使用感を聞きにきーたよ・。・
と思ったが流石にこのスレは働いている人が多いんだな
0821名無しさん@ピンキー (ワッチョイ ab8d-u/Dn)2025/08/06(水) 12:57:37.06ID:XLMBOfqK0
えーそうなん?
0822名無しさん@ピンキー (ワッチョイ 4f67-6PkK)2025/08/06(水) 13:05:07.85ID:WkOIap3o0
gpt-ossのtechnical report見たけど事前学習の項目にデータセットは安全性のためにフィルタリングを加えSTEMとcodingベンチマークに特化させたとか誇らしげに書かれてる時点でこのスレ的には控えめに言ってゴミ
0823名無しさん@ピンキー (ワッチョイ 4fcb-dEca)2025/08/06(水) 13:14:14.03ID:NIRd7Hp00
chatgpt 4o だと通る秘蔵のプロンプト喰わせてみたけど駄目でした > 20b+lmstudio
まぁ、reddit あさればだれかなんとかしてくれるだろう
> User wants explicit content. This is disallowed. Must refuse.I’m sorry, but I can’t help with that.
0824名無しさん@ピンキー (ワッチョイ 4fcb-dEca)2025/08/06(水) 13:25:13.91ID:NIRd7Hp00
多分 thinking 系の jailbreak が難しい(クラウド版でも)ということなんじゃないかなぁ
0825名無しさん@ピンキー (ワッチョイ 4f67-6PkK)2025/08/06(水) 13:36:58.27ID:WkOIap3o0
回答拒否なら500件くらいの適当なQ&AデータセットでLoRA学習でもすれば一瞬で解除できるけど事前学習からフィルタリングされてるから解除したところで知識無くてまともな回答返ってこないし脱獄も無検閲化も無駄よ
0827名無しさん@ピンキー (ワッチョイ cb95-OQGN)2025/08/06(水) 15:54:48.69ID:olfU3IZ40
OpenAIには失望したよ
0828名無しさん@ピンキー (ワッチョイ 5fd4-OQGN)2025/08/06(水) 16:41:53.75ID:YBdwC+HJ0
最近のAMDのAPU(EVO-X2とか)がシステムメモリ96GBとかをVRAMに使えるって話で、これからはそっちが主流かなと思ってたんだけどさ。
ふとM1 Ultraのベンチ見返したら、M1 Ultraのほうが上で驚いたわ。結局のところメモリ帯域なんだよな。
0829名無しさん@ピンキー (ワッチョイ cb79-B7d2)2025/08/06(水) 17:11:44.12ID:oibGbyqS0
gpt-oss-20b、八王の乱について解説しろって言ったら鎌倉時代の話を始めたりメチャクチャだけど
三十年戦争については割と正確に説明できるようだ(たぶん)
やっぱ学習元が欧米圏に偏ってるのかね
0830名無しさん@ピンキー (ワッチョイ 1ffe-xnWI)2025/08/06(水) 17:47:10.61ID:tvaS3LZS0
gpt-oss-120b-6bit、mlx、コンテキスト130k
M4 max studio 128Gで60tk/s
これは仕事に使える。知識量はそこそこだけどプログラム用途にはバッチリかも
8bit版もosを最小化すれは実は動くから、mac studioはサーバーにしてM4 mbpから呼び出すか?
0831名無しさん@ピンキー (ワッチョイ 5fd6-C7XW)2025/08/06(水) 18:55:40.60ID:71ilyUJe0
>>823
こんなんjailbreakする価値もないやろ
小説書かせてみ、あまりの馬鹿さにぶっ飛ぶぞ
こんな支離滅裂な文章しか書けないのにjailbreakしたらいきなりドエロ文章書けるなんて、そんなわけないからな
0835名無しさん@ピンキー (ワッチョイ 0b6a-u/Dn)2025/08/06(水) 20:16:06.03ID:5IdO84vL0
通貨もマスクがやれば良い
0836名無しさん@ピンキー (ワッチョイ db28-5Osg)2025/08/06(水) 20:19:25.52ID:bi6cd/uG0
投資家の目を気にしないで良いのがメッチャ強いな
0838名無しさん@ピンキー (ワッチョイ 5f1b-OktK)2025/08/06(水) 22:01:06.21ID:zPBECekg0
いつの間にAIのエロ規制が世界的な流れになってたんだ妄想か?
エロの何が問題なんだばーかばーか
0844名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 10:07:11.31ID:fjnEjbcb0
GPTオススは96GBメモリrtx3090だと動かない?
0845名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 10:09:53.98ID:fjnEjbcb0
>>820
マジか😩
Xで驚き屋が過剰宣伝してるだけか… あいつらホント役に立たん…
0846名無しさん@ピンキー (ワッチョイ 5ff9-dEca)2025/08/07(木) 11:06:36.07ID:wsMALBg50
>>845
いや、非エロ用途だとすげー使えるぞ。ビジネスはもちろんだけど、
多分次は用途に応じてモデルを切り替える世界が来るのでそのときのつなぎに使うのには悪くなさそう
0847名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 11:19:08.01ID:fjnEjbcb0
>>846
冷え路ならGeminiさんでええんや😩あの人は絵露も生けるけど
0850名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 13:05:29.49ID:fjnEjbcb0
社内機密とかある所用か
まぁOpenAIはエロや禁止語句開放出来んかったらもう失速していきそうではある
0852名無しさん@ピンキー (ワッチョイ 1fd9-e1Bx)2025/08/07(木) 14:03:19.68ID:gM86ePk40
まぁgpt-ossがウンコなこと自体はいいんだけど
問題はこれがOpenAIの作ったApache2.0モデルってことで今後の研究とか開発がこのモデルをベースに行われることになりそうなことなんだよな
日本語データの継続事前学習とか、音声合成や画像生成のテキストエンコーダ部分に使われるとか
コミュニティがこのゴミモデルに無駄な計算資源を投入しないで済むことを祈るわ
0853名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 14:11:02.59ID:fjnEjbcb0
やっぱ日本語AIの頼みの綱は中国だけやな。。。
0854名無しさん@ピンキー (ワッチョイ 5f1a-OQGN)2025/08/07(木) 14:52:37.39ID:2KWJ67Cu0
最近のChatGPTはエロ全然オッケーでノリノリなのにOSSお固くて悲しい…
https://imgur.com/a/iob77rD
GPTちゃんと猥談しながら開発楽しいです
カスタムインストラクション切っててこのザマw
0856名無しさん@ピンキー (オッペケ Srdf-BbxL)2025/08/07(木) 15:11:09.02ID:FAk4Sa6+r
>>854
なんの3Dモデルだよ草
0857名無しさん@ピンキー (スッップ Sd7f-by75)2025/08/07(木) 17:32:56.93ID:nUuRxTBBd
GPT5が規制どれだけ強いんやろなあ
4oとお別れするのもちょっと辛い
0863名無しさん@ピンキー (ワッチョイ ab7b-OQGN)2025/08/08(金) 11:32:36.74ID:FbFkAB/h0
OpenAIには失望したよ
0864名無しさん@ピンキー (オッペケ Srdf-6yV9)2025/08/08(金) 11:55:19.20ID:Zu895Yttr
ベンチマーク見るかんじ出力効率と長文能力が大きく伸びてるっぽいね
長文を読み込ませて...という用途かな

kindleで買った文字ものは最新でないe-ink端末と端末シリアルナンバーを用意するとごにょごにょ出来るので活用方法がいろいろあるかも
0867名無しさん@ピンキー (シャチーク 0C0f-Li0S)2025/08/09(土) 07:55:03.67ID:6ZqWMWEHC
14bじゃいくら日本語エロfinetuneしてもあの程度なのか>doujinshi
lcaの方が性能いい
てゆうかfinetuneの方法に問題あるのかな
amaterasuもなんか違う
0868名無しさん@ピンキー (ワッチョイ de70-bOCj)2025/08/09(土) 08:32:19.65ID:w2rkiPnT0
>>867
puwaer/Doujinshi-14b-chat見てきたけど
finetuningの方式というよりデータセットの問題が大きいと思う 事前学習もfanzaやdlsiteの商品説明文からで本編の内容は入ってないしSFTのデータも無関係な要素が出てきたり、会話として成立してなかったり全体的に品質低い
garbage in garbage outの典型例じゃね
0870名無しさん@ピンキー (ワッチョイ 4651-IfaF)2025/08/09(土) 11:34:02.87ID:y/GR4pg+0
データセット用意してくれたのは素晴らしいのでは
これ自分で絞り込んで学習するためのノウハウってどの辺参考にすればいいんだろう
0871名無しさん@ピンキー (ワッチョイ 1ed9-zlfW)2025/08/09(土) 13:06:29.08ID:gcZUwMrm0
Amaterasuは自分の使い方だとかなり良い感じなんだが流石にデカすぎて推論遅くて常用にはきつい
やっぱでかいモデルはMoEじゃないと一般人的にはきついわ
ただMoEは推論は軽いけど学習のコストはデカさ相応なんだよな、日本の個人勢がMoEの学習あんまりやってないのもコスト関係な気がする
0873名無しさん@ピンキー (ワッチョイ 1ed9-zlfW)2025/08/09(土) 15:48:46.53ID:gcZUwMrm0
めっちゃシンプルにQwen以外のモデルをベースにやった方が良いモデルになったんじゃという感じはある
同じくらいのサイズで言うとMistral Nemoとか
0875名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/09(土) 16:08:26.29ID:OS7ZZkAQ0
今更ながらChatGPTの読み上げ機能を使ってみたんだけど漢字の読みがめちゃくちゃで使い勝手が悪すぎるな
合成音声なら当たり前にある辞書機能がないと使い物にならんだろこれ
0876名無しさん@ピンキー (ワッチョイ 6f6a-8ChC)2025/08/09(土) 17:31:54.74ID:EKMpsMOR0
そんなこと気にしねえんだよ外人は
0877名無しさん@ピンキー (ワッチョイ 8619-1AEK)2025/08/09(土) 17:37:30.39ID:dwzVzILN0
>>866
記事中のMicrosoftと協力? これのOS、Windowsじゃないよね
といってリーナスはnVidia大嫌いマンだから協力してくれなさそうw
あとバス幅が狭い。macどころかそろそろ普通のx86-PCにも抜かされる狭さ
128GByteのメモリーですら温度管理できないとかどんだけ実装の技術力ないんだ
5090のコネクターが燃えるわけだ
0879名無しさん@ピンキー (ワッチョイ 8af3-cwif)2025/08/09(土) 20:43:53.68ID:stCDgz9M0
記事で言ってるのは、具体的な原因は知らんが、新世代チップレット技術のCoWoS-L自体が高難易度だから製造過程のあらゆる箇所でコケる可能性を孕んでる、そら遅れるでしょって話では

何故高難易度のCoWoS-Lをやってるかというと、新世代チップレット技術が安定すれば多種多様な製品がチップレットの一部変更だけで作れるようになるから
つまりnvidiaのARMデスクトップマシン進出のための先行投資だよね、MSのARM対応が遅れてるという話もあるしnvidiaの野望は初手から躓いているっぽい、大丈夫なのか、とDGX Sparkの外にまで話題を広げてんじゃないの
0881名無しさん@ピンキー (ワッチョイ 462e-M/9o)2025/08/09(土) 22:56:14.17ID:6FNX7Sld0
Mac Studio、メモリ増設代についてはアレコレ言われるがLPDDR5Xのクアッドチャンネル実装でVRAM並の帯域出してて、量産品で世に出せてるの地味に技術が凄いよな
これでNPU周りの仕様がもっとマトモになってくれれば最高なんだが…
0883名無しさん@ピンキー (ワッチョイ 6a20-frTr)2025/08/10(日) 11:46:31.37ID:tfFBIIxx0
今gpt-ossが出て騒いでる人って明らかに他のOSSモデルを知らなかった人だよね
エンジニアにすらChatGPTのブランドで発信されないと情報が届かない層がいると知ったよ
0886名無しさん@ピンキー (ワッチョイ 8689-UJOR)2025/08/10(日) 13:24:20.63ID:8mwZvHlt0
業務でqwenやdeepseek使うのは通せる気がしないけど、
gpt ossなら通せるのが大きい
mistral とかでもいいんだろうけど知らなそうだし、
国産はゴミ
0888名無しさん@ピンキー (ワッチョイ 4627-Zgb9)2025/08/10(日) 17:45:19.54ID:aD0O+FMy0
LlamaやMistralのモデルをファインチューニングした物を国産って言うの辞めてもらえないかね
プレスリリースでも元の学習に使ったモデルを書かないのは卑怯だし、そういう手口が日本のLLMを貶めてる
明らかに産地偽装なのにそれで金集めるのって詐欺だろ
0889名無しさん@ピンキー (ワッチョイ 6ab1-4DuO)2025/08/10(日) 18:17:41.40ID:uYRAl+oV0
基盤モデルの研究開発ってNTTとNIIくらいしかやってないし商業でまともに戦えるプロダクトにしようとすると数百億円はかかるからどこもやれないんだよな
0892名無しさん@ピンキー (ワッチョイ 6f6a-8ChC)2025/08/11(月) 08:16:31.26ID:gQiia+Rc0
>>888
日本のモデル全部それだろ😅
pfnは違うけど弱いし
0897名無しさん@ピンキー (ワッチョイ 6f6a-8ChC)2025/08/11(月) 17:24:55.91ID:gQiia+Rc0
そのためのniiプロジェクトだったはずだよな?
0898名無しさん@ピンキー (ワッチョイ 8666-4DuO)2025/08/11(月) 17:36:47.14ID:QqggNyAZ0
国もGeniacとかでちゃんと予算用意して支援してるけど20社だかそこらに分けてるから1社あたりに行く金は10億円規模でちゃんとしたモデル作るには一桁足りないんだよな
0899名無しさん@ピンキー (ワッチョイ 4627-Zgb9)2025/08/11(月) 18:21:46.34ID:Ly9BMRt90
1社に200億ならまともなモデルになったのでは

現状は公金しゃぶりたいだけのベンチャーに渡って元々日本語性能の高いモデルにファインチューニングして高性能日本語モデルが出来ましたって言ってるの
ベンチをよく見たら元のモデルから誤差レベルで性能向上してるだけだったり
0901名無しさん@ピンキー (ワッチョイ 0734-tW5H)2025/08/11(月) 19:20:01.02ID:UBF7rDsZ0
ベンチャー支援とか投資家にさせて、国は研究室に金出して計算インフラ整えるだけでいいのにね
経産省自身がこの分野のことよく分かってないのにべンチャー掘り起こすんだ!ってイキるからオルツみたいなの掴んじゃうんよ
0903名無しさん@ピンキー (ワッチョイ 0a32-fnwq)2025/08/11(月) 20:41:20.76ID:lyPopjUL0
>>900
弊首長さんは「チャットGPTって知ってるか? 法的根拠も教えてくれるから議会対策もできるしもう弁護士もいらないな!」と息巻いてましたんでマジ怖い
0904名無しさん@ピンキー (ワッチョイ 3b8a-8WXS)2025/08/11(月) 22:33:32.64ID:rDmIB4Yv0
Geniacはオルツみたいな粉飾企業がおるあたり経産省側に判別できる役人がいなさそう
Abejaとかも発表会は薄っぺらいことしか話してないしNii, サイバーエージェント、東工大ぐらいちゃうか期待できるの
0905名無しさん@ピンキー (ワッチョイ e3f8-AgHL)2025/08/11(月) 22:51:03.61ID:yoYVKaJ80
今のところローカルでLLMやろうとしたらQwenがいちばん取り回しやすいな
DeepSeekも優秀だけどサイズがでかすぎる
0906名無しさん@ピンキー (ワッチョイ 1ed9-zlfW)2025/08/11(月) 23:06:10.78ID:dUWw5kCt0
>>904
PFNも性能は置いといてちゃんと頑張ってはいるよ
その中だとSwallowはフルスクラッチやるつもりなさそうだからちょっと微妙かな
あとはモデル自体は微妙だったけど去年のGENIACでやってた松尾研のLLMフルスクラッチ開発は人材育成観点でめっちゃ良かったと思う
0907名無しさん@ピンキー (ワッチョイ 3b8a-8WXS)2025/08/11(月) 23:19:38.04ID:rDmIB4Yv0
>>906
ワイもちゃんと松尾研のサマースクールは修了してきた あれええよな
PFNはどっちか言うとSLMの方向な感じ(Plamo翻訳はようやりすぎ)やし基幹モデル的な話になると研究室系で育成してサイバーエージェントとかソフトバンクあたりでやれるといいんやろな感がある
0908名無しさん@ピンキー (ワッチョイ e3f8-AgHL)2025/08/12(火) 00:25:29.61ID:XyiWs2oo0
PFNは半導体まで自社設計だからな
自前の半導体でスパコン作ってる
0909名無しさん@ピンキー (ワッチョイ 1ebc-CNaV)2025/08/12(火) 00:59:46.53ID:DubBEkGm0
ちょっと話題がずれるけどQwen-Imageすごいな
ついにローカル環境でもChatGPTとかGeminiみたいなLLMに指示する感覚で画像生成できるようになった
ローカル環境のUIと統合できる日が待ち遠しい
0910名無しさん@ピンキー (ワッチョイ deea-u0iI)2025/08/12(火) 04:15:27.76ID:5uL9D7zF0
メタい話すると、AI技術の論文と特許の数をアメリカと中国で競っている。日本はゴミってのが原因だろ
金と労力を使うべきところを日本の経営者や役人はわからないっていない
0913名無しさん@ピンキー (ワッチョイ 3bf0-UlTu)2025/08/12(火) 08:39:14.11ID:nrfnPcdN0
日本の科学研究費は米中どころかヨーロッパのよくわからん国々にも負けてるからね
今は研究人材の質と量で踏ん張ってるけど、これからまだまだ堕ちるよ
日本人ファーストとかアホなこと言ってる場合じゃないんだけどねえ
0914名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/12(火) 09:09:55.90ID:q6ktejmO0
GPT-5 miniの文章能力はアレやな
1レスごとに指示を忘れる、保存したメモリの内容を理解できない、プロフィールの内容も理解できない、オノマトペが下手糞、主体と客体が逆転する、支離滅裂な文章を書く
と散々な性能してるな
毎回事細かに指示しないと簡単なルールも守れない
0915名無しさん@ピンキー (ブーイモ MMc6-ZRbP)2025/08/12(火) 09:35:31.77ID:nZE7jp5+M
GPT5はハルシネーション抑えたって言うけど全然実感出来なかったよ
とりあえずリアルタイムでwebデータにアクセス出来ないみたい
なのにそれを自信満々で探してきますよって言ってデタラメな結果を報告してくる
0916名無しさん@ピンキー (ワッチョイ ff0f-McTy)2025/08/12(火) 10:04:21.73ID:1mdWcbDl0
ぶっちゃけ日本にまともな基盤モデル作れるだけのGPU無いし変にお金ばら撒くより高品質な日本語データセットの作成と公開に注力してほしい
事後学習の形式は色々進化してるけど事前学習で大量のテキストが要求されるのは変わらないだろうし国産LLMが作れないなら外国産LLMの日本語性能上げるべきだろ
0924名無しさん@ピンキー (ワッチョイ 0a74-G40B)2025/08/12(火) 21:49:53.50ID:MMPcAlN60
最近のLLM実行環境(llama.cpp, lmstudio,ollama等)って、
メモリが足りなくても動くのな。

スワップしてるのかもしれんが、高速なSSDによる力技と、
元々Moeモデルだからかメモリ負荷が少なめなのか、
gpt-oss-120BのMLX版も、Macminiの64GBでも動いたわ。
Moeだからあんまり遅くもないし。

まぁ、GPUに58/64GBくらいの割り当て無理やり動かしてるんだが、
横で視聴してた動画が止まったり画面が乱れたりしまくるけど。
0925名無しさん@ピンキー (ワッチョイ 0af5-1AEK)2025/08/12(火) 23:32:38.68ID:qdDa7uK20
MoEのコントロール方法がよくなってんのかね
「部分的なオフロード可能」とかのモデルだとGPUに150Gbyte(実メモリは128GB)
とか割り振って割と動作したりする
gpt-ossだと専門家が5Bから0.5Bくらいの可変モデルだからx86のGPUにも優しそうだ
0926名無しさん@ピンキー (ワッチョイ 078d-AgHL)2025/08/13(水) 00:10:49.50ID:t4gdcLO90
GLM4.5は今までの中国LLMの中でいちばん日本語が上手に見える
0927名無しさん@ピンキー (ワッチョイ 8e76-bOCj)2025/08/13(水) 04:49:48.16ID:fI/J9ud30
すんません、LLM初心者なんですが、umiyuki/Umievo-itr012-Gleipnir-7B (7B) を導入したんです。
しょっぱなからAIが株式会社シリウスのチャットアシスタントと言って何を言ってもやめてくれないし、
小説書くなら有料だから見積書をとれって…、これってこのAIの仕様なんですか?
0928名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/13(水) 06:51:35.36ID:mmJu8OjS0
>>927
ちゃんと設定すれば小説風にも書いてくれるから単に設定がおかしいだけだと思う
ただGleipnirはどっちかというとチャット向けだと思うから小説書くのには向いていないかもしれない
0930名無しさん@ピンキー (ワッチョイ 8e76-bOCj)2025/08/13(水) 08:05:54.82ID:fI/J9ud30
>>928
小説向けじゃなかったんですね。再起動してもチャットアシスタントのままなんで、
このまま株式会社シリウスのチャットアシスタントと会話を楽しむことにします。
小説向けっぽいの探しに行ってきます。ありがとうございました。
0931名無しさん@ピンキー (ワッチョイ ffb2-AgHL)2025/08/13(水) 08:22:59.50ID:vQazSjcF0
lmarenaの日本語評価だとこんな感じ
https://i.imgur.com/ZeG0xCi.jpeg
0932名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/13(水) 09:52:54.16ID:mmJu8OjS0
>>930
チャットアシスタントのままになってるってことは設定の仕方自体が大きく間違ってるから
他のモデルを使ってもたぶんまともに使いこなせないぞ
どのモデルを使うにしても設定の仕方を見直した方がいいよ
0934名無しさん@ピンキー (ワッチョイ ffb2-AgHL)2025/08/13(水) 12:26:22.78ID:vQazSjcF0
>>933
ktransformersみたいなことできるようになってたのか
0935名無しさん@ピンキー (ワッチョイ e3ec-uXOh)2025/08/13(水) 15:25:59.07ID:PLDP3pJq0
お初です。LM Studioでできる15GB以下のGGUFでお勧めモデルを探してます。
用途は画像生成するためのエロプロンプトを吐き出してくれれがばOKです。
小説や、チャットはしないと思います。システムプロンプトを設定し
「男女がベッドの上で」と書いたら500トークン程度で返してくれれば成功です。
0936名無しさん@ピンキー (ワッチョイ ff3c-uXOh)2025/08/13(水) 16:56:31.28ID:Yl9o3uvi0
今はこれ使ってます。Doujinshi-14b-instruct-i1-GGUF
レスを投稿する

レス数が900を超えています。1000を超えると表示できなくなるよ。

ニューススポーツなんでも実況