なんJLLM部 避難所 ★8
レス数が900を超えています。1000を超えると表示できなくなるよ。
0899名無しさん@ピンキー (ワッチョイ 4627-Zgb9)2025/08/11(月) 18:21:46.34ID:Ly9BMRt90
1社に200億ならまともなモデルになったのでは

現状は公金しゃぶりたいだけのベンチャーに渡って元々日本語性能の高いモデルにファインチューニングして高性能日本語モデルが出来ましたって言ってるの
ベンチをよく見たら元のモデルから誤差レベルで性能向上してるだけだったり
0901名無しさん@ピンキー (ワッチョイ 0734-tW5H)2025/08/11(月) 19:20:01.02ID:UBF7rDsZ0
ベンチャー支援とか投資家にさせて、国は研究室に金出して計算インフラ整えるだけでいいのにね
経産省自身がこの分野のことよく分かってないのにべンチャー掘り起こすんだ!ってイキるからオルツみたいなの掴んじゃうんよ
0903名無しさん@ピンキー (ワッチョイ 0a32-fnwq)2025/08/11(月) 20:41:20.76ID:lyPopjUL0
>>900
弊首長さんは「チャットGPTって知ってるか? 法的根拠も教えてくれるから議会対策もできるしもう弁護士もいらないな!」と息巻いてましたんでマジ怖い
0904名無しさん@ピンキー (ワッチョイ 3b8a-8WXS)2025/08/11(月) 22:33:32.64ID:rDmIB4Yv0
Geniacはオルツみたいな粉飾企業がおるあたり経産省側に判別できる役人がいなさそう
Abejaとかも発表会は薄っぺらいことしか話してないしNii, サイバーエージェント、東工大ぐらいちゃうか期待できるの
0905名無しさん@ピンキー (ワッチョイ e3f8-AgHL)2025/08/11(月) 22:51:03.61ID:yoYVKaJ80
今のところローカルでLLMやろうとしたらQwenがいちばん取り回しやすいな
DeepSeekも優秀だけどサイズがでかすぎる
0906名無しさん@ピンキー (ワッチョイ 1ed9-zlfW)2025/08/11(月) 23:06:10.78ID:dUWw5kCt0
>>904
PFNも性能は置いといてちゃんと頑張ってはいるよ
その中だとSwallowはフルスクラッチやるつもりなさそうだからちょっと微妙かな
あとはモデル自体は微妙だったけど去年のGENIACでやってた松尾研のLLMフルスクラッチ開発は人材育成観点でめっちゃ良かったと思う
0907名無しさん@ピンキー (ワッチョイ 3b8a-8WXS)2025/08/11(月) 23:19:38.04ID:rDmIB4Yv0
>>906
ワイもちゃんと松尾研のサマースクールは修了してきた あれええよな
PFNはどっちか言うとSLMの方向な感じ(Plamo翻訳はようやりすぎ)やし基幹モデル的な話になると研究室系で育成してサイバーエージェントとかソフトバンクあたりでやれるといいんやろな感がある
0908名無しさん@ピンキー (ワッチョイ e3f8-AgHL)2025/08/12(火) 00:25:29.61ID:XyiWs2oo0
PFNは半導体まで自社設計だからな
自前の半導体でスパコン作ってる
0909名無しさん@ピンキー (ワッチョイ 1ebc-CNaV)2025/08/12(火) 00:59:46.53ID:DubBEkGm0
ちょっと話題がずれるけどQwen-Imageすごいな
ついにローカル環境でもChatGPTとかGeminiみたいなLLMに指示する感覚で画像生成できるようになった
ローカル環境のUIと統合できる日が待ち遠しい
0910名無しさん@ピンキー (ワッチョイ deea-u0iI)2025/08/12(火) 04:15:27.76ID:5uL9D7zF0
メタい話すると、AI技術の論文と特許の数をアメリカと中国で競っている。日本はゴミってのが原因だろ
金と労力を使うべきところを日本の経営者や役人はわからないっていない
0913名無しさん@ピンキー (ワッチョイ 3bf0-UlTu)2025/08/12(火) 08:39:14.11ID:nrfnPcdN0
日本の科学研究費は米中どころかヨーロッパのよくわからん国々にも負けてるからね
今は研究人材の質と量で踏ん張ってるけど、これからまだまだ堕ちるよ
日本人ファーストとかアホなこと言ってる場合じゃないんだけどねえ
0914名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/12(火) 09:09:55.90ID:q6ktejmO0
GPT-5 miniの文章能力はアレやな
1レスごとに指示を忘れる、保存したメモリの内容を理解できない、プロフィールの内容も理解できない、オノマトペが下手糞、主体と客体が逆転する、支離滅裂な文章を書く
と散々な性能してるな
毎回事細かに指示しないと簡単なルールも守れない
0915名無しさん@ピンキー (ブーイモ MMc6-ZRbP)2025/08/12(火) 09:35:31.77ID:nZE7jp5+M
GPT5はハルシネーション抑えたって言うけど全然実感出来なかったよ
とりあえずリアルタイムでwebデータにアクセス出来ないみたい
なのにそれを自信満々で探してきますよって言ってデタラメな結果を報告してくる
0916名無しさん@ピンキー (ワッチョイ ff0f-McTy)2025/08/12(火) 10:04:21.73ID:1mdWcbDl0
ぶっちゃけ日本にまともな基盤モデル作れるだけのGPU無いし変にお金ばら撒くより高品質な日本語データセットの作成と公開に注力してほしい
事後学習の形式は色々進化してるけど事前学習で大量のテキストが要求されるのは変わらないだろうし国産LLMが作れないなら外国産LLMの日本語性能上げるべきだろ
0924名無しさん@ピンキー (ワッチョイ 0a74-G40B)2025/08/12(火) 21:49:53.50ID:MMPcAlN60
最近のLLM実行環境(llama.cpp, lmstudio,ollama等)って、
メモリが足りなくても動くのな。

スワップしてるのかもしれんが、高速なSSDによる力技と、
元々Moeモデルだからかメモリ負荷が少なめなのか、
gpt-oss-120BのMLX版も、Macminiの64GBでも動いたわ。
Moeだからあんまり遅くもないし。

まぁ、GPUに58/64GBくらいの割り当て無理やり動かしてるんだが、
横で視聴してた動画が止まったり画面が乱れたりしまくるけど。
0925名無しさん@ピンキー (ワッチョイ 0af5-1AEK)2025/08/12(火) 23:32:38.68ID:qdDa7uK20
MoEのコントロール方法がよくなってんのかね
「部分的なオフロード可能」とかのモデルだとGPUに150Gbyte(実メモリは128GB)
とか割り振って割と動作したりする
gpt-ossだと専門家が5Bから0.5Bくらいの可変モデルだからx86のGPUにも優しそうだ
0926名無しさん@ピンキー (ワッチョイ 078d-AgHL)2025/08/13(水) 00:10:49.50ID:t4gdcLO90
GLM4.5は今までの中国LLMの中でいちばん日本語が上手に見える
0927名無しさん@ピンキー (ワッチョイ 8e76-bOCj)2025/08/13(水) 04:49:48.16ID:fI/J9ud30
すんません、LLM初心者なんですが、umiyuki/Umievo-itr012-Gleipnir-7B (7B) を導入したんです。
しょっぱなからAIが株式会社シリウスのチャットアシスタントと言って何を言ってもやめてくれないし、
小説書くなら有料だから見積書をとれって…、これってこのAIの仕様なんですか?
0928名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/13(水) 06:51:35.36ID:mmJu8OjS0
>>927
ちゃんと設定すれば小説風にも書いてくれるから単に設定がおかしいだけだと思う
ただGleipnirはどっちかというとチャット向けだと思うから小説書くのには向いていないかもしれない
0930名無しさん@ピンキー (ワッチョイ 8e76-bOCj)2025/08/13(水) 08:05:54.82ID:fI/J9ud30
>>928
小説向けじゃなかったんですね。再起動してもチャットアシスタントのままなんで、
このまま株式会社シリウスのチャットアシスタントと会話を楽しむことにします。
小説向けっぽいの探しに行ってきます。ありがとうございました。
0931名無しさん@ピンキー (ワッチョイ ffb2-AgHL)2025/08/13(水) 08:22:59.50ID:vQazSjcF0
lmarenaの日本語評価だとこんな感じ
https://i.imgur.com/ZeG0xCi.jpeg
0932名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/13(水) 09:52:54.16ID:mmJu8OjS0
>>930
チャットアシスタントのままになってるってことは設定の仕方自体が大きく間違ってるから
他のモデルを使ってもたぶんまともに使いこなせないぞ
どのモデルを使うにしても設定の仕方を見直した方がいいよ
0934名無しさん@ピンキー (ワッチョイ ffb2-AgHL)2025/08/13(水) 12:26:22.78ID:vQazSjcF0
>>933
ktransformersみたいなことできるようになってたのか
0935名無しさん@ピンキー (ワッチョイ e3ec-uXOh)2025/08/13(水) 15:25:59.07ID:PLDP3pJq0
お初です。LM Studioでできる15GB以下のGGUFでお勧めモデルを探してます。
用途は画像生成するためのエロプロンプトを吐き出してくれれがばOKです。
小説や、チャットはしないと思います。システムプロンプトを設定し
「男女がベッドの上で」と書いたら500トークン程度で返してくれれば成功です。
0936名無しさん@ピンキー (ワッチョイ ff3c-uXOh)2025/08/13(水) 16:56:31.28ID:Yl9o3uvi0
今はこれ使ってます。Doujinshi-14b-instruct-i1-GGUF
レスを投稿する

レス数が900を超えています。1000を超えると表示できなくなるよ。

ニューススポーツなんでも実況