なんJLLM部 避難所 ★8
レス数が900を超えています。1000を超えると表示できなくなるよ。
0838名無しさん@ピンキー (ワッチョイ 5f1b-OktK)2025/08/06(水) 22:01:06.21ID:zPBECekg0
いつの間にAIのエロ規制が世界的な流れになってたんだ妄想か?
エロの何が問題なんだばーかばーか
0844名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 10:07:11.31ID:fjnEjbcb0
GPTオススは96GBメモリrtx3090だと動かない?
0845名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 10:09:53.98ID:fjnEjbcb0
>>820
マジか😩
Xで驚き屋が過剰宣伝してるだけか… あいつらホント役に立たん…
0846名無しさん@ピンキー (ワッチョイ 5ff9-dEca)2025/08/07(木) 11:06:36.07ID:wsMALBg50
>>845
いや、非エロ用途だとすげー使えるぞ。ビジネスはもちろんだけど、
多分次は用途に応じてモデルを切り替える世界が来るのでそのときのつなぎに使うのには悪くなさそう
0847名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 11:19:08.01ID:fjnEjbcb0
>>846
冷え路ならGeminiさんでええんや😩あの人は絵露も生けるけど
0850名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 13:05:29.49ID:fjnEjbcb0
社内機密とかある所用か
まぁOpenAIはエロや禁止語句開放出来んかったらもう失速していきそうではある
0852名無しさん@ピンキー (ワッチョイ 1fd9-e1Bx)2025/08/07(木) 14:03:19.68ID:gM86ePk40
まぁgpt-ossがウンコなこと自体はいいんだけど
問題はこれがOpenAIの作ったApache2.0モデルってことで今後の研究とか開発がこのモデルをベースに行われることになりそうなことなんだよな
日本語データの継続事前学習とか、音声合成や画像生成のテキストエンコーダ部分に使われるとか
コミュニティがこのゴミモデルに無駄な計算資源を投入しないで済むことを祈るわ
0853名無しさん@ピンキー (ワッチョイ 6fbb-BbxL)2025/08/07(木) 14:11:02.59ID:fjnEjbcb0
やっぱ日本語AIの頼みの綱は中国だけやな。。。
0854名無しさん@ピンキー (ワッチョイ 5f1a-OQGN)2025/08/07(木) 14:52:37.39ID:2KWJ67Cu0
最近のChatGPTはエロ全然オッケーでノリノリなのにOSSお固くて悲しい…
https://imgur.com/a/iob77rD
GPTちゃんと猥談しながら開発楽しいです
カスタムインストラクション切っててこのザマw
0856名無しさん@ピンキー (オッペケ Srdf-BbxL)2025/08/07(木) 15:11:09.02ID:FAk4Sa6+r
>>854
なんの3Dモデルだよ草
0857名無しさん@ピンキー (スッップ Sd7f-by75)2025/08/07(木) 17:32:56.93ID:nUuRxTBBd
GPT5が規制どれだけ強いんやろなあ
4oとお別れするのもちょっと辛い
0863名無しさん@ピンキー (ワッチョイ ab7b-OQGN)2025/08/08(金) 11:32:36.74ID:FbFkAB/h0
OpenAIには失望したよ
0864名無しさん@ピンキー (オッペケ Srdf-6yV9)2025/08/08(金) 11:55:19.20ID:Zu895Yttr
ベンチマーク見るかんじ出力効率と長文能力が大きく伸びてるっぽいね
長文を読み込ませて...という用途かな

kindleで買った文字ものは最新でないe-ink端末と端末シリアルナンバーを用意するとごにょごにょ出来るので活用方法がいろいろあるかも
0867名無しさん@ピンキー (シャチーク 0C0f-Li0S)2025/08/09(土) 07:55:03.67ID:6ZqWMWEHC
14bじゃいくら日本語エロfinetuneしてもあの程度なのか>doujinshi
lcaの方が性能いい
てゆうかfinetuneの方法に問題あるのかな
amaterasuもなんか違う
0868名無しさん@ピンキー (ワッチョイ de70-bOCj)2025/08/09(土) 08:32:19.65ID:w2rkiPnT0
>>867
puwaer/Doujinshi-14b-chat見てきたけど
finetuningの方式というよりデータセットの問題が大きいと思う 事前学習もfanzaやdlsiteの商品説明文からで本編の内容は入ってないしSFTのデータも無関係な要素が出てきたり、会話として成立してなかったり全体的に品質低い
garbage in garbage outの典型例じゃね
0870名無しさん@ピンキー (ワッチョイ 4651-IfaF)2025/08/09(土) 11:34:02.87ID:y/GR4pg+0
データセット用意してくれたのは素晴らしいのでは
これ自分で絞り込んで学習するためのノウハウってどの辺参考にすればいいんだろう
0871名無しさん@ピンキー (ワッチョイ 1ed9-zlfW)2025/08/09(土) 13:06:29.08ID:gcZUwMrm0
Amaterasuは自分の使い方だとかなり良い感じなんだが流石にデカすぎて推論遅くて常用にはきつい
やっぱでかいモデルはMoEじゃないと一般人的にはきついわ
ただMoEは推論は軽いけど学習のコストはデカさ相応なんだよな、日本の個人勢がMoEの学習あんまりやってないのもコスト関係な気がする
0873名無しさん@ピンキー (ワッチョイ 1ed9-zlfW)2025/08/09(土) 15:48:46.53ID:gcZUwMrm0
めっちゃシンプルにQwen以外のモデルをベースにやった方が良いモデルになったんじゃという感じはある
同じくらいのサイズで言うとMistral Nemoとか
0875名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/09(土) 16:08:26.29ID:OS7ZZkAQ0
今更ながらChatGPTの読み上げ機能を使ってみたんだけど漢字の読みがめちゃくちゃで使い勝手が悪すぎるな
合成音声なら当たり前にある辞書機能がないと使い物にならんだろこれ
0876名無しさん@ピンキー (ワッチョイ 6f6a-8ChC)2025/08/09(土) 17:31:54.74ID:EKMpsMOR0
そんなこと気にしねえんだよ外人は
0877名無しさん@ピンキー (ワッチョイ 8619-1AEK)2025/08/09(土) 17:37:30.39ID:dwzVzILN0
>>866
記事中のMicrosoftと協力? これのOS、Windowsじゃないよね
といってリーナスはnVidia大嫌いマンだから協力してくれなさそうw
あとバス幅が狭い。macどころかそろそろ普通のx86-PCにも抜かされる狭さ
128GByteのメモリーですら温度管理できないとかどんだけ実装の技術力ないんだ
5090のコネクターが燃えるわけだ
0879名無しさん@ピンキー (ワッチョイ 8af3-cwif)2025/08/09(土) 20:43:53.68ID:stCDgz9M0
記事で言ってるのは、具体的な原因は知らんが、新世代チップレット技術のCoWoS-L自体が高難易度だから製造過程のあらゆる箇所でコケる可能性を孕んでる、そら遅れるでしょって話では

何故高難易度のCoWoS-Lをやってるかというと、新世代チップレット技術が安定すれば多種多様な製品がチップレットの一部変更だけで作れるようになるから
つまりnvidiaのARMデスクトップマシン進出のための先行投資だよね、MSのARM対応が遅れてるという話もあるしnvidiaの野望は初手から躓いているっぽい、大丈夫なのか、とDGX Sparkの外にまで話題を広げてんじゃないの
0881名無しさん@ピンキー (ワッチョイ 462e-M/9o)2025/08/09(土) 22:56:14.17ID:6FNX7Sld0
Mac Studio、メモリ増設代についてはアレコレ言われるがLPDDR5Xのクアッドチャンネル実装でVRAM並の帯域出してて、量産品で世に出せてるの地味に技術が凄いよな
これでNPU周りの仕様がもっとマトモになってくれれば最高なんだが…
0883名無しさん@ピンキー (ワッチョイ 6a20-frTr)2025/08/10(日) 11:46:31.37ID:tfFBIIxx0
今gpt-ossが出て騒いでる人って明らかに他のOSSモデルを知らなかった人だよね
エンジニアにすらChatGPTのブランドで発信されないと情報が届かない層がいると知ったよ
0886名無しさん@ピンキー (ワッチョイ 8689-UJOR)2025/08/10(日) 13:24:20.63ID:8mwZvHlt0
業務でqwenやdeepseek使うのは通せる気がしないけど、
gpt ossなら通せるのが大きい
mistral とかでもいいんだろうけど知らなそうだし、
国産はゴミ
0888名無しさん@ピンキー (ワッチョイ 4627-Zgb9)2025/08/10(日) 17:45:19.54ID:aD0O+FMy0
LlamaやMistralのモデルをファインチューニングした物を国産って言うの辞めてもらえないかね
プレスリリースでも元の学習に使ったモデルを書かないのは卑怯だし、そういう手口が日本のLLMを貶めてる
明らかに産地偽装なのにそれで金集めるのって詐欺だろ
0889名無しさん@ピンキー (ワッチョイ 6ab1-4DuO)2025/08/10(日) 18:17:41.40ID:uYRAl+oV0
基盤モデルの研究開発ってNTTとNIIくらいしかやってないし商業でまともに戦えるプロダクトにしようとすると数百億円はかかるからどこもやれないんだよな
0892名無しさん@ピンキー (ワッチョイ 6f6a-8ChC)2025/08/11(月) 08:16:31.26ID:gQiia+Rc0
>>888
日本のモデル全部それだろ😅
pfnは違うけど弱いし
0897名無しさん@ピンキー (ワッチョイ 6f6a-8ChC)2025/08/11(月) 17:24:55.91ID:gQiia+Rc0
そのためのniiプロジェクトだったはずだよな?
0898名無しさん@ピンキー (ワッチョイ 8666-4DuO)2025/08/11(月) 17:36:47.14ID:QqggNyAZ0
国もGeniacとかでちゃんと予算用意して支援してるけど20社だかそこらに分けてるから1社あたりに行く金は10億円規模でちゃんとしたモデル作るには一桁足りないんだよな
0899名無しさん@ピンキー (ワッチョイ 4627-Zgb9)2025/08/11(月) 18:21:46.34ID:Ly9BMRt90
1社に200億ならまともなモデルになったのでは

現状は公金しゃぶりたいだけのベンチャーに渡って元々日本語性能の高いモデルにファインチューニングして高性能日本語モデルが出来ましたって言ってるの
ベンチをよく見たら元のモデルから誤差レベルで性能向上してるだけだったり
0901名無しさん@ピンキー (ワッチョイ 0734-tW5H)2025/08/11(月) 19:20:01.02ID:UBF7rDsZ0
ベンチャー支援とか投資家にさせて、国は研究室に金出して計算インフラ整えるだけでいいのにね
経産省自身がこの分野のことよく分かってないのにべンチャー掘り起こすんだ!ってイキるからオルツみたいなの掴んじゃうんよ
0903名無しさん@ピンキー (ワッチョイ 0a32-fnwq)2025/08/11(月) 20:41:20.76ID:lyPopjUL0
>>900
弊首長さんは「チャットGPTって知ってるか? 法的根拠も教えてくれるから議会対策もできるしもう弁護士もいらないな!」と息巻いてましたんでマジ怖い
0904名無しさん@ピンキー (ワッチョイ 3b8a-8WXS)2025/08/11(月) 22:33:32.64ID:rDmIB4Yv0
Geniacはオルツみたいな粉飾企業がおるあたり経産省側に判別できる役人がいなさそう
Abejaとかも発表会は薄っぺらいことしか話してないしNii, サイバーエージェント、東工大ぐらいちゃうか期待できるの
0905名無しさん@ピンキー (ワッチョイ e3f8-AgHL)2025/08/11(月) 22:51:03.61ID:yoYVKaJ80
今のところローカルでLLMやろうとしたらQwenがいちばん取り回しやすいな
DeepSeekも優秀だけどサイズがでかすぎる
0906名無しさん@ピンキー (ワッチョイ 1ed9-zlfW)2025/08/11(月) 23:06:10.78ID:dUWw5kCt0
>>904
PFNも性能は置いといてちゃんと頑張ってはいるよ
その中だとSwallowはフルスクラッチやるつもりなさそうだからちょっと微妙かな
あとはモデル自体は微妙だったけど去年のGENIACでやってた松尾研のLLMフルスクラッチ開発は人材育成観点でめっちゃ良かったと思う
0907名無しさん@ピンキー (ワッチョイ 3b8a-8WXS)2025/08/11(月) 23:19:38.04ID:rDmIB4Yv0
>>906
ワイもちゃんと松尾研のサマースクールは修了してきた あれええよな
PFNはどっちか言うとSLMの方向な感じ(Plamo翻訳はようやりすぎ)やし基幹モデル的な話になると研究室系で育成してサイバーエージェントとかソフトバンクあたりでやれるといいんやろな感がある
0908名無しさん@ピンキー (ワッチョイ e3f8-AgHL)2025/08/12(火) 00:25:29.61ID:XyiWs2oo0
PFNは半導体まで自社設計だからな
自前の半導体でスパコン作ってる
0909名無しさん@ピンキー (ワッチョイ 1ebc-CNaV)2025/08/12(火) 00:59:46.53ID:DubBEkGm0
ちょっと話題がずれるけどQwen-Imageすごいな
ついにローカル環境でもChatGPTとかGeminiみたいなLLMに指示する感覚で画像生成できるようになった
ローカル環境のUIと統合できる日が待ち遠しい
0910名無しさん@ピンキー (ワッチョイ deea-u0iI)2025/08/12(火) 04:15:27.76ID:5uL9D7zF0
メタい話すると、AI技術の論文と特許の数をアメリカと中国で競っている。日本はゴミってのが原因だろ
金と労力を使うべきところを日本の経営者や役人はわからないっていない
0913名無しさん@ピンキー (ワッチョイ 3bf0-UlTu)2025/08/12(火) 08:39:14.11ID:nrfnPcdN0
日本の科学研究費は米中どころかヨーロッパのよくわからん国々にも負けてるからね
今は研究人材の質と量で踏ん張ってるけど、これからまだまだ堕ちるよ
日本人ファーストとかアホなこと言ってる場合じゃないんだけどねえ
0914名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/12(火) 09:09:55.90ID:q6ktejmO0
GPT-5 miniの文章能力はアレやな
1レスごとに指示を忘れる、保存したメモリの内容を理解できない、プロフィールの内容も理解できない、オノマトペが下手糞、主体と客体が逆転する、支離滅裂な文章を書く
と散々な性能してるな
毎回事細かに指示しないと簡単なルールも守れない
0915名無しさん@ピンキー (ブーイモ MMc6-ZRbP)2025/08/12(火) 09:35:31.77ID:nZE7jp5+M
GPT5はハルシネーション抑えたって言うけど全然実感出来なかったよ
とりあえずリアルタイムでwebデータにアクセス出来ないみたい
なのにそれを自信満々で探してきますよって言ってデタラメな結果を報告してくる
0916名無しさん@ピンキー (ワッチョイ ff0f-McTy)2025/08/12(火) 10:04:21.73ID:1mdWcbDl0
ぶっちゃけ日本にまともな基盤モデル作れるだけのGPU無いし変にお金ばら撒くより高品質な日本語データセットの作成と公開に注力してほしい
事後学習の形式は色々進化してるけど事前学習で大量のテキストが要求されるのは変わらないだろうし国産LLMが作れないなら外国産LLMの日本語性能上げるべきだろ
0924名無しさん@ピンキー (ワッチョイ 0a74-G40B)2025/08/12(火) 21:49:53.50ID:MMPcAlN60
最近のLLM実行環境(llama.cpp, lmstudio,ollama等)って、
メモリが足りなくても動くのな。

スワップしてるのかもしれんが、高速なSSDによる力技と、
元々Moeモデルだからかメモリ負荷が少なめなのか、
gpt-oss-120BのMLX版も、Macminiの64GBでも動いたわ。
Moeだからあんまり遅くもないし。

まぁ、GPUに58/64GBくらいの割り当て無理やり動かしてるんだが、
横で視聴してた動画が止まったり画面が乱れたりしまくるけど。
0925名無しさん@ピンキー (ワッチョイ 0af5-1AEK)2025/08/12(火) 23:32:38.68ID:qdDa7uK20
MoEのコントロール方法がよくなってんのかね
「部分的なオフロード可能」とかのモデルだとGPUに150Gbyte(実メモリは128GB)
とか割り振って割と動作したりする
gpt-ossだと専門家が5Bから0.5Bくらいの可変モデルだからx86のGPUにも優しそうだ
0926名無しさん@ピンキー (ワッチョイ 078d-AgHL)2025/08/13(水) 00:10:49.50ID:t4gdcLO90
GLM4.5は今までの中国LLMの中でいちばん日本語が上手に見える
0927名無しさん@ピンキー (ワッチョイ 8e76-bOCj)2025/08/13(水) 04:49:48.16ID:fI/J9ud30
すんません、LLM初心者なんですが、umiyuki/Umievo-itr012-Gleipnir-7B (7B) を導入したんです。
しょっぱなからAIが株式会社シリウスのチャットアシスタントと言って何を言ってもやめてくれないし、
小説書くなら有料だから見積書をとれって…、これってこのAIの仕様なんですか?
0928名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/13(水) 06:51:35.36ID:mmJu8OjS0
>>927
ちゃんと設定すれば小説風にも書いてくれるから単に設定がおかしいだけだと思う
ただGleipnirはどっちかというとチャット向けだと思うから小説書くのには向いていないかもしれない
0930名無しさん@ピンキー (ワッチョイ 8e76-bOCj)2025/08/13(水) 08:05:54.82ID:fI/J9ud30
>>928
小説向けじゃなかったんですね。再起動してもチャットアシスタントのままなんで、
このまま株式会社シリウスのチャットアシスタントと会話を楽しむことにします。
小説向けっぽいの探しに行ってきます。ありがとうございました。
0931名無しさん@ピンキー (ワッチョイ ffb2-AgHL)2025/08/13(水) 08:22:59.50ID:vQazSjcF0
lmarenaの日本語評価だとこんな感じ
https://i.imgur.com/ZeG0xCi.jpeg
0932名無しさん@ピンキー (ワッチョイ 5332-bOCj)2025/08/13(水) 09:52:54.16ID:mmJu8OjS0
>>930
チャットアシスタントのままになってるってことは設定の仕方自体が大きく間違ってるから
他のモデルを使ってもたぶんまともに使いこなせないぞ
どのモデルを使うにしても設定の仕方を見直した方がいいよ
0934名無しさん@ピンキー (ワッチョイ ffb2-AgHL)2025/08/13(水) 12:26:22.78ID:vQazSjcF0
>>933
ktransformersみたいなことできるようになってたのか
0935名無しさん@ピンキー (ワッチョイ e3ec-uXOh)2025/08/13(水) 15:25:59.07ID:PLDP3pJq0
お初です。LM Studioでできる15GB以下のGGUFでお勧めモデルを探してます。
用途は画像生成するためのエロプロンプトを吐き出してくれれがばOKです。
小説や、チャットはしないと思います。システムプロンプトを設定し
「男女がベッドの上で」と書いたら500トークン程度で返してくれれば成功です。
0936名無しさん@ピンキー (ワッチョイ ff3c-uXOh)2025/08/13(水) 16:56:31.28ID:Yl9o3uvi0
今はこれ使ってます。Doujinshi-14b-instruct-i1-GGUF
レスを投稿する

レス数が900を超えています。1000を超えると表示できなくなるよ。

ニューススポーツなんでも実況