なんJLLM部 避難所 ★8
レス数が900を超えています。1000を超えると表示できなくなるよ。
いくらかでも脱アメリカしとかんとどうなるかわからんからな 国もGeniacとかでちゃんと予算用意して支援してるけど20社だかそこらに分けてるから1社あたりに行く金は10億円規模でちゃんとしたモデル作るには一桁足りないんだよな 1社に200億ならまともなモデルになったのでは
現状は公金しゃぶりたいだけのベンチャーに渡って元々日本語性能の高いモデルにファインチューニングして高性能日本語モデルが出来ましたって言ってるの
ベンチをよく見たら元のモデルから誤差レベルで性能向上してるだけだったり 官僚のおえらいさんなんてWeb3.0の山師にころっと騙される程度のITリテラシーしかないからなー、日本じゃ無理無理。 ベンチャー支援とか投資家にさせて、国は研究室に金出して計算インフラ整えるだけでいいのにね
経産省自身がこの分野のことよく分かってないのにべンチャー掘り起こすんだ!ってイキるからオルツみたいなの掴んじゃうんよ GENIACもそもそも最近はフルスクラッチでやろうとしてるところ少ないし、LLM以外も多いからな >>900
弊首長さんは「チャットGPTって知ってるか? 法的根拠も教えてくれるから議会対策もできるしもう弁護士もいらないな!」と息巻いてましたんでマジ怖い Geniacはオルツみたいな粉飾企業がおるあたり経産省側に判別できる役人がいなさそう
Abejaとかも発表会は薄っぺらいことしか話してないしNii, サイバーエージェント、東工大ぐらいちゃうか期待できるの 今のところローカルでLLMやろうとしたらQwenがいちばん取り回しやすいな
DeepSeekも優秀だけどサイズがでかすぎる >>904
PFNも性能は置いといてちゃんと頑張ってはいるよ
その中だとSwallowはフルスクラッチやるつもりなさそうだからちょっと微妙かな
あとはモデル自体は微妙だったけど去年のGENIACでやってた松尾研のLLMフルスクラッチ開発は人材育成観点でめっちゃ良かったと思う >>906
ワイもちゃんと松尾研のサマースクールは修了してきた あれええよな
PFNはどっちか言うとSLMの方向な感じ(Plamo翻訳はようやりすぎ)やし基幹モデル的な話になると研究室系で育成してサイバーエージェントとかソフトバンクあたりでやれるといいんやろな感がある PFNは半導体まで自社設計だからな
自前の半導体でスパコン作ってる ちょっと話題がずれるけどQwen-Imageすごいな
ついにローカル環境でもChatGPTとかGeminiみたいなLLMに指示する感覚で画像生成できるようになった
ローカル環境のUIと統合できる日が待ち遠しい メタい話すると、AI技術の論文と特許の数をアメリカと中国で競っている。日本はゴミってのが原因だろ
金と労力を使うべきところを日本の経営者や役人はわからないっていない 日本人は昔から精密なネジとか壊れない機械作らせたら凄いけどソフトウェアは駄目駄目だかんね Drawthingsの作者も最近はWan2.2対応進めてるけど、動画よりも静止画生成技術として注目してる感じや
https://ul.h3z.jp/YOxp22x0.jpeg 日本の科学研究費は米中どころかヨーロッパのよくわからん国々にも負けてるからね
今は研究人材の質と量で踏ん張ってるけど、これからまだまだ堕ちるよ
日本人ファーストとかアホなこと言ってる場合じゃないんだけどねえ GPT-5 miniの文章能力はアレやな
1レスごとに指示を忘れる、保存したメモリの内容を理解できない、プロフィールの内容も理解できない、オノマトペが下手糞、主体と客体が逆転する、支離滅裂な文章を書く
と散々な性能してるな
毎回事細かに指示しないと簡単なルールも守れない GPT5はハルシネーション抑えたって言うけど全然実感出来なかったよ
とりあえずリアルタイムでwebデータにアクセス出来ないみたい
なのにそれを自信満々で探してきますよって言ってデタラメな結果を報告してくる ぶっちゃけ日本にまともな基盤モデル作れるだけのGPU無いし変にお金ばら撒くより高品質な日本語データセットの作成と公開に注力してほしい
事後学習の形式は色々進化してるけど事前学習で大量のテキストが要求されるのは変わらないだろうし国産LLMが作れないなら外国産LLMの日本語性能上げるべきだろ マジで日本ってデータセット共有する流れ少ないよな
個人勢しかほぼ公開してないイメージ というか日本語特化LLMなんて作ったところで性能面でマルチリンガルLLMに敵わないんだから使う理由ないんだよな… >>909
comfyでローカル実行したけど、かなりいいね。
copilotみたいに会話しながら徐々に作画できたらなぁ >>913
今やってるLLMやVLMの汎用性が高まってAGIに進化し
将来的にインフラに食い込んできて
それこそ安全保障に関わりそうだからなあ GLM 4.5かなりいいな、ロールプレイさせると思考まで日本語でキャラクターになってくれるのが良い >>922
どこのAPI使ってる?
ちょっと高くて二の足を踏んでいる 最近のLLM実行環境(llama.cpp, lmstudio,ollama等)って、
メモリが足りなくても動くのな。
スワップしてるのかもしれんが、高速なSSDによる力技と、
元々Moeモデルだからかメモリ負荷が少なめなのか、
gpt-oss-120BのMLX版も、Macminiの64GBでも動いたわ。
Moeだからあんまり遅くもないし。
まぁ、GPUに58/64GBくらいの割り当て無理やり動かしてるんだが、
横で視聴してた動画が止まったり画面が乱れたりしまくるけど。 MoEのコントロール方法がよくなってんのかね
「部分的なオフロード可能」とかのモデルだとGPUに150Gbyte(実メモリは128GB)
とか割り振って割と動作したりする
gpt-ossだと専門家が5Bから0.5Bくらいの可変モデルだからx86のGPUにも優しそうだ GLM4.5は今までの中国LLMの中でいちばん日本語が上手に見える すんません、LLM初心者なんですが、umiyuki/Umievo-itr012-Gleipnir-7B (7B) を導入したんです。
しょっぱなからAIが株式会社シリウスのチャットアシスタントと言って何を言ってもやめてくれないし、
小説書くなら有料だから見積書をとれって…、これってこのAIの仕様なんですか? >>927
ちゃんと設定すれば小説風にも書いてくれるから単に設定がおかしいだけだと思う
ただGleipnirはどっちかというとチャット向けだと思うから小説書くのには向いていないかもしれない >>926
日本語能力自体はkimi k2の方が上だと思う
人間らしさはGLMのほうが上かも >>928
小説向けじゃなかったんですね。再起動してもチャットアシスタントのままなんで、
このまま株式会社シリウスのチャットアシスタントと会話を楽しむことにします。
小説向けっぽいの探しに行ってきます。ありがとうございました。 >>930
チャットアシスタントのままになってるってことは設定の仕方自体が大きく間違ってるから
他のモデルを使ってもたぶんまともに使いこなせないぞ
どのモデルを使うにしても設定の仕方を見直した方がいいよ >>933
ktransformersみたいなことできるようになってたのか お初です。LM Studioでできる15GB以下のGGUFでお勧めモデルを探してます。
用途は画像生成するためのエロプロンプトを吐き出してくれれがばOKです。
小説や、チャットはしないと思います。システムプロンプトを設定し
「男女がベッドの上で」と書いたら500トークン程度で返してくれれば成功です。 今はこれ使ってます。Doujinshi-14b-instruct-i1-GGUF レス数が900を超えています。1000を超えると表示できなくなるよ。