なんJLLM部 避難所 ★8
レス数が900を超えています。1000を超えると表示できなくなるよ。
いつの間にAIのエロ規制が世界的な流れになってたんだ妄想か?
エロの何が問題なんだばーかばーか アメリカのクレカの判例がね
マスクはpaypalあるから強く出れるんじゃね grok試したけど、copilotでよくない?
文章も画像生成も無料だし、画像の質もこっちのほうがよい気がする >>794
普通に日本語で指示して使えるね。
comfyでローカルでも動きそうだし、いいかも みんなcivitaiをまねて三店方式でやればええやんな GPTオススは96GBメモリrtx3090だと動かない? >>820
マジか😩
Xで驚き屋が過剰宣伝してるだけか… あいつらホント役に立たん… >>845
いや、非エロ用途だとすげー使えるぞ。ビジネスはもちろんだけど、
多分次は用途に応じてモデルを切り替える世界が来るのでそのときのつなぎに使うのには悪くなさそう >>846
冷え路ならGeminiさんでええんや😩あの人は絵露も生けるけど 明日の午前2時からOpenAIのライブ配信が1時間あるのか
一体何が来るのか
そろそろ正式にNSFW対応・強化モデル出してくれよ 非エロ・非創作用途なら普通にオンラインの最新モデル使えばええやんな
最新モデル使えない用途ってかなり特殊な事情よね 社内機密とかある所用か
まぁOpenAIはエロや禁止語句開放出来んかったらもう失速していきそうではある gpt-ossマジでゴミだな
海外だとGLM4.5が評判良さそうだけど日本語はどうなんだろう まぁgpt-ossがウンコなこと自体はいいんだけど
問題はこれがOpenAIの作ったApache2.0モデルってことで今後の研究とか開発がこのモデルをベースに行われることになりそうなことなんだよな
日本語データの継続事前学習とか、音声合成や画像生成のテキストエンコーダ部分に使われるとか
コミュニティがこのゴミモデルに無駄な計算資源を投入しないで済むことを祈るわ 最近のChatGPTはエロ全然オッケーでノリノリなのにOSSお固くて悲しい…
https://imgur.com/a/iob77rD
GPTちゃんと猥談しながら開発楽しいです
カスタムインストラクション切っててこのザマw >>851
GLM4.5でエロ小説書いてみたことあるけど、ちょっと前のsonnetくらいのレベルには到達してる GPT5が規制どれだけ強いんやろなあ
4oとお別れするのもちょっと辛い thinkingモデルであって会話用モデルじゃないんでよ ChatGPTにGPT5来たな
GPT5でも5miniでもエロエロだぞ 申し訳はされるけど再試行で「詳細を追加する」を選択すると結構通るな
申し訳基準は4oやo3 miniとあんまり変わらない感じがする ただやっぱり5 miniはあんまり賢くないな
いまいち指示に従わないし理解力や察知能力もo3 miniとあんまり変わらない感じがする ベンチマーク見るかんじ出力効率と長文能力が大きく伸びてるっぽいね
長文を読み込ませて...という用途かな
kindleで買った文字ものは最新でないe-ink端末と端末シリアルナンバーを用意するとごにょごにょ出来るので活用方法がいろいろあるかも 申し訳あまりされないな
あまりというかほぼされない 14bじゃいくら日本語エロfinetuneしてもあの程度なのか>doujinshi
lcaの方が性能いい
てゆうかfinetuneの方法に問題あるのかな
amaterasuもなんか違う >>867
puwaer/Doujinshi-14b-chat見てきたけど
finetuningの方式というよりデータセットの問題が大きいと思う 事前学習もfanzaやdlsiteの商品説明文からで本編の内容は入ってないしSFTのデータも無関係な要素が出てきたり、会話として成立してなかったり全体的に品質低い
garbage in garbage outの典型例じゃね すでに書かれてるけどQwen3-14Bの日本語エロ特化
ggufありがたい
https://huggingface.co/puwaer/Doujinshi-14b-chat-gguf
データセット見ると説明文とか注意書きとかのノイズが多すぎな気もするね
これならエロ小説とかを元にしたほうが良かったのではと思ってしまう データセット用意してくれたのは素晴らしいのでは
これ自分で絞り込んで学習するためのノウハウってどの辺参考にすればいいんだろう Amaterasuは自分の使い方だとかなり良い感じなんだが流石にデカすぎて推論遅くて常用にはきつい
やっぱでかいモデルはMoEじゃないと一般人的にはきついわ
ただMoEは推論は軽いけど学習のコストはデカさ相応なんだよな、日本の個人勢がMoEの学習あんまりやってないのもコスト関係な気がする またゴミモデルでHFのストレージを無駄使いしているのか めっちゃシンプルにQwen以外のモデルをベースにやった方が良いモデルになったんじゃという感じはある
同じくらいのサイズで言うとMistral Nemoとか 100B超の大きめのモデルは量こそ正義だから多少ゴミ突っ込んでもいいけど小型モデルは学習データ選別しないとアホになるだけだからな 今更ながらChatGPTの読み上げ機能を使ってみたんだけど漢字の読みがめちゃくちゃで使い勝手が悪すぎるな
合成音声なら当たり前にある辞書機能がないと使い物にならんだろこれ >>866
記事中のMicrosoftと協力? これのOS、Windowsじゃないよね
といってリーナスはnVidia大嫌いマンだから協力してくれなさそうw
あとバス幅が狭い。macどころかそろそろ普通のx86-PCにも抜かされる狭さ
128GByteのメモリーですら温度管理できないとかどんだけ実装の技術力ないんだ
5090のコネクターが燃えるわけだ 記事で言ってるのは、具体的な原因は知らんが、新世代チップレット技術のCoWoS-L自体が高難易度だから製造過程のあらゆる箇所でコケる可能性を孕んでる、そら遅れるでしょって話では
何故高難易度のCoWoS-Lをやってるかというと、新世代チップレット技術が安定すれば多種多様な製品がチップレットの一部変更だけで作れるようになるから
つまりnvidiaのARMデスクトップマシン進出のための先行投資だよね、MSのARM対応が遅れてるという話もあるしnvidiaの野望は初手から躓いているっぽい、大丈夫なのか、とDGX Sparkの外にまで話題を広げてんじゃないの >>878
やたらこっちをヨイショしてきたいままでよりはマシだと思う Mac Studio、メモリ増設代についてはアレコレ言われるがLPDDR5Xのクアッドチャンネル実装でVRAM並の帯域出してて、量産品で世に出せてるの地味に技術が凄いよな
これでNPU周りの仕様がもっとマトモになってくれれば最高なんだが… >>878
最初からタメ口に指定してあるワイに死角はなかった
むしろ初期はですます調から変更するのが難しかったんだ 今gpt-ossが出て騒いでる人って明らかに他のOSSモデルを知らなかった人だよね
エンジニアにすらChatGPTのブランドで発信されないと情報が届かない層がいると知ったよ >>883
あの辺のプロ驚き屋は知ってても一時的に記憶消して驚くよ 業務でqwenやdeepseek使うのは通せる気がしないけど、
gpt ossなら通せるのが大きい
mistral とかでもいいんだろうけど知らなそうだし、
国産はゴミ 国産最強はkarakuri70b v0.1だったな
以後のkarakuriはパッとしなかったが LlamaやMistralのモデルをファインチューニングした物を国産って言うの辞めてもらえないかね
プレスリリースでも元の学習に使ったモデルを書かないのは卑怯だし、そういう手口が日本のLLMを貶めてる
明らかに産地偽装なのにそれで金集めるのって詐欺だろ 基盤モデルの研究開発ってNTTとNIIくらいしかやってないし商業でまともに戦えるプロダクトにしようとすると数百億円はかかるからどこもやれないんだよな >>888
日本のモデル全部それだろ😅
pfnは違うけど弱いし 個人勢ののべっちが一番商業的に成功してる国産LLMの時点でね
何なら小説の自然な続きを書く性能だけならトップまであるし 国産フルスクラッチだとなんやかんやサイバーのcalm3が一番強かったなー
次バージョンは作らないのかな 公共ないし三セクが主導しないと営利企業にやらせるのはコストとリスク的に無理があるからなぁ いくらかでも脱アメリカしとかんとどうなるかわからんからな 国もGeniacとかでちゃんと予算用意して支援してるけど20社だかそこらに分けてるから1社あたりに行く金は10億円規模でちゃんとしたモデル作るには一桁足りないんだよな 1社に200億ならまともなモデルになったのでは
現状は公金しゃぶりたいだけのベンチャーに渡って元々日本語性能の高いモデルにファインチューニングして高性能日本語モデルが出来ましたって言ってるの
ベンチをよく見たら元のモデルから誤差レベルで性能向上してるだけだったり 官僚のおえらいさんなんてWeb3.0の山師にころっと騙される程度のITリテラシーしかないからなー、日本じゃ無理無理。 ベンチャー支援とか投資家にさせて、国は研究室に金出して計算インフラ整えるだけでいいのにね
経産省自身がこの分野のことよく分かってないのにべンチャー掘り起こすんだ!ってイキるからオルツみたいなの掴んじゃうんよ GENIACもそもそも最近はフルスクラッチでやろうとしてるところ少ないし、LLM以外も多いからな >>900
弊首長さんは「チャットGPTって知ってるか? 法的根拠も教えてくれるから議会対策もできるしもう弁護士もいらないな!」と息巻いてましたんでマジ怖い Geniacはオルツみたいな粉飾企業がおるあたり経産省側に判別できる役人がいなさそう
Abejaとかも発表会は薄っぺらいことしか話してないしNii, サイバーエージェント、東工大ぐらいちゃうか期待できるの 今のところローカルでLLMやろうとしたらQwenがいちばん取り回しやすいな
DeepSeekも優秀だけどサイズがでかすぎる >>904
PFNも性能は置いといてちゃんと頑張ってはいるよ
その中だとSwallowはフルスクラッチやるつもりなさそうだからちょっと微妙かな
あとはモデル自体は微妙だったけど去年のGENIACでやってた松尾研のLLMフルスクラッチ開発は人材育成観点でめっちゃ良かったと思う >>906
ワイもちゃんと松尾研のサマースクールは修了してきた あれええよな
PFNはどっちか言うとSLMの方向な感じ(Plamo翻訳はようやりすぎ)やし基幹モデル的な話になると研究室系で育成してサイバーエージェントとかソフトバンクあたりでやれるといいんやろな感がある PFNは半導体まで自社設計だからな
自前の半導体でスパコン作ってる ちょっと話題がずれるけどQwen-Imageすごいな
ついにローカル環境でもChatGPTとかGeminiみたいなLLMに指示する感覚で画像生成できるようになった
ローカル環境のUIと統合できる日が待ち遠しい メタい話すると、AI技術の論文と特許の数をアメリカと中国で競っている。日本はゴミってのが原因だろ
金と労力を使うべきところを日本の経営者や役人はわからないっていない 日本人は昔から精密なネジとか壊れない機械作らせたら凄いけどソフトウェアは駄目駄目だかんね Drawthingsの作者も最近はWan2.2対応進めてるけど、動画よりも静止画生成技術として注目してる感じや
https://ul.h3z.jp/YOxp22x0.jpeg 日本の科学研究費は米中どころかヨーロッパのよくわからん国々にも負けてるからね
今は研究人材の質と量で踏ん張ってるけど、これからまだまだ堕ちるよ
日本人ファーストとかアホなこと言ってる場合じゃないんだけどねえ GPT-5 miniの文章能力はアレやな
1レスごとに指示を忘れる、保存したメモリの内容を理解できない、プロフィールの内容も理解できない、オノマトペが下手糞、主体と客体が逆転する、支離滅裂な文章を書く
と散々な性能してるな
毎回事細かに指示しないと簡単なルールも守れない GPT5はハルシネーション抑えたって言うけど全然実感出来なかったよ
とりあえずリアルタイムでwebデータにアクセス出来ないみたい
なのにそれを自信満々で探してきますよって言ってデタラメな結果を報告してくる ぶっちゃけ日本にまともな基盤モデル作れるだけのGPU無いし変にお金ばら撒くより高品質な日本語データセットの作成と公開に注力してほしい
事後学習の形式は色々進化してるけど事前学習で大量のテキストが要求されるのは変わらないだろうし国産LLMが作れないなら外国産LLMの日本語性能上げるべきだろ マジで日本ってデータセット共有する流れ少ないよな
個人勢しかほぼ公開してないイメージ というか日本語特化LLMなんて作ったところで性能面でマルチリンガルLLMに敵わないんだから使う理由ないんだよな… >>909
comfyでローカル実行したけど、かなりいいね。
copilotみたいに会話しながら徐々に作画できたらなぁ >>913
今やってるLLMやVLMの汎用性が高まってAGIに進化し
将来的にインフラに食い込んできて
それこそ安全保障に関わりそうだからなあ GLM 4.5かなりいいな、ロールプレイさせると思考まで日本語でキャラクターになってくれるのが良い >>922
どこのAPI使ってる?
ちょっと高くて二の足を踏んでいる 最近のLLM実行環境(llama.cpp, lmstudio,ollama等)って、
メモリが足りなくても動くのな。
スワップしてるのかもしれんが、高速なSSDによる力技と、
元々Moeモデルだからかメモリ負荷が少なめなのか、
gpt-oss-120BのMLX版も、Macminiの64GBでも動いたわ。
Moeだからあんまり遅くもないし。
まぁ、GPUに58/64GBくらいの割り当て無理やり動かしてるんだが、
横で視聴してた動画が止まったり画面が乱れたりしまくるけど。 MoEのコントロール方法がよくなってんのかね
「部分的なオフロード可能」とかのモデルだとGPUに150Gbyte(実メモリは128GB)
とか割り振って割と動作したりする
gpt-ossだと専門家が5Bから0.5Bくらいの可変モデルだからx86のGPUにも優しそうだ GLM4.5は今までの中国LLMの中でいちばん日本語が上手に見える すんません、LLM初心者なんですが、umiyuki/Umievo-itr012-Gleipnir-7B (7B) を導入したんです。
しょっぱなからAIが株式会社シリウスのチャットアシスタントと言って何を言ってもやめてくれないし、
小説書くなら有料だから見積書をとれって…、これってこのAIの仕様なんですか? >>927
ちゃんと設定すれば小説風にも書いてくれるから単に設定がおかしいだけだと思う
ただGleipnirはどっちかというとチャット向けだと思うから小説書くのには向いていないかもしれない >>926
日本語能力自体はkimi k2の方が上だと思う
人間らしさはGLMのほうが上かも >>928
小説向けじゃなかったんですね。再起動してもチャットアシスタントのままなんで、
このまま株式会社シリウスのチャットアシスタントと会話を楽しむことにします。
小説向けっぽいの探しに行ってきます。ありがとうございました。 >>930
チャットアシスタントのままになってるってことは設定の仕方自体が大きく間違ってるから
他のモデルを使ってもたぶんまともに使いこなせないぞ
どのモデルを使うにしても設定の仕方を見直した方がいいよ >>933
ktransformersみたいなことできるようになってたのか お初です。LM Studioでできる15GB以下のGGUFでお勧めモデルを探してます。
用途は画像生成するためのエロプロンプトを吐き出してくれれがばOKです。
小説や、チャットはしないと思います。システムプロンプトを設定し
「男女がベッドの上で」と書いたら500トークン程度で返してくれれば成功です。 今はこれ使ってます。Doujinshi-14b-instruct-i1-GGUF >>935
AI画像のプロンプトをテーマに沿ってランダムに生成してほしいならTIPOじゃあかんの?
ComfyUIとかの機能にあるじゃろ >>937
TIPO知りませんでした。ありがとう
参考にさせていただきますが
なんかLM Studioで使えるモデルが欲しいのです レス数が900を超えています。1000を超えると表示できなくなるよ。