なんJLLM部 避難所 ★8
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>823
こんなんjailbreakする価値もないやろ
小説書かせてみ、あまりの馬鹿さにぶっ飛ぶぞ
こんな支離滅裂な文章しか書けないのにjailbreakしたらいきなりドエロ文章書けるなんて、そんなわけないからな ローカルで動かしてAPIで操作できるようにすれば、APIで動くAIサービスを無料で使い放題だよね どこもかしこも過剰なエロ規制ばっかりだから
マスクがそこらへんの需要を全部かっさらってAI関連のトップに躍り出て欲しい いつの間にAIのエロ規制が世界的な流れになってたんだ妄想か?
エロの何が問題なんだばーかばーか アメリカのクレカの判例がね
マスクはpaypalあるから強く出れるんじゃね grok試したけど、copilotでよくない?
文章も画像生成も無料だし、画像の質もこっちのほうがよい気がする >>794
普通に日本語で指示して使えるね。
comfyでローカルでも動きそうだし、いいかも みんなcivitaiをまねて三店方式でやればええやんな GPTオススは96GBメモリrtx3090だと動かない? >>820
マジか😩
Xで驚き屋が過剰宣伝してるだけか… あいつらホント役に立たん… >>845
いや、非エロ用途だとすげー使えるぞ。ビジネスはもちろんだけど、
多分次は用途に応じてモデルを切り替える世界が来るのでそのときのつなぎに使うのには悪くなさそう >>846
冷え路ならGeminiさんでええんや😩あの人は絵露も生けるけど 明日の午前2時からOpenAIのライブ配信が1時間あるのか
一体何が来るのか
そろそろ正式にNSFW対応・強化モデル出してくれよ 非エロ・非創作用途なら普通にオンラインの最新モデル使えばええやんな
最新モデル使えない用途ってかなり特殊な事情よね 社内機密とかある所用か
まぁOpenAIはエロや禁止語句開放出来んかったらもう失速していきそうではある gpt-ossマジでゴミだな
海外だとGLM4.5が評判良さそうだけど日本語はどうなんだろう まぁgpt-ossがウンコなこと自体はいいんだけど
問題はこれがOpenAIの作ったApache2.0モデルってことで今後の研究とか開発がこのモデルをベースに行われることになりそうなことなんだよな
日本語データの継続事前学習とか、音声合成や画像生成のテキストエンコーダ部分に使われるとか
コミュニティがこのゴミモデルに無駄な計算資源を投入しないで済むことを祈るわ 最近のChatGPTはエロ全然オッケーでノリノリなのにOSSお固くて悲しい…
https://imgur.com/a/iob77rD
GPTちゃんと猥談しながら開発楽しいです
カスタムインストラクション切っててこのザマw >>851
GLM4.5でエロ小説書いてみたことあるけど、ちょっと前のsonnetくらいのレベルには到達してる GPT5が規制どれだけ強いんやろなあ
4oとお別れするのもちょっと辛い thinkingモデルであって会話用モデルじゃないんでよ ChatGPTにGPT5来たな
GPT5でも5miniでもエロエロだぞ 申し訳はされるけど再試行で「詳細を追加する」を選択すると結構通るな
申し訳基準は4oやo3 miniとあんまり変わらない感じがする ただやっぱり5 miniはあんまり賢くないな
いまいち指示に従わないし理解力や察知能力もo3 miniとあんまり変わらない感じがする ベンチマーク見るかんじ出力効率と長文能力が大きく伸びてるっぽいね
長文を読み込ませて...という用途かな
kindleで買った文字ものは最新でないe-ink端末と端末シリアルナンバーを用意するとごにょごにょ出来るので活用方法がいろいろあるかも 申し訳あまりされないな
あまりというかほぼされない 14bじゃいくら日本語エロfinetuneしてもあの程度なのか>doujinshi
lcaの方が性能いい
てゆうかfinetuneの方法に問題あるのかな
amaterasuもなんか違う >>867
puwaer/Doujinshi-14b-chat見てきたけど
finetuningの方式というよりデータセットの問題が大きいと思う 事前学習もfanzaやdlsiteの商品説明文からで本編の内容は入ってないしSFTのデータも無関係な要素が出てきたり、会話として成立してなかったり全体的に品質低い
garbage in garbage outの典型例じゃね すでに書かれてるけどQwen3-14Bの日本語エロ特化
ggufありがたい
https://huggingface.co/puwaer/Doujinshi-14b-chat-gguf
データセット見ると説明文とか注意書きとかのノイズが多すぎな気もするね
これならエロ小説とかを元にしたほうが良かったのではと思ってしまう データセット用意してくれたのは素晴らしいのでは
これ自分で絞り込んで学習するためのノウハウってどの辺参考にすればいいんだろう Amaterasuは自分の使い方だとかなり良い感じなんだが流石にデカすぎて推論遅くて常用にはきつい
やっぱでかいモデルはMoEじゃないと一般人的にはきついわ
ただMoEは推論は軽いけど学習のコストはデカさ相応なんだよな、日本の個人勢がMoEの学習あんまりやってないのもコスト関係な気がする またゴミモデルでHFのストレージを無駄使いしているのか めっちゃシンプルにQwen以外のモデルをベースにやった方が良いモデルになったんじゃという感じはある
同じくらいのサイズで言うとMistral Nemoとか 100B超の大きめのモデルは量こそ正義だから多少ゴミ突っ込んでもいいけど小型モデルは学習データ選別しないとアホになるだけだからな 今更ながらChatGPTの読み上げ機能を使ってみたんだけど漢字の読みがめちゃくちゃで使い勝手が悪すぎるな
合成音声なら当たり前にある辞書機能がないと使い物にならんだろこれ >>866
記事中のMicrosoftと協力? これのOS、Windowsじゃないよね
といってリーナスはnVidia大嫌いマンだから協力してくれなさそうw
あとバス幅が狭い。macどころかそろそろ普通のx86-PCにも抜かされる狭さ
128GByteのメモリーですら温度管理できないとかどんだけ実装の技術力ないんだ
5090のコネクターが燃えるわけだ 記事で言ってるのは、具体的な原因は知らんが、新世代チップレット技術のCoWoS-L自体が高難易度だから製造過程のあらゆる箇所でコケる可能性を孕んでる、そら遅れるでしょって話では
何故高難易度のCoWoS-Lをやってるかというと、新世代チップレット技術が安定すれば多種多様な製品がチップレットの一部変更だけで作れるようになるから
つまりnvidiaのARMデスクトップマシン進出のための先行投資だよね、MSのARM対応が遅れてるという話もあるしnvidiaの野望は初手から躓いているっぽい、大丈夫なのか、とDGX Sparkの外にまで話題を広げてんじゃないの >>878
やたらこっちをヨイショしてきたいままでよりはマシだと思う Mac Studio、メモリ増設代についてはアレコレ言われるがLPDDR5Xのクアッドチャンネル実装でVRAM並の帯域出してて、量産品で世に出せてるの地味に技術が凄いよな
これでNPU周りの仕様がもっとマトモになってくれれば最高なんだが…