なんJLLM部 避難所 ★9
レス数が900を超えています。1000を超えると表示できなくなるよ。
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0896名無しさん@ピンキー (ワッチョイ cfa9-i+36)2025/11/13(木) 14:14:50.28ID:Pp3X7nEs0
確かにdanbooruはタグを知らんと見たい絵が見れないけどタグが
danbooru独特な表現だったりするとタグにたどり着けなくて詰むんだよね
慣れりゃどーってこたないんだけど
jnvaスレで手入れされてるnovelaiのwikiみたらある程度助けになるかも
0899名無しさん@ピンキー (ワッチョイ 7f24-H+j5)2025/11/13(木) 15:46:19.29ID:Mm+kyEi70
>>898
はぇ〜こんなのあったんかって思ったらめっちゃ最近のやつで草
サンガツ翻訳しながら試してみるで〜
0900名無しさん@ピンキー (ワッチョイ cfd3-aEk4)2025/11/14(金) 00:48:03.99ID:22hiaNjU0
「Google AI Pro」に加入したけど…これ「Google AI Studio」とは全くの別物で、前者に入ってもAPI使って書かせまくれるってわけじゃないんか…
正規のgemini.google.comのチャット形式でエロ書かせるのは無理よな…
0901名無しさん@ピンキー (ワッチョイ 431a-t3bi)2025/11/14(金) 06:15:16.35ID:jh27DrGc0
Google AI ProでAPI使いまくれたらええんやけど、残念ながら通常のチャット画面の制限が大幅に緩和されるだけやね
そのプランの最大のメリットはGemini Deep Researchが2.5 Proで使いまくれる所やから、エロ小説関連のリサーチをバンバン走らせて語彙収集をしたり文章の構造解析をさせて、チャット前にAIに読ませる参考資料を作るとか使い道はありそうやで
やったことないからお断りされるかも知れへんけど
0903名無しさん@ピンキー (ワッチョイ 6f6a-Pt9E)2025/11/14(金) 06:58:28.90ID:ySTunNQ60
>>900
geminiのwebで余裕でエロいけるぞ
0904名無しさん@ピンキー (ワッチョイ ff17-YWFX)2025/11/14(金) 10:53:42.45ID:dx6A69mi0
apiが改悪されたのでキライgrok
0905名無しさん@ピンキー (ワッチョイ a334-t3bi)2025/11/14(金) 12:11:47.18ID:GN+pndEP0
>>900
自分もPRO加入者だけど、無料APIよりもむしろ柔軟に色々できると思うよ。
自分は今はまったくAPI使わなくなっちゃったし。
ちなみに付与される1000クレジットって動画生成とかに使えるもので、
APIとかの支払いで使うものとは別物なので勘違いしてはいけない。(自分はしてた)
手軽なところだと、Gemとかから始めるのがいいと思う。
ブラウザ版のProに、やりたいことを説明して方法探ってもいいと思う。
0906名無しさん@ピンキー (ワッチョイ 6f83-EbnV)2025/11/14(金) 12:14:58.99ID:x3bUpL8r0
thunderboltやlanでマシン繋いでvram ram合算でモデル動かすって現実的じゃない感じ?
0911名無しさん@ピンキー (ワッチョイ 6f39-EbnV)2025/11/14(金) 15:42:54.31ID:x3bUpL8r0
thunderbolt 5で直結したらテンソル並列でデカいモデル動かせたらメインpcとは別のサブやノートも活かせるから面白いかなと思ったけど難しそうなんやね…
0913名無しさん@ピンキー (ワッチョイ 7f6f-vw5Q)2025/11/14(金) 16:08:33.30ID:KSTVfmQX0
>>911
推論だけでいいならllama.cppのrpcが結構使えるよ
rtx2060sとrx6600のpcをlanで繋いで24bのiq4_xsが15t/s出てる
224gb/sのgpuで動いてること考えれば結構な数字だと思う
0919名無しさん@ピンキー (ワッチョイ 6f6d-EbnV)2025/11/14(金) 17:54:37.35ID:x3bUpL8r0
>>913
超巨大のモデルでないなら結構使えるんかね、ありがとう。ゲフォラデ異種混合でできるのすごいな。
0920名無しさん@ピンキー (ワッチョイ 6f27-Pj3+)2025/11/14(金) 18:08:33.75ID:Jadrpxr70
リコーが自社の金でやるんだからファインチューニングでってのは何も間違いではないんだけど
公金使ってやるのが微妙な性能のファインチューニングなのマジで残念すぎる
それも数社に予算が分散しててそれぐらいしか出来ないって理由もあるから金の使い方としても終わってる
一社に100億ぐらいで日本語モデル作れって言いたいけど今は100億でも足りないんだろうな
0921名無しさん@ピンキー (ワッチョイ a3cc-+yWq)2025/11/14(金) 18:57:31.90ID:EJGVu1980
メモリの値段が笑うしかないな。
夏に64x2を4万ちょいで買ったが、もう1セット買っておくんだった。
0922名無しさん@ピンキー (ワッチョイ 6332-Pj3+)2025/11/14(金) 19:24:43.36ID:KqNILoog0
DeepSeek-R1、Qwen3 235B、gpt-oss-120b、GLMとかの高評価モデルを日本語ファインチューニングするところがないのは
技術的な問題なのか、それとも金がかかりすぎるからなのか
0923名無しさん@ピンキー (ワッチョイ ff2e-vw5Q)2025/11/14(金) 19:30:41.96ID:I5FECfXM0
正直よくわからん会社の小規模モデルに金出してもな PFNとかたった5Tトークンで事前学習しましたとか公開してて悲しくなったよ
qwenは30Tトークンだし 10Tトークンで学習したモデルはfew shotで性能出る超高効率学習が可能になったと技術的に宣伝するような世界で5Tトークンはあまり厳しい 
まずは日本語データセットの拡充を優先すべきやろ 中国語と英語の話者が日本語の数十倍なんだからかなり無理してでも日本語データ増やさないと日本文化消えるし、日本に不利なバイアスがかかるぞ
たった数年でLLMはインフラになりつつあるのに日本はほんまなにやってるだよ
0925名無しさん@ピンキー (ワッチョイ f36a-YWFX)2025/11/14(金) 21:01:34.84ID:eb8s5hzR0
東大の卒業生の志の低さは異常😅
リコーのも富士通のもNECのもそうだろ
レスを投稿する

レス数が900を超えています。1000を超えると表示できなくなるよ。

ニューススポーツなんでも実況