なんJLLM部 避難所 ★9
レス数が900を超えています。1000を超えると表示できなくなるよ。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured DeepSeek-R1、Qwen3 235B、gpt-oss-120b、GLMとかの高評価モデルを日本語ファインチューニングするところがないのは
技術的な問題なのか、それとも金がかかりすぎるからなのか 正直よくわからん会社の小規模モデルに金出してもな PFNとかたった5Tトークンで事前学習しましたとか公開してて悲しくなったよ
qwenは30Tトークンだし 10Tトークンで学習したモデルはfew shotで性能出る超高効率学習が可能になったと技術的に宣伝するような世界で5Tトークンはあまり厳しい
まずは日本語データセットの拡充を優先すべきやろ 中国語と英語の話者が日本語の数十倍なんだからかなり無理してでも日本語データ増やさないと日本文化消えるし、日本に不利なバイアスがかかるぞ
たった数年でLLMはインフラになりつつあるのに日本はほんまなにやってるだよ 今日も新興のベンチャーが80億調達したってのがニュースになってたけどやっぱり一桁足りないよなあ 東大の卒業生の志の低さは異常😅
リコーのも富士通のもNECのもそうだろ レス数が900を超えています。1000を超えると表示できなくなるよ。