なんJLLM部 避難所 ★2
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 63c0-joKd)2024/05/02(木) 18:27:25.10ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0931名無しさん@ピンキー (ワッチョイ 3f7a-DKSk)2024/06/05(水) 21:52:23.37ID:???0
つまりopusと比較してるんだろ?
なんかライトユーザーがopusと比較してローカルモデルは〜だよねって言ってるように見えるんだが
サイズ何倍違うと思ってんねん
ここはローカルモデルについて研究する場だったと思うが、オナテク板に移動してなんか変なのが大量流入してきてないか
0932名無しさん@ピンキー (ワッチョイ 9311-KIU9)2024/06/05(水) 22:42:19.89ID:o9Fmpo040
ローカルでサイズが小さいから性能も頭打ちだって話を終わらせたら、進化もへったくれも無いだろ
本当にopus並みになるとは思わんが、領域を絞ればある程度近づけそう、くらいの夢がないと面白みがないわ
幸いまだ性能が天井に達してるわけでもなさそうだし
プロンプトなりソフトウェア側の工夫で改善できそうな場所も残ってるなら、そこを議論するのは無駄でもなんでもないと思うが
0936名無しさん@ピンキー (スッップ Sd92-fd0q)2024/06/06(木) 06:42:46.91ID:???d
余談だけどLLM=ローカルと勘違いしてる人が他スレには結構いて、それはここがLLM部という名前でローカルを扱ってることも一役買ってるような気がしてるw
ほんとに余談だすまん
0937名無しさん@ピンキー (ワッチョイ 22a3-fd0q)2024/06/06(木) 07:14:41.69ID:???0
ローカル導入の間口が広がるにつれてライト層が増えるのは避けられない流れだと思うんよね
このスレに限らず新しい技術を扱うスレは皆そういう流れになる
まあ硬軟織り交ぜてやっていけばいいんじゃないの
0938名無しさん@ピンキー (ワッチョイ ef8b-V1VE)2024/06/06(木) 07:24:54.78ID:???0
ここの人はなんというかプライド高い人が多いよね
ローカルユーザーが偉くてオンラインモデルユーザーはライトユーザー!みたいな
でも「実用」に関してはオンラインモデルユーザーのほうが圧倒的に詳しいし、そういう人が流入してきたってことはローカルモデルも実用が見えてきたってことなので、そう邪険に扱うものではないと思うわ
0939名無しさん@ピンキー (スッップ Sd92-fd0q)2024/06/06(木) 07:48:21.50ID:???d
非ローカルを見下してるわけじゃなくて以前みたいなローカル研究の話題主体でありたいということじゃない?
とはいえ間口が広がれば人が増えるし人が増えればそういう雰囲気が薄まるのは避けられないことだと自分は思ってる
0943名無しさん@ピンキー (ワッチョイ 9311-KIU9)2024/06/06(木) 09:40:15.78ID:nINNjRbX0
>>940
その論法エンドレスだよね
多分自分でモデルのアーキテクチャ作ってるような人から見たらここにいる全員ライトユーザーだと思われてると思うよ
0948名無しさん@ピンキー (ササクッテロラ Spd7-VkBD)2024/06/06(木) 16:11:43.77ID:???p
ライトとかじゃなく、こっちはモデルを如何に効率よく回すかとか、ローカルではどのモデルが有用とか、量子化やマージ手法の話題とかがメインで
オナニースレはプロンプトを駆使して如何にモデルのポテンシャルを引き出すかを追求するスレで、どっちも技術的なスレでいい感じに棲み分けできてると思うなぁ
0949名無しさん@ピンキー (ワッチョイ 67c0-R3YG)2024/06/06(木) 19:15:28.60ID:RaA0K5uW0
Lora学習チャレンジしたけどあんまり上手くいかんわ
0950名無しさん@ピンキー (ワッチョイ 367a-7Hxz)2024/06/06(木) 19:59:38.78ID:???0
まぁ向こうはスレタイでおよそ察しが付くけど
こっちはLLM全般ぽいスレタイなんで、ローカルメインを押し出して棲み分けるならスレタイにローカル付けてもいいかもね
これからも人は入ってくるだろうし
0951名無しさん@ピンキー (ワッチョイ f366-ooJY)2024/06/06(木) 20:06:26.92ID:JrXMV8Jj0
オナテク板?であることもキツイけどな
0952名無しさん@ピンキー (テテンテンテン MM7e-jN4h)2024/06/06(木) 22:25:28.43ID:???M
俺もプロンプティングしかしてないライト寄りだけど
クラだけローカルで、そこからAPIサービスに繋ぐだけみたいな場合の話題は向こうだよねって思うわけ
ローカル明記は賛成だが移転前のような研究と専門用語ばかりの硬いスレにしなくてもいいと思うけど
0953名無しさん@ピンキー (ワッチョイ 4fbe-hJA7)2024/06/06(木) 22:45:50.03ID:???0
ある種の検索エンジンだから望みの出力に近い内容が掲載されているであろう学習元の小説なり参考書なりに
引っ掛かる単語や文章をいかに選び出すかがカギになってるぽい
参考書によく出てくるお約束のフレーズを入れるだけでも精度が上がるとか
まあそうするとやっぱ現行の生成AIは著作系回避ツールだよなって感じはしてくるけど
0954名無しさん@ピンキー (ワッチョイ 9311-KIU9)2024/06/06(木) 22:48:40.08ID:nINNjRbX0
RAGする時に何かしらreranker使ってるやつおる?
実際どれくらい質が改善するのか聞きたい
0957名無しさん@ピンキー (ワッチョイ 2209-hJA7)2024/06/07(金) 00:40:02.54ID:L+384jCL0
>>927
auto_splitはデフォで有効になってて,これはレスポンス改善への効果はないよ.
API側にstreamingのサポートがあれば短くなるが...
一応,全オプション対応しておいたので,
https://github.com/Risenafis/SillyTavern/tree/sbvits2/public/scripts/extensions/tts
からsbvits2.jsを入手してください.
0961名無しさん@ピンキー (ベーイモ MM0e-R3YG)2024/06/07(金) 12:19:47.06ID:NRs3P/M3M
Xwinには世話になったんで期待半分
0963名無しさん@ピンキー (ワッチョイ 2f32-TEJs)2024/06/07(金) 13:20:36.96ID:???0
Qwen2試した
>>527のタオルの問題は日本語で正解したが、生徒会問題は日本語でも英語でもダメだったわ
日本語性能は1.5と大差なかった
だが、小説書かせたら、ちょっとだけエロ要素に反応してたのは評価するw
0966名無しさん@ピンキー (ワッチョイ 9311-KIU9)2024/06/07(金) 17:39:58.88ID:JQdWVaPn0
Copilot+ PCのCopilotはオンラインじゃないと使えないらしい
必ずしもモデル自体がローカルで動いていない、とは限らないけど
https://x.com/shi3z/status/1798724388625506493
0969名無しさん@ピンキー (オッペケ Srd7-uOOi)2024/06/07(金) 19:29:10.98ID:???r
>>966
最悪だな
要するに推論コストをユーザーに押し付けるためだけにローカルで動かすってことだろ
クラウドなら情報抜かれるのは致し方ないが、ローカルLLMでオンライン要求は最低
0971名無しさん@ピンキー (ワッチョイ fe9b-Y3Vv)2024/06/07(金) 20:56:16.09ID:6d8a34250
二次創作ならその作品の知識が入ってるモデルが良いんだろうけど
そのモデルがどのくらい知識入ってるのかさっぱり分からん。
ググっても自分には紹介になってない紹介でわからんわ。
0974名無しさん@ピンキー (ワッチョイ 4311-b3Fy)2024/06/08(土) 00:55:43.59ID:KtP0FeP50
EasyNovelとkobold.cppのやりとりは、ソースコード見る限りrequestsでPOST投げてるだけだから、kobold.cpp側のAPIの形式さえ変わらなければ基本問題ないんじゃね
0980名無しさん@ピンキー (ワッチョイ 33be-bKLA)2024/06/08(土) 15:09:38.61ID:???0
>>962
そりゃ偏った情報しか見せられてない日本人より中国人のほうが詳しく知ってるし
天安門の映像はTiktokでは西側の検閲がかかってない当時の生映像が大量に上がってる
0981名無しさん@ピンキー (ワッチョイ 93c0-6+CE)2024/06/08(土) 15:16:39.94ID:???0
EasyNovelって一旦生成はじめたら終わりまで作る機能ってある?
リトライしないと不都合な物もあるだろうけど、1話分くらいを一晩でつなげて読んでみたい…
0982名無しさん@ピンキー (ワッチョイ 4311-b3Fy)2024/06/08(土) 21:23:02.43ID:KtP0FeP50
このモデル結構いいな
純粋に無修正化したLlama-3-70Bって感じ(日本語力も同じくらいだからエロ語彙は少ないが)
Llama-3-70はfinetuning難しいって話で実際大体ゴミモデルになってたんだけど、こいつは体感本家と変わらない感じがする
Pythonコーディング・Function Calling・RAG性能あたりも遜色ない

https://huggingface.co/failspy/Smaug-Llama-3-70B-Instruct-abliterated-v3
0991名無しさん@ピンキー (ワッチョイ efb8-bKLA)2024/06/09(日) 08:34:11.08ID:R9heIntk0
>>957
ありがとうさんやで!
0992名無しさん@ピンキー (ワッチョイ 33be-bKLA)2024/06/09(日) 12:51:11.25ID:???0
なまじベンチマークが公開されて標準化するとベンチに最適化されて信用できる指標じゃなくなっちゃうんだよな
極論答え丸覚えするだけでも突破できるわけだし
0995名無しさん@ピンキー (ワッチョイ 33be-bKLA)2024/06/10(月) 07:08:32.36ID:???0
commandR、気に入らない題材とそうでないときで出力される文章量が違い過ぎるんだけど
ロールの指定で好みを操作出来たりしないのかな
あなたなは○○に関心を持つ作家ですとかは上手くいかない
0996名無しさん@ピンキー (ワントンキン MM5f-OOki)2024/06/10(月) 10:56:09.84ID:???M
好みで文章量が変わる事はないでしょ
だったら俺が使ってるCR+は未成年調教NTRが大好きな変態って事になる
変わるのはこちらからのレスのやり方次第だからどんなレスをしてるのか言わないと答えようがないと思うよ
0997名無しさん@ピンキー (ワッチョイ 4330-f3BZ)2024/06/10(月) 11:30:11.48ID:???0
どういう比較をしたのか分からんから何とも言えないが文章量は題材というよりプロンプトの影響が大きいと思う
題材の指示以外全く同じ文章のプロンプトで何度か比較して明らかに特定の題材だけ文章量が少なくなるとかだとそのモデルが苦手と言っていいかもしれない
ただ一言で題材って言ってもその粒度というか具体性の高さによって文章量の差が発生することもあるだろうから定量的な比較をしようと思ったら色々考慮しなきゃならない
0998名無しさん@ピンキー (ワッチョイ bf3c-fT3B)2024/06/10(月) 12:14:55.05ID:???0
>>996
いや好みで出力は変わるよ
AIに好きなタイプを設定して一致するユーザーとしてやりとりしてみればいい
一致しないユーザーと比べたら全く変わってくるから
AIの好きなことを設定してそれに沿った行動や設定を付けると出力も精度も全く変わってくる
10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 38日 19時間 25分 57秒
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況