なんJLLM部 避難所 ★2
0001名無しさん@ピンキー 転載ダメ (ワッチョイ 63c0-joKd)2024/05/02(木) 18:27:25.10ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(スクリプト攻撃継続中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所
https://mercury.bbspink.com/test/read.cgi/onatech/1702817339/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0006名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:29:20.85ID:???0
●ここ最近話題になった日本語ローカルモデル達やで

LightChatAssistant(通称LCA)
このスレのニキが3月にリリースして激震が走った軽量高性能モデルや
>>5のツールもこのモデルの使用がデフォルトやで
非力なPCでも走るしまずはこの辺りから試すのを薦めるで
https://huggingface.co/Sdff-Ltba

Ninja/Vecteus
オープンソースの強力な日本語小説生成AIを開発しとるLocalNovelLLM-projectの皆さんによるモデル群や
リリースされたばかりやがこちらも軽量高性能やで
開発も続いとるようやから今後の動きにも要注目や
https://huggingface.co/Local-Novel-LLM-project
0007名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:29:41.26ID:???0
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1

Llama2-70B系:
karakuri-lm-70b-chat-v0.1
karakuri-MS-01

Cohere系:
c4ai-command-r-v01 (35B)
c4ai-command-r-plus (104B)
0008名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:30:01.35ID:???0
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで
0009名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:30:23.52ID:???0
⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで
0010名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:30:43.04ID:???0
⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
0011名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:31:03.25ID:???0
⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで
0013名無しさん@ピンキー (ワッチョイ 63c0-joKd)2024/05/02(木) 18:31:45.33ID:???0
●モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
0022名無しさん@ピンキー (スプッッ Sd9f-1dje)2024/05/02(木) 19:45:47.17ID:Ig09010md
>>1
この板は即死ないから20まで保守する必要はないと思う
0025マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 11:43:52.70ID:6BfWfX3i0
この中に、大葉でChatタブからnotebookタブなど他タブに切り替えてもモデルが前のタスクや設定を覚えてて
それを引きずった応答をしたという経験した方はいらっしゃいますか?
0026名無しさん@ピンキー (ワッチョイ 6fc8-3YXh)2024/05/03(金) 12:58:20.95ID:???0
EasyNovelAssistantでゴールシークテンプレをちょっと改変しつつ、指示出して洗脳系のシチュを提案するようにした
ttps://i.imgur.com/ediKctI.png
これはこれで面白いんだけど、こういうのうまく出させるにはどういうプロンプト渡したら打率高くなるだろ?
あと方向性限定させたり、もっと突飛にしたり。
整合性が取れてない内容が出力されることがあったり、変に短かったりすることが結構あるんだけど

それと、ちょっと試してみた感じLCAtypeBよりggml-model-Q4Kの方が良さげな回答くれてる気がするんだけど
どのモデルが良いかは総当たりしかない感じかな?

LLM系しっかり触ったことなかったから全部手探りで何もわからん…
0027名無しさん@ピンキー (ワントンキン MM1f-jMJY)2024/05/03(金) 13:42:57.97ID:???M
ggml-model-Q4KってVecteusのことかな
VecteusはLCAより後発なこともあって、より思考能力が高い傾向がある(恐らく最新のWizard2を組み込んでいるため)
とは言え日本語能力と一括りに言っても文章の傾向も異なってくるし、好みもあるから一概には言えん感じやけどね
こればっかりは試してみないと分からんと思う
Vecteusはサイズ小さくてより軽いのに高性能だから、人に勧め安いのは確か
0036名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/03(金) 16:38:29.33ID:Gj7rcMwg0
MikuMaidのLlama-3 70Bバージョン、LumiMaid 70Bがアップロードされたみたい
割とそのまま倫理規制が解除されてたLlama-3 70Bっていう感じだから、日本語のロールプレイは語彙的に厳しいけど、英語エロチャはいける
0037名無しさん@ピンキー (ワッチョイ d311-h5/x)2024/05/03(金) 16:47:18.86ID:Gj7rcMwg0
一応生成例
(エロチャではないけどharmfulな結果は日本語でも出てくる点がMikuMaidとの違い)
https://i.imgur.com/GnGmoTK.png
0038名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 17:24:35.01ID:???0
スレ立てサンガツ!

>>26-28
アカンモデルははっきりアカンと言えるんやがエエモデルを比べるのはホンマにむずい
6GBでVRAMフルロードできるんで速いのはエエんやが人が読むよりも速く生成されても
生成物をAIに評価させるとかせんと扱いに困るしなぁ

一定ラインを超える生成物の良し悪しは個人の好みに寄ってきて長時間触らんとわからん印象
もしくは話題になっとったベンチーマークのカンニングができんような
人の感性に沿った数値評価ができるようになればかね

現状は画像生成モデルの「好みのモデルを使ったらええんやで」と似てきとる気がするで

>>34
情報サンガツ!
KoboldCpp上でのNinja Q8でコンテキスト長伸ばすとなんか変な反応するなぁと思っとったが
ワイ環じゃないようで安心したで
0040名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 17:42:16.13ID:???0
>>26
EasyNovelAssistantの出力にMd形式で番号を振ってあるんは
大量の出力から良さげなものをCommandR+やオンラインLLMとかに選ばせられへんかなぁと思うて付けたで

「人の心に響く番号を5つあげて、点数と理由も記載しなさい」みたいな
なんちゃって評価で大量の出力を評価でけへんかなぁと
0042名無しさん@ピンキー (ワッチョイ 6fc8-3YXh)2024/05/03(金) 18:27:28.18ID:???0
>>27
ごめんVecteusのことです。なんか書く時見てるところ違ったわ。
やっぱりどのモデルが向いてるかは試してみないとわからんか…

>>38
画像の方も結局は好みやしこっちもそうか…
しかしこっちは画像と違って一目でわからんし、それぞれ評価するのしんどそうやね

>>40
そういう目的でついてんのかこの番号
実際その辺もAI任せしたいなぁ…
最近はずっとEasyNovelAssistantにお世話になってます。めっちゃ楽しい!
(強いて要望言うと、Ctr+Sで保存する時日付時刻とかが自動的に入ってくれるとちょっとうれしいかも…)
0044マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 18:40:34.37ID:6BfWfX3i0
>>43
Ninja系統のモデルはどういうわけかこのような挙動をするので同じようなことをするモデルを探しています。
0045マジカル (ワッチョイ 03bb-4Xr2)2024/05/03(金) 19:03:40.72ID:6BfWfX3i0
https://t.co/bHqlgW04pa

我々が出しているNinja系のGGUFはコンテキスト長周りにバグを抱えているらしいのでmmnga氏の出しているGGUFを使うのをお勧めします。
原因はおそらくYarnがGGUFでは使えないことだと思われ、どうにかする予定です。
0046名無しさん@ピンキー (オッペケ Sre7-5fNx)2024/05/03(金) 20:03:30.28ID:???r
量子化の方法って違いがあるんだ?
gitでプロジェクトをクローンして、convert.pyでGGUFに変換して、
imatrixファイルを作成してからquantize.exeでお好みのサイズに量子化するだけだと思ってた
0047名無しさん@ピンキー (ワッチョイ 5377-7iwU)2024/05/03(金) 20:08:56.21ID:1tl4LoH/0
コンテキスト長がそのままだと短くなるとか?
0048名無しさん@ピンキー (ワッチョイ cf13-6o3J)2024/05/03(金) 22:47:02.99ID:???0
>>42
> (強いて要望言うと、Ctr+Sで保存する時日付時刻とかが自動的に入ってくれるとちょっとうれしいかも…)

そのままではないんやが2点対応しといたで

・名前を付けて保存でデフォルトのファイル名に日時を設定
・ファイル保存時に上書きするファイルがあればlogフォルダにバックアップ

誤って大事なデータを上書きしてしまった時はlogフォルダを覗いてもろうたら
0051名無しさん@ピンキー (ワッチョイ 767a-/jko)2024/05/04(土) 09:27:01.44ID:???0
Command R+で…な文章書いて遊んでるだけの浅瀬なんだけど、Llama3より良い感じぽいなこれ
二次創作でもこっちがプロンプト書かなくてもある程度キャラ設定や口調再現するのは感動した
とはいえ翻訳だから高めのレベルで限界はある感じ
マイナーなキャラは対応してないだろうしね
日本語特化LLMはまだ試してないんだけど、どんどん情報更新されてく現状で、今のとこ一番日本語の小説創作向きって何があるかな
0053名無しさん@ピンキー (ワッチョイ 6fbe-YO5+)2024/05/04(土) 15:26:15.99ID:???0
>>44
俺もNinjaとVecteusは全く同じ動きするわ、再起動しない限り前のセッションを引きずったおかしい動きになる
koboldCppで他のモデルでこんなこと起きた事なかったからビックリ
モデル依存でそんなことってあるのか?
0055マジカル (ワッチョイ 0fe6-5ctY)2024/05/04(土) 15:44:47.53ID:LYjmb2CO0
>>53
Koboldcppでもそうなりますか...
NinjaがMistralアーキテクチャの機能をフル活用できる性能があるからこのようなことが起こるのでは
という仮説を立てていますが未だ原因は不明です。
情報ありがとうございます。
0056名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/04(土) 16:27:20.35ID:ZPxwerOY0
kobold.cppでもoobaboogaでも同じ動きするんだったら、どっちかと言うと裏で動いてるLlama.cppに問題があるんじゃないか?
0057名無しさん@ピンキー (ワッチョイ 3311-IHuf)2024/05/04(土) 16:30:24.10ID:ZPxwerOY0
もし素のmistral+素のLlama.cppで同じ現象起きるんだったら、実装の問題だからgithubでissue立てた方がいい気もするけど
0058名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/04(土) 16:57:37.07ID:y5nYNW650
>>51
ぶっちゃけ日本語で小説となるとまだAIのべりすとに一日の長があるんやない?
ローカルで動作するLLMが今のAIのべりすとを上回る日もそう遠くないとは思うけど
Vecteusほんま賢いわ
0059名無しさん@ピンキー (ワッチョイ 936f-jyRk)2024/05/04(土) 17:54:47.55ID:???0
久しぶりにtext generation web UIをgit pullで最新版に更新して起動しようとしたらエラーになって起動できなかったので解決法メモしとくわ

@出たエラー表示
ModuleNotFoundError: No module named 'rich'
・解決策
1.text generation web UIのフォルダに有るcmd_windows.batを起動
2.「pip install rich」を入力してエンター
3.「deactivate」を入力してエンター
4.コマンドプロンプトの「X」を押して終了

A出たエラー表示
AttributeError: module 'gradio.layouts' has no attribute '__all__'
・解決策
1.text generation web UIのフォルダに有るcmd_windows.batを起動
2.「pip install --upgrade gradio」を入力してエンター
3.「deactivate」を入力してエンター
4.コマンドプロンプトの「X」を押して終了
0061名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/04(土) 19:02:56.58ID:???0
EasyNovelAssistantに音声と画像を簡単に組み合わせて動画にする機能を追加したで
https://twitter.com/Zuntan03/status/1786694765997924371

アキバの冥土喫茶風
https://i.imgur.com/Eds9BXT.mp4

JNVA 390の12からお借りしてみた
https://i.imgur.com/Pum2qZx.mp4

ドキュメントもわかりやすくしといたんで引き続き不具合報告や感想や要望をもらえるとありがたいで
0062名無しさん@ピンキー (ワッチョイ 767a-BGQ5)2024/05/04(土) 20:32:30.11ID:???0
>>58
どもどもです
うーんせやろか
AIのべりすとも一番安いサブスクに入って試し始めたとこだからまだまだ基本的な使い方なのかもしれんけど
最近のに比べるとやっぱり融通が利かない感じがするかなぁ
続きを勝手に書く小説モードが慣れなくてアシスタントチャットでChatbot的に指定してるんだけど
Command R+とかだと例えば竿役の口調を体育教師系からチャラ男くんに変えるみたいなことや
ここはもう少しねっとりとかここはおためごかしに優しくとかも
文脈を類推してやってくれるんだけどAIのべりすとはそういうの無理っぽい
ただ、日本語のエロ文章の自然さは間違いなくまだアドバンテージあるから、あとちょっとかゆい所に手が届けばという感じ
まぁまだ使い方が下手なだけかもだけど
0063名無しさん@ピンキー (ワンミングク MM62-ENsQ)2024/05/04(土) 20:59:43.98ID:???M
>>55
大葉よく知らんのだけど、transformersとかGPTQとかでも起きるんやろか
そういう仮説が出てくるってことは既に試したのかもしらんが
実行環境由来じゃなくてモデル由来で、履歴覚えてるとかどういう仕組みなんだろ
0064名無しさん@ピンキー (テテンテンテン MMbe-WHiR)2024/05/05(日) 00:14:19.22ID:???M
zuntanソフト使ってみたいんだけどこのようなことはできる?
チャット用に記述したキャラがある(口調から性格、思想も入ってる)
そのキャラ用のVITSのモデル学習は済んでいる
やりたいこと
リアルタイムに何時間でも子守唄のように愛を囁かせる
現状
STでキャラカにラブレターの原稿を書かせてテキストに保存→VITSに流し込んでwavにしている
試せという話なのだが自分のPCはpythonが混ざって自動では入らんかったので
0065名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/05(日) 01:47:04.05ID:???0
>>64
興味を持ってもらってサンガツやで

今の情報の少なさやと「わからんけどたぶんイケるんちゃうかなぁ」ぐらいしか言えんやね

> チャット用に記述したキャラがある(口調から性格、思想も入ってる)
https://rentry.org/ あたりに貼ってもらえたらもうちょっとまともな返答ができるかもや
公開に問題ある箇所があるなら公開できるように適当に書き換えてもろうて

> 自分のPCはpythonが混ざって自動では入らんかったので
ワイとしてはpythonが混ざらんように作ってるつもりなんでこっちのが気になるわ
ログとかもらえたら助かるで

この6時間だけでもWin10限定とか特定のウィルスチェックソフトで問題起きたりとかしとるんで
対策ができるならしときたいしできんなら注意喚起をしときたいで
0066名無しさん@ピンキー (ワッチョイ 9375-YO5+)2024/05/05(日) 11:32:13.18ID:???0
支部にVecteus-v1で書いた小説を追加しとったで、お友達も書いてくれてるので「EasyNovelAssistant」で検索しとくとええかも
金玉を空にできる自信あるレベルになってきたわ

それに伴いgithubとnoteもちょい更新しといた、ほんと今のところVecteus-v1が一番オススメ

ゴールシークも改造して頂いてるようでうれC
そいや三章・四章・終章の小説執筆で、急に話がつまらなくなる印象を受けた際、jsonの部分を削ることで改善したことが何回もあったわ
0067名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/05(日) 13:27:49.99ID:???0
>>66
作例情報サンガツ!
作例や記事メニューにリンク追加しといたで

ワイはRTX 3060 12GB環境なんやが
LightChatAssistant-2x7B-IQ4_XS-Context8K-GpuLayer33
Vecteus-v1-IQ4_XS-Context4K-GpuLayer33
のどっちを使うかを決めきれん感じや

なんとな〜くLCAのほうがええ回答をくれる時がある気がしとる

VRAM 8GB以下やったらVecteus安定な気はするね
Vecteusは読むより速く生成してくれるんで生成物のAI二次処理を考えなやね
0068名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/05(日) 20:36:43.58ID:???0
Text generation web UI導入してみたら
同じVecteusを使っててもEasyLightChatAssitantと違って
倫理観が高くてすぐ申し訳してくるんや
contextを上手いこと設定したらよさそうっていうのは分かったんやが
逆にEasyLightChatAssitantはどこで倫理観下げてるんや?
0069名無しさん@ピンキー (ワッチョイ 4f32-dezX)2024/05/05(日) 20:54:10.75ID:???0
ひさびさに英語小説をlumimadeで試したけど、もしかしてすごくないかこれ?
規制が外れただけじゃなく、英語の表現力がmiqumaidに比べてかなりアップしてるような・・・
これがllama-3-70Bの本来の力か
0070名無しさん@ピンキー (ワッチョイ e729-YO5+)2024/05/05(日) 21:18:28.69ID:???0
EasyNovelAssistantアプデしたらプロンプトと関係ないことしか書かなくなっちゃったけど
全部消してインスコし直したら治った
結構気に入った文章書いてくれてて仕様変わっちゃったんかって焦ったけど
治ってくれてマジ良かった
0071名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/05(日) 21:29:20.13ID:???0
>>68
兄弟のNinjaでは本来設定すべきInstruction formatを適用するとなんでか申し訳したり英語の返答でたりしやすい気がするで
オカルトじみてはいるんやが…

VecteusはInstruction format不要なモデルなはずなんでLLMへの入力がタグのない日本語文のみになっとるか確認
あとは総コンテキスト長を4K、生成コンテキスト長1K、あたりになってるかあたりかなぁ

量子化モデル使う場合はこっち https://huggingface.co/mmnga/Vecteus-v1-gguf/
0074名無しさん@ピンキー (ワッチョイ 127c-xnZ/)2024/05/05(日) 22:06:33.01ID:???0
>>71
Text generation web UIのデフォルトのcontextとかinstruction templatesが倫理観の高いアシスタントを演じさせとるんかな
この辺は手探りでやってくしかなさそうやね
0075名無しさん@ピンキー (ワッチョイ e729-YO5+)2024/05/05(日) 22:13:05.22ID:???0
>>72-73
ほ、ホンマや!長くすると駄目だった。というか6144でやっててアプデしたからその条件に触れちゃってて
全部消したら128だから治ったように見えてたのか
長く書けるの復活してホスイ…
0077名無しさん@ピンキー (ワッチョイ 0365-PnGr)2024/05/05(日) 22:40:25.39ID:???0
普段はSDで遊んでるんだが連休で時間あったんでEasyNovelAssistant入れてみたけど、最近のローカルLLMすごいね
ゴールシークプロンプト入れて細かく調整すると更に精度上がるし
0079名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/06(月) 00:06:18.27ID:???0
不具合報告と回避法の共有ほんまにサンガツ&すまんやで
対策を入れときました

> EasyNovelAssistant 更新で 生成分の長さ が 4096 以上だと、入力欄と無関係な文章が生成される不具合がありました。
> 生成分の長さ が 最大コンテキストサイズ 以上の場合に、生成分の長さ を自動的に短縮するようにしました。
> 長文を生成する場合は、モデルメニューの 最大コンテキストサイズ を増やします(消費 VRAM も増加)。

生成文の長さを6144にしたい場合は、VecteusからLCAかNinjaに変えて最大コンテキストサイズを8Kにしてな
0081名無しさん@ピンキー (ワッチョイ fbc6-xnZ/)2024/05/06(月) 08:26:06.96ID:???0
Twitterでやってる人が居たんで真似してみたが、3人で議論させるプロンプト面白いな
ありえない仮定でもそれっぽく話してくれるし一応肯定否定両面から議論して結論くれるので見てて楽しい
キャラクター付けが強すぎると脱線しがちだが(男・女・ロボット)程度なら議論が進みやすい
ただある程度キャラクター性があったほうが話し手がわかりやすいので1行程度で簡素なキャラ付けをしたほうが良かった

Ninjaは脱線して長ったらしくなりがちで、Vecteusのほうがうまい事話を切り上げてくれる傾向がある
0084名無しさん@ピンキー (ワッチョイ 3613-7Tbh)2024/05/06(月) 15:29:53.22ID:???0
EasyNovelAssistantの読み上げサンプルに追加した「エンドレス喘ぎ」がヤバいかもしらん

これはLCAのほうが読み上げ適正の高い出力っぽい
Vectesuは良くも悪くも読める小説風に仕上げられがちな印象や
0085名無しさん@ピンキー (アウアウクー MMb7-xnZ/)2024/05/06(月) 22:00:28.18ID:???M
プロンプトを上げる場所が思いつかなかったのではてなに上げてみた
https://anond.hatelabo.jp/20240506211322
クソみたいな日記のケツに3人議論させるプロンプトの自分版が書いてある。先人のを参考にした
ガッツリ例文を書くことで議論の手順をある程度固定化させられるが、
議論順を違えたり、いつまでも議論したり、結論が引き分けなど中途半端なものにはなりやすい


テーマとしては 勃起したちんちんは竹刀の代わりとして剣道の公式試合に使用できる 
おまんこの吸引力を敷設兵器として利用すれば、地雷よりも効果が見込める とかそういうの流し込んでも
白熱した議論をしてくれて助かる。たすか…る?
0086名無しさん@ピンキー (ワッチョイ df71-YO5+)2024/05/06(月) 23:58:05.62ID:rGX9zMyo0
AQML凄いな。はよWindowsでも動くようになってくれんか
0089名無しさん@ピンキー (ワッチョイ 9336-z0Yf)2024/05/07(火) 06:30:29.38ID:SObgNmxz0
デュアルブートはなあ
Windows君がブートローダーどころかパーティション上書きしてくるらしいから
やるなら完全に別のディスクに入れるのをお勧めする
Linuxはスティック型SSDにインストールするとかね
Linux自体は慣れれば便利だし楽しいぞ、色々とサーバ建てられるし最近はSteamのwindows用ゲーム普通に遊べるし
0095名無しさん@ピンキー (ワッチョイ 933a-RBm0)2024/05/07(火) 12:23:36.16ID:???0
linuxにするメリットってなんですか?
自分もPython使うので興味はあるんですが、以前WSL2入れてVScode使ってみたものの、頻繁にCPUオーバーロードするようになったので辞めました
0096名無しさん@ピンキー (ワッチョイ 3f74-GlZo)2024/05/07(火) 12:34:02.07ID:???0
LLMはlinuxで動かすの前提で作られてることが多いから
環境周りでトラブルが起きづらくなるとかかな
あとStableDiffusion見てるとWinより(ネイティブ)Linuxの方が生成速度は高くなる
1割くらい画像生成スピード違ったような

ただWSLだと環境トラブル低減も生成速度向上もあまりないかも
0097名無しさん@ピンキー (ワッチョイ 8fee-mHih)2024/05/07(火) 12:35:11.46ID:???0
>>95
まさにそれが答えなのでは?
wslは仮想pcよかは軽くなったけどそれでもコスト高めだし
あとはllmのツールやpythonのpackageなんかは、windowsでうまくいかないのもちらほらあるし、そういうところでもlinuxの方が向いている面あるかな
0100名無しさん@ピンキー (ワッチョイ 9b15-gI+Z)2024/05/07(火) 13:20:05.79ID:???0
>>95
VSCodeでWSL内のコードをSSH経由で弄るときにやたらファイル同期のプロセスを立ち上げまくって重くなるバグがあるって聞いたことあるな。今でも残ってるのかは不明
設定で回避できたはず
レスを投稿する


ニューススポーツなんでも実況