なんJLLM部 避難所 ★8
レス数が900を超えています。1000を超えると表示できなくなるよ。
>>866
記事中のMicrosoftと協力? これのOS、Windowsじゃないよね
といってリーナスはnVidia大嫌いマンだから協力してくれなさそうw
あとバス幅が狭い。macどころかそろそろ普通のx86-PCにも抜かされる狭さ
128GByteのメモリーですら温度管理できないとかどんだけ実装の技術力ないんだ
5090のコネクターが燃えるわけだ 記事で言ってるのは、具体的な原因は知らんが、新世代チップレット技術のCoWoS-L自体が高難易度だから製造過程のあらゆる箇所でコケる可能性を孕んでる、そら遅れるでしょって話では
何故高難易度のCoWoS-Lをやってるかというと、新世代チップレット技術が安定すれば多種多様な製品がチップレットの一部変更だけで作れるようになるから
つまりnvidiaのARMデスクトップマシン進出のための先行投資だよね、MSのARM対応が遅れてるという話もあるしnvidiaの野望は初手から躓いているっぽい、大丈夫なのか、とDGX Sparkの外にまで話題を広げてんじゃないの >>878
やたらこっちをヨイショしてきたいままでよりはマシだと思う Mac Studio、メモリ増設代についてはアレコレ言われるがLPDDR5Xのクアッドチャンネル実装でVRAM並の帯域出してて、量産品で世に出せてるの地味に技術が凄いよな
これでNPU周りの仕様がもっとマトモになってくれれば最高なんだが… >>878
最初からタメ口に指定してあるワイに死角はなかった
むしろ初期はですます調から変更するのが難しかったんだ 今gpt-ossが出て騒いでる人って明らかに他のOSSモデルを知らなかった人だよね
エンジニアにすらChatGPTのブランドで発信されないと情報が届かない層がいると知ったよ >>883
あの辺のプロ驚き屋は知ってても一時的に記憶消して驚くよ 業務でqwenやdeepseek使うのは通せる気がしないけど、
gpt ossなら通せるのが大きい
mistral とかでもいいんだろうけど知らなそうだし、
国産はゴミ 国産最強はkarakuri70b v0.1だったな
以後のkarakuriはパッとしなかったが LlamaやMistralのモデルをファインチューニングした物を国産って言うの辞めてもらえないかね
プレスリリースでも元の学習に使ったモデルを書かないのは卑怯だし、そういう手口が日本のLLMを貶めてる
明らかに産地偽装なのにそれで金集めるのって詐欺だろ 基盤モデルの研究開発ってNTTとNIIくらいしかやってないし商業でまともに戦えるプロダクトにしようとすると数百億円はかかるからどこもやれないんだよな >>888
日本のモデル全部それだろ😅
pfnは違うけど弱いし 個人勢ののべっちが一番商業的に成功してる国産LLMの時点でね
何なら小説の自然な続きを書く性能だけならトップまであるし 国産フルスクラッチだとなんやかんやサイバーのcalm3が一番強かったなー
次バージョンは作らないのかな 公共ないし三セクが主導しないと営利企業にやらせるのはコストとリスク的に無理があるからなぁ いくらかでも脱アメリカしとかんとどうなるかわからんからな 国もGeniacとかでちゃんと予算用意して支援してるけど20社だかそこらに分けてるから1社あたりに行く金は10億円規模でちゃんとしたモデル作るには一桁足りないんだよな 1社に200億ならまともなモデルになったのでは
現状は公金しゃぶりたいだけのベンチャーに渡って元々日本語性能の高いモデルにファインチューニングして高性能日本語モデルが出来ましたって言ってるの
ベンチをよく見たら元のモデルから誤差レベルで性能向上してるだけだったり 官僚のおえらいさんなんてWeb3.0の山師にころっと騙される程度のITリテラシーしかないからなー、日本じゃ無理無理。 ベンチャー支援とか投資家にさせて、国は研究室に金出して計算インフラ整えるだけでいいのにね
経産省自身がこの分野のことよく分かってないのにべンチャー掘り起こすんだ!ってイキるからオルツみたいなの掴んじゃうんよ GENIACもそもそも最近はフルスクラッチでやろうとしてるところ少ないし、LLM以外も多いからな >>900
弊首長さんは「チャットGPTって知ってるか? 法的根拠も教えてくれるから議会対策もできるしもう弁護士もいらないな!」と息巻いてましたんでマジ怖い レス数が900を超えています。1000を超えると表示できなくなるよ。