なんかローカルLLMとかまで手を出したら、ガチで際限なく時間とお金を食うので封印してる
Conversation
Notices
-
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Friday, 21-Jun-2024 11:03:56 JST ぽな (C.Ponapalt) -
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Friday, 21-Jun-2024 11:09:37 JST ぽな (C.Ponapalt) @yune_kotomi GPUは必要経費だから実質無料とか、PCの電気代は以下略とかいうんじゃろ?
マジレス:どっちかというと時間配分制約かなあ…
-
殊海夕音 (yune_kotomi@tl1.yumenosora.net)'s status on Friday, 21-Jun-2024 11:09:44 JST 殊海夕音 @ponapalt 金はかからないのに。 -
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Friday, 21-Jun-2024 11:11:12 JST ぽな (C.Ponapalt) 正直Largeじゃないモデルもたくさんあるし、Languageじゃないマルチモーダルモデルもあるし、LLMって呼び方自体がそろそろ合わなくなってきてる
-
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Friday, 21-Jun-2024 11:21:48 JST ぽな (C.Ponapalt) @yune_kotomi 一応実験できる環境だっていうのはわかってるのです!
めんどっちいだけで(おいこら)
-
殊海夕音 (yune_kotomi@tl1.yumenosora.net)'s status on Friday, 21-Jun-2024 11:21:52 JST 殊海夕音 @ponapalt いやRTX2060持ってるって言ってたやん。それで追加投資なしに動くよ。電気も常時フルパワーで回し続けるならともかく、散発的に推論させるくらいなら1回当たりせいぜい数十秒で知れてるし。
まぁ時間は食う。
-