要約の精度がめっちゃよくなったはず。手元の実証環境で長期記憶処理系の下働きに使ってるけど、明らかに一貫性のあるふるまいをするようになった。
Conversation
Notices
-
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Wednesday, 24-Jul-2024 05:47:56 JST ぽな (C.Ponapalt) -
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Wednesday, 24-Jul-2024 06:05:55 JST ぽな (C.Ponapalt) といっても、GPT-4oには当然かなわないので、フロントエンド側にminiを使うと微妙に物足りない感はある…
-
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Wednesday, 24-Jul-2024 06:09:54 JST ぽな (C.Ponapalt) 安くて速いから、miniのマルチエージェント構成とかはアリかもしれない。
-
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Wednesday, 24-Jul-2024 06:17:56 JST ぽな (C.Ponapalt) そもそもマルチモーダルモデルだから、写真もセットでログに流し込むとかアリかもしれない。
-
ぽな (C.Ponapalt) (ponapalt@ukadon.shillest.net)'s status on Wednesday, 24-Jul-2024 15:15:24 JST ぽな (C.Ponapalt) @yune_kotomi ローカルLLM使って電気代払うより安くて高性能かもしれない、とかいう冗談みたいな話まで出てるゾ
-
殊海夕音 (yune_kotomi@tl1.yumenosora.net)'s status on Wednesday, 24-Jul-2024 15:15:27 JST 殊海夕音 @ponapalt はやいうまいやすい!
-