現在、AIの最大のボトルネックはメモリです... 考えてみて下さい: LLM を開く> > 毎回自分の文脈を再説明する必要があります プロジェクトの設定に>または30分を費やす >、または組み込みメモリが実際に機能することを望んでいます(そうではありません) そしてこれが市場の現状です... - ChatGPT のアプローチはひどいです - クロードは良いが遅い - 双子座は、彼らがこれを解読するかどうかを待っているので、それに挑戦するかもしれません 現時点での最善の回避策は、ナレッジベースが接続されたメモリ MCP です しかし、それはまだ外部です...まだ手動...まだ摩擦 本当のブレークスルーは、次の場合に起こります。 LLMを開くと、自然にプロンプトを出しますが、私が考えなくても私のコンテキストを知っているだけです そのとき、私たちは実際に次のレベルの知性を持っているように感じるでしょう