największym wąskim gardłem AI w tej chwili jest pamięć... pomyśl o tym: > otwierasz swoje LLM > musisz za każdym razem na nowo wyjaśniać swój kontekst > lub spędzić 30 minut na konfigurowaniu projektu > lub mieć nadzieję, że wbudowana pamięć rzeczywiście działa (nie działa) i to jest obecny stan rynku... - chatgpt ma straszne podejście - claude jest lepszy, ale wolny - gemini może mieć dobrą szansę, czekam, aby zobaczyć, czy to rozwiążą najlepszym rozwiązaniem w tej chwili są pamięci MCP z połączonymi bazami wiedzy ale to wciąż zewnętrzne... wciąż manualne... wciąż z oporem prawdziwy przełom nastąpi, gdy: otwieram swoje LLM, naturalnie podpowiadam i ono po prostu zna mój kontekst, nie myśląc o tym to wtedy poczuję, że naprawdę mamy inteligencję na nowym poziomie