Okno kontekstu — co to jest?
Maksymalna ilość tekstu (mierzona w tokenach), którą model AI może przetworzyć w jednej rozmowie. Obejmuje Twoje pytanie, system prompt, całą dotychczasową rozmowę i odpowiedź modelu.
Jak to działa?
Wyobraź sobie okno kontekstu jako pamięć roboczą AI. Claude ma okno 200k tokenów (ok. 150 000 słów). Wszystko, co wpisujesz, i wszystko, co AI odpowiada, zjada to okno. Kiedy się zapełni, model "zapomina" początek rozmowy. Na przykład, jeśli wklejasz długą transkrypcję wywiadu (50k tokenów), zostaje Ci 150k na dalszą rozmowę. Dlatego warto być zwięzłym i usuwać niepotrzebny kontekst, zamiast wklejać wszystko na raz.
Dlaczego to ważne?
Zrozumienie okna kontekstu pomaga Ci lepiej planować pracę z AI. Wiesz, ile danych możesz wrzucić na raz i kiedy warto zacząć nową rozmowę.