Prompt
Co to jest Prompt?
Prompt (często tłumaczone jako "polecenie") to dane wejściowe przekazywane do modelu LLM (Large Language Model), które determinują jego odpowiedź. W kontekście budowania aplikacji i automatyzacji, prompt nie jest zwykłym pytaniem, lecz precyzyjnym fragmentem kodu w języku naturalnym, który programuje zachowanie modelu.
Jakość odpowiedzi modelu jest wprost proporcjonalna do jakości promptu (zasada Garbage In, Garbage Out).
Anatomia profesjonalnego promptu
W inżynierii promptów (Prompt Engineering) skuteczne polecenie składa się zazwyczaj z czterech kluczowych elementów:
Instrukcja (Persona): Określenie roli, w jaką ma wcielić się model (np. "Jesteś Senior Python Developerem").
Kontekst: Dostarczenie niezbędnych informacji tła, danych wejściowych lub ograniczeń.
Zadanie: Precyzyjny opis czynności do wykonania (np. "Przeanalizuj poniższy kod i znajdź błędy logiczne").
Format wyjściowy: Określenie, jak ma wyglądać odpowiedź. Jest to kluczowe przy integracji z innymi systemami (np. "Zwróć wynik wyłącznie w formacie JSON").
Prompty w automatyzacjach (Dynamiczne)
W budowaniu aplikacji AI rzadko używa się statycznych promptów. Najczęściej stosuje się szablony (templates), w których zmienne są podmieniane dynamicznie w trakcie działania programu. Przykład struktury w LangChain lub n8n:
"Przeanalizuj treść maila: {{email_body}} i wyciągnij z niego datę spotkania w formacie YYYY-MM-DD."Zaawansowane techniki
Aby uzyskać lepsze wyniki w skomplikowanych zadaniach, stosuje się techniki optymalizacji:
Few-Shot Prompting: Podanie modelowi kilku przykładów (pary pytanie-odpowiedź) wewnątrz promptu, aby nauczyć go oczekiwanego wzorca.
Chain of Thought (CoT): Wymuszenie na modelu "głośnego myślenia" (np. instrukcja "Think step by step"), co znacząco poprawia zdolności logicznego wnioskowania.
Prompt
Tekstowa instrukcja wejściowa przekazywana do modelu AI, która definiuje zadanie do wykonania