Prompt

Co to jest Prompt?

Prompt (często tłumaczone jako "polecenie") to dane wejściowe przekazywane do modelu LLM (Large Language Model), które determinują jego odpowiedź. W kontekście budowania aplikacji i automatyzacji, prompt nie jest zwykłym pytaniem, lecz precyzyjnym fragmentem kodu w języku naturalnym, który programuje zachowanie modelu.

Jakość odpowiedzi modelu jest wprost proporcjonalna do jakości promptu (zasada Garbage In, Garbage Out).

Anatomia profesjonalnego promptu

W inżynierii promptów (Prompt Engineering) skuteczne polecenie składa się zazwyczaj z czterech kluczowych elementów:

  1. Instrukcja (Persona): Określenie roli, w jaką ma wcielić się model (np. "Jesteś Senior Python Developerem").

  2. Kontekst: Dostarczenie niezbędnych informacji tła, danych wejściowych lub ograniczeń.

  3. Zadanie: Precyzyjny opis czynności do wykonania (np. "Przeanalizuj poniższy kod i znajdź błędy logiczne").

  4. Format wyjściowy: Określenie, jak ma wyglądać odpowiedź. Jest to kluczowe przy integracji z innymi systemami (np. "Zwróć wynik wyłącznie w formacie JSON").

Prompty w automatyzacjach (Dynamiczne)

W budowaniu aplikacji AI rzadko używa się statycznych promptów. Najczęściej stosuje się szablony (templates), w których zmienne są podmieniane dynamicznie w trakcie działania programu. Przykład struktury w LangChain lub n8n:

text
"Przeanalizuj treść maila: {{email_body}} i wyciągnij z niego datę spotkania w formacie YYYY-MM-DD."

Zaawansowane techniki

Aby uzyskać lepsze wyniki w skomplikowanych zadaniach, stosuje się techniki optymalizacji:

  • Few-Shot Prompting: Podanie modelowi kilku przykładów (pary pytanie-odpowiedź) wewnątrz promptu, aby nauczyć go oczekiwanego wzorca.

  • Chain of Thought (CoT): Wymuszenie na modelu "głośnego myślenia" (np. instrukcja "Think step by step"), co znacząco poprawia zdolności logicznego wnioskowania.

Prompt

Tekstowa instrukcja wejściowa przekazywana do modelu AI, która definiuje zadanie do wykonania