Opracowanie: Piotr Maczuga

Dla kogo jest ten przewodnik? Przede wszystkim dla edukatorów i pracowników NGO, którzy mają już podstawową wiedzę o generatywnej AI i chcą pójść o krok dalej. Jeśli obiły Ci się o uszy takie pojęcia jak prompt engineering, Chain-of-Thought czy RAG, ale brakuje Ci praktycznych wskazówek, jak zastosować je w codziennej pracy – ten materiał jest dla Ciebie. Styl przewodnika jest zorientowany na praktykę: znajdziesz tu konkretne instrukcje, przykłady zastosowań w rzeczywistych projektach, a także gotowe szablony promptów (w języku polskim i angielskim), które możesz od razu wykorzystać lub dostosować do własnych potrzeb.

<aside> 💡

Inżynieria sztucznej inteligencji jest z natury dyscypliną empiryczną, a duże modele językowe są z natury niedeterministyczne - Twój sukces zależy przede wszystkim od Twojej pracy, a nie gotowych recept.

</aside>

Spis zawartości:

Podstawy

Modele językowe (LLM) i rola promptów

Sercem każdego chatbota AI jest model językowy (LLM – Large Language Model), taki jak GPT-4, przeszkolony na ogromnych zbiorach danych tekstowych. Model taki generuje odpowiedzi przewidując kolejne słowa na podstawie wzorców statystycznych wyuczonych z danych treningowych. Prompt to nic innego jak wejście przekazywane modelowi – może to być polecenie, pytanie, fragment tekstu albo cała rozmowa zawierająca role systemu, użytkownika i asystenta. Sposób sformułowania promptu ma ogromny wpływ na wynik – stąd narodziła się dziedzina prompt engineering, czyli sztuki konstruowania skutecznych zapytań do modeli AI.

W kontekście ChatGPT wyróżniamy trzy rodzaje komunikatów:

Projektując własnego eksperckiego chatbota, będziemy kłaść szczególny nacisk na dopracowanie promptu systemowego – tak aby AI od początku zachowywała się zgodnie z naszymi założeniami (np. jako uprzejmy doradca NGO czy specjalistka od edukacji finansowej młodzieży). Będziemy także używać zaawansowanych technik w obrębie promptów użytkownika, by poprowadzić model przez złożone zadania.

Chain-of-Thought: rozumowanie krok po kroku

Często zależy nam, aby AI rozwiązywała złożone problemy w kilku krokach, zamiast udzielać szybkiej (i czasem błędnej) odpowiedzi. Tutaj przydaje się technika Chain-of-Thought (CoT), czyli tzw. “łańcuch myśli”. Polega ona na zachęceniu modelu do jawnego przedstawienia swojego toku rozumowania przed udzieleniem ostatecznej odpowiedzi. Badania pokazują, że włączenie takich pośrednich kroków znacząco poprawia trafność i logikę odpowiedzi modeli językowych. Innymi słowy, zamiast otrzymać sam wynik, prosimy model by pomyślał na głos.

<aside> 💡

Przykład: zadamy pytanie wymagające rozumowania (np. logiczną zagadkę albo problem matematyczny) i każemy modelowi wypisać etapy dochodzenia do rozwiązania. Można to osiągnąć poprzez odpowiednią instrukcję w promptcie (np. „Przeanalizuj problem krok po kroku zanim odpowiesz” albo w języku angielskim: "Let's think step-by-step").

</aside>

Na poniższej ilustracji porównano standardowe podejście z podejściem CoT: po lewej model odpowiada na pytanie od razu, popełniając błąd, a po prawej zmuszony jest rozpisać rozumowanie – dzięki czemu dochodzi do poprawnego wniosku. Zielone i niebieskie zaznaczenia pokazują odpowiednio rozpisane etapy rozumowania modelu i prawidłową odpowiedź. Wyraźnie widać, że zachęcenie modelu do przeanalizowania danych (np. wykonania obliczeń krokami) prowadzi do większej dokładności. Technika CoT jest szczególnie przydatna w zadaniach wymagających logiki, matematyki czy analizy przyczynowo-skutkowej – pozwala uniknąć pochopnych, pojedynczych odpowiedzi. W naszym przewodniku będziemy wykorzystywać CoT np. przy zadawaniu AI złożonych poleceń (jak przeanalizowanie dłuższego dokumentu i wyciągnięcie wniosków) albo gdy zechcemy, by chatbot sam zweryfikował swoje odpowiedzi.

obraz.png

<aside> 💡

Wskazówka: Podczas pisania promptu możesz explicite zasugerować modelowi użycie łańcucha myśli. Przykładowo, zamiast pytać: „Czy ten projekt ma szansę na dofinansowanie?”, możesz poprosić: „Przeanalizuj krok po kroku kryteria oceny i powiedz, czy ten projekt ma szansę na dofinansowanie, a na końcu podaj wnioski.” Dzięki temu model najpierw „pomyśli na głos” – np. wypisze, jak projekt spełnia (lub nie) poszczególne kryteria – a dopiero potem udzieli odpowiedzi. Taki styl odpowiedzi bywa bardziej użyteczny, bo pokazuje tok rozumowania, który Ty jako ekspert możesz zweryfikować.

</aside>

RAG: zastrzyk wiedzy na żądanie