1. Kontekst
Organizacja potrzebuje systemu, który odpowiada na pytania na podstawie firmowej wiedzy. Wiedza zmienia się,
musi być wersjonowana, a odpowiedzi muszą być audytowalne (kto, kiedy, na jakiej podstawie).
2. Kryteria decyzji (drivers)
- Świeżość: jak często zmienia się treść?
- Atrybucja: czy potrzebne są cytowania i dowód?
- Odwracalność: czy można wycofać zmianę szybko i bezpiecznie?
- Koszt: tokeny vs koszt treningu i utrzymania pipeline’u.
- Compliance: gdzie są dane, jak je usunąć, jak audytować.
3. Opcje
| Opcja |
Plusy |
Minusy |
Kiedy ma sens |
| RAG |
świeżość • cytowania • łatwy rollback |
jakość zależy od SSOT i retrieval |
wiedza zmienna, wymagany audyt |
| Fine‑tuning |
styl i format mogą być stabilniejsze |
trudniejszy audyt • trudniejszy rollback • ryzyko „starych faktów” |
powtarzalne formaty, klasyfikacja, ekstrakcja |
| Hybryda |
RAG dla faktów + tuning dla formatu |
większa złożoność operacyjna |
gdy potrzeba i dowodu, i stabilnego stylu |
4. Decyzja
Dla domeny „wiedza i procedury” wybieramy RAG jako domyślny mechanizm faktów.
Fine‑tuning dopuszczamy tylko, gdy:
- celem jest format/klasyfikacja, a nie świeże fakty,
- dane treningowe są czyste i zgodne (privacy/compliance),
- jest plan wersjonowania i rollbacku modelu.
5. Konsekwencje
- Inwestujemy w SSOT: kanoniczność, wersje, reindeks.
- Wprowadzamy kontrakt cytowań i bramkę „no‑answer”.
- Traktujemy retrieval jako element krytyczny (monitoring, metryki, testy).
6. Follow‑ups
- Ustalić minimalne metryki coverage/attribution dla domeny.
- Zdefiniować politykę retencji embeddingów i logów retrieval.
- Opracować standard „hybrydy” dla przypadków formatu (structured outputs).