Human‑in‑the‑Loop: zatwierdzanie narzędzi i treści wysokiego ryzyka
Klasyczna kontrola: jeśli decyzja ma koszt lub ryzyko, potrzebuje autoryzacji. Ten rozdział pokazuje, jak ująć to w Engine: tryby wykonania, bramki, audyt i regresje.
HITL: kontrola tam, gdzie koszt błędu jest wysoki
Human‑in‑the‑Loop nie jest „hamulcem”. To mechanizm bezpieczeństwa i jakości, uruchamiany tylko wtedy, gdy model wchodzi w obszar wysokiego ryzyka: decyzje prawne, finansowe, operacje nieodwracalne, ujawnienie danych lub działania na kontach użytkowników.
Klasyfikacja ryzyka (prosty model)
- Low: informacyjne odpowiedzi bez narzędzi i bez danych wrażliwych.
- Medium: użycie narzędzia „read-only”, brak PII, brak skutków trwałych.
- High: write actions, finanse, legal, PII, eskalacje uprawnień.
Wzorzec zatwierdzania
- Propozycja: model generuje plan/zmianę i uzasadnienie + cytowania.
- Podgląd skutków: co dokładnie zrobi narzędzie (diff / preview).
- Zatwierdzenie: osoba odpowiedzialna (RACI) akceptuje, odrzuca albo modyfikuje.
- Wykonanie: narzędzie działa z tokenem czasowym i pełnym audytem.
Artefakty audytowe
- request_id, trace_id, user_id (z redakcją danych),
- policy_version, tool_contract_version,
- decyzja (approve/deny) i powód,
- wynik wykonania + ewentualna kompensacja/rollback.
- AUTO‑EXECUTE vs APPROVAL vs BLOCK
- reguły bramek i odpowiedzialność
- audyt decyzji człowieka
- symulator doboru trybu