← Beznazwisk.pl
Strona główna / Blog / Halucynacje AI w pismach procesowych, kto ponosi odpowiedzialność za zmyślone orzeczenia

Halucynacje AI w pismach procesowych. Odpowiedzialność zawodowa i cywilna radcy prawnego

Data publikacji Kwiecień 2026 Czas czytania 6 min Tagi AI, Prawo, Kancelaria

Halucynacja w języku modeli AI to generowanie wypowiedzi, która jest spójna językowo, ma formę prawdopodobną dla danego kontekstu, ale jest nieprawdziwa. W zastosowaniach prawnych najczęstsze postaci halucynacji to:

Wprowadzenie halucynacji do pisma procesowego rodzi skutki po trzech liniach odpowiedzialności: dyscyplinarnej, cywilnej i procesowej. W polskim systemie prawnym, mimo braku głośnych orzeczeń, reguły są już dziś czytelne.

Odpowiedzialność dyscyplinarna

Podstawową normą jest art. 12 Kodeksu Etyki Radcy Prawnego, obowiązek należytej staranności. Przepis wymaga, by radca prawny przy wykonywaniu czynności zawodowych kierował się profesjonalnym charakterem działania. Art. 11 KERP uzupełnia ten obowiązek zasadą sumiennego i uczciwego wykonywania zawodu.

Cytowanie w piśmie orzeczenia, które nie istnieje, narusza obie zasady. Radca prawny podpisując pismo, ręczy treścią własnym nazwiskiem, niezależnie od tego, jak treść powstała. Rekomendacje KIRP z kwietnia 2025 r. wprost wskazują, że „za efekt pracy odpowiada człowiek, niezależnie od tego, czy korzystał z narzędzi wspomagających". Zasłanianie się „błędem AI" nie jest argumentem, który zwalnia z odpowiedzialności dyscyplinarnej.

W praktyce, gdyby halucynacja trafiła do orzecznictwa organów dyscyplinarnych, zarzut dotyczyłby art. 64 ustawy z dnia 6 lipca 1982 r. o radcach prawnych, rażącego naruszenia obowiązków zawodowych, w związku z art. 12 lub art. 11 KERP.

Odpowiedzialność cywilna

Art. 355 § 2 Kodeksu cywilnego nakłada na osobę prowadzącą działalność gospodarczą podwyższony standard staranności, wymaganą „z uwzględnieniem zawodowego charakteru działalności". Klient, który doznał szkody w wyniku złego wyniku procesu, może dochodzić odszkodowania na podstawie przepisów o odpowiedzialności deliktowej (art. 415 i nast. k.c.) lub kontraktowej (art. 471 k.c.).

Przedstawienie przez pełnomocnika sądowi argumentacji opartej na sfabrykowanym orzeczeniu może skutkować:

Każdy z tych skutków jest potencjalnie podstawą roszczenia odszkodowawczego. Ubezpieczenie OC radców prawnych obejmuje szkody wyrządzone klientowi, ale zakład ubezpieczeń może odmówić wypłaty, jeśli uzna, że do szkody doszło wskutek rażącego niedbalstwa (art. 827 § 1 k.c.). Przyjęcie w piśmie procesowym treści wygenerowanej przez AI bez weryfikacji z dużym prawdopodobieństwem zostałoby zakwalifikowane właśnie jako rażące niedbalstwo.

Odpowiedzialność procesowa

Wprowadzenie sądu w błąd co do istnienia orzeczenia lub przepisu może stanowić naruszenie obowiązku prawdy (art. 3 k.p.c.). Obowiązek ten ciąży na stronie postępowania, ale pełnomocnik działa w imieniu strony, jego wypowiedzi procesowe są przypisywane mocodawcy.

Sąd, stwierdziwszy fabrykację, może:

Casus zagraniczny, często przytaczany: sprawa Mata v. Avianca (2023) rozpatrywana przez Sąd Okręgowy Południowego Dystryktu Nowego Jorku. Pełnomocnik powoda w piśmie procesowym powołał sześć orzeczeń wygenerowanych przez ChatGPT, żadne z nich nie istniało. Sąd nałożył na adwokata grzywnę w wysokości 5000 USD, a sprawa stała się globalnym punktem odniesienia w dyskusji o użyciu AI w postępowaniu. W polskim systemie prawnym analogicznej sankcji nie ma, ale same podstawy dyscyplinarne i cywilne są równie silne.

Najczęstsze halucynacje, konkretne typy

1. Sygnatury orzeczeń zgodne ze wzorcem

Modele językowe nauczone są wzorców sygnatur sądowych (np. „I CSK 245/17"). Potrafią generować sygnatury formalnie poprawne, ale nieistniejące, albo przypisywać prawidłowe sygnatury do błędnych wyroków. Każda sygnatura cytowana w piśmie musi być zweryfikowana, w bazie CBOSA (orzeczenia.nsa.gov.pl), w portalu orzeczeń sądów powszechnych (orzeczenia.ms.gov.pl), na stronie SN (sn.pl) lub w systemach Lex/Legalis.

2. Cytaty z doktryny

AI często „cytuje" autorów, do których ma znany wzorzec stylistyczny. Jan Łazowski, Wojciech Katner, Zbigniew Radwański, ich nazwiska mogą pojawić się w kontekstach, w których nigdy się nie wypowiadali. Cytat z doktryny w piśmie procesowym wymaga weryfikacji w oryginalnym źródle (komentarz, monografia, artykuł z bazy czasopism naukowych).

3. Nieaktualny stan prawny

Model trenowany na danych z okresu sprzed nowelizacji nie „wie" o zmianie. W pismach dotyczących przepisów często nowelizowanych (k.p.c., Kodeks spółek handlowych, ustawy podatkowe) ryzyko jest wysokie. Każdy przepis cytowany w piśmie musi być sprawdzony w ISAP (isap.sejm.gov.pl) na aktualnie obowiązujący tekst jednolity.

4. Błędy w przypisach proceduralnych

AI potrafi pomylić terminy procesowe (np. termin na wniesienie apelacji), przepisy o właściwości sądu, formy składania pism. Błąd w takim zakresie może mieć skutki natychmiastowe dla klienta, utratę prawa do środka zaskarżenia, uchybienie terminowi.

Procedura weryfikacji, minimum kancelaryjne

Każde pismo wygenerowane przy współudziale AI powinno przejść przez następujące etapy:

  1. Weryfikacja sygnatur. Każda sygnatura orzeczenia sprawdzona w bazie pierwotnej.
  2. Weryfikacja przepisów. Każdy cytowany artykuł ustawy, w aktualnym tekście jednolitym w ISAP.
  3. Weryfikacja cytatów z doktryny. Jeśli autor jest znany, w jego publikacji. Jeśli nie ma możliwości sprawdzenia, cytat usunąć.
  4. Weryfikacja dat. Daty wejścia w życie przepisów, terminy procesowe, zawsze w oficjalnym źródle.
  5. Weryfikacja logiki argumentu. Sprawdzenie, czy argument AI nie opiera się na błędnym założeniu (np. nieprawidłowej kwalifikacji umowy, niewłaściwym trybie postępowania).
  6. Oświadczenie o weryfikacji. W kancelarii wdrożonej procedurze, pisemne potwierdzenie osoby, która weryfikowała, z datą.

Bezpieczniejsza alternatywa, najpierw anonimizuj, potem analizuj

Wiele halucynacji wynika z tego, że AI dostaje niepełny kontekst. Beznazwisk.pl pozwala wysłać do AI pełny dokument bez identyfikacji stron, zmniejszając ryzyko niepełnej odpowiedzi.

Pobierz bezpłatnie

Co powinna przewidywać polityka AI w tym zakresie

Źródła

  • Ustawa z 6 lipca 1982 r. o radcach prawnych (art. 3 ust. 2, art. 64)
  • Kodeks Etyki Radcy Prawnego, art. 11, 12, 15
  • Kodeks cywilny, art. 355 § 2, art. 415, art. 471, art. 827 § 1
  • Kodeks postępowania cywilnego, art. 3, art. 103, art. 217 § 3
  • Rekomendacje KIRP dotyczące korzystania z narzędzi AI, kwiecień 2025 r.
  • Mata v. Avianca, Inc., No. 22-cv-1461 (S.D.N.Y.), postanowienie z 22 czerwca 2023 r.

Przeczytaj również


Autor: Zespół Beznazwisk.pl. Tekst ma charakter informacyjny i nie stanowi porady prawnej.