Jak kanadyjskie sądy reagują na stosowanie AI przez prawników.
- Martyna Majewska
- Jan 11
- 5 min read

W czerwcu 2023 roku wspominałam na blogu o tym czy AI może zastąpić prawników. Długa rodzinna rozmowa z młodym człowiekiem będącym entuzjastą nowych technologii skończyła się zleceniem czatowi GPT porównania dwóch systemów prawnych kanadyjskiego i polskiego. Jak pisałam wtedy, wynik nie był oszałamiający. Do tej pory podchodzę z dużą dozą ostrożności do twierdzenia, że AI w ogóle odbierze pracę prawnikom. Raczej z rozbawieniem twierdzę, że na początkowym etapie wdrażania nowej technologii prawnicy mają więcej pracy i dzięki temu, możliwości udziału w ciekawych postępowaniach sądowych.
Ale zmieniło się również moje nastawienie do używania AI jako narzędzia w pracy prawnika.
Poszukajmy razem
Jak wspominałam w mojej notatce z 2023 roku, dodatki AI do programów prawniczych są absolutnym game changer’em (np. LexisNexis AI+) i mówię to z perspektywy osoby pracującej w zawodzie w dwóch systemach prawnych: kontynentalnym i anglosaskim.
Nakładka AI dodawana do aplikacji wykorzystywanych przez prawników w Kanadzie czy w USA jest absolutnie niezastąpionym narzędziem pracy ułatwiającym kwerendę prawniczą w sposób nieporównywalny do dotychczas stosowanego wyszukiwania z zastosowaniem operatorów logicznych (tzw. Boolean search). Czas riserczu prawniczego skrócił się z godzin do minut i przy zastosowaniu narzędzi AI uzyskuje się wyniki, które znacznie ułatwiają przygotowanie pism procesowych i stanowiska strony w toczących się postępowaniach. Przy czym mówię tu o wyszukiwarkach bazujących na zamkniętych zbiorach informacji, w tym przypadku orzeczeń sądowych, co gwarantuje wyższą jakość i pewność wyników uzyskanych przy zastosowaniu np. czatu GPT oraz unika się tak zwanych halucynacji, które bardzo często zdarzają się tym prawnikom którzy nie korzystają którzy korzystają z ogólnodostępnego czatu GPT (nawet w wersji płatnej).
Ucywilizujmy to, co nieuniknione
Kanadyjskie sądy dość szybko, bo już w 2023 roku, wystosowały pierwsze wskazówki i zalecenia dla profesjonalistów i stron biorących udział w postępowaniach sądowych toczących się przed sądami federalnymi. Pierwsze zalecenia były bardzo proste: sędziowie uznali przydatność narzędzi AI w pracy prawnika, natomiast zwrócili uwagę na to, iż
każdy wynik wyszukiwania otrzymywany przy zastosowaniu narzędzi AI musi być weryfikowany przez człowieka.
Koniecznym jest także poinformowanie Sądu i pozostałych stron o wykorzystaniu sztucznej inteligencji do stworzenia lub wygenerowania nowej treści podczas przygotowywania dokumentu składanego do Sądu. Pierwszy akapit dokumentu opracowanego z wykorzystaniem sztucznej inteligencji musi zawierać stosowną informację dla Sądu i stron.
Zalecenia zaktualizowano w maju 2024 r. Wspomniana wcześniej informacja nie jest konieczna w przypadku, gdy używany program nie posiada zdolności twórczych do generowania nowych treści lub gdy został użyty jedynie do sugerowania zmian, udzielania rekomendacji lub krytykowania treści już stworzonych przez człowieka.
W 2025 r. Sąd Najwyższy Ontario wydał dyrektywę w sprawie stosowania sztucznej inteligencji (AI) w postępowaniach sądowych, która jest dość podobna do zaleceń Sądu Federalnego. Komisja ds. Przepisów Cywilnych Ontario poszła o krok dalej. Co istotne, w 2024 r. wprowadzono nowe przepisy do Zasad Postępowania Cywilnego, wymagające, aby każde factum lub opinia biegłego składana do Sądu zawierała podpisane oświadczenie potwierdzające autentyczność każdego cytowanego w nim dokumentu.
Co ja czytam?
Pomimo działań sądów i prób uregulowania zasad stosowania AI w pracy prawników zdarzały się spektakularne wpadki.
W lutym 2024 r. w sprawie Zhang przeciwko Chen. Sąd Najwyższy Kolumbii Brytyjskiej orzekł, że prawnik ponosi osobistą odpowiedzialność za koszty poniesione przez drugą stronę w związku z powołaniem się na dwie fikcyjne sprawy wymyślone przez ChatGPT. Strona wygrywająca sprawę wniosła o zasądzenie dodatkowego odszkodowania od winnego, jednakże Sąd odmówił, wskazując na to, iż takie zadośćuczynienie na gruncie prawa kanadyjskiego musiałoby dotyczyć przypadku „rażącego naruszenia prawa… lub nieuczciwego, umyślnego lub złośliwego działania”. Sam „błąd w ocenie, a nawet zaniedbanie” nie uzasadnia jednak odszkodowania. Chociaż Sąd określił zachowanie prawnika jako nadużycie procedury, ostatecznie stwierdził, że prawnik nie miał zamiaru oszukiwać ani wprowadzać w błąd.
Sąd stwierdził, że prawnik ponosi osobistą odpowiedzialność za zapłatę części kosztów należnych od klienta stronie wygrywającej, ponieważ swoim postępowaniem „doprowadził do poniesienia kosztów bez uzasadnionej przyczyny lub doprowadził do ich wzrostu z powodu opóźnienia, zaniedbania lub innego błędu”. Prawnik został również zobowiązany do analizy wszystkich innych spraw prowadzonych przed sądem w celu sprawdzenia, czy jakiekolwiek materiały zawierają cytaty lub streszczenia spraw uzyskane z ChatGPT lub innych narzędzi generatywnej sztucznej inteligencji, oraz do poinformowania sądu i stron przeciwnych o tym fakcie.
W maju 2025 r. podobny problem pojawił się w sprawie Ko v Li rozpatrywanej przez Sąd Najwyższy Ontario, w której prawnik wnioskodawcy złożył pismo w którym powoływał się na kilka decyzji, które albo nie istniały, albo były nieistotne dla argumentów i tez, które rzekomo popierały. Po stwierdzeniu, że orzecznictwo było najprawdopodobniej halucynacją sztucznej inteligencji. Sąd podkreślił konsekwencje takiego działania, przypominając, iż
„podstawowym obowiązkiem prawnika procesowego jest niewprowadzanie Sądu w błąd".
Na szczęście dla prawnika w sprawie Ko v Li , rozprawa przygotowawcza nigdy się nie odbyła. Na konferencji w sprawie ustalenia harmonogramu rozprawy, Sąd wycofał postanowienie o konieczności posiedzenia przygotowawczego uwzględniając zachowanie winnego prawnika: przyznał się do faktów, przeprosiny oraz podjęcie dodatkowych kroki, w tym zobowiązanie do ukończenia sześciu godzin doskonalenia zawodowego w zakresie etyki prawniczej i zastosowania nowych technologii. Sąd zauważył również, że prawnik zyskał pewną „sławę” z powodu swojego błędu, w tym poprzez publikacje w prasie prawniczej i ogólnej, co stanowiło w pewnym sensie konsekwencje wobec nieprofesjonalnego działania.
W czerwcu 2025 r. Sąd Federalny w sprawie Hussein przeciwko Kanadzie w związku z niezgłoszeniem użycia AI w pismach sądowych, orzekł o odszkodowaniu od prawnika. W tym przypadku pełnomocnicy Wnioskodawców nie ujawnili faktu użycia sztucznej inteligencji i przedstawili sfabrykowane orzeczenia, bez weryfikacji przez osobę przygotowującą dokumentu do Sądu. Ujawnienie faktu korzystania z AI nastąpiło dopiero po wielokrotnych uwagach co w konsekwencji zostało uznane za próbę wprowadzenia w błąd.
Ostatecznie stwierdził, że należy nałożyć skromne odszkodowanie za poniesione w sprawie koszty. W tej sprawie Sąd potwierdził, że
„prawdziwym problemem nie jest wykorzystanie generatywnej sztucznej inteligencji, ale brak zadeklarowania takiego wykorzystania”.
W lipcu 2025 r. Sąd Federalny zajął zdecydowane stanowisko w sprawie Lloyd’s Register Canada Ltd. przeciwko Choi przeciwko Munchang Choi, uczestnikowi postępowania niereprezentowanemu przez profesjonalistę, który złożył wniosek o przywołujący nieistniejące orzeczenia wygenerowane przez AI , bez wymaganego oświadczenia.
Choi miał już udokumentowaną historię cytowania halucynacji AI w co najmniej 30 postępowaniach prowadzonych przez Canada Industrial Relations Board.
Sąd uznał jego wyjaśnienia dotyczące braku doświadczenia i problemów ze zdrowiem psychicznym za niewystarczające, biorąc pod uwagę, że wszystkie strony, zarówno prawnicy, jak i samoreprezentujący się uczestnicy postępowania, ponoszą pełną odpowiedzialność za weryfikację prawidłowości swoich dokumentów i przestrzeganie wymogów dotyczących ujawniania informacji związanych z sztuczną inteligencją. Sąd uznał zachowanie Choi za „skandaliczne, niepoważne, złośliwe i w inny sposób stanowiące nadużycie procedury”.
W sierpniu 2025 r. Sąd Najwyższy Ontario rozpatrywał sprawę, w której aplikant powoływała się na precedensy, które w „zastanawiająco precyzyjny sposób” popierały jego twierdzenia lub nie istniały w ogóle. W tym przypadku SN oddalił wnioski strony informując, iż jakakolwiek próba złożenia dokumentów zawierających odwołania do halucynacji SN spowoduje umorzenie postępowania (sprawę zawieszono wyznaczając stronie termin do złożenia prawidłowo sporządzonych pism). Jeżeli macie ochotę poczytać więcej halucynacjach w prawie kanadyjskim polecam ten blog.



Comments