LO:ME

Sztuczna inteligencja może zostać z powodzeniem wykorzystywana  w większości aspektów życia społecznego i zawodowego, w tym również w pracy prawników i wymiarze sprawiedliwości.  Możliwości jej wykorzystania w praktyce prawniczej i postępowaniach sądowych są bardzo szerokie, począwszy od usprawnienia pracy prawników poprzez np. przygotowywanie projektów umów, weryfikację dokumentów aż po wydawanie wyroków przez AI. Czy Sędziowie AI mogą być bardziej sprawiedliwi niż sędziowie-ludzie, ponieważ jak pokazują badania sędzia-człowiek nigdy nie jest wolny od swoich przekonań, co jest immanentną cechą bycia człowiekiem.

 

Zgodnie z art. 3 Aktu o sztucznej inteligencji w brzmieniu przyjętym przez Parlament Europejski w dniu 14.06.2023 r.   „system sztucznej inteligencji” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może – do wyraźnych lub dorozumianych celów – generować wyniki, takie jak przewidywania, zalecenia lub decyzje wpływające na środowiska fizyczne lub wirtualne.

 

Jeśli chodzi o techniczne aspekty z obszaru AI, które powinny być brane pod uwagę rozważając możliwości wykorzystania AI w pracy prawników i w szeroko pojętym wymiarze sprawiedliwości to przede wszystkim uczenie maszynowe,  rozumienie języka naturalnego (NLP), czy stworzenie sztucznych sieci neuronowych, które byłyby nauczone rozumowań prawniczych, wnioskowań i logiki prawniczej. Do prawidłowego wykorzystania możliwości AI do wydawania orzeczeń, istotne jest z jednej strony stworzenie odpowiedniego algorytmu oraz umożliwienie „nauczenia” się przez dany system AI pewnych wzorców, z drugiej strony należy podkreślić, że stworzenie funkcjonalnego narzędzia wykorzystującego AI jest niemożliwe bez odpowiedniej bazy danych, w której znajduje się bardzo duża ilość (tysiące, dziesiątki tysięcy) odpowiednich danych koniecznych do nauczenia przez system AI. W przypadku stworzenia algorytmów wykorzystania AI do wydawania rozstrzygnięć w postępowaniach sądowych konieczne jest stworzenie takiej bazy danych i informacji, które umożliwią algorytmowi nauczenie się przepisów, analizę stanu faktycznego i materiału dowodowego, a następnie  subsumpcję przepisów.

 

Wykorzystanie systemów AI na potrzeby wymiaru sprawiedliwości zalicza się do systemów wysokiego ryzyka.

Oznacza to, że podmioty wykorzystujące systemy AI wysokiego ryzyka miałyby szereg obowiązków takich, jak m.in. zarządzanie danymi i ryzykiem, szczegółowej dokumentacji technicznej dla celów rozliczalności, rozbudowanych obowiązków informacyjnych wobec użytkowników, a także kontroli bezpieczeństwa systemu obejmującej cały cykl jego funkcjonowania, a w przypadku nie wypełniania tych obowiązków podlegać karom finansowym.

 

Wyzwaniem jest stworzenie algorytmu, który pozwoli na analizę sposobu „rozumowania” AI, czyli tzw. black box. Problemem bowiem będzie zarówno  udowodnienie błędu, jak również na jakim etapie powstał błąd – projektowania, działania, czy też uczenia.