Michał Zacharski, Kamil Rudol: Sztuczna inteligencja okiem adwokatów

Pole do wykorzystania AI w kancelarii jest szerokie, ale też wymagające.

Publikacja: 24.07.2024 04:30

Michał Zacharski, Kamil Rudol: Sztuczna inteligencja okiem adwokatów

Foto: Adobe Stock

Ostatnio w prowadzonym przez nas dla newonce.radio podcaście „Prawilnie Przypominamy” rozmawialiśmy z mec. Mikołajem Pietrzakiem, dziekanem Okręgowej Rady Adwokackiej w Warszawie, m.in. o szansach i zagrożeniach związanych z używaniem sztucznej inteligencji przez adwokatów. Kontynuowaliśmy rozmowę długo później, spierając się o niektóre aspekty AI. Dyskusja zbiegła się w czasie z nabyciem na potrzeby naszej działalności prawniczej narzędzia Chat GPT 4. Postanowiliśmy sprawdzić, czy może ono być dla nas przydatne. Zwłaszcza w obliczu tezy prof. Noama Chomskiego, że sztuczna inteligencja to po prostu narzędzie plagiatowe, wydało nam się to ryzykowne, ale przyjęliśmy, że dopóki nie używamy Chatu GPT jako wsparcia w konstruowaniu naszych wypowiedzi pisemnych lub ustnych, przy wykorzystaniu tych samych sformułowań, które narzędzie podpowiada, będziemy mogli bezpiecznie z niego korzystać i obserwować, jak wpływa na nasze środowisko pracy.

Jak ona to robi?

Chcieliśmy zacząć od lekkiej podbudowy teoretycznej, ale ku naszemu zdumieniu okazało się, że nikt tak naprawdę nie wie, jak sztuczna inteligencja działa. Wyjaśnił nam to prof. Andrzej Dragan. Wiadomo, że chodzi o uczenie maszynowe, algorytmy przetwarzania danych, sieci neuronowe i przetwarzanie głębokie, ale nikt nie wie, dlaczego żadnemu z nas nie udaje się pokonać komputera w szachy, pokera czy jakąkolwiek inną grę. Obecnie pokonanie maszyny jest niemożliwe. Co gorsza, nie wiemy, jak maszyna to tak naprawdę robi.

Zasadniczo celem sztucznej inteligencji jest zrekonstruowanie charakterystycznego dla człowieka sposobu postrzegania rzeczywistości i wchodzenia z nią w interakcje, a kolejnym jest przekroczenie ludzkich ograniczeń w tym obszarze. O wielu kwestiach związanych z postrzeganiem rzeczywistości przez człowieka wiemy właściwie niewiele. Na poziomie nauk zajmujących się ludzkim umysłem wciąż nie rozwiązano licznych zagadek. Nie wiadomo nawet dokładnie, jak działa ludzki mózg. Trudno świadomie kopiować coś, czego się nie zna. Zresztą maszyna uczy się obecnie dużo wolniej niż człowiek. Trzeba wtłoczyć do niej bardzo dużo danych, by czytelne stały się dla niej wzorce. Dlatego na przykład zupełnie inaczej szkoli się kierowcę, który potrzebuje ok. dwudziestu godzin, by „załapać”, na czym polega względnie bezpieczna jazda samochodem, niż maszynę, która ma zostać kierowcą autonomicznego samochodu. Ta musi posiąść niepomiernie więcej danych, by zrozumieć, jak prowadzić samochód i jak zachowywać się w określonych sytuacjach na drodze.

Sztuczna inteligencja jest jednak atrakcyjna, ponieważ dzięki inteligencji rozwiązujemy problemy. Uczenie maszynowe, dzięki rozpoznaniu wzorców w danych i umożliwionemu przez to prognozowaniu, potrafi pomóc w zrozumieniu potężnych zbiorów danych. Z drugiej strony można pewne procesy automatyzować lub przyspieszać.

Test w kancelariach

Wielki wizjoner i filozof Stanisław Lem powiedział kiedyś, że spisując swoje fantasmagorie technologiczne, w których się pławił, kreślił niejako mapę Himalajów, jednak nie podejrzewał, że człowiek będzie chciał wejść na najmniej interesujące szczyty. Słowa te traktujemy jako przypomnienie, że natura ludzka może pchać nas na poziomie cywilizacyjnym w kierunku zastąpienia człowieka maszyną tam, gdzie nie powinno to nastąpić. Z różnych powodów nie chcielibyśmy obudzić się w rzeczywistości, w której sędzia zostaje zastąpiony przez maszynę, do której obie strony sporu wprowadzają swoje pisma i oczekują werdyktu. Nie widzimy jednak przeszkód, by sędzia posiłkował się narzędziami, których dostarcza cywilizacyjny rozwój, w tym opartymi na sztucznej inteligencji. Oczywiście dopóki to sędzia na końcu podejmuje świadomie każdą istotną z perspektywy sposobu rozwiązania sporu decyzję. Uważamy, że podobnie jest z adwokatami. Dopóki AI stanowi dla nich wsparcie, wszystko wydaje się w porządku.

Dotąd przetestowaliśmy kilka sposobów wykorzystania sztucznej inteligencji w kancelarii adwokackiej. Prosiliśmy o przeanalizowanie dokumentów i wypowiedzenie się o proponowanych kierunkach rozumowania zgodnych z interesem klienta. Wskazywaliśmy tekst do tłumaczenia z języka obcego. Pytaliśmy o występowanie określonych norm w zbiorze tekstów ustaw i innych aktów normatywnych. Świetnie byłoby mieć również spersonalizowanego asystenta, który będzie zarządzać terminarzem, pocztą elektroniczną, a także odpowiadać na rutynowe zapytania, odciążając prawników od administracyjnych obowiązków.

Szersze zastosowanie

Wydaje się, że zastosowanie sztucznej inteligencji w kancelarii prawnej może sięgać znacznie głębiej. AI może skanować i analizować ogromne ilości dokumentów prawnych w krótkim czasie, identyfikując kluczowe informacje i wzorce. Dzięki temu prawnicy mogą szybciej przetwarzać dane, koncentrując się na bardziej skomplikowanych aspektach prowadzonych spraw. Sztuczna inteligencja może również przeszukiwać bazy danych i analizować orzecznictwo, pomagając w znalezieniu odpowiednich tez orzeczniczych i wykładni. Może w końcu identyfikować potencjalne ryzyka prawne w umowach i transakcjach, pomagając prawnikom w minimalizowaniu zagrożeń dla klientów.

Narzędzia AI są ponadto w stanie generować wstępne wersje dokumentów prawnych, takich jak umowy, pisma procesowe czy opinie prawne. Tu jednak trzeba zachować najdalej idącą ostrożność.

Niedawno Michał Jackowski i Michał Araszkiewicz przeprowadzili wśród prawników badanie, w którym zadali m.in. pytanie, jakie jedno narzędzie wybraliby na ich zasadnicze (krytyczne) potrzeby przy założeniu, że żadnych ograniczeń budżetowych i technologicznych nie ma. Okazało się, że najczęściej wybierano systemy AI, tj.: generatory dokumentów (84,2 proc.), narzędzia do ich weryfikacji (71,4 proc.) i podsumowywania (69,5 proc.), a ponadto systemy wspierające analizę orzecznictwa (63,5 proc.) oraz system zarządzania zgodnością i zarządzania ryzykiem (59,1 proc.).

Sztuczna inteligencja rozwija się tak dynamicznie, że najwięksi specjaliści potrafią się całkowicie mylić w prognozowaniu osiągnięć na tym polu nawet w krótkiej perspektywie czasowej. Ostatnio jednak dominuje przekonanie, że rozwój AI będzie w najbliższym czasie przebiegał liniowo, bez rewolucyjnych skoków. Przyszłość AI jest niepewna, ale bez wątpienia będzie ona integralną częścią naszego życia. To fascynująca dziedzina, która oferuje ogromne możliwości. Jeśli potrafimy wykorzystać AI w sposób etyczny i bezpieczny, możemy uczynić naszą pracę bardziej efektywną i otworzyć drzwi do nowych, nieznanych dotąd możliwości.

Autorzy są adwokatami, dr. nauk prawnych, partnerami zarządzającymi w kancelarii Zacharski Rudol

Ostatnio w prowadzonym przez nas dla newonce.radio podcaście „Prawilnie Przypominamy” rozmawialiśmy z mec. Mikołajem Pietrzakiem, dziekanem Okręgowej Rady Adwokackiej w Warszawie, m.in. o szansach i zagrożeniach związanych z używaniem sztucznej inteligencji przez adwokatów. Kontynuowaliśmy rozmowę długo później, spierając się o niektóre aspekty AI. Dyskusja zbiegła się w czasie z nabyciem na potrzeby naszej działalności prawniczej narzędzia Chat GPT 4. Postanowiliśmy sprawdzić, czy może ono być dla nas przydatne. Zwłaszcza w obliczu tezy prof. Noama Chomskiego, że sztuczna inteligencja to po prostu narzędzie plagiatowe, wydało nam się to ryzykowne, ale przyjęliśmy, że dopóki nie używamy Chatu GPT jako wsparcia w konstruowaniu naszych wypowiedzi pisemnych lub ustnych, przy wykorzystaniu tych samych sformułowań, które narzędzie podpowiada, będziemy mogli bezpiecznie z niego korzystać i obserwować, jak wpływa na nasze środowisko pracy.

Pozostało 86% artykułu
Rzecz o prawie
Ewa Szadkowska: Ta okropna radcowska cisza
Rzecz o prawie
Maciej Gutowski, Piotr Kardas: Neosędziowski węzeł gordyjski
Rzecz o prawie
Jacek Dubois: Wstyd mi
Rzecz o prawie
Robert Damski: Komorniku, radź sobie sam
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Rzecz o prawie
Mikołaj Małecki: Zabójstwo drogowe gorsze od ludobójstwa?