Sztuczna inteligencja – kluczowe aspekty prawne

Łukasz Łyczko Dyrektor, Radca Prawny, PwC Polska 20/03/18

Zdefiniowanie danego zagadnienia technologicznego to podstawa do oceny jego ryzyk prawnych. Jest to kwestia kluczowa także dla rozwiązań nazywanych sztuczną inteligencją

Terminu „sztuczna inteligencja” lub „AI” (z ang. Artificial Intelligence) używa się do opisu wielu, często odmiennych technologicznie rozwiązań. Z każdym z nich wiązać mogą się inne skutki i ryzyka prawne. Dlatego kwestia ta nabiera szczególnego znaczenia  przy każdej próbie opisu zagadnień prawnych. 

Sztuczna inteligencja dzisiaj to - w powszechnym odbiorze - termin niezwykle pojemny, używany dla urządzeń elektronicznych oraz systemów komputerowych, które potrafią analizować środowisko, do którego zostaną przypisane oraz uczyć się i działać w odpowiedzi na bodźce pozyskane z danego środowiska.

Potrzeba ustawowej definicji

Istnieje pokusa zdefiniowania sztucznej inteligencji w wymiarze ustawodawczym. Na potrzebę precyzyjnego zdefiniowania AI w ramach prawnych wskazał już Parlament Europejski oraz Europejski Komitet Ekonomiczno-Społeczny. Jak dotąd jednak, żadna konkretna oraz odpowiednio ostra definicja nie została wypracowana, co w kontekście tempa rozwoju nowych technologii czyni tę kwestię jeszcze bardziej palącą.

Regulacja zjawiska AI powinna rozpoczynać się od ustalenia jej zakresu przedmiotowego i podmiotowego – tym samym precyzyjnego zdefiniowania jakie zjawisko technologiczne należy uznać za sztuczną inteligencję w jej rozumieniu.  Taka ustawowa definicja charakteryzować powinna się więc z jednej strony maksymalną ostrością (tak, aby nie budzić dodatkowych wątpliwości prawnych), z drugiej jednak strony będzie ona musiała być uniwersalna technologicznie w takim stopniu, aby nie ograniczała rozwoju technologii, a jednocześnie była w stanie realizować cele ustawodawcy pomimo takiego rozwoju. Warto mocno podkreślić, że to właśnie  ostrość definicji może być kluczowa dla rynku, który musi mieć pewność czy podlega danej regulacji czy nie.

Podstawowe koncepcje prawne

Sztuczna inteligencja to duże wyzwanie także dla znanych dzisiaj w systemie prawa podstawowych koncepcji prawnych. Istnieją takie modele technologiczne sztucznej inteligencji, których ujęcie w znane dzisiaj ramy prawne może okazać się bardzo utrudnione. Ciekawym przykładem takiego zagadnienia jest kwestia ważności oświadczenia woli wyrażanego przez lub za pomocą sztucznej inteligencji.  Kwestia ta może nabierać znaczenia w przypadku sztucznej inteligencji, która wykazuje samodzielność w podejmowaniu decyzji. 

Polska nauka prawa oraz orzecznictwo stosunkowo spójnie akceptuje tzw. obiektywne teorie oświadczeń woli wskazujące na to, że to zewnętrzny objaw oświadczenia i jego odbiór jest decydujący dla jego oceny. Niemniej jednak wydaje się, że nawet najbardziej liberalne teorie oświadczeń woli nie przewidują sytuacji w której to maszyna (np. algorytm samouczący) w wyniku autonomicznego (tj. bez czynnego udziału człowieka) działania podejmie decyzję oraz wyrazi tę decyzję w stosunku do podmiotu prawa cywilnego.

Od interpretacji tego, czy wyrażone w taki sposób oświadczenie woli można uznać za oświadczenie określone w polskim prawie cywilnym, zależeć będzie ważność realizowanej z jego wykorzystaniem czynności prawnej. Oznacza to, że przy najmniej korzystnej interpretacji, np. w przypadku działania chatbota podejmującego decyzję w sposób autonomiczny, interakcja takiego chatbota z klientem w celu zawarcia umowy może oznaczać, że zawarta w ten sposób umowa jest nieważna. Ten jeden tylko przykład pokazuje wyraźnie, że lista potencjalnych tematów prawnych do rozstrzygnięcia w kontekście sztucznej inteligencji jest ciągle otwarta i wymaga stosownego uregulowania

Problematyczna odpowiedzialność 

Autonomiczne działanie sztucznej inteligencji stwarza też szereg wyzwań pod kątem odpowiedzialności. Polskie prawo cywilne pozwala na przypisanie odpowiedzialności danemu podmiotowi w przypadku możliwości zidentyfikowania tak zwanego adekwatnego związku przyczynowego pomiędzy działaniem tego podmiotu a zdarzeniem skutkującym szkodą. Wydaje się, że przypisanie odpowiedzialności jakiemukolwiek podmiotowi za działalność autonomicznej sztucznej inteligencji może być więc bardzo utrudnione. Taka sztuczna inteligencja działać może bowiem w znacznym stopniu niezależnie od swojego właściciela. Z całą pewnością rozważyć należy, czy korzystanie z określonych rodzajów sztucznej inteligencji nie powinno zostać objęte np. odpowiedzialnością opartą o zasady ryzyka. Pewne kroki w zakresie regulacji tej kwestii podjął ustawodawca w Wielkiej Brytanii. Projekt brytyjski dotyczący autonomicznych samochodów zakłada odpowiednio odpowiedzialność ubezpieczyciela lub właściciela za szkody spowodowane działaniem autonomicznego samochodu. Przypisanie odpowiedzialności za działanie AI do jego właściciela lub obowiązkowego ubezpieczenia każdego urządzenia AI stanowią przykłady pomysłów uregulowania tej kwestii. 

Czy będzie regulacja

Parlament Europejski wskazuje wprost, że Komisja Europejska powinna zająć się tematyką sztucznej inteligencji. Poruszane zarówno przez Parlament Europejski, jak i przez Europejski Komitet Ekonomiczno-Społeczny, tematy wymagające regulacji dotykają szerokiej gamy dziedzin. Z opublikowanych dokumentów wnioskować można, że przyszła regulacja dotyczyć będzie mogła np. obowiązkowej rejestracji, ubezpieczenia czy też wdrożenia odpowiednich zabezpieczeń działalności sztucznej inteligencji (np. tzw. „master kill switch”). 

Podczas gdy na poziomie organów Unii Europejskiej regulacje sztucznej inteligencji nie ujrzały jeszcze konkretnego kształtu ustawodawczego i pozostają w fazie konsultacji, istnieją już jurysdykcje, w których inicjatywy ustawodawcze przybierają konkretne kształty. 

Z informacji medialnych płynących z Estonii wynika, że tamtejszy rząd pracuje nad konkretną regulacją, która między innymi miałaby wskazywać granice, których samodzielnym programom (lub robotom) nie wolno przekraczać czy też zreformować kształt prawa prywatnego w kierunku dostosowania do wyzwań wynikających z AI.

W Europie dostrzega się więc zarówno zagrożenia, jak i korzyści płynące ze sztucznej inteligencji. Tylko odpowiedzialna regulacja może stanowić podstawę do rozwój branży w danym kraju. Jej całkowity brak może rodzić dalsze wątpliwości prawne, a w ekstremalnym wypadku zahamować rozwój branży. Z całą pewnością finalny kształt ewentualnych regulacji podlegać będzie jeszcze wielomiesięcznym szerokim dyskusjom. Warto więc, aby branża technologiczna zaangażowała się w proces konsultacyjny oraz legislacyjny.

Skontaktuj się z nami

Łukasz Łyczko

Łukasz Łyczko

Dyrektor, Radca Prawny, PwC Polska

Tel.: +48 519 507 952

Obserwuj nas