Sztuczna inteligencja w branży finansowej – aspekty regulacyjne

Łukasz Łyczko Dyrektor, Radca Prawny, PwC Polska 01/08/18

Branża finansowa wskazywana jest jako największy potencjalny beneficjent komercyjnego wykorzystania sztucznej inteligencji.

Jednocześnie, jest to jeden z najbardziej regulowanych sektorów rynku. Myśląc o dalszym rozwoju nowych technologii warto zadać sobie pytanie, czy to nie regulacje będą stanowiły główną przeszkodę w tym procesie. 

 

AI tak, ale po analizie regulacyjnej

Rozwiązania oparte o różnego rodzaju warianty technologiczne sztucznej inteligencji znajdują już dzisiaj zastosowanie w działalności podmiotów rynku finansowego, takich jak banki, domy maklerskie czy ubezpieczyciele. Z jednej strony przybywa tradycyjnych podmiotów, które wraz ze wzrostem innowacyjności tych rozwiązań widzą dla siebie istotne korzyści biznesowe z ich wykorzystania. Z drugiej strony na rynku działa coraz więcej fintechów, dla których narzędzia AI są integralną częścią działalności. 

Biorąc pod uwagę poziom regulacji sektora finansowego należy zwrócić uwagę, że ewentualne wykorzystanie narzędzi AI lub współpraca z dostawcą tego typu narzędzia – jak każde inne wdrożenie o charakterze IT – podlegać powinno ocenie z punktu widzenia regulacyjnego. Analiza taka nabiera szczególnej istotności w przypadku rozwiązań AI wykorzystujących tzw. algorytmy samouczące, ponieważ efekt pracy z takimi programami może być inny od pierwotnych założeń, co może mieć wpływ na ocenę prawną takiego rozwiązania. Oznacza to, że ocena regulacyjna tego typu rozwiązań technologicznych powinna brać pod uwagę szczególny rodzaj technologii, z jaką ma do czynienia. Może się także zdarzyć, że ocena regulacyjna wpłynie na kształt rozwiązania technologicznego AI (np. poprzez wskazanie obszarów danych, w jakich dane narzędzie powinno się poruszać). 

Sztuczna inteligencja na licencji

W przypadku funkcjonowania narzędzia AI z wykorzystaniem danych finansowych pozyskanych od klienta, instytucji finansowej lub instytucji finansowej za zgodą klienta, istnieje ryzyko, że działalność taka może zostać uznana za wymagającą licencji lub rejestracji przez Komisję Nadzoru Finansowego.

Szczególną uwagę zwrócić należy na działalność regulowaną o charakterze technicznym. Dobrym przykładem jest regulowany w ustawie o usługach płatniczych tzw. acquiring lub usługa dostępu do informacji o rachunku. Może zdarzyć się, że usługa świadczona przez dostawcę AI (np. usługa oparta o analizę danych płatniczych) w danym modelu wymagać będzie licencji na świadczenie usług płatniczych (np. w przypadku kwalifikacji usługi świadczonej przez taki podmiot jako usługi dostępu do informacji o rachunku).

W przypadku, w którym dane narzędzie AI (np. chatbot) dokonuje analizy sytuacji klienta i przekazuje informacje dotyczące inwestycji, należy rozważyć kwalifikację takiej czynności, jako świadczenia usługi maklerskiej – doradztwa inwestycyjnego. Ważne są także interakcje AI z klientem, które zmierzają do zawarcia przez klienta umowy ubezpieczenia lub kredytu – działalność taka może być niekiedy zakwalifikowana, jako działalności pośrednika, co także może wymagać odpowiedniej rejestracji w KNF i dostosowania przekazów marketingowych do odpowiednich przepisów. 

Żaden ze wskazanych przykładów nie ma charakteru oczywistego. Ustawy rynku finansowego (np. ustawa o usługach płatniczych) zawierają często odpowiednie wyłączenia regulacyjne dla tzw. dostawców usług technicznych. Niemniej ewentualne skorzystanie z takiego wyłączenia wymaga odpowiedniego ustrukturyzowania usługi. Dotyczy to także usług związanych ze sztuczną inteligencją. 

AI a ryzyka związane z tajemnicą zawodową i ochroną danych 

Wykorzystanie przez instytucje finansowe narzędzi AI pochodzących od zewnętrznych podwykonawców wiązać może się z koniecznością udostępnienia tym podmiotom tajemnicy zawodowej (np. tajemnicy bankowej lub ubezpieczeniowej). W takim przypadku pamiętać należy o realizacji wymogów przewidzianych w odpowiednich przepisach dla umów outsourcingowych, a w szczególności o zapewnieniu, że dane narzędzie nie będzie korzystać z danych objętych tajemnicą innych niż niezbędne dla danej usługi.

W kontekście powyższego szczególnie istotne wydaje się zapewnienie realizacji wytycznych human in control oraz human in command w celu utrzymania kontroli nad narzędziem AI. Powinno to pozwolić na lepsze zabezpieczenie współpracy przed ewentualnym wyciekiem lub nadużyciem wykorzystania danych. 

Zarówno wdrożenie wypracowanej wewnętrznie przez daną instytucję finansową technologii AI, jak i współpraca z zewnętrznym podwykonawcą, wymagają szczegółowej analizy regulacyjnej opartej o przepisy sektorowe właściwe dla danej instytucji. Wynik takiej analizy może oznaczać konieczność dokonania zmian w działaniu danego narzędzia, ale powinien jedocześnie zabezpieczyć taką instytucję przed konsekwencjami braku zgodności z prawem. 

Wdrożenie rozwiązania technologicznego opartego o AI może stanowić wyzwanie regulacyjne w wielu organizacjach rynku finansowego. Należy zwrócić uwagę, że znaczna część regulacji rynku finansowego pozostaje dzisiaj technologicznie neutralna. Oznacza to, że umiejętne dostosowanie rozwiązań AI do wymogów prawnych powinno pozwolić na jej biznesowe wykorzystanie.

Niemniej jednak, podmioty rynku finansowego powinny zwrócić uwagę na ewentualną działalność legislacyjną na poziomie europejskim dotyczącą AI. Głos rynku może być kluczowy dla utrzymania pozytywnych perspektyw rozwoju technologii AI w branży finansowej.

 

Skontaktuj się z nami

Łukasz Łyczko

Łukasz Łyczko

Dyrektor, Radca Prawny, PwC Polska

Tel.: +48 519 507 952

Obserwuj nas