Zarządzanie zgodnością w obszarze AI obejmuje wiele warstw łańcucha wartości od deweloperów po użytkowników końcowych.
Przyjęcie praktyk odpowiedzialnej AI pomaga ograniczać ryzyko, redukować przyszły dług technologiczny, wzmacniać zaufanie konsumentów oraz wspiera zapewnienie organizacji gotowości do zmieniających się reżimów regulacyjnych.
To czwarty artykuł z serii poświęconej temu, jak odpowiedzialna sztuczna inteligencja wzmacnia funkcje związane z zarządzaniem ryzykiem, dostarczając wartość i wspierając innowacje wykorzystujące AI. Przeczytaj poprzednie.
Sztuczna inteligencja i towarzyszący jej krajobraz regulacyjny ewoluują w zawrotnym tempie. W konsekwencji, zarządzanie zgodnością i przewidywanie przyszłych regulacji na poziomie krajowym i międzynarodowym staje się coraz większym wyzwaniem. Kluczowym jest monitorowanie zmian na bieżąco, ich interpretacja oraz adaptacja wewnętrznych mechanizmów kontrolnych do nowych wymogów - może to stanowić szczególne wyzwanie dla małych i średnich przedsiębiorstw.
Obraz zmian nie jest jednolity. W niektórych regionach geograficznych oraz niektórych branżach widać tendencje deregulacyjne, podczas gdy w innych następuje wzrost obciążeń prawnych. W konsekwencji, szczególnego znaczenia nabiera prawidłowa kwalifikacja prawa właściwego, a także systematyczna weryfikacja profilu działalności oraz jurysdykcji, w których jest ona prowadzona. Organizacje powinny projektować mechanizmy zgodności z założeniem jednoczesnego obowiązywania wielu porządków regulacyjnych (unijnych, krajowych i sektorowych) oraz zapewnić ich spójne stosowanie w praktyce operacyjnej. W szczególności, można zwrócić uwagę, że wymogi i definicje w zakresie zgodności często różnią się pomiędzy poszczególnymi ramami regulacyjnymi. Dlatego firmy powinny uwzględniać zarówno szybkie tempo zmian technologicznych, jak i rozbieżności pomiędzy reżimami prawnymi.
Doświadczenia z wdrażania innych regulacji mających szerokie zastosowanie, np. RODO — obejmujące m.in. mapowanie procesów, identyfikację ról i podstaw prawnych, projektowanie i wdrożenie mechanizmów kontrolnych oraz ocenę zasięgu terytorialnego — pozostają użytecznym punktem odniesienia w obecnym, zróżnicowanym otoczeniu regulacyjnym.
Szybkie tempo ewolucji technologicznej (1) oraz coraz bardziej złożony krajobraz regulacyjny (2) tworzą dwa zazębiające się wyzwania.
Firmy powinny monitorować postęp w rozwoju technologii AI, wpływ obowiązujących i przyszłych regulacji oraz konsekwencje tych zmian na funkcjonowanie organizacji – zarówno z perspektywy działalności i procesów operacyjnych, jak i w obszarze zgodności. Znajomość potencjalnych zmian technologicznych i ich możliwych skutków w horyzoncie krótko-, średnio- i długoterminowym może pomóc w opracowaniu elastycznej strategii AI. Zmiany te dotkną również deweloperów i podmioty wdrażające, ponieważ wraz ze wzrostem złożoności, a często również poziomem ryzyka technologicznego, najprawdopodobniej zwiększą się także wymogi regulacyjne dotyczące przejrzystości i dokumentacji.
Równolegle do istotnych zmian technologicznych postępuje rozdrobnienie regulacyjne. Działa ono jak przeciwstawna siła, nakładająca na organizacje, zwłaszcza te międzynarodowe, obowiązek stawienia czoła rosnącej liczbie złożonych wyzwań w obszarze zgodności.
W Stanach Zjednoczonych trwa obecnie debata dotycząca kierunku regulacji, a raczej deregulacji, przy jednoczesnym ograniczaniu niejednolitych przepisów ustanawianych przez poszczególne stany (z zastrzeżeniem, że obecnie część stanów planuje wdrożenie własnych przepisów dot. AI). Chociaż formalnie nie zakazano wprowadzania dalszych przepisów na poziomie stanowym, pojawiają się głosy w dyskusji dotyczące wprowadzania tzw. minimalnych standardów w zakresie AI na poziomie federalnym.
Odmienne podejście przyjęła Komisja Europejska. Europejskie przepisy (czyli m.in. AI Act) dążą do stworzenia holistycznego ekosystemu prawnego skoncentrowanego na dobrostanie ludzi, procesach demokratycznych i prawach podstawowych. Jednocześnie są też przypadki państw rozwijających własne, odmienne podejścia.
Ta różnorodność zmusza firmy do uwzględniania w planach wielu kierunków i podejść regulacyjnych, z których każdy przyjmuje odrębny harmonogram, definicje oraz oczekiwania w zakresie zgodności.
W przypadku firm działających w USA, dodatkową komplikacją jest konieczność poruszania się w zróżnicowanym krajobrazie stanowych i lokalnych przepisów, z których wiele, choć nie dotyczy bezpośrednio AI, znacząco wpływa na jej zastosowania, na przykład w obszarze zatrudnienia lub ochrony konsumentów.
Ponadto zgodność z regulacjami dotyczącymi AI obejmuje liczne współzależności w całym łańcuchu wartości: od deweloperów i dystrybutorów po podmioty wdrażające i użytkowników końcowych. Zapewnienie zgodności wśród tych interesariuszy może znacząco zwiększyć złożoność procesu zarządzania dostawcami i umowami, dodatkowo utrudniając już i tak skomplikowane utrzymanie zgodności regulacyjnej.
Przyjmując proaktywne podejście do gotowości regulacyjnej, zespoły ds. zgodności i ryzyka mogą ograniczyć negatywne konsekwencje m.in. ryzyko kar, kosztowne działań egzekucyjnych i opłaty z tytułu działań prawnych.
Mogą również wykorzystać dodatkowe atuty jakie daje wspieranie odpowiedzialnego wykorzystania AI:
Budowanie zaufania: Relacja z konsumentem opiera się na zaufaniu. Firmy, które coraz intensywniej korzystają z AI, powinny budować swoje rozwiązania z myślą o ich użytkownikach końcowych i ich zaufaniu do technologii, z której korzystają. Organizacje, które proaktywnie demonstrują stosowanie praktyk odpowiedzialnej AI, skuteczniej adresują oczekiwania i wartości swoich klientów, co w konsekwencji, buduje zaufanie i stanowi istotny wyróżnik na konkurencyjnych rynkach.
Redukcja przyszłego długu technicznego: Przyjęcie strategicznego, opartego na zasadach podejścia do gotowości regulacyjnej w zakresie AI, pomoże zmniejszyć ryzyko poniesienia kosztów operacyjnych związanych z koniecznością późniejszego przeprojektowania lub modernizacji systemów, czyli wydatków, które mogą zakłócić rozwój produktów i wysiłki innowacyjne organizacji.
Poznaj sześć podstawowych działań w obszarze zarządzania AI i ryzykiem, które mogą dostarczyć trwałą wartość w wielu różnych, rozwijających się reżimach regulacyjnych:
Stwórz złożoną z reprezentantów różnych obszarów strukturę zarządzania sztuczną inteligencją, opartą na zasadach odpowiedzialnej AI. Zapewnij współpracę z różnymi jednostkami biznesowymi, kluczowymi interesariuszami i działami operacyjnymi. Ustanów spójne i skoordynowane działania na rzecz zgodności w zakresie AI w całej organizacji. Korzystając z najlepszych praktyk rynkowych (np. ISO-42001), przygotuj i wdróż w organizacji kompleksową politykę AI, która określi zasady odpowiedzialnego wykorzystania AI w Twojej organizacji i jasno zdefiniuje reguły biznesowe w zakresie właściwego użycia tej technologii.
Stwórz rejestr technologii i przypadków użycia AI w Twojej organizacji. Upewnij się, że masz procesy i narzędzia, które pozwolą zapewnić aktualność informacji w tym rejestrze. Zainwestuj w narzędzia, które usprawnią dokumentację i umożliwią audyt.
Ustanów ustandaryzowaną, opartą na ryzyku metodykę klasyfikacji i oceny ryzyk związanych z AI. Wybierz podejście uwzględniające kluczowe ramy regulacyjne (takie jak AI Act) oraz uznane standardy branżowe (np. NIST AI Risk Management Framework), które pozwolą Ci klasyfikować i oceniać ryzyko związane z technologią AI i jej konkretnymi zastosowaniami.
Bądź na bieżąco z nowymi i nadchodzącymi regulacjami. Monitoruj z pomocą wiarygodnych i zaufanych partnerów co dzieje się w obszarze regulacji. Dzięki temu szybciej zrozumieć potencjalny wpływ proponowanych przepisów na Twój biznes.
Wzmocnij wymogi w zakresie due diligence i klauzule umowne z dostawcami rozwiązań AI oraz określ jasne i rozliczalne zasady odpowiedzialności. Przeanalizuj umowy i relacje z podmiotami zewnętrznymi, aby zrozumieć zobowiązania w zakresie zapewnienia zgodności oraz potencjalne ryzyka i luki wynikające z wykorzystywania AI. Monitoruj zgodność dostawców z przepisami, aby zminimalizować ryzyka regulacyjne związane ze stronami trzecimi.
Podnoś kompetencje w zakresie AI w całej organizacji. Zapewnij szkolenia i programy rozwojowe dla pracowników korzystających z AI - dostosowane do ich ról, umiejętności i różnych sposobów korzystania z tej technologii.
Inwestując w solidne zarządzanie, przekrojową współpracę w ramach organizacji i praktyki odpowiedzialnej AI, można ograniczyć ryzyko, budować zaufanie konsumentów oraz wspierać operacje w coraz bardziej złożonym, globalnym ekosystemie.
Pomagamy organizacjom w poruszaniu się po tym ewoluującym środowisku, oferując strategiczne doradztwo, wgląd w regulacje i praktyczne narzędzia, które wspierają tworzenie odpornych programów w zakresie odpowiedzialnej AI, przynoszących trwałą wartość.
Artykuł na podstawie: https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-regulatory-readiness.html
Partner, Adwokat, Warszawa, PwC Polska
Łukasz Łyczko
Jakub Derulski