To trzeci artykuł z serii poświęconej temu, jak odpowiedzialna sztuczna inteligencja wzmacnia funkcje związane z zarządzaniem ryzykiem, dostarczając wartość i wspierając innowacje wykorzystujące AI. Przeczytaj poprzednie.
Szybkie tempo rozwoju AI oraz rosnące spektrum nowych zastosowań tej technologii znacznie wyprzedziły zdolność organizacji, które ustalają standardy branżowe, do nadążania za zmianami w otoczeniu technologicznym i biznesowym.
Biorąc pod uwagę, że większość standardów tego typu dla AI jest dobrowolna (w przeciwieństwie do regulacji, które mają wiążącą moc prawną), firmy i liderzy ds. ryzyka powinni dokładnie rozważyć koszty i czas związany z każdą certyfikacją - teraz bardziej niż kiedykolwiek.
Z drugiej strony, standardy nadal stanowią cenny punkt odniesienia dla firm, które chcą uzyskać zewnętrzne potwierdzenie, że są na właściwej drodze. Mogą być kluczowymi narzędziami w kształtowaniu struktury rozwoju AI w organizacji, przygotowywaniu się na przyszłe regulacje oraz budowaniu praktyk związanych z odpowiedzialną sztuczną inteligencją.
Przez lata standardy branżowe stanowiły dla organizacji klarowny punkt odniesienia -sposób na zademonstrowanie jakości, podejścia do zarządzania ryzykiem oraz budowanie zaufania wśród interesariuszy. Ich spełnienie wymagało dostosowania operacji do odpowiednich ram, uzyskania certyfikacji i wykorzystania jej do potwierdzenia wiarygodności wobec klientów i organów nadzoru.
Przez ostatnich kilka lat organy standaryzacyjne kontynuowały tworzenie ram dla AI (np. ISO 42001, NIST AI RMF), opierając się na dotychczasowym modelu działania i dostępnej wówczas technologii. Tempo zmian w obszarze AI nie pozostało bez wpływu na istniejące lub opracowywane standardy dla AI.
Nowe technologie są wykorzystywane w coraz bardziej złożonych łańcuchach dostaw czy też nierzadko osadzane w podstawowych systemach informatycznych, które są stosowane w firmach od wielu lat, np. systemy ERP. Czasami informacja o tym jakie modele są zaimplementowane lub jakie dane zostały wykorzystanie do budowy modelu jest ograniczona. W związku z tym organizacje tworzące standardy musiały wziąć pod uwagę wiele czynników, aby dostosowywać standardy do zmieniających się praktyk i technologii.
Firmy wdrażające AI, powinny skupić się na budowaniu programów opartych na tym, co nazywamy strategiczną odpornością: elastycznych strukturach zarządzania, które mogą ewoluować wraz z rozwojem technologii AI. Standardy mogą dostarczać użytecznych zasad przewodnich i wskazówek dla tych działań, natomiast firmy powinny interpretować je świadomie, skupiając się na kluczowych zdolnościach, takich jak zarządzanie rejestrem rozwiązań, testowanie, walidacja, ciągłe monitorowanie i zarządzanie ryzykiem.
Podsumowując, w kontekście AI standardy przestają być po prostu „punktem na checkliście”, którego odhaczenie zapewnia wiarygodność. Nadal jednak mogą zostać wykorzystane przy planowaniu strategii i pomóc firmom przygotować się na przyszłe zmiany i wyzwania technologiczne i nowe regulacje.
Organizacje powinny rozważyć wykorzystanie standardów, które mogą stanowić drogowskazy na drodze rozwoju i adopcji AI oraz pomóc przygotować się na przyszłe wymogi regulacyjne.
Na przykład:
Przykładowo, wykorzystanie istniejących standardów rynkowych pozwala firmie na podążanie za wypracowanym podejściem, które opiera się na wspólnym języku i zrozumieniem podobnych wyzwań, szans i rozwiązań, które mogą być wykorzystane w zakresie zarządzania AI. Nawet samo zdefiniowanie, czym jest "AI" w danej branży może być cenne z perspektywy ładu korporacyjnego. Te wysiłki mogą również pomóc organizacjom zrozumieć, jak AI przekształca ich ekosystem oraz dostosować się do praktyk odpowiedzialnej AI, rozwijanych przez innych uczestników rynku. Na przykład w branży rozrywkowej halucynacje AI mogą być mniej problematyczne niż w opiece zdrowotnej, a definicje odpowiedzialnego użycia AI będą się znacznie różnić pomiędzy tymi sektorami. Dodatkowo, stosowanie standardów rynkowych pozwala firmom pozycjonować się jako liderzy w zakresie odpowiedzialnego wykorzystania AI.
Poprzez strategiczne podejście do standardów branżowych firmy mogą skuteczniej zarządzać ryzykiem związanym z AI. Warto zacząć od następujących działań:
Dostosuj standardy ładu korporacyjnego AI do swojej strategii biznesowej.
Nie wybieraj ani nie wdrażaj standardów bezrefleksyjnie. Wyraźnie określ, w jaki sposób AI wspiera cele biznesowe - a następnie dostosuj praktyki zarządzania do wybranego kierunku strategii.
Buduj programy z myślą o elastyczności i odporności.
Projektuj swoje programy zarządzania ryzykiem i zgodnością AI z myślą, że konieczny będzie ich stały rozwój. Załóż, że Twoje przypadki użycia AI, ryzyka i otoczenie regulacyjne będą się zmieniać i zaplanuj to z wyprzedzeniem. To, co chcesz osiągnąć w pierwszym roku, prawie na pewno będzie wyglądać inaczej w kolejnych latach.
Traktuj standardy jako elastyczne ramy.
Podchodź do standardów branżowych (takich jak ISO 42001 czy NIST AI RMF) jako do zestawu narzędzi, a nie sztywnych instrukcji. Skoncentruj się na kluczowych kompetencjach, takich jak inwentaryzacja zasobów AI, ich testowanie i walidacja oraz monitorowanie zamiast na spełnianiu formalnych wymogów wyłącznie po to, aby je “odhaczyć”.
Angażuj się w grupy branżowe, aby rozwijać wiodące praktyki i standardy.
Takie działanie sprzyja współpracy, daje wczesny wgląd w nadchodzące regulacje i pozwala porównać, jak Twoje postępowanie wypada na tle innych, co pozwala na bieżąco dostosowywać się do zmiennych oczekiwań.
Inwestuj w zespoły lub partnerów z odpowiednią wiedzą.
Biorąc pod uwagę złożoność i tempo zmian, upewnij się, że masz dostęp do ekspertów, którzy potrafią analizować przyszłe trendy, interpretować zmieniające się standardy i doradzać w zakresie strategicznej adaptacji do nich.
Poprzez dostosowanie standardów do celów biznesowych, projektowanie elastycznych programów zarządzania i rozwoju oraz aktywne uczestnictwo w grupach branżowych firmy mogą skuteczniej zarządzać ryzykiem związanym z AI i odgrywać wiodącą rolę w kształtowaniu przyszłych praktyk. PwC może pomóc organizacjom w pełnym wykorzystaniu zmieniających się standardów, oferując dogłębną ekspertyzę, strategiczne spojrzenie i dopasowane wsparcie w budowaniu przyszłościowych programów odpowiedzialnego wykorzystania AI.
Artykuł na podstawie: https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-industry-standards.html
Marek Chlebicki
Ewa Wojtowicz-Presz
Jakub Szerszeń