Odpowiedzialna sztuczna inteligencja i standardy branżowe

hero image
  • Publication
  • 4 minute read
  • 12 Sty 2026

Główne wnioski

  • Szybki rozwój AI sprawia, że liderzy muszą przemyśleć w jaki sposób wykorzystać istniejące standardy w zakresie ram zarządzania ryzykiem i rozwijać AI w sposób innowacyjny i odpowiedzialny.
  • Tworzenie elastycznych i odpornych frameworków do zarządzania AI jest ważne, aby nadążać za rozwijającymi się technologiami, nowymi regulacjami oraz zmieniającymi się oczekiwaniami interesariuszy.
  • Podejście strategiczne jest niezbędne w okresie zmian technologicznych - działania w zakresie zarządzania powinny wspierać cele biznesowe, jednocześnie uwzględniając szybkie zmiany w możliwościach AI i otoczeniu regulacyjnym.

To trzeci artykuł z serii poświęconej temu, jak odpowiedzialna sztuczna inteligencja wzmacnia funkcje związane z zarządzaniem ryzykiem, dostarczając wartość i wspierając innowacje wykorzystujące AI. Przeczytaj poprzednie.


Szybkie tempo rozwoju AI oraz rosnące spektrum nowych zastosowań tej technologii znacznie wyprzedziły zdolność organizacji, które ustalają standardy branżowe, do nadążania za zmianami w otoczeniu technologicznym i biznesowym.

Biorąc pod uwagę, że większość standardów tego typu dla AI jest dobrowolna (w przeciwieństwie do regulacji, które mają wiążącą moc prawną), firmy i liderzy ds. ryzyka powinni dokładnie rozważyć koszty i czas związany z każdą certyfikacją - teraz bardziej niż kiedykolwiek. 

Z drugiej strony, standardy nadal stanowią cenny punkt odniesienia dla firm, które chcą uzyskać zewnętrzne potwierdzenie, że są na właściwej drodze. Mogą być kluczowymi narzędziami w kształtowaniu struktury rozwoju AI w organizacji, przygotowywaniu się na przyszłe regulacje oraz budowaniu praktyk związanych z odpowiedzialną sztuczną inteligencją. 


Jak sztuczna inteligencja szybko zmienia status quo w zakresie standardów branżowych?

Przez lata standardy branżowe stanowiły dla organizacji klarowny punkt odniesienia -sposób na zademonstrowanie jakości, podejścia do zarządzania ryzykiem oraz budowanie zaufania wśród interesariuszy. Ich spełnienie wymagało dostosowania operacji do odpowiednich ram, uzyskania certyfikacji i wykorzystania jej do potwierdzenia wiarygodności wobec klientów i organów nadzoru.

Przez ostatnich kilka lat organy standaryzacyjne kontynuowały tworzenie ram dla AI (np. ISO 42001, NIST AI RMF), opierając się na dotychczasowym modelu działania i dostępnej wówczas technologii. Tempo zmian w obszarze AI nie pozostało bez wpływu na istniejące lub opracowywane standardy dla AI.

Nowe technologie są wykorzystywane w coraz bardziej złożonych łańcuchach dostaw czy też nierzadko osadzane w podstawowych systemach informatycznych, które są stosowane w firmach od wielu lat, np. systemy ERP. Czasami informacja o tym jakie modele są zaimplementowane lub jakie dane zostały wykorzystanie do budowy modelu jest ograniczona. W związku z tym organizacje tworzące standardy musiały wziąć pod uwagę wiele czynników, aby dostosowywać standardy do zmieniających się praktyk i technologii.

Firmy wdrażające AI, powinny skupić się na budowaniu programów opartych na tym, co nazywamy strategiczną odpornością: elastycznych strukturach zarządzania, które mogą ewoluować wraz z rozwojem technologii AI. Standardy mogą dostarczać użytecznych zasad przewodnich i wskazówek dla tych działań, natomiast firmy powinny interpretować je świadomie, skupiając się na kluczowych zdolnościach, takich jak zarządzanie rejestrem rozwiązań, testowanie, walidacja, ciągłe monitorowanie i zarządzanie ryzykiem.

Podsumowując, w kontekście AI standardy przestają być po prostu „punktem na checkliście”, którego odhaczenie zapewnia wiarygodność. Nadal jednak mogą zostać wykorzystane przy planowaniu strategii i pomóc firmom przygotować się na przyszłe zmiany i wyzwania technologiczne i nowe regulacje.  


Możliwości tworzenia wartości dzięki odpowiedzialnej sztucznej inteligencji

Organizacje powinny rozważyć wykorzystanie standardów, które mogą stanowić drogowskazy na drodze rozwoju i adopcji AI oraz pomóc przygotować się na przyszłe wymogi regulacyjne.

Na przykład:

  • ISO/IEC 42001:2023 - pierwszy międzynarodowy standard dla systemów zarządzania AI, koncentrujący się na ustanawianiu, wdrażaniu, utrzymywaniu i doskonaleniu systemu zarządzania AI. Promuje podejście oparte na analizie ryzyka i uwzględnia kwestie związane z etyką, przejrzystością i odpowiedzialnością.
  • NIST AI Risk Management Framework (AI RMF 1.0) - ramy opracowane przez Amerykański Narodowy Instytut Standardów i Technologii (National Institute of Standards and Technology). Zawierają wytyczne w zakresie zarządzania ryzykiem związanymi z AI, uwzględniające takie kwestie jak sprawiedliwość, prywatność, odpowiedzialność, odporność i bezpieczeństwo.
  • ISO/IEC 23894:2023 - kompleksowe wytyczne dotyczące identyfikacji, oceny i zarządzania ryzykiem specyficznym dla systemów AI, takimi jak uprzedzenia oraz zagrożenia dla przejrzystości i bezpieczeństwa, na każdym etapie cyklu życia. Pomaga organizacjom w dostosowaniu rozwoju i użytkowania AI do ustalonych praktyk zarządzania ryzykiem, takich jak ISO 31000.
  • ISO/IEC 42005:2025 - dostarcza wytycznych dla organizacji przeprowadzających oceny wpływu systemów AI, skupiających się na zrozumieniu, w jaki sposób ich przewidywalne zastosowania mogą oddziaływać na jednostki, grupy lub całe społeczeństwo. Standard wspiera przejrzystość, odpowiedzialność i zaufanie do AI, pomagając organizacjom w identyfikacji, ocenie i dokumentowaniu potencjalnych skutków jego działania w całym cyklu życia.

Przykładowo, wykorzystanie istniejących standardów rynkowych pozwala firmie na podążanie za wypracowanym podejściem, które opiera się na wspólnym języku i zrozumieniem podobnych wyzwań, szans i rozwiązań, które mogą być wykorzystane w zakresie zarządzania AI. Nawet samo zdefiniowanie, czym jest "AI" w danej branży może być cenne z perspektywy ładu korporacyjnego. Te wysiłki mogą również pomóc organizacjom zrozumieć, jak AI przekształca ich ekosystem oraz dostosować się do praktyk odpowiedzialnej AI, rozwijanych przez innych uczestników rynku. Na przykład w branży rozrywkowej halucynacje AI mogą być mniej problematyczne niż w opiece zdrowotnej, a definicje odpowiedzialnego użycia AI będą się znacznie różnić pomiędzy tymi sektorami. Dodatkowo, stosowanie standardów rynkowych pozwala firmom pozycjonować się jako liderzy w zakresie odpowiedzialnego wykorzystania AI.  


Kluczowe działania, które warto priorytetyzować

Poprzez strategiczne podejście do standardów branżowych firmy mogą skuteczniej zarządzać ryzykiem związanym z AI. Warto zacząć od następujących działań:

Dostosuj standardy ładu korporacyjnego AI do swojej strategii biznesowej. 
Nie wybieraj ani nie wdrażaj standardów bezrefleksyjnie. Wyraźnie określ, w jaki sposób AI wspiera cele biznesowe - a następnie dostosuj praktyki zarządzania do wybranego kierunku strategii.

Buduj programy z myślą o elastyczności i odporności.
Projektuj swoje programy zarządzania ryzykiem i zgodnością AI z myślą, że konieczny będzie ich stały rozwój. Załóż, że Twoje przypadki użycia AI, ryzyka i otoczenie regulacyjne będą się zmieniać i zaplanuj to z wyprzedzeniem. To, co chcesz osiągnąć w pierwszym roku, prawie na pewno będzie wyglądać inaczej w kolejnych latach.

Traktuj standardy jako elastyczne ramy. 
Podchodź do standardów branżowych (takich jak ISO 42001 czy NIST AI RMF) jako do zestawu narzędzi, a nie sztywnych instrukcji. Skoncentruj się na kluczowych kompetencjach, takich jak inwentaryzacja zasobów AI, ich testowanie i walidacja oraz monitorowanie zamiast na spełnianiu formalnych wymogów wyłącznie po to, aby je “odhaczyć”.

Angażuj się w grupy branżowe, aby rozwijać wiodące praktyki i standardy.
Takie działanie sprzyja współpracy, daje wczesny wgląd w nadchodzące regulacje i pozwala porównać, jak Twoje postępowanie wypada na tle innych, co pozwala na bieżąco dostosowywać się do zmiennych oczekiwań.

Inwestuj w zespoły lub partnerów z odpowiednią wiedzą.
Biorąc pod uwagę złożoność i tempo zmian, upewnij się, że masz dostęp do ekspertów, którzy potrafią analizować przyszłe trendy, interpretować zmieniające się standardy i doradzać w zakresie strategicznej adaptacji do nich.


Jak możemy pomóc? 

Poprzez dostosowanie standardów do celów biznesowych, projektowanie elastycznych programów zarządzania i rozwoju oraz aktywne uczestnictwo w grupach branżowych firmy mogą skuteczniej zarządzać ryzykiem związanym z AI i odgrywać wiodącą rolę w kształtowaniu przyszłych praktyk. PwC może pomóc organizacjom w pełnym wykorzystaniu zmieniających się standardów, oferując dogłębną ekspertyzę, strategiczne spojrzenie i dopasowane wsparcie w budowaniu przyszłościowych programów odpowiedzialnego wykorzystania AI.

Artykuł na podstawie: https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-industry-standards.html

Zapisz się na newsletter technologia

Skontaktuj się z nami

Marcin Makusak

Partner, Warszawa, PwC Polska

+48 502 184 718

Email

Marek Chlebicki

Partner, PwC Polska

+48 519 507 667

Email

Ewa Wojtowicz-Presz

Director, PwC Polska

+48 502 184 891

Email

Jakub Szerszeń

Manager, PwC Polska

+48 519 506 622

Email

Obserwuj nas