Odpowiedzialna sztuczna inteligencja: narzędzia do zarządzania AI dla firm

W PwC, rozumiemy i potrafimy zidentyfikować oraz przeanalizować pojawiające się wyzwania i zagrożenia, jakie wiążą się ze sztuczną inteligencją (zarówno z perspektywy technologii jak i prawa). Wykorzystujemy przy tym nasze doświadczenie, wnioski z realizowanych projektów oraz najlepsze praktyki rynkowe. Dzięki temu, jesteśmy w stanie dostosować nasze rozwiązania do potrzeb Twojej firmy.

Sztuczna inteligencja, której można zaufać

Wykorzystanie potencjału jaki stoi za sztuczną inteligencją, daje organizacjom szansę na dynamiczny rozwój istniejących produktów lub usług, ale także na wprowadzenie na rynek nowej oferty. Jednak razem z szansami jakie daje ta technologia, wiążą się także potencjalne zagrożenia wynikające z jej wykorzystania, w tym obowiązki wynikające z przepisów prawa.. 

Wraz z rozwojem AI, w tym generatywnej sztucznej inteligencji (Gen AI), organy regulacyjne a także sami użytkownicy dostrzegają potrzebę zarządzania ryzykiem związanym z wykorzystywaniem sztucznej inteligencji, w tym negatywnym wpływem na prawa człowieka. 

Odpowiedzialne wykorzystywanie AI wiąże się m.in. z koniecznością weryfikacji poniższych aspektów:

Dowiedz się, jak możemy pomóc Twojej organizacji

  • Czy Twoja organizacja zidentyfikowała i przeanalizowała ryzyko związane z wykorzystywaniem AI?

  • Czy wykorzystywane w Twojej organizacji rozwiązania są zgodne z prawem?

  • Czy pracownicy i współpracownicy Twojej organizacji wiedzą jak zgodnie z prawem korzystać z AI oraz wyników Gen AI i jaki to ma wpływ na prawa własności intelektualnej (IP) Twojej organizacji?

  • Czy wykorzystywany w Twojej organizacji system lub narzędzie AI jest zgodny z przepisami o ochronie danych osobowych i nie narusza praw osób, których dane są przetwarzane? 

  • Czy pracownicy i współpracownicy Twojej organizacji wiedzą jak korzystać z systemów i modeli AI w zgodzie z zasadami ochrony danych osobowych? 

  • Czy wykorzystywane w Twojej organizacji rozwiązanie AI podejmuje trafne i wolne od uprzedzeń decyzje?

  • Czy Twoja organizacja odpowiednio zarządza i monitoruje działanie AI?

  • Czy wykorzystywany w Twojej organizacji proces zarządzania dostawcami usług IT, odpowiednio adresuje wyzwania prawne i technologiczne związane z AI?


Wesprzemy Twoją organizację w odpowiednim zarządzaniu AI

Opracowany przez PwC zestaw konfigurowalnych ram, narzędzi i procesów, pomoże Twojej organizacji wykorzystać moc AI w etyczny i odpowiedzialny sposób — od strategii po realizację. Dzięki niemu jesteśmy w stanie dostosować podejście i rozwiązania do unikalnych wymagań biznesowych organizacji i jej dojrzałości.

Ład korporacyjny, ryzyko i zgodność (GRC)

Jak zarządzać AI i ryzykiem związanym z AI? Czy otoczenie regulacyjne ma wpływ na AI?

Podstawą odpowiedzialnej sztucznej inteligencji jest jasno zdefiniowana i wdrożona struktura ładu korporacyjnego, system zarządzania ryzykiem oraz system zapewnienia zgodności z obowiązującymi przepisami lub standardami. PwC opracowało solidny model GRC, który można dostosować do potrzeb danej organizacji. Jego ramy umożliwiają nadzór nad wykorzystywanymi rozwiązaniami AI, dzięki katalogowi ról i odpowiedzialności, zdefiniowanych wymagań dla trzech linii obrony oraz mechanizmom nadzoru i ciągłej oceny systemu AI. 

Między innymi w tym celu, PwC monitoruje zmieniające się otoczenie regulacyjne i identyfikuje nowe potrzeby rynku w zakresie zgodności, o których powinna wiedzieć każda organizacja wykorzystująca AI.

Stronniczość i uczciwość

Czy twoja AI jest bezstronna i sprawiedliwa?

System sztucznej inteligencji narażony jest na stronniczość z powodu wykorzystywania określonego źródła danych. Może to skutkować tym, że AI będzie podejmować decyzje, które mogą prowadzić do nieuczciwych wyników. Responsible AI Toolkit może pomóc danej organizacji zwiększyć świadomość nt. tego czym jest stronniczość oraz jakie należy podjąć działania, aby ograniczyć ryzyko z nim związane.

Interpretowalność i wyjaśnialność

Na jakiej podstawie decyzja została podjęta?

System sztucznej inteligencji, którego użytkownicy nie są w stanie zrozumieć, może prowadzić do efektu „czarnej skrzynki” (ang. black-box), w wyniku którego organizacje mają ograniczone możliwości lub nie potrafią wyjaśnić oraz przedstawić argumentów za konkretnymi decyzjami biznesowymi. W tym może pomóc nasz Responsible AI Toolkit. PwC świadczy usługi, które pomagają organizacjom w zrozumieniu czynników jakie wzięte zostały pod uwagę przy podejmowaniu przez AI decyzji, przy uwzględnieniu indywidualnych potrzeb organizacji lub jej interesariuszy.

Solidność, prywatność i bezpieczeństwo

Czy sztuczna inteligencja będzie zachowywać się zgodnie z przeznaczeniem? Jakie są zagrożenia dla prywatności i bezpieczeństwa?

System sztucznej inteligencji, który jest niestabilny i nie spełnia wymagań dotyczących wydajności, jest narażony na zwiększone ryzyko błędu i podejmowania błędnych decyzji (które wpływają na ludzi) lub manipulację (np. na skutek ataku cyber). Podejście PwC, które wykorzystuje Responsible AI Toolkit, pomaga zidentyfikować potencjalne słabości modeli AI i monitorować ich wydajność. 

Dane i etyka

Czy wykorzystywanie posiadanych danych oraz sztucznej inteligencji w konkretnym celu jest etyczne? 

PwC może pomóc Twojej organizacji w opracowywaniu zasad etycznego wykorzystania danych i AI. Nasze podejście nie tylko identyfikuje i pomaga zarządzać kluczowymi ryzykami etycznymi na ogólnym poziomie, ale także bierze pod uwagę kontekst i przypadek użycia danego rozwiązania AI.


Wesprzemy Twoją organizację w zapewnieniu zgodności z przepisami prawa w tym z AI Act

Odpowiedzialna sztuczna inteligencja to nie tylko wdrożenie odpowiednich narzędzi i technologii, ale również korzystanie z systemów AI zgodnie z obowiązującym prawem. PwC Legal to zespół doświadczonych prawniczek i prawników, którzy razem z zespołami technologicznymi  zapewniają kompleksową pomoc prawną w zakresie zagadnień związanych ze sztuczną inteligencją oraz AI ACT dla Twojej organizacji.

Dowiedz się więcej

Odpowiedzialna sztuczna inteligencja to nie tylko wdrożenie odpowiednich narzędzi i technologii, ale również korzystanie z systemów AI zgodnie z obowiązującym prawem.


Wyzwania, na które odpowiadamy

Nasz zespół potrafi budować odpowiedzialną oraz zgodną z prawem sztuczną inteligencję zarówno dla własnych potrzeb jak i dla naszych klientów. Wprowadzamy w życie wielkie pomysły na wszystkich etapach wdrażania AI.

Oferowane przez nas działania to:

Analiza i ocena dojrzałości procesu zarządzania AI w organizacji

Wsparcie przy wdrożeniu lub zmianie modelu AI governance w organizacji (na wszystkich etapach życia rozwiązania), z uwzględnieniem aspektów związanych z zarządzaniem ryzykiem oraz cyberbezpieczeństwem

Analiza i ocena ryzyk związanych z modelem AI

Analiza i ocena zgodności modelu AI z istniejącymi wytycznymi i przepisami prawa, w tym w zakresie ochrony danych osobowych i prywatności

Wsparcie przy zapewnieniu korzystania z systemów AI w sposób minimalizujący ryzyko związane z ochroną praw własności intelektualnej (IP)Podnoszenie świadomości i bezpieczne korzystanie z AI

Analiza środowiska IT wykorzystywanego przez AI

Analiza i ocena działania modeli AI

Odpowiedzialna sztuczna inteligencja

Dowiedz się, jak możemy pomóc Twojej organizacji

Skontaktuj się z nami

Aleksandra Bańkowska

Aleksandra Bańkowska

Partner, Adwokat, PwC Polska

Marcin Makusak

Marcin Makusak

Partner, PwC Polska

Tel.: +48 502 184 718

Paulina Komorowska-Mrozik

Paulina Komorowska-Mrozik

Counsel, Radca Prawny, PwC Polska

Łukasz Łyczko

Łukasz Łyczko

Dyrektor, Radca Prawny, PwC Polska

Tel.: +48 519 507 952

Mariusz Walkiewicz

Mariusz Walkiewicz

Dyrektor, PwC Polska

Tel.: +48 502 184 291

Mateusz Szajdak

Mateusz Szajdak

Menedżer, PwC Polska

Tel.: +48 519 508 856

Obserwuj nas