Odpowiedzialna sztuczna inteligencja i cyberbezpieczeństwo

hero image
  • Publication
  • 6 minute read
  • 28 Paź 2025

Główne wnioski

  • Adopcja AI przyspiesza, a agenci AI stają się kluczowymi elementami operacji biznesowych — jednak wnoszą ze sobą nowe zagrożenia związane z cyberbezpieczeństwem.

  • Odpowiedzialne praktyki związane z AI mogą umożliwić zespołom ds. cyberbezpieczeństwa skalowanie poziomu ochrony i wspieranie zwinności biznesowej.

  • Zespoły ds. cyberbezpieczeństwa odgrywają kluczową rolę w sukcesie odpowiedzialnej sztucznej inteligencji, wprowadzając kontrolę ryzyka w cykle życia innowacji.

Agenci AI: między innowacją a bezpieczeństwem

Sztuczna inteligencja jeszcze niedawno była modnym hasłem, a dziś staje się normą. Przestaliśmy rozmawiać po prostu o AI, a zaczęliśmy skupiać się na agentach AI i ich wykorzystaniu jako kolejny krok w transformacji. Możliwości techniczne agentów rosną, a przedsiębiorstwa szybko znajdują praktyczne sposoby na włączenie agentów AI do swoich operacji.

Jednocześnie rosną obawy dotyczące nowych zagrożeń dla cyberbezpieczeństwa i ryzyk, które mogą się wiązać z wprowadzaniem agentów AI. Organy standaryzacyjne i regulatorzy aktywnie pracują nad wytycznymi i przepisami, aby sprostać pojawiającym się wyzwaniom.

Sedno leży w odpowiedzi na pytanie, będące elementem szerszego kontekstu, czyli Odpowiedzialnej sztucznej inteligencji:.

 

W jaki sposób organizacje mogą szybko wdrażać AI i agentów AI, tak, aby nie odbyło się to kosztem bezpieczeństwa i zaufania do technologii?


Jak zmienia się status quo w cyberbezpieczeństwie?

Współczesne organizacje działają w równoległych światach. Z jednej strony, systemy starszej generacji nadal wspierają kluczowe operacje, a równolegle obok nich powstają i rozwijają się nowoczesne narzędzia wykorzystujące AI oraz agenci AI.

Zespoły ds. cyberbezpieczeństwa i zarządzania ryzykiem starają się nadążać za nowymi rozwiązaniami wykorzystującymi AI, które pojawiają się na trzech frontach:  

  • wewnątrz organizacji, 

  • ze strony podmiotów zewnętrznych, 

  • ze strony cyberprzestępców, zagrażającym organizacjom i ich środowiskom IT.

Sztuczna inteligencja zmienia zasady gry. Nie tylko zespoły biznesowe, ale cała organizacja tworzy dziś oprogramowanie. AI napędza oddolną innowacyjność, a pracownicy eksperymentują z tworzeniem własnych rozwiązań, co prowadzi do pojawienia się nowej formy “shadow IT”. Operatorzy biznesowi wykorzystują AI do uproszczenia działań, utrzymywania konkurencyjności przedsiębiorstwa i odpowiadania na rosnące wymagania dotyczące efektywności. 

Narzędzia kupione lata temu od zewnętrznych podmiotów nagle zyskują funkcje A, co generuje nieoczekiwane ryzyka. Te inicjatywy stawiają przed zespołami ds. cyberbezpieczeństwa nowe wyzwania, zmuszając je do zarządzania zarówno zatwierdzonym, jak i niezatwierdzonym użyciem AI w całym łańcuchu dostaw oprogramowania.

Tymczasem AI demokratyzuje krajobraz zagrożeń. Cyberprzestępcy wykorzystują narzędzia AI do skalowania i automatyzacji ataków, oferując zaawansowane możliwości na czarnym rynku w zamian za opłaty – to nowa era „cyberprzestępczości jako usługi” (Cybercrime-as-a-Service). 

W odpowiedzi zespoły ds. bezpieczeństwa muszą błyskawicznie reagować i skutecznie zarządzać ryzykiem.


Szanse dla odpowiedzialnej sztucznej inteligencji w cyberbezpieczeństwie 

W erze sztucznej inteligencji zespoły ds. cyberbezpieczeństwa realizują szeroki zakres zadań:

  • wykorzystują automatyzację do zwiększania kontroli ryzyka,
  • usprawniają realizację złożonych zadań związanych z bezpieczeństwem,
  • wprowadzają nowe funkcje, które pozwolą organizacji działać szybciej.

Tempo zmian sprawia, że zespoły te dostrzegają potrzebę ścisłej współpracy z zespołami biznesowymi i aktywnego uczestnictwa w cyklu życia AI — w roli partnerów i innowatorów.

Zespoły ds. cyberbezpieczeństwa powinny odejść od postrzegania wysoko wykwalifikowanych specjalistów jako rozwiązania dla każdego problemu, a zamiast tego wykorzystywać ich wiedzę do tworzenia agentów AI, którzy przejmą część zadań: wspieranie analizy incydentów, automatyczną klasyfikację podatności, priorytetyzację alertów oraz analizę i ocenę informacji przekazywanych przez dostawców pod kątem potencjalnych zagrożeń (np. w formie biuletynów). Rozwiązania AI mogą reagować szybciej niż rozwiązania oparte o tradycyjne metody i w efekcie wyprzedzać ewoluujące zagrożenia.

Każde wdrożenie automatyzacji daje zespołowi ds. cyberbezpieczeństwa szansę na zajęcie się bardziej złożonymi zadaniami manualnymi, które również można usprawnić. W efekcie powstają punkty zwrotne, w których zespoły mogą dodatkowo wspierać biznes w ocenie ryzyka i wdrażaniu zmian.

Wykorzystanie agentów AI do przeprowadzania analiz i oceny ryzyka w ramach procesów zarządzania zmianą, pozwala na ich automatyzację. Dzięki temu organizacja może odejść od standardowego podejścia opartego na punktowym, na dany moment w czasie, przeprowadzeniu kontroli, na rzecz bardziej zautomatyzowanych, opartych na ryzyku ścieżek wspieranych przez AI.


Kluczowe działania, które warto priorytetyzować 

Jakie działania mogą pomóc w budowaniu zaufania, wspieraniu eksperymentowania i wzmacnianiu ładu organizacyjnego w erze sztucznej inteligencji:

Stwórz “piaskownicę” dla AI do kontrolowanego eksperymentowania:
Udostępnij bezpieczne, odizolowane alternatywy dla popularnych chatbotów lub innych aplikacji. Zapewnij przestrzeń do testowania, w której pracownicy mogą testować granice możliwości i rozwijać innowacje odpowiedzialnie, bez ryzyka.

Wspieraj i angażuj się w oddolne odkrywanie przypadków użycia:
Ryzyko rośnie, gdy pracownicy śmielej wdrażają innowacje oparte o AI. Zadbaj, aby rozumieli katalog potencjalnych zagrożeń i poświęć czas na poznanie ich potrzeb. Może to stworzyć okazję do zaproponowania bezpiecznych rozwiązań. Wykorzystuj do tego ankiety, grupy fokusowe i spotkania, stosując zdefiniowane ramy identyfikacji przypadków użycia AI, aby ciągle zbierać sugestie.

Badaj ochronę danych i bezpieczeństwo w kontekście systemów agentowych:
Przeanalizuj, jak agenci AI wykorzystują dane i czy może to prowadzić do ryzyka naruszenia bezpieczeństwa. Rozważ aktualizację polityk dostępu do danych i technologii w celu monitorowania i kontrolowania ich użycia przez agentów AI.

Wspieraj zarządzanie zmianami przez AI:
Ocena ryzyka może być realizowana przez agentów AI, którzy usprawniają proces akceptacji zmian na podstawie oczekiwanych mechanizmów kontrolnych i celów biznesowych.

Wykonaj przegląd bezpieczeństwa danych w systemach wspomaganych przez AI:
Systemy informatyczne, które przetwarzają dane Twojej firmy już wykorzystują AI lub za chwilę zaczną. Zweryfikuj ryzyka z tym związane.

Aktualizuj (lub ustanów) modele zarządzania AI:
Upewnij się, że Twój model zarządzania uwzględnia najbardziej aktualne zagrożenia cyberbezpieczeństwa - w tym te, które mogą wymagać działań zgodnych z regulacjami prawnymi.


Jak możemy pomóc? 

W miarę jak adopcja AI przyspiesza, organizacje na nowo oceniają, jak cyberbezpieczeństwo może wspierać elastyczność biznesu poprzez zastosowanie praktyk odpowiedzialnej AI. PwC wnosi wielofunkcyjne spojrzenie na odpowiedzialną sztuczną inteligencję, pomagając klientom w dopasowaniu innowacji do zgodności z regulacjami i zapewnieniu operacyjnej odporności cyfrowej. Łącząc technologię z ludźmi i procesami poprzez adopcję odpowiedzialnej AI, można wywołać zmianę już dziś.

Artykuł na podstawie: https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-cybersecurity.html

Zapisz się na newsletter technologia

Skontaktuj się z nami

Marcin Makusak

Marcin Makusak

Partner, PwC Polska

Tel.: +48 502 184 718

Marek Chlebicki

Marek Chlebicki

Partner, PwC Polska

Tel.: +48 519 507 667

Szymon Grabski

Szymon Grabski

Director, PwC Polska

Tel.: +48 519 507 996

Mateusz Szajdak

Mateusz Szajdak

Menedżer, PwC Polska

Tel.: +48 519 508 856

Obserwuj nas