6 sierpnia 2025 roku Europejski Urząd Nadzoru Ubezpieczeń i Pracowniczych Programów Emerytalnych (EIOPA) opublikował opinię w sprawie zarządzania i ryzyka w kontekście systemów Sztucznej Inteligencji (AI) w sektorze ubezpieczeniowym. Opinia skierowana jest do krajowych organów nadzoru oraz zakładów ubezpieczeń i uwzględnia zasady wykorzystywania i nadzoru nad systemami AI. Pomimo niewiążącego charakteru, opinia stanowi podstawę do ujednolicenia podejścia praktyki nadzorczej oraz wyznacza kierunek obowiązujących norm w zakresie oceny ryzyka.
Opinia EIOPA została opublikowana w celu zapewnienia jednolitych zasad nadzoru sektorowego i spójnych praktyk w całej Unii Europejskiej. Sam dokument nie wprowadza nowych wymogów ani nie zmienia zakresu istniejących przepisów sektorowych, ale w istotny sposób uwzględnia znane już wzorce dotyczące oceny ryzyka w działalności ubezpieczeniowej i wskazuje, jak powinny być interpretowane w kontekście wykorzystania technologii AI w różnych kluczowych obszarach.
EIOPA opiera podejście do wykorzystywania sztucznej inteligencji na zasadzie proporcjonalności oraz zarządzaniu ryzykiem w ramach struktury organizacyjnej podmiotów wykonujących działalność ubezpieczeniową.
Opinia koncentruje się na zobowiązaniu zakładów ubezpieczeń do oceny ryzyka poszczególnych systemów AI oraz do opracowania środków nadzoru wewnętrznego, w tym ustanowienia odpowiednich mechanizmów zarządzania sztuczną inteligencją. EIOPA w ramach opinii podkreśla istotę ustanowienia odpowiednich ram, w tym organizacyjnych, w ramach zakładów ubezpieczeń, które mają sprawować kontrolę nad wyjaśnialnością i odpowiednim wykorzystywaniem AI. Powyższe powinno obejmować rozwijanie kultury korporacyjnej udokumentowanej w politykach i procedurach, która zawiera wytyczne dotyczące etyki i sprawiedliwości oraz szkolenia dla odpowiedniego personelu.
Ocena ryzyka powinna uwzględniać m. in. skalę przetwarzania danych, ich wrażliwość, liczbę klientów (w tym klientów wrażliwych), stopień autonomii AI oraz potencjalne ryzyka dyskryminacji i reputacji. Kryteria oceny powinny uwzględniać specyficzne dla sektora ubezpieczeń przesłanki, w tym szczególny rodzaj danych osobowych.
EIOPA wskazuje także na istniejące już wymogi dotyczące zewnętrznych dostawców usług systemów AI. Zakłady ubezpieczeń ponoszą odpowiedzialność za działanie systemów AI, niezależnie od tego, czy zostały one stworzone wewnętrznie, czy dostarczone przez dostawców zewnętrznych. Do zapewnienia zgodności kluczowe jest pozyskiwanie od dostawców szczegółowych informacji o charakterystyce, możliwościach, ograniczeniach oraz danych użytych do szkolenia AI. W sytuacjach, gdzie prawa własności intelektualnej utrudniają pełne wdrożenie mechanizmów zarządzania AI, zakłady ubezpieczeń powinny aktywnie minimalizować ryzyko poprzez uzupełniające środki nadzoru, takie jak precyzyjne klauzule umowne, zewnętrzne audyty czy rygorystyczne testy należytej staranności.
W oparciu o istniejące już przepisy sektorowe, zakłady ubezpieczeń powinny opracować systemy zarządzania ryzykiem na następujących założeniach:
Opinia pomimo pomocniczego charakteru wyznacza kierunki wykorzystywania sztucznej inteligencji w zakładach ubezpieczeń. Głównym założeniem jest przyjęcie proporcjonalnego i opartego na ryzyku podejścia do zarządzania AI, skupiającego się na uczciwości, etyce, zarządzaniu danymi oraz cyberbezpieczeństwie. EIOPA będzie aktywnie monitorować wdrażanie tej Opinii i oceni konwergencję nadzorczą po dwóch latach od publikacji. Organ będzie również rozwijać bardziej szczegółowe analizy dotyczące konkretnych systemów AI.
Skontaktuj się z nami i dowiedz się jak dostosować swoje procesy i zapewnić zgodność z wymogami dot. sztucznej inteligencji.