Alert prawny: AI Act w sektorze ubezpieczeniowym – EIOPA proponuje doprecyzowania

  • 24 Kwi 2026

13 kwietnia 2026 r. w liście skierowanym do kluczowych instytucji unijnych (m. in. Rady ECOFIN, Komisji Europejskiej oraz Parlamentu Europejskiego) European Insurance and Occupational Pensions Authority (EIOPA) przedstawia ukierunkowania sugestie dotyczące stosowania rozporządzenia (UE) 2024/1689 (AI Act) w sektorze ubezpieczeniowym.

Celem listu oraz załącznika jest wskazanie ograniczonego zestawu doprecyzowań, które pozwolą osiągnąć cele AI Act w ubezpieczeniach bez tworzenia niepotrzebnych obciążeń regulacyjnych dla zakładów ubezpieczeń i organów nadzoru, w sektorze już objętym rozbudowanym reżimem (w tym m.in. Solvency II, IDD oraz DORA).

Zasady listu i kluczowe punkty zostały uzgodnione na posiedzeniu Rady Nadzorczej EIOPA 24 marca 2026 r.

„Podwójny” reżim wymogów i ryzyko dublowania obowiązków

EIOPA podkreśla, że w sektorze ubezpieczeń mają zastosowanie dwa główne zbiory wymagań dotyczących podmiotów korzystających z systemów AI: ustawodawstwo sektorowe oraz AI Act, a samo wdrożenie AI Act  wymaga zarządzania obszarami nakładania się i godzenie różnych, nakładających się systemów.

Istotny jest również wymiar nadzorczy. AI Act przewiduje, że organ odpowiedzialne za nadzór finansowy mają zostać wyznaczone jako market surveillance authorities (MSA) dla wysokiego ryzyka w instytucjach finansowych, a państwa członkowskie mogą przyjąć inne rozwiązania.

Na tle prac nad Digital Omnibus on AI EIOPA proponuje 2 doprecyzowania:

  • jedno materialne: zakres high risk w ubezpieczeniach life/health,
  • drugie instytucjonalne: rola European Supervisory Authorities (ESAs) przy wytycznych AI Office.

Potencjalny wpływ na Digital Omnibus on AI

Doprecyzowanie zakresu high‑risk w ubezpieczeniach life/health (wyłączenie GLM/GAM)

EIOPA wskazuje, że zgodnie z AI Act systemy AI wskazane w Załączniku III są uznawane za systemy wysokiego ryzyka. Wśród nich mieszczą się rozwiązania przeznaczone do oceny ryzyka i taryfikacji w odniesieniu do osób fizycznych w ubezpieczeniach na życie i zdrowotnych.

Jednocześnie, zdaniem EIOPA: tak szerokie ujęcie nie uwzględnia różnicy pomiędzy zaawansowanymi, złożonymi systemami AI, a klasycznymi modelami statystycznymi stosowanymi w aktuariacie.

W załączniku do listu EIOPA proponuje doprecyzowanie Załącznika III w taki sposób, aby z kwalifikacji high‑risk w odniesieniu do life/health pricing wyłączyć systemy oparte wyłącznie na:

  • uogólnionych modelach liniowych (GLM) - w tym regresji liniowej i logistycznej, oraz
  • uogólnionych modelach addytywnych (GAM) - o ile są stosowane pod nadzorem człowieka.

EIOPA uzasadnia potrzebę takiego wyłączenia w szczególności następującymi przesłankami:

  • wysoka transparentność i interpretowalność tych modeli (brak cech „black box”),
  • brak autonomii i samouczenia w rozumieniu praktycznych właściwości modeli oraz osadzenie w istniejących ramach ładu aktuarialnego (w tym nadzoru człowieka, walidacji i kontroli modeli),
  • możliwość korygowania i odwracalność wyników oraz
  • brak zidentyfikowanych dowodów systemowych szkód dla praw podstawowych wynikających ze stosowania tych technik. 

Dodatkowo EIOPA odwołuje się do kryteriów oceny ryzyka szkody (art. 7 ust. 2 AI Act), wskazując m.in. brak autonomii oraz łatwiejszą korygowalność/odwracalność wyników oraz odwracalność wyroków, a także brak dowodów na systemowe negatywne skutki dla praw podstawowych wynikające ze stosowania takich modeli.

W konsekwencji EIOPA ocenia, że objęcie GLM/GAM pełnym reżimem high‑risk nie zwiększyłoby istotnie ochrony konsumentów, natomiast generowałoby koszty zgodności i mogłoby odciągać zasoby nadzorcze od oceny bardziej nowych oraz potencjalnie bardziej ryzykownych zastosowań AI. Jednocześnie EIOPA podkreśla, że nawet w razie wyłączenia GLM/GAM z high-risk nadal stosowane byłyby istniejące wymogi ostrożnościowe, konsumenckie i dotyczące ochrony danych.

Formalizacja udziału European Supervisory Authorities (ESAs) w wytycznych AI Office (art. 96)

Drugi wątek listu dotyczy ryzyka rozbieżności interpretacyjnych oraz dublowania obowiązków pomiędzy AI Act, a istniejącymi regulacjami sektora finansowego. EIOPA deklaruje gotowość wspierania Komisji w opracowywaniu wytycznych dotyczących „interplay” AI Act z prawem usług finansowych, które mają być przygotowywane przez AI Office.

W załączniku EIOPA proponuje dodanie do art. 96 AI Act przepisu, który wprost umożliwiłby EBA, ESMA i EIOPA wnoszenie wkładu na potrzeby opracowania wytycznych lub wskazówek dotyczących stosowania AI Act wobec instytucji finansowych, firm inwestycyjnych oraz zakładów ubezpieczeń i reasekuracji regulowanych prawem UE.

W uzasadnieniu wskazano, że ESAs dysponują unikalną wiedzą sektorową i są w najlepszej pozycji do identyfikowania nakładania się oraz potencjalnych niespójności między AI Act a istniejącymi ramami (m.in. Solvency II, IDD, DORA), co ma wspierać spójne i proporcjonalne podejście nadzorcze.

Wnioski i znaczenie praktyczne

W ujęciu systemowym list EIOPA stanowi próbę „osadzenia” stosowania AI Act w sektorze ubezpieczeniowym w ramach istniejącego dorobku UE poprzez dwie ukierunkowane korekty proponowane w Digital Omnibus on AI:

  • formalizację udziału ESAs w wytycznych AI Office oraz
  • doprecyzowanie zakresu kwalifikacji high‑risk w Załączniku III przez wyłączenie GLM/GAM.

Jeżeli propozycje EIOPA zostaną uwzględnione, mogą wspierać podejście oparte na ryzyku: ograniczyć obciążenia compliance dla narzędzi o wysokiej wyjaśnialności, a jednocześnie skoncentrować zasoby nadzoru na bardziej złożonych zastosowaniach AI, bez osłabienia ochrony zapewnianej przez regulacje sektorowe.

Zapisz się na newsletter: Prawo

Skontaktuj się z nami

Aleksandra Bańkowska

Partner, Adwokat, Warszawa, PwC Polska

Email

Łukasz Łyczko

Dyrektor, Radca Prawny, Warszawa, PwC Polska

+48 519 507 952

Email

Jakub Derulski

Counsel, Adwokat, PwC Polska

+48 571 779 173

Email

Obserwuj nas