13 kwietnia 2026 r. w liście skierowanym do kluczowych instytucji unijnych (m. in. Rady ECOFIN, Komisji Europejskiej oraz Parlamentu Europejskiego) European Insurance and Occupational Pensions Authority (EIOPA) przedstawia ukierunkowania sugestie dotyczące stosowania rozporządzenia (UE) 2024/1689 (AI Act) w sektorze ubezpieczeniowym.
Celem listu oraz załącznika jest wskazanie ograniczonego zestawu doprecyzowań, które pozwolą osiągnąć cele AI Act w ubezpieczeniach bez tworzenia niepotrzebnych obciążeń regulacyjnych dla zakładów ubezpieczeń i organów nadzoru, w sektorze już objętym rozbudowanym reżimem (w tym m.in. Solvency II, IDD oraz DORA).
Zasady listu i kluczowe punkty zostały uzgodnione na posiedzeniu Rady Nadzorczej EIOPA 24 marca 2026 r.
EIOPA podkreśla, że w sektorze ubezpieczeń mają zastosowanie dwa główne zbiory wymagań dotyczących podmiotów korzystających z systemów AI: ustawodawstwo sektorowe oraz AI Act, a samo wdrożenie AI Act wymaga zarządzania obszarami nakładania się i godzenie różnych, nakładających się systemów.
Istotny jest również wymiar nadzorczy. AI Act przewiduje, że organ odpowiedzialne za nadzór finansowy mają zostać wyznaczone jako market surveillance authorities (MSA) dla wysokiego ryzyka w instytucjach finansowych, a państwa członkowskie mogą przyjąć inne rozwiązania.
Na tle prac nad Digital Omnibus on AI EIOPA proponuje 2 doprecyzowania:
EIOPA wskazuje, że zgodnie z AI Act systemy AI wskazane w Załączniku III są uznawane za systemy wysokiego ryzyka. Wśród nich mieszczą się rozwiązania przeznaczone do oceny ryzyka i taryfikacji w odniesieniu do osób fizycznych w ubezpieczeniach na życie i zdrowotnych.
Jednocześnie, zdaniem EIOPA: tak szerokie ujęcie nie uwzględnia różnicy pomiędzy zaawansowanymi, złożonymi systemami AI, a klasycznymi modelami statystycznymi stosowanymi w aktuariacie.
W załączniku do listu EIOPA proponuje doprecyzowanie Załącznika III w taki sposób, aby z kwalifikacji high‑risk w odniesieniu do life/health pricing wyłączyć systemy oparte wyłącznie na:
EIOPA uzasadnia potrzebę takiego wyłączenia w szczególności następującymi przesłankami:
Dodatkowo EIOPA odwołuje się do kryteriów oceny ryzyka szkody (art. 7 ust. 2 AI Act), wskazując m.in. brak autonomii oraz łatwiejszą korygowalność/odwracalność wyników oraz odwracalność wyroków, a także brak dowodów na systemowe negatywne skutki dla praw podstawowych wynikające ze stosowania takich modeli.
W konsekwencji EIOPA ocenia, że objęcie GLM/GAM pełnym reżimem high‑risk nie zwiększyłoby istotnie ochrony konsumentów, natomiast generowałoby koszty zgodności i mogłoby odciągać zasoby nadzorcze od oceny bardziej nowych oraz potencjalnie bardziej ryzykownych zastosowań AI. Jednocześnie EIOPA podkreśla, że nawet w razie wyłączenia GLM/GAM z high-risk nadal stosowane byłyby istniejące wymogi ostrożnościowe, konsumenckie i dotyczące ochrony danych.
Drugi wątek listu dotyczy ryzyka rozbieżności interpretacyjnych oraz dublowania obowiązków pomiędzy AI Act, a istniejącymi regulacjami sektora finansowego. EIOPA deklaruje gotowość wspierania Komisji w opracowywaniu wytycznych dotyczących „interplay” AI Act z prawem usług finansowych, które mają być przygotowywane przez AI Office.
W załączniku EIOPA proponuje dodanie do art. 96 AI Act przepisu, który wprost umożliwiłby EBA, ESMA i EIOPA wnoszenie wkładu na potrzeby opracowania wytycznych lub wskazówek dotyczących stosowania AI Act wobec instytucji finansowych, firm inwestycyjnych oraz zakładów ubezpieczeń i reasekuracji regulowanych prawem UE.
W uzasadnieniu wskazano, że ESAs dysponują unikalną wiedzą sektorową i są w najlepszej pozycji do identyfikowania nakładania się oraz potencjalnych niespójności między AI Act a istniejącymi ramami (m.in. Solvency II, IDD, DORA), co ma wspierać spójne i proporcjonalne podejście nadzorcze.
W ujęciu systemowym list EIOPA stanowi próbę „osadzenia” stosowania AI Act w sektorze ubezpieczeniowym w ramach istniejącego dorobku UE poprzez dwie ukierunkowane korekty proponowane w Digital Omnibus on AI:
Jeżeli propozycje EIOPA zostaną uwzględnione, mogą wspierać podejście oparte na ryzyku: ograniczyć obciążenia compliance dla narzędzi o wysokiej wyjaśnialności, a jednocześnie skoncentrować zasoby nadzoru na bardziej złożonych zastosowaniach AI, bez osłabienia ochrony zapewnianej przez regulacje sektorowe.
Partner, Adwokat, Warszawa, PwC Polska
Łukasz Łyczko
Jakub Derulski