15/12/23
Po dwóch latach prac nad tekstem, zwieńczonych ponad 30 godzinnym maratonem finalnych rozmów w ramach trójstronnych negocjacji trwających od czerwca, przedstawiciele Parlamentu, Komisji Europejskiej i Rady Unii Europejskiej 8 grudnia wypracowali konsensus w sprawie rozporządzenia o sztucznej inteligencji (AI). Spotkało się to z dużym rozgłosem i entuzjazmem, jednak przed nami wciąż etap wypracowania szczegółowej wersji tekstu i jego formalnej akceptacji – to prace, które mogą potrwać wiele tygodni, a nawet miesięcy. Jako że finalna treść rozporządzenia nie jest jeszcze dostępna, poniżej przedstawiamy nasze wstępne obserwacje, oparte na informacjach prasowych oraz nieoficjalnych fragmentach projektu.
W przypadku niektórych zastosowań sztucznej inteligencji ryzyko uznaje się za niedopuszczalne i takie rozwiązania zostaną zakazane w UE. Zgodnie z porozumieniem, utrzymał się szeroki katalog praktyk niedozwolonych - zakazane będzie stosowanie technik manipulacyjnych, kategoryzacja biometryczna w celu wnioskowania o wrażliwych danych, takich jak orientacja seksualna lub przekonania religijne, pozyskiwanie wizerunków w nieukierunkowany sposób z internetu lub monitoringu, rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, scoring społeczny, a także niektóre przypadki predykcyjnego nadzoru policyjnego nad osobami fizycznymi.
Rozporządzenie, przyjmując podejście oparte na ryzyku, w najszerszym stopniu reguluje systemy AI wysokiego ryzyka – jako dozwolone, ale podlegające szeregowi wymogów do spełnienia przed wprowadzeniem na rynek unijny. W ramach kompromisu wymogi te zostały doprecyzowane i dostosowane tak, aby ułatwić ich spełnienie pod względem technicznym i operacyjnym, na przykład w odniesieniu do jakości danych lub dokumentacji technicznej, która powinna zostać sporządzona przez MŚP. Do wrażliwych obszarów zaliczono edukację, zatrudnienie, infrastrukturę krytyczną, usługi publiczne, egzekwowanie prawa, kontrolę graniczną i wymiar sprawiedliwości. Uzgodniono, że reżimem systemów wysokiego ryzyka objęte będą również takie przypadki użycia jak systemy sztucznej inteligencji stosowane do celów wywierania wpływu na wyniki wyborów i zachowania wyborców oraz systemy przewidujące trendy migracyjne i służące do monitorowania granic.
Ponadto wprowadzono obowiązkową ocenę wpływu systemu na prawa podstawowe przed jego wdrożeniem oraz przyznano prawo do składania skarg na systemy AI i otrzymywania wyjaśnień dotyczących decyzji opartych na systemach AI wysokiego ryzyka, które mają wpływ na ich prawa.
Uwzględniając szerokie zastosowanie sztucznej inteligencji oraz szybki rozwój tej technologii, mimo początkowego sprzeciwu Niemiec, Włoch i Francji, finalnie uzgodniono, że systemy sztucznej inteligencji ogólnego przeznaczenia (GPAI - np. ChatGPT) będą musiały spełniać minimalne standardy. Wymogi te mają na celu zapewnienie przejrzystości i obejmują m. in. konieczność sporządzania dokumentacji technicznej, przestrzegania prawa autorskiego i udostępniania szczegółowych streszczeń treści wykorzystywanych w procesie szkolenia modeli.
W przypadku modeli GPAI obarczonych ryzykiem systemowym, wynegocjowano bardziej rygorystyczne wymogi. Względem modeli spełniających określone kryteria, konieczne będzie przeprowadzanie analiz modeli, ocena i ograniczanie ryzyka systemowego, przeprowadzanie testów kontradyktoryjności, zgłaszanie Komisji poważnych incydentów, zapewnienie cyberbezpieczeństwa i raportowanie w zakresie efektywności energetycznej.
Senior Associate w zespole IP / IT, Danych Osobowych, Konsumentów i Konkurencji, PwC Legal, PwC Poland
Tel: +48 571 778 282