AI Act - Komisja Europejska opublikowała wytyczne dotyczące zakazanych praktyk w AI

  • 5 minute read
  • 20 Lut 2025

4 lutego 2025 r. Komisja Europejska opublikowała wytyczne dotyczące zakazanych praktyk w dziedzinie sztucznej inteligencji. Wytyczne mają na celu zapewnienie wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych w UE.

Te wytyczne stanowią doprecyzowanie postanowień AI Act dotyczących zakazanych praktyk, które weszły w życie 2 lutego 2025 r. O przepisach wchodzących w życie w dniu 2 lutego usłyszycie od Aleksandry Bańkowskiej i Marcina Makusaka, partnerów PwC Polska w poniższym filmie.

Playback of this video is not currently available

3:12

Omawiane w niniejszym alercie wytyczne zawierają kompleksową analizę przepisów AI Act w zakresie zakazanych praktyk AI. Dokument opisuje osiem głównych kategorii udostępniania, wprowadzania do obrotu i wykorzystania AI niedozwolonego AI w tym:

Systemy AI wykorzystujące techniki podprogowe lub manipulacyjne do znacznego zniekształcania zachowania i wpływania na decyzje, powodując szkody.

Skupianie się na osobach lub grupach ze względu na wiek, niepełnosprawność lub status społeczno-ekonomiczny w celu manipulowania zachowaniem i wyrządzania szkód.

Niesprawiedliwa ocena osób w oparciu o zachowania społeczne lub cechy osobiste, prowadząca do krzywdzącego traktowania.

Wykorzystywanie AI wyłącznie do przewidywania zachowań przestępczych w oparciu o profilowanie lub cechy osobowości.

Tworzenie lub rozszerzanie baz danych rozpoznawania twarzy poprzez masowe gromadzenie zdjęć z Internetu lub monitoringu.

Wykorzystywanie AI do rozpoznawania emocji w miejscach pracy lub instytucjach edukacyjnych, z wyjątkiem powodów medycznych lub bezpieczeństwa.

Wykorzystywanie danych biometrycznych do kategoryzowania osób w oparciu o wrażliwe cechy, takie jak rasa, poglądy polityczne lub orientacja seksualna.

Wykorzystywanie rozpoznawania twarzy w czasie rzeczywistym w miejscach publicznych do celów egzekwowania prawa, z ograniczonymi wyjątkami.

Warto przypomnieć, że AI Act określa zasady dotyczące wykorzystywania i wdrażania AI, w tym podział systemów AI na kategorie ryzyka. 

Niektóre z nich, takie jak dostawcy świadczeń z zabezpieczenia społecznego wykorzystujący AI do oceny osób, są zabronione, ponieważ stwarzają „niedopuszczalne ryzyko” dla praw podstawowych: 

Przestrzeganie przepisów jest kluczowe: Niezastosowanie się do Aktu o Sztucznej Inteligencji może prowadzić do poważnych kar, w tym wysokich grzywien.

Ocena ryzyka jest kluczowa: Przedsiębiorcy muszą dokładnie ocenić swoje systemy AI, aby upewnić się, że nie angażują się w zakazane praktyki.

Zaleca się skorzystanie z porady prawnej: Poszukiwanie fachowej porady prawnej w zakresie regulacji AI jest niezbędne do poruszania się po tym złożonym obszarze.

Zaangażowanie UE w regulację AI świadczy o jej dążeniu do zapewnienia odpowiedzialnego i etycznego rozwoju w sektorze technologicznym. 

Jak możemy pomóc? 

Oferujemy kompleksową pomoc prawną w zakresie zagadnień związanych ze sztuczną inteligencją. Nasz dedykowany zespół pomoże Ci między innymi w:

  • sprawdzeniu, czy korzystasz z systemów AI i ocenie ryzyka z tym związanego; 

  • doradzaniu, jakie rozwiązania powinieneś wprowadzić, aby Twoja działalność była zgodna z przepisami;

  • przeprowadzeniu szkoleń, dzięki którym Twoi pracownicy będą świadomi obowiązujących przepisów. 

Więcej informacji znajdziesz na naszej stronie internetowej.

Bądź na bieżąco

Zapisz się na newsletter: Prawo

Skontaktuj się z nami

Łukasz Łyczko

Dyrektor, Radca Prawny, Warszawa, PwC Polska

+48 519 507 952

Email

Jakub Derulski

Adwokat, Senior Associate, PwC Polska

+48 571 779 173

Email

Obserwuj nas