Kto musi przestrzegać przepisów wynikających z EU AI Act?

Unijny Akt o Sztucznej Inteligencji (EU AI Act) to przełomowy dokument, który ustanawia szczegółowe zasady projektowania, wdrażania i stosowania technologii AI. 

Od 2 lutego 2025 roku w całej Unii Europejskiej obowiązują przepisy dotyczące zakazanych praktyk związanych z użyciem technologii AI. Należy jednak pamiętać, że kolejne, istotne zmiany, dotyczące m.in. modeli AI ogólnego przeznaczenia, wejdą w życie już w sierpniu 2025 roku. Choć przepisy te są częścią prawa Unii Europejskiej, ich zasięg ma charakter globalny – obejmuje nie tylko firmy działające na terenie UE, ale także te spoza jej granic, jeżeli ich rozwiązania wpływają na rynek europejski lub naruszają podstawowe prawa oraz wartości, które obowiązują w Unii. Podobnie jak RODO zrewolucjonizowało ochronę danych osobowych, EU AI Act ma na celu zapewnienie, że technologie sztucznej inteligencji będą rozwijane i wykorzystywane w sposób bezpieczny, transparentny i etyczny.

Kto musi przestrzegać przepisów wynikających z EU AI Act?

Nowe przepisy nakładają obowiązek dostosowania się do ustalonych reguł na każdy podmiot, który rozwija, wdraża lub oferuje systemy AI – niezależnie od lokalizacji jego siedziby. Jeśli Państwa rozwiązania są wykorzystywane w UE lub mają wpływ na decyzje obywateli Unii, konieczne jest spełnienie rygorystycznych wymogów aktów prawnych. Oznacza to, że nawet globalni giganci, tacy jak Google, OpenAI, Microsoft czy Meta, będą zmuszeni modyfikować swoje produkty, aby sprostać standardom narzuconym przez unijne prawo.

Jakie są poziomy ryzyka i zakazane praktyki według EU AI Act?

Akt w sprawie sztucznej inteligencji wprowadza system klasyfikacji ryzyka, który dzieli systemy AI na cztery poziomy zagrożenia:

  1. Niedopuszczalne ryzyko: Systemy, których stosowanie jest absolutnie zakazane, gdyż ich działanie narusza podstawowe prawa oraz wartości Unii.
  2. Wysokie ryzyko: Rozwiązania wykorzystywane w krytycznych sektorach (np. zdrowie, finanse, bezpieczeństwo publiczne), które muszą przejść rygorystyczną ocenę ryzyka, wdrożyć mechanizmy nadzoru ludzkiego oraz sporządzić kompleksową dokumentację.
  3. Średnie ryzyko: Systemy, które mimo mniejszego potencjalnego zagrożenia wymagają wdrożenia określonych zabezpieczeń i zasad transparentności, aby zminimalizować negatywny wpływ na użytkowników.
  4. Minimalne ryzyko: Rozwiązania o niewielkim stopniu zagrożenia, podlegające uproszczonym regulacjom.

Zakazane praktyki

Obostrzenia są stopniowane w zależności od zagrożenia dla obowiązującego w Unii Europejskiej prawa. W art. 5 rozporządzenia 2024/1689/UE, obowiązującego od 2 lutego 2025 roku, wskazano zastosowania sztucznej inteligencji, które mogą być dla społeczeństwa szkodliwe, gdyż naruszają podstawowe prawa i wartości UE. Do ośmiu niedopuszczalnych, a tym samym zakazanych praktyk należą:

  1. Stosowanie manipulacji i technik podprogowych: Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu AI, który stosuje techniki działające poza świadomością danej osoby lub celowe techniki manipulacyjne, prowadzące do znaczącej zmiany zachowania poprzez ograniczenie zdolności podejmowania świadomych decyzji, co może spowodować poważną szkodę.
  2. Wykorzystywanie słabości osoby fizycznej lub grupy osób: Systemy AI nie mogą być projektowane tak, aby wykorzystywały słabości wynikające z wieku, niepełnosprawności lub szczególnej sytuacji społeczno-ekonomicznej, w celu wywołania znaczącej zmiany zachowania, która może doprowadzić do poważnej szkody.
  3. Dyskryminujący scoring społeczny: Zakazuje się wprowadzania do obrotu lub wykorzystywania systemów AI służących ocenie lub klasyfikacji osób na podstawie ich zachowań społecznych lub wywnioskowanych cech osobistych, jeśli skutkiem tego jest krzywdzące lub nieproporcjonalne traktowanie.
  4. Ocena ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania: Systemy AI nie mogą być używane do przeprowadzania ocen ryzyka, które mają przewidzieć popełnienie przestępstwa wyłącznie na podstawie cech osobowości lub innych subiektywnych kryteriów, chyba że ocena opiera się na obiektywnych, weryfikowalnych faktach.
  5. Tworzenie lub rozbudowywanie niezgodnie z prawem baz danych do rozpoznawania twarzy: Niedopuszczalne jest pozyskiwanie wizerunków z internetu lub innych źródeł bez wyraźnie określonego celu, co skutkuje tworzeniem lub rozbudowywaniem baz danych do rozpoznawania twarzy.
  6. Ocenianie emocji: Wprowadzanie do użytku systemów AI, które mają za zadanie oceniać emocje osób w miejscach pracy lub instytucjach edukacyjnych, jest zabronione, chyba że system wdrażany jest ze względów medycznych lub związanych z bezpieczeństwem.
  7. Wykorzystywanie kategoryzacji biometrycznej: Systemy, które na podstawie danych biometrycznych próbują wywnioskować informacje dotyczące rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych czy orientacji seksualnej, są zakazane – z wyjątkiem legalnego etykietowania lub filtrowania zgodnie z obowiązującymi przepisami.
  8. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw: Takie systemy mogą być stosowane jedynie w ściśle określonych przypadkach, na przykład do poszukiwania ofiar uprowadzeń, handlu ludźmi, zapobiegania atakom terrorystycznym czy lokalizowania osób podejrzanych o popełnienie poważnych przestępstw, pod warunkiem, że ich zastosowanie jest absolutnie konieczne.

Autorka: Gabriela Gąsior, radca prawny w MKZPartnerzy

Zespół ds. Nowych Technologii MKZPartnerzy wspiera przedsiębiorców w dostosowaniu się do nowych wymogów AI Act, oferując:

  • Kompleksowe doradztwo prawne dotyczące wdrażania regulacji AI Act.
  • Audyt systemów AI i ocenę ryzyka prawnego.
  • Przygotowanie polityk zgodności i dokumentacji wewnętrznej.
  • Szkolenia dla kadry zarządzającej i pracowników w zakresie nowych obowiązków.
  • Pomoc w interpretacji przepisów oraz dostosowywaniu działalności do nowych regulacji.

Jeśli Twoja firma korzysta z rozwiązań opartych na sztucznej inteligencji, skontaktuj się z nami, aby zapewnić pełną zgodność z AI Act i uniknąć ryzyka sankcji.

Czytaj więcej:

Jakie sektory gospodarki zostaną objęte regulacjami AI Act?

Kto musi wdrożyć ustawę o ochronie sygnalistów

W przypadku pytań, zachęcamy do kontaktu z ekspertami MKZPartnerzy – mkzpartnerzy.pl/kontakt

Źródło :metamorworks