Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji i zmieniające niektóre akty ustawodawcze Unii klasyfikuje sztuczną inteligencję pod kątem potencjalnego ryzyka dla użytkowników – im większe szkody mogłaby wyrządzić, tym bardziej restrykcyjnym przepisom będzie podlegać.
– Rada UE zatwierdziła pierwsze globalne przepisy dotyczące sztucznej inteligencji, co stanowi historyczny kamień milowy w świecie technologii. AI Act kategoryzuje systemy według poziomu ryzyka, zapewniając, że aplikacje o wyższym ryzyku są poddawane surowszej kontroli – zauważa adwokat Karina Banaszczyk, liderka Działu Własność Intelektualna/E-commerce/Nowe Technologie w MKZPartnerzy. – Do systemów AI wysokiego ryzyka należą te, które stanowią potencjalne zagrożenie dla zdrowia, bezpieczeństwa, podstawowych praw, środowiska, demokracji czy praworządności, muszą spełniać szczególne wymogi, w szczególności dotyczy to infrastruktury krytycznej, edukacji, zatrudnienia czy opieki zdrowotnej. Nowe przepisy wymagają wyraźnego oznaczania nieautentycznych lub zmanipulowanych obrazów, treści audio lub wideo, tzw. deepfake – dodaje.
Akt w sprawie sztucznej inteligencji wprowadza cztery kategorie:
- oprogramowanie minimalnego wpływu,
- oprogramowanie ograniczonego wpływu,
- oprogramowanie wysokiego ryzyka,
- systemy nieakceptowalne (będą zakazane w UE).
Obowiązywać ma zasada przejrzystości – korzystający z nowych technologii powinni zostać dobrze poinformowaniu o zastosowaniu sztucznej inteligencji. Muszą mieć świadomość, że mają z nią do czynienia. AI Act ma na celowniku manipulację poznawczo-behawioralną, klasyfikację punktową obywateli oraz systemy identyfikacji biometrycznej. Stosuje dodatkowe obostrzenia dla treści zmanipulowanych, których celem jest wprowadzenie odbiorcy w błąd (deepfake).
Zakazy
Zakazane zostało oprogramowanie stanowiące zagrożenie dla praw podstawowych użytkowników, np. monitorujące ludzi i służące do przewidywania ich zachowań, przetwarzające dane, których znajomość może mieć wpływ na zachowanie i pozycję człowieka, np. takie jak system punktowania społecznego stosowany w Chinach.
Nie będzie można gromadzić wizerunków pobranych z internetu czy monitoringu miejskiego, w celu stworzenia systemów do rozpoznawaniu twarzy. Wyjątkiem będzie sytuacja zagrożenia terroryzmem, z takich danych będą mogły skorzystać służby, za zgodą sądu lub właściwego urzędu.
Przy Komisji Europejskiej powstanie urząd ds. sztucznej inteligencji. Utworzona zostanie rada do spraw sztucznej inteligencji, w której zasiadać mają przedstawiciele państw UE. W poszczególnych państwach członkowskich zostaną wyłonione organy, których zadaniem będzie zapewnienie skutecznego egzekwowania nowych przepisów na poziomie krajowym.
Od kiedy?
Rada Unii Europejskiej zatwierdziła przyjęcie AI Act 21 maja, przepisy wejdą w życie 20 dni po publikacji w Dzienniku Urzędowym UE i zaczną obowiązywać w większości 24 miesiące od wejścia w życie. Jednak zakaz stosowania kategoryzacji biometrycznej zacznie obowiązywać wcześniej – 6 miesięcy od wejścia w życie rozporządzenia. Natomiast obowiązki dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia – po 12 miesiącach, a regulacje systemów sztucznej inteligencji wbudowanych w produkty – po 36 miesiącach.
Czytaj więcej:
Komisja Europejska o AI Act – https://digital-strategy.ec.europa.eu/pl/policies/regulatory-framework-ai
Rada Unii Europejskiej o AI Act- https://www.consilium.europa.eu/pl/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/
W przypadku pytań, zachęcamy do kontaktu – mkzpartnerzy.pl/kontakt/