Dyrektywa NIS2 [1] to jedno z głośniejszych haseł w ostatnim czasie. To już (raczej) powszechnie znany fakt, iż konieczność implementacji dyrektywy NIS2 w ramach przepisów krajowych, wiąże się ze znaczącym rozszerzeniem kręgu podmiotów, które będą zobowiązane do wdrożenia obowiązków wynikających z nowelizacji ustawy o krajowym systemie cyberbezpieczeństwa [2]. Na ustawę, dzięki której regulacje z dyrektywy NIS2 zostaną wprowadzone do naszego porządku prawnego, jeszcze musimy poczekać. Na stan obecny, na podstawie najświeższego projektu ustawy zmieniającej ustawę o krajowym systemie cyberbezpieczeństwa [3], możemy wyłącznie przewidywać, jak będzie klarował się przyszły stan prawny. Jako, iż na finalny kształt przepisów musimy poczekać, uwagi wymaga […]
AI Act czyli Akt o sztucznej inteligencji – po miesiącach batalii mamy porozumienie!
18 stycznia 2024 | Artur Kruziński
AI Act (ang. Artificial Intelligence Act) to rozporządzenie unijne w sprawie sztucznej inteligencji, nad którym prace trwają już od 2021 r. W ubiegłym roku nieustannie prowadzono rozmowy na poziomie UE nad jego treścią, co zaowocowało osiągnięciem porozumienia w tym zakresie. Więcej informacji o wyżej wskazanym akcie prawnym przybliżamy w niniejszym artykule.
Czym jest AI Act i czemu ma służyć?
Głównym zadaniem przedmiotowego rozporządzenia ma być uregulowanie ram prawnych w związku z rozwojem sztucznej inteligencji. AI Act ma przede wszystkim służyć zapewnieniu bezpiecznego funkcjonowania systemów opartych o sztuczną inteligencję. Rozporządzenie ma również ustanawiać zakazy dotyczące określonych praktyk w zakresie sztucznej inteligencji, szczegółowe wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka oraz obowiązki spoczywające na podmiotach będących operatorami takich systemów. Jednocześnie (i co warto zauważyć) AI Act ma ustanowić „przepisy dotyczące przejrzystości systemów sztucznej inteligencji przeznaczonych do wchodzenia w interakcję z osobami fizycznymi, systemów rozpoznawania emocji oraz systemów kategoryzacji biometrycznej, a także systemów sztucznej inteligencji wykorzystywanych do generowania obrazów, treści dźwiękowych lub treści wideo lub do manipulowania nimi”[1]. Należy przede wszystkim podkreślić, iż jest to pierwszy taki akt prawny na świecie, który ma uregulować jasne zasady używania systemów sztucznej inteligencji.
Do kogo kierowany jest AI Act?
Jak każdy akt prawny, również AI Act będzie kierowany do pewnej grupy podmiotów. I tak przedmiotowe rozporządzenia będzie mieć zastosowanie do:
– dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji w Unii Europejskiej, niezależnie od siedziby dostawców,
– użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii Europejskiej oraz,
– dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w Unii Europejskiej[2].
Na potrzeby rozporządzenia dokonano legalnej definicji dostawców oraz użytkowników systemów sztucznej inteligencji. Dostawcą, w myśl przepisów, ma być podmiot, który opracowuje system sztucznej inteligencji lub zleca jego opracowanie (zarówno odpłatnie lub nieodpłatnie). Natomiast użytkownicy to podmioty korzystające z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawodowej[3].
Jakie stopnia ryzyka wprowadza AI Act?
Przepisy rozporządzenia mają również wprowadzić różne poziomy ryzyka, które są wykorzystywane przez sztuczną inteligencję, a mianowicie są to ryzyka: nieakceptowalne, wysokie, ograniczone (wiążące się z ryzykiem manipulacji) i minimalne. Tym samym, w zależności od poziomu ryzyka danego systemu sztucznej inteligencji obowiązki dostawców będą się różnić. Warto podkreślić, iż systemy wykorzystujące ryzyko nieakceptowalne mają być zakazane i są to m.in. systemy identyfikacji biometrycznej w czasie rzeczywistym, czy tzw. systemy zaufania publicznego stosowane np. w Chińskiej Republice Ludowej. W AI Act przewidziano szeroką regulację zasad związanych z funkcjonowaniem systemów wysokiego ryzyka, nad którymi nadzór ma sprawować człowiek w celu ograniczenia ich wpływu na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii. Kategoria ryzyka ograniczonego ma odnosić się m.in. do ChatGPT, czy też innych chatbotów wykorzystywanych m.in. do celów marketingowych, w związku z czym osoby fizyczne powinny mieć świadomość interakcji ze sztuczną inteligencją. Natomiast kategoria ryzyka minimalnego ma być zwolniona z wymagań i zobowiązań prawnych, z uwagi na brak zagrożenia dla praw lub bezpieczeństwa ludzi.
Co oznacza osiągnięte porozumienie?
W celu wprowadzenia regulacji AI Act w życie konieczne było wypracowanie kompromisowych rozwiązań, by móc je poddać pod głosowanie w Parlamencie Europejskim. Od 6 grudnia 2023 r. do 8 grudnia 2023 r. trwały trójstronne negocjacje między przedstawicielami Parlamentu Europejskiego, Rady Unii Europejskiej i Komisji Europejskiej. „Celem posiedzenia trójstronnego jest osiągnięcie tymczasowego porozumienia w przedmiocie wniosku ustawodawczego, które będzie akceptowalne dla obu współprawodawców, czyli dla Parlamentu i dla Rady”[4]. Kolejnym etapem prac nad AI Act jest jego procedowanie przez Parlament i Radę, przy czym wejścia w życie rozporządzenia możemy oczekiwać w 2026 r.[5]. W ciągu następnych kilku tygodni powinna zostać opublikowana ostateczna treść rozporządzenia AI Act, na którą z niecierpliwością czekamy, by móc podzielić się z naszymi Czytelnikami ostatecznym kształtem rozporządzenia. 😊
[1] Art. 1 Projektu Rozporządzenia Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii.
[2] Art. 2 Tamże.
[3] Art. 3 Tamże.
[4] https://eur-lex.europa.eu/PL/legal-content/glossary/trilogue.html.
[5] https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/.
Wpis nie stanowi porady ani opinii prawnej w rozumieniu przepisów prawa oraz ma charakter wyłącznie informacyjny. Stanowi wyraz poglądów jego autora na tematy prawnicze związane z treścią przepisów prawa, orzeczeń sądów, interpretacji organów państwowych i publikacji prasowych. Kancelaria Ostrowski i Wspólnicy Sp.K. i autor wpisu nie ponoszą odpowiedzialności za ewentualne skutki decyzji podejmowanych na jego podstawie.