AI Act wchodzi w życie – jakie regulacje obowiązują od 2 lutego 2025 r.?

13 lutego 2025 |

2 lutego 2025 roku w życie weszły pierwsze przepisy Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r., znanego jako Akt w sprawie sztucznej inteligencji (AI Act). Nowe regulacje mają na celu zapewnienie bezpiecznego i etycznego wykorzystania systemów sztucznej inteligencji w Unii Europejskiej. Ogólnie rzecz ujmując obowiązujące już przepisy wprowadzają zakazy dotyczące niebezpiecznych technologii oraz obowiązek podnoszenia kwalifikacji użytkowników AI.

Zakazane praktyki – czego nie wolno?

Od lutego 2025 r. obowiązuje zakaz stosowania i wprowadzania na rynek systemów AI uznanych za szczególnie ryzykowne. Obejmuje on m.in.:

  1. Manipulacja ludźmi:
    Regulacja ta zakazuje wykorzystywania sztucznej inteligencji do manipulacji użytkownikami, czyli stosowania technik, które wpływają na ich decyzje bez ich wiedzy i zgody. Przykładem może być używanie AI do generowania nieuczciwych rekomendacji lub do wywoływania emocji, które mogą zmusić użytkownika do podjęcia decyzji, które w normalnych warunkach by nie podjął, np. poprzez ukrywanie informacji lub stosowanie technik perswazji psychologicznej. Taki zakaz ma na celu ochronę wolnej woli i autonomii jednostki w świecie cyfrowym, gdzie technologia może być wykorzystywana do manipulacji opinią publiczną lub zachowaniami konsumentów.
  2. Eksploatacja słabości:
    Zabrania się wykorzystywania sztucznej inteligencji do identyfikowania i wykorzystywania słabości osoby fizycznej lub grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną (wrażliwości społecznych) w celu manipulowania ich zachowaniami. Chodzi tu o sytuacje, w których AI mogłoby wykorzystywać trudności emocjonalne lub społeczne jednostki, by wpływać na jej decyzje lub działania, co mogłoby prowadzić do jej szkody. Regulacja ma na celu ochronę osób przed wykorzystywaniem ich chwilowych słabości lub wrażliwości dla zysków komercyjnych lub innych interesów.
  1. Scoring społeczny:
    Zakaz scoringu społecznego oznacza, że systemy AI nie mogą oceniać obywateli na podstawie ich zachowań, historii czy cech osobistych w sposób, który może prowadzić do dyskryminacji, marginalizacji czy kontroli społeczeństwa. W krajach takich jak Chiny istnieją systemy oceny obywateli, które gromadzą dane na temat ich życia codziennego, finansów, zachowań, a następnie przypisują im punkty, które wpływają na ich dostęp do usług i możliwości. AI Act zabrania stosowania takich systemów w Unii Europejskiej, aby chronić obywateli przed nadmierną ingerencją państwa w życie prywatne oraz zapobiec tworzeniu społeczeństwa nadzorowanego.
  2. Profilowanie kryminalne:
    Profilowanie kryminalne polega na ocenianiu ryzyka popełnienia przestępstwa przez jednostkę na podstawie jej cech zewnętrznych, zachowań lub danych demograficznych, jak np. pochodzenie etniczne, status społeczny czy historia kryminalna. AI Act zabrania stosowania systemów, które w sposób automatyczny, na podstawie analizy algorytmicznej, stwierdzają, że ktoś może popełnić przestępstwo, co mogłoby prowadzić do niesprawiedliwych oskarżeń lub aresztowań. Celem tej regulacji jest zapewnienie, że decyzje o potencjalnym zagrożeniu nie będą podejmowane bez wyraźnych dowodów, a procesy decyzyjne będą podlegały kontroli i nadzorowi.
  3. Bazy danych biometrycznych:
    Gromadzenie danych biometrycznych, takich jak wizerunek twarzy, odciski palców, DNA, lub inne cechy fizyczne, bez zgody osób, których te dane dotyczą, jest zabronione. Przykładem może być zbieranie danych z kamer monitorujących twarze ludzi w przestrzeni publicznej bez ich wiedzy. Przepisy te mają na celu ochronę prywatności i zabezpieczenie przed nadużyciami, które mogłyby prowadzić do nieautoryzowanego gromadzenia informacji o osobach, ich lokalizacji czy zachowań. W szczególności regulacja ta ma na celu zapobieganie masowemu śledzeniu obywateli przez rządy lub firmy w sposób, który może prowadzić do nadmiernego nadzoru.
  4. Analiza emocji:
    Sztuczna inteligencja nie powinna analizować emocji ludzi w sposób automatyczny, szczególnie w miejscach takich jak miejsce pracy, szkoły czy inne instytucje, chyba że istnieje wyraźny, uzasadniony powód. Przykładem może być wykorzystanie algorytmów do rozpoznawania nastroju pracowników, co może prowadzić do dyskryminacji, wykluczenia lub nadmiernego nacisku na jednostki. Zakaz ten ma na celu ochronę prywatności emocjonalnej osób, by nie były one oceniane na podstawie ich emocji, a zamiast tego by decyzje były podejmowane w sposób obiektywny i sprawiedliwy.
  5. Identyfikacja w czasie rzeczywistym:
    AI Act zabrania stosowania rozpoznawania twarzy w miejscach publicznych, z wyjątkiem przypadków, które mają na celu szczególną ochronę, np. w celu poszukiwania osób zaginionych lub zwalczania poważnej przestępczości. Rozpoznawanie twarzy w czasie rzeczywistym może stanowić poważne zagrożenie dla prywatności obywateli, umożliwiając monitorowanie i śledzenie ich w przestrzeni publicznej bez ich wiedzy. Regulacja ta chroni jednostki przed niekontrolowanym nadzorem, który mógłby prowadzić do naruszenia prywatności i swobody poruszania się.

Te przepisy mają na celu ochronę praw człowieka, zapewniając, że technologie oparte na sztucznej inteligencji będą wykorzystywane w sposób odpowiedzialny, zgodny z etyką i prawem, bez naruszania podstawowych wolności obywatelskich

Nowe wymagania – wiedza o AI obowiązkowa

Drugą istotną zmianą, która obowiązuje od lutego 2025 r., jest wymóg podnoszenia kompetencji związanych ze sztuczną inteligencją (AI Literacy). Firmy, instytucje i osoby zajmujące się AI muszą zapewnić, że ich pracownicy:

  • Otrzymają szkolenia dotyczące stosowania i ryzyka związanego z AI,
  • Będą stosować procedury i wytyczne określające bezpieczne i etyczne użycie AI,
  • Zadbają o ciągłe aktualizowanie wiedzy na temat regulacji i nowych technologii.

Co dalej? Kolejne etapy AI Act

Wejście w życie AI Act jest rozłożone na kilka etapów. Następne kluczowe terminy to:

  • 2 sierpnia 2025 r. – zaczną obowiązywać regulacje dotyczące ogólnodostępnych modeli AI oraz organów nadzorujących przestrzeganie przepisów.
  • 2 sierpnia 2026 r. – pełne wdrożenie AI Act, obejmujące systemy wysokiego ryzyka (np. te stosowane w rekrutacji, finansach, czy zarządzaniu infrastrukturą krytyczną).

Podsumowanie – co zrobić już teraz?

Firmy i organizacje korzystające z systemów AI powinny niezwłocznie dostosować się do nowych regulacji, aby uniknąć kar i zapewnić zgodność z prawem. Najważniejsze kroki to:

  1. Przeanalizowanie systemów AI pod kątem zakazanych praktyk.
  2. Zorganizowanie szkoleń dla pracowników w zakresie bezpiecznego korzystania z AI.
  3. Wprowadzenie procedur i mechanizmów nadzoru nad sztuczną inteligencją.

Choć AI Act wprowadza rygorystyczne zasady, jego celem jest zapewnienie odpowiedzialnego i bezpiecznego rozwoju AI w Unii Europejskiej. Dlatego warto już teraz przygotować się na pełne wdrożenie regulacji w 2026 roku.


Wpis nie stanowi porady ani opinii prawnej w rozumieniu przepisów prawa oraz ma charakter wyłącznie informacyjny. Stanowi wyraz poglądów jego autora na tematy prawnicze związane z treścią przepisów prawa, orzeczeń sądów, interpretacji organów państwowych i publikacji prasowych. Kancelaria Ostrowski i Wspólnicy Sp.K. i autor wpisu nie ponoszą odpowiedzialności za ewentualne skutki decyzji podejmowanych na jego podstawie.


TAGI: ,
Ta strona wykorzystuje pliki cookies. Poprzez kliknięcie przycisku „Akceptuj", bądź „X", wyrażasz zgodę na wykorzystywanie przez nas plików cookies. Więcej o możliwościach zmiany ich ustawień, w tym ich wyłączenia, przeczytasz w naszej Polityce prywatności.
AKCEPTUJ