Aktuelles

UE przyjmuje przełomowe rozporządzenie w sprawie sztucznej inteligencji: co należy wiedzieć

Rozporządzenie w sprawie sztucznej inteligencji

W dniu 9 grudnia 2023 r. negocjatorzy Parlamentu Europejskiego i prezydencji Rady uzgodnili ostateczną wersję tego, co określa się jako pierwsze na świecie kompleksowe ramy prawne dla sztucznej inteligencji:„Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji i zmieniające niektóre akty Unii” lub w skrócie „Rozporządzenie UE w sprawie sztucznej inteligencji”.

Prawo zabrania korzystania z systemów sztucznej inteligencji, które stwarzają „niedopuszczalne ryzyko” w Unii Europejskiej. W innych przypadkach określa różne obowiązki dla systemów AI, które są sklasyfikowane jako „wysokiego ryzyka” lub „ograniczonego ryzyka”.

Osiągnięto również porozumienie w sprawie regulacji tak zwanych modeli podstawowych, w tym środków mających na celu zapewnienie zgodności z europejskim prawem autorskim, wymogów dotyczących publikowania szczegółowych streszczeń treści wykorzystywanych do szkolenia tych systemów oraz tworzenia dokumentacji technicznej związanej z wykorzystaniem modeli.

Kogo dotyczy rozporządzenie?

Prawo ma zastosowanie zarówno do dostawców, jak i użytkowników systemów AI, które są używane w UE lub mają wpływ na UE. Lokalizacja dostawcy nie ma znaczenia. W związku z tym rozporządzenie UE w sprawie sztucznej inteligencji ma również wpływ na dostawców lub użytkowników systemów sztucznej inteligencji w państwach trzecich, takich jak Stany Zjednoczone, pod warunkiem, że dane wyjściowe systemu są wykorzystywane w UE.

Jakie systemy sztucznej inteligencji obejmuje ustawa?

Ustawa wykorzystuje definicję systemów sztucznej inteligencji zaproponowaną przez OECD:„System sztucznej inteligencji to system oparty na maszynie, który na podstawie dostarczonych mu danych wejściowych generuje dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne„.

Prawo nie ma zastosowania do systemów sztucznej inteligencji:

  • które są wykorzystywane wyłącznie do celów wojskowych lub obronnych;
  • wykorzystywane wyłącznie do celów badawczych i innowacyjnych; oraz
  • które są używane przez osoby w celach nieprofesjonalnych.

Rozporządzenie UE w sprawie sztucznej inteligencji obejmuje niektóre zastosowania, w tym systemy sztucznej inteligencji do rozpoznawania emocji w miejscu pracy, pobierania obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy. Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej w miejscach publicznych będzie dozwolone tylko wtedy, gdy będzie to konieczne do celów egzekwowania prawa. Należy jednak wprowadzić zabezpieczenia, aby zapewnić, że systemy te będą wykorzystywane wyłącznie do wyszukiwania osób podejrzanych o poważne przestępstwa.

Jakie są wymogi rozporządzenia?

Wymogi dotyczące testowania i bezpieczeństwa zależą od poziomu ryzyka stwarzanego przez system sztucznej inteligencji dla jego użytkowników i innych stron, na które dany system ma wpływ. Podczas gdy aplikacje AI, które stwarzają niedopuszczalne ryzyko, są zabronione, systemy AI o ograniczonym ryzyku podlegają mniejszym obowiązkom w zakresie przejrzystości, takim jak powiadamianie użytkowników, że treści, z których korzystają, zostały wygenerowane przez AI.

Z drugiej strony systemy AI wysokiego ryzyka podlegają bardziej rygorystycznym wymogom i obowiązkom, takim jak wdrożenie obowiązkowej oceny wpływu na ryzyko, również i w szczególności w odniesieniu do zgodności z prawami podstawowymi. Ponadto systemy wysokiego ryzyka podlegają procedurze autoryzacji. Użytkownicy mają prawo do otrzymania wyjaśnień dotyczących decyzji opartych na systemach AI wysokiego ryzyka, które mają wpływ na ich prawa.

Graficzna sztuczna inteligencja

Jakie są kary za nieprzestrzeganie przepisów?

Podobnie jak w przypadku obliczania grzywien zgodnie z europejskim ogólnym rozporządzeniem o ochronie danych, grzywny za naruszenia prawa są obliczane jako procent całkowitego rocznego obrotu strony odpowiedzialnej w poprzednim roku obrotowym lub jako stała kwota, w zależności od tego, która z nich jest wyższa:

  • 35 milionów euro lub 7% za przestępstwa związane z wykorzystaniem zabronionych aplikacji AI;
  • 15 milionów euro lub 3% za naruszenia obowiązków wynikających z ustawy; oraz
  • 7,5 miliona euro lub 1,5% za podanie fałszywych informacji.

Wprowadzone zostaną jednak proporcjonalne górne limity grzywien nakładanych na małe i średnie przedsiębiorstwa oraz start-upy. Obywatele mogą składać skargi dotyczące korzystania z systemów AI, które ich dotyczą.

Kiedy rozporządzenie wchodzi w życie?

Obecnie trwają prace nad technicznym dopracowaniem rozporządzenia, które następnie zostanie przedłożone przedstawicielom państw członkowskich UE do zatwierdzenia. Co do zasady, ustawa powinna wejść w życie dwa lata po jej wejściu w życie, choć niektóre przepisy zaczną obowiązywać w późniejszym terminie. Wynika to z faktu, że szczegółowe kwestie wymagają jeszcze doprecyzowania, dlatego też całkiem prawdopodobne jest, że ustawa wejdzie w życie w 2026 roku.

Autor i osoby kontaktowe chętnie odpowiedzą na wszelkie pytania!

Micaela Schork, LL.M.

Micaela Schork, LL.M.
schork@tigges.legal
+49 211 8687 134