Robot na tle flagi Unii Europejskiej z kodem binarnym w tle. AI Act wprowadzone

AI Act wchodzi w życie. Prawniczka wyjaśnia, jak nowe unijne przepisy wpłyną na polską rzeczywistość

11 minut czytania
Komentarze

Rada UE, zgodnie z działaniami Parlamentu UE, przyjęła AI Act (rozporządzenie o sztucznej inteligencji), które będzie określać zabezpieczenia związane z nadużyciami modeli i programów pracujących na AI.

Nowe przepisy obejmują m.in. wymogi dotyczące transparentności algorytmów, oznaczania treści generowanych przez sztuczną inteligencję oraz zasad zarządzania cyklem życia systemów sztucznej inteligencji. Redakcja Android.com.pl zapytała zaś o najciekawsze zagadnienia doświadczoną adwokatkę, Justynę Wilczyńską-Baraniak.

Osoba pracująca na laptopie, z holograficznym obrazem głowy robota ze słowem "AI" i ikonami technologii.
Fot. eautrium / Shutterstock

Czym jest AI Act?

AI Act, czyli tak naprawdę Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji), zostało opublikowane 12 lipca.

Dokument wchodzi w życie 1 sierpnia 2024 roku. Jest to pierwsza tego rodzaju regulacja na świecie, mająca na celu stworzenie jednolitych ram prawnych dla rozwoju i wykorzystania sztucznej inteligencji (AI) na terenie Unii Europejskiej.

Wejście w życie tego aktu prawnego jest ważnym krokiem w kierunku regulacji technologii, która ma coraz większy wpływ na społeczeństwo i gospodarkę. Dla firm i organizacji wykorzystujących AI oznacza to konieczność dostosowania się do nowych wymogów i potencjalnie przeprowadzenia zmian w sposobie projektowania, wdrażania i zarządzania systemami AI.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Kiedy tak naprawdę zacznie obowiązywać AI Act?

Rozporządzenie wchodzi w życie za kilka dni, ale w praktyce jego przepisy zaczną obowiązywać dopiero za kilka miesięcy lub nawet kilka lat, np. przepisy dotyczące zakazanych praktyk wejdą w życie w lutym 2025 roku, a w sierpniu 2026 roku obowiązywać zacznie większość pozostałych obowiązków z AI Act, w szczególności wymogów związanych z systemami wysokiego ryzyka.

Osoba trzyma smartfon wyświetlający interfejs czatu z wiadomościami, w tle widoczny laptop z grafikami danych.
fot. Depositphotos/everythingposs

Na rynku jest już wiele modeli i systemów AI. W związku z tym warto zadać pytanie, czy przepisy AI Act mogą w ich przypadku zadziałać wstecz, czy będą dotyczyć tylko nowych systemów AI, wprowadzonych po jego wejściu w życie?

Co do zasady, AI Act obejmuje systemy wprowadzone na rynek po dacie jego wejścia w życie. Jednak możliwe jest objęcie przepisami rozporządzenia również takich systemów, które zostały wprowadzone na rynek przed tą datą, jeżeli po wejściu w życie AI Act podlegały
istotnym modyfikacjom.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Czy AI Act nadąża za rozwojem technologii?

Trzeba też wziąć pod uwagę fakt, że przepisy AI Act są mocno opóźnione względem rynku już w momencie publikacji i wejścia w życie, np. boom związany z generatywną sztuczną inteligencją zaczął się w 2022 roku, a PE zajął się tym zagadnieniem dopiero w czerwcu 2023 roku. Co więcej, wszystkie zapisy AI Act będą w pełni egzekwowane dopiero w 2027 roku. Nie zostało to pominięte w europejskim ustawodawstwie.

Przy takim tempie rozwoju technologii, z jakim obecnie mamy do czynienia w zakresie sztucznej inteligencji, żaden proces legislacyjny nie będzie w stanie nadążyć za postępującymi zmianami. (…) Dlatego tak istotne jest, aby prawo dotyczące nowych technologii było na tyle elastyczne, żeby możliwe było osiągnięcie jego celów w przyszłości nawet wówczas, gdy technologia wyewoluuje w aktualnie nieznanym kierunku. (…)

Z tego powodu w AI Act przewidziano upoważnienie dla Komisji Europejskiej wydawania i aktualizowania w uproszczonej procedurze prawodawczej aktów delegowanych, zawierających wytyczne dotyczące praktycznego wdrażania AI Act.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Jakie są wymagania wobec systemów AI w rozporządzeniu?

AI Act wprowadził system klasyfikacji systemów sztucznej inteligencji, dzieląc je na różne kategorie w zależności od poziomu ryzyka, jakie stwarzają dla ludzi i społeczeństwa. To podejście pozwala na dostosowanie regulacji do specyfiki różnych zastosowań AI, zapewniając jednocześnie odpowiedni poziom ochrony.

Robot przy komputerze w biurze, przyglądający się i rozmawiający z dwójką ludzi pijących kawę, korzystających z AI.
Fot. Stock-Asso / Shutterstock

Systemy AI minimalnego i ograniczonego wpływu, takie jak chatboty obsługujące klientów, mogą wymagać pewnych ograniczeń, np. w kwestii przejrzystości.

W takim przypadku dostawca musi informować zainteresowane osoby fizyczne, że prowadzą one interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania.

Wyjątkowo istotne wówczas jest uwzględnienie cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Należy pamiętać, aby informacje przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Systemy AI wysokiego ryzyka to najbardziej szczegółowo regulowana kategoria. Obejmuje systemy, które mogą stanowić poważne zagrożenie dla zdrowia, bezpieczeństwa lub praw podstawowych (np. systemy medyczne, wykorzystywane w infrastrukturze krytycznej, dostępie do edukacji, wpływające na prawa osób itp.).

Systemy AI wysokiego ryzyka powinny być projektowane i rozwijane w sposób zapewniający wystarczającą przejrzystość ich działania, umożliwiającą podmiotom stosującym AI interpretację wyników działania systemu i ich właściwe wykorzystanie.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Wchodzące w życie rozporządzenie wyraźnie stwierdza, że oprócz wielu korzystnych zastosowań AI może ona być również wykorzystywana niewłaściwie. Mianowicie może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wyzyskiwania i kontroli społecznej.

Takie praktyki są szczególnie szkodliwe i stanowią nadużycie i powinny być zakazane. Dlatego istotne są systemy nieakceptowalne, które zostały zakazane w UE. Chodzi tutaj m.in. o:

Ludzie przechodzący przez ulicę z nałożonymi cyfrowymi ramkami rozpoznawania twarzy.
fot. Depositphotos/trismegist
  • systemy manipulujące ludzkim zachowaniem w sposób, który powoduje poważne szkody fizyczne lub psychiczne;
  • systemy wykorzystujące podprogowe techniki, aby istotnie zniekształcić postrzeganie rzeczywistości i wpływać na decyzje osób, które nie są świadome tego wpływu;
  • systemy AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;
  • systemy AI mające na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji, przeznaczonych do wykrywania stanu emocjonalnego osób fizycznych w sytuacjach związanych z miejscem pracy i edukacją;
  • systemy masowego monitorowania w czasie rzeczywistym w miejscach publicznych (chodzi o systemy AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw);
  • systemy wykorzystujące cechy biometryczne do kategoryzowania osób w celu zarządzania określonymi kategoriami społecznymi, takimi jak pochodzenie rasowe, etniczne, polityczne, religijne, orientacja seksualna lub przynależność związkowa.

Dlaczego nadzór nad AI i transparentność jej działania są tak ważne?

Działanie AI uzależnione jest od informacji, na których model zostanie wytrenowany. Jeśli korzystaliście z ChatGPT, Barda/Gemini, Copilota czy innego chatbota, na pewno zdarzało się wam dostawać błędne, wyniki, oderwane od rzeczywistości informacje czy teksty o negatywnym wydźwięku… Nie jest to narzędzie, któremu można do końca zaufać. Jego działanie musi być przejrzyste, a nadzór człowieka jest nieodzowny.

Brak wyjaśnialności decyzji podejmowanych przez AI to kolejne wyzwanie. Systemy te często działają jak tzw. czarne skrzynki, co oznacza, że trudno jest zrozumieć, na podstawie jakich danych i algorytmów podjęły daną decyzję.

Kolejnym obszarem ryzyka, które również nie jest zawarte w obecnych regulacjach, a które uznaje się za charakterystyczne dla AI, są tzw. halucynacje, czyli generowanie błędnych lub nierealistycznych wyników. Wiąże się to również z ryzykiem dyskryminacji, które polega na możliwości nieświadomego faworyzowania lub marginalizowania przez systemy AI pewnych grup klientów.

Jeśli algorytmy sztucznej inteligencji będą trenowane na danych historycznych, które zawierają uprzedzenia, mogą nieświadomie utrwalać nierówności.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Jakie podmioty zostaną szczególnie dotknięte przez przepisy AI Act?

Justyna Wilczyńska-Baraniak twierdzi, że najbardziej będą musieli się dostosować dostawcy systemów AI, jeżeli ich system zostanie zakwalifikowany jako system wysokiego ryzyka.

Wdrożenie AI zgodnie z nową regulacją będzie też wymagało podejścia interdyscyplinarnego, uwzględniającego różnorodne aspekty takie jak zgodność z prawem, zarządzanie ryzykiem, kwestie etyczne czy transparentność zasad, co umożliwi odpowiedzialne korzystanie z możliwości, jakie oferuje ta technologia.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

amazon rozpoznawanie dloni platnosc biometria

W szczególności AI Act będzie dotyczyć dostawców systemów AI w zakresie:

  • biometrii;
  • zarządzania infrastrukturą krytyczną;
  • edukacji;
  • rekrutacji i podejmowania decyzji dot. pracowników;
  • dostępu do podstawowych usług prywatnych i publicznych i korzystania z nich (usługi medyczne, kredyty, ubezpieczenia, służby pierwszej pomocy);
  • ścigania przestępstw;
  • zarządzania migracją, azylem i kontrolą graniczną;
  • sprawowania wymiaru sprawiedliwości.

Co istotne, za dostawcę systemu może być uznany również inne podmioty (w tym wdrażające AI), jeżeli umieszczają oni swoją nazwę lub znak towarowy w systemie AI lub dokonują w nim istotnych zmian.

AI i kwestie związane z prawem autorskim i własnością intelektualną

Problemem związanym z AI jest kwestia praw autorskich. Nie ma jednego globalnego rozwiązania, które przyjęłyby wszystkie kraje. Bo do kogo przypisać można własność dzieł stworzonych przez sztuczną inteligencję? Nie ma na to pytanie jednoznacznej odpowiedzi.

W Wielkiej Brytanii zostało to uregulowane w art. 178 Copyright, Designs and Patents Act 1988 jako „computer generated work”, czyli dzieło stworzone jedynie przez komputer, bez udziału człowieka. Taka praca chroniona jest prawem autorskim przez 50 lat (zamiast 70 lat jak w przypadku utworu stworzonego przez człowieka).

Z kolei w Indiach dzieło stworzone przez sztuczną inteligencję może być przedmiotem prawa autorskiego jedynie wtedy, jeśli człowiek miał wystarczająco duży udział.

Robot malujący portret mężczyzny na sztalugach.
Fot. obraz wygenerowany przez DALL-E

Istnieje kilka możliwych kierunków jak można uregulować tę sytuację np. stworzenie nowego prawa dla dzieł stworzonych przez AI, które byłoby odrębne od prawa autorskiego, wprowadzenie obowiązku kompensacji dla autorów utworów, które były inspiracjami, przyjęcie regulacji jak w UK – zdefiniowanie utworu stworzonego przez komputer czy uzależnienie utworzenia się prawa autorskiego od poziomu udziału człowieka. Jest to jednak wyzwanie dla prawa własności intelektualnej, które może zmienić podstawy założeń tego prawa.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Jakie konsekwencje wiążą się z wprowadzeniem AI Act?

Czy AI Act odstraszy amerykańskich gigantów technologicznych? Nie sposób nie zauważyć, że do Europy z dużym opóźnieniem trafiają rozwijane w USA technologie, np. nowości związane z Google Gemini. W późniejszym czasie docierają też do nas np. funkcje AI w nadchodzących iPhone’ach, a niektóre firmy nawet nie zamierzają wdrażać modeli AI w Europie (np. Meta z modelem Llama) z uwagi na nieprzewidywalne regulacje.

Szkic cyfrowy przedstawiający salę sądową z hologramem głowy przedstawiającej sztuczną inteligencję (AI) na tle fotela sędziowskiego. Na pierwszym planie młotek sądu, waga prawnicza oraz stosy ksiąg prawnych.
Fot. Obraz wygenerowany za pomocą DALL-E

Zasadniczym problemem wszelkich regulacji dotyczących nowych technologii jest to, że przepisy mają zastosowanie na konkretnym terytorium, natomiast technologie stosowane są globalnie – powoduje to istotne problemy, ponieważ konieczne jest przeanalizowanie przepisów obowiązujących na każdym rynku, na którym świadczymy swoje usługi oraz dostosowanie oferowanych rozwiązań do tych przepisów.

Justyna Wilczyńska-Baraniak, Partnerka EY, Adwokat, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych

Z drugiej strony nie tylko Unia Europejska widzi konieczność uregulowania AI. Inne kraje, w tym stany Zjednoczone, także opracowują swoje regulacje.

Źródło: Android.com.pl, rozmowa z eksperem EY Polska. Zdjęcie otwierające: obraz wygenerowany przez DALLE-3

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw