Unia Europejska

Komisja Europejska daje urzędnikom po łapach. Nie wolno im korzystać z AI

2 minuty czytania
Komentarze

Organ wykonawczy Uni Europejskiej ustala reguły dotyczące korzystania z AI przez urzędników. Zalecenia są jasne – pracownicy mają nie używać narzędzi wyposażonych w sztuczną inteligencję, jak ChatGPT, podczas pracy z dokumentami zawierającymi wrażliwe informacje.

Sztuczna inteligencja mości sobie coraz wygodniejsze miejsce w wielu branżach. I o ile działania, takie jak pomoc uczniom w nauce, tworzenie „Typowego Polaka” przez Midjourney czy nowa funkcja projektowania generatywnej rzeczywistości cyfrowej w Photoshopie, raczej pozytywnie nas zaskakują, nie brakuje kontrowersji związanych ze zbyt szybkim rozwojem AI.

Wraz z rozwojem ChatGPT coraz to nowe instytucje próbują wprowadzić sztuczną inteligencję do swoich codziennych obowiązków. Gorzej, że oprócz prywatnych przedsiębiorstw, które zaczęły wspomagać się AI, równie szybko na taki ruch zdecydowały się organizacje publiczne, w tym urzędy. Skok na głęboką wodę i implementacja sztucznej inteligencji bez odpowiednich przepisów regulujących jej działanie, może okazać się zgubne, ponieważ coraz częściej mówi się o zagrożeniach płynących z nieodpowiedniego używania szybko uczących się algorytmów.

Komisja Europejska reguluje zasady korzystania z AI

Na niebezpieczeństwa związane z ChatGPT szybko uwagę zwróciły, takie kraje jak Włochy czy USA. I chociaż prawo zawsze jest o kilka kroków do tyłu z regulacjami dotyczącymi nowych technologii, teraz Komisja Europejska zabrała się za stworzenie ram dotyczących pracy urzędników.

Jak podaje portal Politico, KE wydała dokument, w którym zawarła zasady korzystania z generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT i Bard. Czterostronicowy tekst zawiera pięć głównych zasad, jakich mają przestrzegać pracownicy:

Zasady obejmują: nieujawnianie informacji, które nie należą do domeny publicznej, podczas korzystania z generatywnego narzędzia sztucznej inteligencji; mając świadomość, że odpowiedzi sztucznej inteligencji mogą być niedokładne lub stronnicze; rozważenie, czy sztuczna inteligencja może naruszać prawa własności intelektualnej; nigdy nie kopiować i wklejać danych wyjściowych wygenerowanych przez sztuczną inteligencję do oficjalnych dokumentów; oraz unikać korzystania z narzędzi sztucznej inteligencji podczas pracy nad „krytycznymi i wrażliwymi procesami”.

politico.eu

Warto wspomnieć, że Unia Europejska pracuje także nad dokumentem regulującym funkcjonowanie sztucznej inteligencji w przestrzeni publicznej. Mowa o AI Act, czyli ustawie, która ma oceniać ryzyko działania AI na podstawie jej zdolności do wyrządzania szkód, oraz określać zakazane systemy. Do wejścia w życie ustawy jednak jeszcze długa droga – głosowanie w Europarlamencie zaplanowane jest na czerwiec. Dopiero później rozpoczną się negocjacje z Radą UE i Komisją Europejską.

Źródło: Politico

Motyw