Sam Altman

Politycy biorą się za sztuczną inteligencję. Sam Altman z OpenAI przesłuchany w USA

4 minuty czytania
Komentarze

Regulacje dotyczące sztucznej inteligencji są o kilka (jak nie kilkadziesiąt) kroków za planami, które na jej rozwój mają giganci technologiczni. Ale ostatnie wydarzenia pokazują, że firmy, takie jak OpenAI przestają być bezkarne. Dyrektor generalny i twórca ChatGPT był przesłuchiwany przez Kongres. Co ciekawe, niemal w tym samym czasie wywiadu m.in. na temat AI udzielił Elon Musk, który był jednym z założycieli OpenAI.

Instytucje biorą się za działalność sztucznej inteligencji

Nasz świat przechodzi transformację i naturalne, że prawo musi za nią nadążyć, a w przypadku sztucznej inteligencji, lepiej, żeby stało się to jak najszybciej. Ostatnio w sieci zawrzało po tym, jak m.in. Elon Musk i Steve Wozniak podpisali list otwarty, w którym pojawiła się prośba o czasowe wstrzymanie prac nad sztuczną inteligencją z obawy o bezpieczeństwo użytkowników i szkody spowodowane zbyt szybką publikacją projektów AI.

Jeszcze na początku tego miesiąca Sam Altman, CEO OpenAI i dyrektorzy generalni Google, Microsoft i Nvidia spotkali się w Białym Domu z wiceprezydent Kamalą Harris, aby omówić kwestię dotyczącą odpowiedzialnego rozwoju sztucznej inteligencji. Unia Europejska pracuje natomiast nad AI Act – rozporządzeniem, które ma stworzyć ramy prawne dla projektów związanych z AI.

Wczoraj Altman, dyrektor generalny OpenAI, zeznawał przed Senatem, rozpoczynając serię przesłuchań dotyczącą naruszeń spowodowanych przez AI.

Musimy maksymalizować dobro nad złem. Kongres ma teraz wybór. Mieliśmy ten sam wybór, kiedy zmierzyliśmy się z mediami społecznościowymi. Nie udało nam się wykorzystać tego momentu. Teraz mamy obowiązek zrobić to na sztucznej inteligencji, zanim zagrożenia i ryzyko staną się realne.

senator Richard Blumenthal

Celem spotkania Kongresu była pilna potrzeba uregulowania funkcjonowania sztucznej inteligencji. I chociaż jednym z węzłowych punktów posiedzenia miała być analiza sytuacji, w których AI działało ze szkodą na użytkowników, członkowie Senackiej Komisji Sądownictwa skupili się bardziej na poszukiwaniu rozwiązań, mających zapobiegać takim wydarzeniom w przyszłości. Z większością postulatów zgadzał się sam Altman, którego nie od dziś znamy z dosyć katastroficznych poglądów związanych z rozwojem AI.

Wierzymy, że korzyści płynące z narzędzi, które do tej pory wdrożyliśmy, znacznie przewyższają ryzyko. Uważamy jednak, że interwencja regulacyjna rządów będzie miała kluczowe znaczenie dla złagodzenia ryzyka związanego z coraz potężniejszymi modelami.

Sam Altman, CEO OpenAI

Specjalna agencja ds. AI… oraz wywiad Elona Muska

Najbardziej forsowanym pomysłem było stworzenie organu regulacyjnego, który miałaby zająć się opracowaniem i egzekwowaniem zasad bezpieczeństwa. W pewnym momencie senator John Kennedy zapytał nawet Altmana, czy byłby zainteresowany pracą w takiej agencji utworzonej przez Kongres. Ustawodawcy mieli jednak także inne pomysły niż jedynie powołanie instytucji czuwającej nad ochroną użytkowników. Jednym z nich było pociągnięcie firm AI do odpowiedzialności za szkody, jakie wyrządzają użytkownikom

Ciekawe, czy Elon Musk, który zrezygnował ze stanowiska CEO Twittera i niedawno w wywiadzie dla CNBC kontrowersyjnie stwierdził, że jest „powodem istnienia OpenAI” także zgodziłby się z pomysłem ponoszenia odpowiedzialności i zadośćuczynienia dla skrzywdzonych użytkowników.

Było to dopiero pierwsze spotkanie związane z przesłuchaniami dotyczącymi szkodliwego działania sztucznej inteligencji, więc plan Kongresu dotyczący regulacji jest nadal niejasny. Następne posiedzenia mają odbyć się niedługo i przynieść wymierne efekty w postaci zmiany prawa.

Unia Europejska też pracuje nad regulacjami dotyczącymi AI

W minionym tygodniu w ramach pracy nad AI Act, czyli ustawą, która ma regulować funkcjonowanie sztucznej inteligencji na podstawie jej zdolności do wyrządzania szkód, europosłowie wydłużyli listę zastosowań systemów, które będą zakazane.

Poprawiony projekt zabrania też m.in. biometrycznej kategoryzacji osób na podstawie ich cech wrażliwych – takich jak płeć, rasa, pochodzenie etniczne, narodowość i obywatelstwo, wyznanie czy poglądy polityczne. Zakazane będzie również stosowanie AI do profilowania potencjalnych sprawców przestępstw na bazie danych o zachowaniach, cechach lub geolokalizacji (tzw. predykcja kryminalna). Na czarną listę trafiły ponadto systemy AI do rozpoznawania emocji (używane np. w zakładach pracy, szkołach, przy zwalczaniu przestępczości), a także pobieranie danych biometrycznych z mediów społecznościowych lub nagrań z monitoringu w celu tworzenia baz danych rozpoznawania twarzy

– czytamy w „Dzienniku Gazecie Prawnej” cytowanej przez portal Business Insider.

Głosowanie w Europarlamencie zaplanowane jest na czerwiec. Dopiero później rozpoczną się negocjacje z Radą UE i Komisją Europejską.

Źródło: The Verge, Business Insider, opracowanie własne

Motyw