WHO ogłosiło koniec pandemii COVID-19. Teraz nowego zagrożenia dopatruje się w używaniu AI

5 minut czytania
Komentarze

Stan epidemiologiczny został zniesiony zaledwie kilka tygodni temu, a już WHO wskazuje nam na nowe zagrożenie. Co więcej, tym razem osoby, które dzielnie zwalczały Światową Organizację Zdrowia, chętnie staną z nią w ramie w ramię w walce z nowym wrogiem: otóż WHO ostrzega przed… AI.

WHO ostrzega przed AI – szykuje się ostra jazda

who

W sieci można zaobserwować nowe zjawisko, jakim jest straszenie ludzi AI. Zwykle jest to stare, dobre: przyjdzie AI i zabierze Ci pracę! czyli coś, co było bardzo popularne podczas rewolucji przemysłowej. Nie brakuje jednak głosów, że AI przejmie władze nad światem i zniewoli ludzkość. Zwykle ich autorami są ludzie, którzy co prawda nie znają się na temacie Sztucznej Inteligencji, ale widzieli dużo filmów jak Matrix, czy Terminator.

Obawiam się, że te osoby właśnie otrzymały w swoje ręce bardzo potężną broń, jaką jest raport WHO dotyczący potencjalnych zagrożeń wynikających z używania Sztucznej Inteligencji, a zawłaszcza modeli językowych. Broń idealną do manipulacji i zastraszania reszty społeczeństwa. Ja natomiast nie zamierzam nikogo straszyć nowymi technologiami, bo może i to jest bardzo poczytne, ale niczego dobrego do świata nie wnosi poza zbędną paniką. 

Czy więc uważam, że powinniśmy zbagatelizować raport WHO? W żadnym wypadku! Po prostu warto mu się przyjrzeć i sprawdzić, co tak właściwie tam padło i przed czym Światowa Organizacja Zdrowia nas ostrzega, a przed czym nie. W końcu to, że ktoś powołuje się na nią, nie znaczy, że z jej strony padło to, co dana osoba próbuje zasugerować, a bezmyślne rzucanie linkami do badań, które przeczą stawianej przez siebie tezie to dość popularna strategia pewnej grupy osób, która zaciekle walczy z postępem: np. z 5G.

WHO widzi w AI wielki potencjał

Zacznijmy od tego, że Światowa Organizacja Zdrowia dostrzega w AI masę… zalet. W jej innym raporcie pod tytułem Ethics and governance of artificial intelligence for health, czyli w wolnym tłumaczeniu Etyka i zarządzanie sztuczną inteligencją dla zdrowia wymienione są liczne zalety sztucznej inteligencji. Rzecz jasna, organizacja zwraca w nim uwagę także na pewne zagrożenia, jednak te występują wszędzie, a WHO sugeruje ich rozwiązania. 

who

Jak jednak sama organizacja przyznaje, technologia AI i modele językowe (LLM) mają potencjał, aby znacznie poprawić dostęp do informacji o zdrowiu, wsparcie decyzji, a nawet zwiększyć zdolności diagnostyczne w miejscach o ograniczonych zasobach. Platformy takie jak ChatGPT, Bard i Bert potrafią naśladować zrozumienie, przetwarzanie i produkcję komunikacji ludzkiej, co otwiera nowe możliwości dla wsparcia zdrowia publicznego. Tu dobrym przykładem są modele AI, które z dużą dozą dokładności potrafią diagnozować nowotwory.

WHO widzi zagrożenia w AI

who
Fot. Depositphotos/everythingposs

WHO obawia się, że ludzie za bardzo zaufają AI. Organizacja zwraca uwagę, że dane używane do szkolenia AI mogą być stronnicze, generując wprowadzające w błąd lub nieprecyzyjne informacje, co stwarza ryzyko dla zdrowia. Natomiast w przypadku, kiedy ktoś wymieni doktora Google na Doktora ChatGPT, to ten może się odwoływać do błędnych danych, lub podać diagnozę, która nie będzie zgodna ze stanem faktycznym. I nie żeby Doktor Google nie był jeszcze gorszym wyborem.

Oczywiście, Sztuczna Inteligencja od OpenAI zawsze w takiej sytuacji wysyła chorych do lekarza, jednak w przyszłości mogą pojawić się modele językowe, które zamiast tego mogą zaproponować sięgnięcie po Ukryte Terapie, lub inne gusła. Zwłaszcza że modele językowe potrafią generować odpowiedzi, które wydają się autorytatywne i wiarygodne dla użytkownika końcowego, ale mogą być całkowicie nieprawdziwe lub zawierać poważne błędy, które będą później powielane przez nieświadomych pacjentów AI. Co gorsza, sama Sztuczna Inteligencja wcale nie musi być zaprogramowana w złym celu.

W grę wchodzi tutaj także zjawisko określane mianem halucynowania. W przypadku dużych modeli językowych, takich jak GPT-3 czy GPT-4, halucynacje mogą obejmować generowanie informacji, które są fałszywe, błędne lub wprowadzające w błąd. To jest jednym z głównych problemów, z którymi borykają się tego typu modele, zwłaszcza przy generowaniu długich tekstów, gdzie możliwość wprowadzenia błędów jest większa. 

Co jednak z modelami stworzonymi właśnie z myślą o medycynie? Wbrew pozorom te również są objęte powyższymi problemami. Co więcej, do szkolenia AI można wykorzystać także błędne dane medyczne, które nie zostały w pełni potwierdzone, lub dane zawierające dane personalne pacjentów, co generuje kolejne zagrożenia. 

WHO apeluje o ostrożność

who
fot. Depositphotos/PixelsHunter

Tym samym WHO wcale nie straszny nas AI. Wręcz przeciwnie: z entuzjazmem przyjmuje stosowne zastosowanie technologii, w tym LLM, do wsparcia pracowników służby zdrowia, pacjentów, badaczy i naukowców. Jedynie ostrzega nas przed bezmyślnym zaufaniem wobec AI i zastępowaniem nią lekarzy. Zwłaszcza że pole ku temu jest bardzo podatne, bo poza osobami, które nas straszą sztuczną inteligencją mamy także takie, które przesadzają w drugą stronę. 

W końcu wpisów o tym, jak AI rozwiązało problem, którego ludzie nie potrafili rozwiązać, lub jak zdało egzamin medyczny, lub wystawiło diagnozę, jakiej człowiek wystawić nie potrafił, również jest pełno. W związku z tym ktoś, to się zapozna z takimi treściami, może mieć mylne wrażenie, że AI to autorytet w kwestii zdrowia, a następnie zapyta GPT-3 czy GPT-4 o poradę zdrowotną lub diagnozę, co już nie jest zbyt dobrym pomysłem. WHO ostrzega nas jedynie przed bezmyślną wiarą w to, co wygeneruje AI, a nie straszy nas, że ta technologia będzie miała na nas zły wpływ. I nie dajcie się zastraszyć, że jest inaczej.

Źródło: WHO(1), WHO(2), Twitter, fot. Depositphotos/igorgolovniov

Motyw