ChatGPT

Ludzki mózg kontra technologia. ChatGPT pokazuje, że AI jest lepsze od nas

5 minut czytania
Komentarze

ChatGPT to student idealny. Praktycznie zawsze wie, co powiedzieć (nawet, gdy tak naprawdę nie ma pojęcia, o czym mówi), nie pyskuje, a ostatnio nawet zdał egzamin medyczny. Jest to równoznaczne, z tym że posiadł wiedzę równą tej, którą muszą posiąść przyszli adepci medycyny. ChatGPT obecnie nie dysponuje jednak wystarczającym doświadczeniem i praktyką, aby nas leczyć. Sam uspokaja, że (na razie) nic nam nie grozi i (na razie) nie stanie obok szpitalnego łoża. Ale kto wie, może zaraz będzie składać przysięgę Hipokratesa?

Zrzut ekranu z https://chat.openai.com

ChatGPT może zostać studentem medycyny?

Lekarz i informatyk z Harvardu, dr Isaac Kohane (więc sprawa jest legitna!), stwierdził, że ChatGPT ma lepszą ocenę kliniczną, niż „wielu lekarzy”. Według naukowca może on również diagnozować rzadkie schorzenia tak dobrze, jak ludzki lekarz. Badacz połączył siły z dwoma kolegami po to, by przetestować model GPT-4. Celem było sprawdzenie, jak najnowszy model sztucznej inteligencji poradzi sobie w środowisku medycznym. Autorzy mieli sześć miesięcy na przetestowanie ChatGPT, mieli zebrać swoje przemyślenia, aby pobudzić społecznie istotną kwestię, jaką jest wpływ sztucznej inteligencji na środowisko medyczne. Według Sama Altmana, dyrektora generalnego OpenAI to „kamień milowy w serii coraz potężniejszych, które nadejdą”.

ChatGPT poradził sobie „oszałamiająco” – tak określił to Kohane w mającej się ukazać książce „The AI Revolution in Medicine”. Współautorem jest niezależny dziennikarz Carey Goldber i wiceprezes Microsoftu ds. badań Peter Lee. Autorzy zgodnie twierdzą, że ani Microsoft, ani OpenAI nie wymagały żadnego nadzoru redakcyjnego nad treścią, chociaż Microsoft zainwestował miliardy dolarów w rozwój technologii OpenAI.

W książce Kohane opowiada o tym, że najświeższy ChatGPT oparty o model GPT-4 (dostępny dla płatnych subskrybentów od marca 2023 r.) odpowiada prawidłowo na pytania dotyczące egzaminów medycznych w Stanach Zjednoczonych w ponad 90% przypadków. Jego ostatnia wersja jest zdecydowanie lepszym „studentem” niż poprzednie, ale też (co trochę przerażające) lepszym niż niektórzy licencjonowani lekarze…


ChatGPT to jednak nie tylko wspaniały tester i narzędzie do wyszukiwania faktów, ale to również doskonały tłumacz. W obręb jego możliwości wchodzi przetłumaczenie wypisu dla pacjenta, który posługuje się językiem portugalskim (translacja portugalski-angielski), ale również jest w stanie zawiły, specjalistyczny język medyczny przełożyć na prosty komunikat (czyli z angielskiego na… bardziej ludzki?). Dzięki czemu nawet osoby bez specjalistycznej wiedzy będą mogły przyswoić sobie ważne informacje. Brzmi jak koniec ery dr Google!

W książce autorzy wyjaśniają, że ChatGPT może dawać lekarzom pomocne sugestie dotyczące zachowania przy łóżku, o tym, w jaki sposób rozmawiać z pacjentem, używając prostego, empatycznego języka. Może też czytać obszerne raporty czy badania i streścić je w ciągu kilku chwil. Według badaczy, narzędzie to jest w stanie wyjaśnić swoje rozumowanie, co sprawiło, że Ci zauważyli ludzki błyski „w oku” AI. Na ten moment jednak ChatGPT może naśladować lekarzy i sposób, w jaki diagnozują różnego rodzaju schorzenia. Efekt jest oszałamiający, choć jeszcze) niedoskonały.

Diagnoza tak dobra jak ta od lekarza-człowieka

Dr Kohane przeprowadził też kliniczny eksperyment myślowy z ChatGPT. Został on oparty o prawdziwą sytuację sprzed kilku lat — chodzi o case noworodka, którego Kohane leczył. Badacz podał swemu automatycznemu rozmówcy kilka kluczowych szczegółów na temat dziecka, które wówczas zebrał w czasie fizycznego badania. Bot dostał również informacje dotyczące USG i poziomów hormonów. Maszyna była w stanie prawidłowo zdiagnozować małego pacjenta. Tak jak dr Kohane postawił diagnozę kilka lat wcześniej, tak dzisiaj, AI rozmówca postawił diagnozę — wrodzony przerost nadnerczy. Taki przypadek występuje średnio raz na sto tysięcy pacjentów. Lata ludzkiej nauki, płynących lekcji życiowych z praktyki lekarskiej i nagle pojawia się COŚ, co poprawnie diagnozuje pacjenta.

ChatGPT
fot. Depositphotos/matteoguedia

Lekarze byli przerażeni i zaskoczeni. Pojawiają się jednak wątpliwości dotyczące tego narzędzia i jego wykorzystywania. Pacjenci na całym świecie będą mieli za chwilę dostęp do wszystko wiedzącej maszyny. Obawy pojawiają się w kontekście gwarancji poprawnej diagnozy i tego, w jaki sposób samozwańczy lekarze będą je wykorzystywać. Czy takie diagnozy w pełni bezpieczne? 

Sztuczna inteligencja bezbłędna? Nie do końca

ChatGPT na ten moment nie jest narzędziem niezawodnym. W książce Kohane opisuje liczne błędy. Choć często są to błędy subtelne, system ma tendencję do twierdzenia, że ma rację, nawet gdy jest kwestionowany. W mojej opinii to tutaj zaczyna się jego ludzki przebłysk!

Choć ChaGPT nie ma możliwości świadomie ocenić sytuacji klinicznej, nie ma odpowiedzialności etycznej lekarza lub pielęgniarki, wkrótce może stać się narzędziem wspierającym medyków w diagnozowaniu pacjentów. To do lekarza będzie należeć finalna decyzja, bo przynajmniej na razie bot nie ma możliwości leczenia ludzi. Lekarze, zamiast przesiadywać godzinami przed ekranem monitora, będą mogli spędzać więcej czasu z pacjentem. “Musimy jednak zmusić się do wyobrażenia sobie świata z coraz to inteligentniejszymi maszynami, które finalnie być może przewyższą ludzką inteligencję w prawie każdym wymiarze, w prawie każdej dziedzinie. A potem bardzo intensywnie zastanowić się, jak chcemy, żeby ten świat działał” – pisze dr Kohan w książce.

Źródło: insider.com

Motyw