Apple iPhone wyświetlający folder z aplikacjami używającymi sztucznej inteligencji. W tle rozmazana filiżanka z kawą.

Microsoft udostępnia nowe narzędzie. Zweryfikuje za ciebie, czy AI mówi prawdę

3 minuty czytania
Komentarze

Microsoft przedstawił niedawno nowatorskie rozwiązanie, które ma na celu eliminację jednego z największych problemów sztucznej inteligencji – tzw. halucynacji. Narzędzie o nazwie „Correction” ma pomóc w weryfikacji informacji generowanych przez AI, co może znacząco wpłynąć na jakość i wiarygodność treści tworzonych przez te systemy.

Czym są halucynacje AI oraz jak działa Correction od Microsoftu?

Halucynacje AI to zjawisko, w którym modele językowe generują nieprawdziwe lub nieistniejące informacje, przedstawiając je jako fakty. Problem ten stał się szczególnie widoczny wraz z rosnącą popularnością chatbotów i asystentów AI, takich jak ChatGPT czy Copilot. Microsoft twierdzi, że jego nowe narzędzie może skutecznie wykrywać i korygować takie błędy.

Koncepcja testów AI. Dwa humanoidalne roboty, jeden trzymający lupę i patrzący na drugiego robota.
Fot. Microsoft Bing Kreator Obrazów / wygenerowane za pomocą AI

Correction działa na zasadzie porównywania generowanych treści z bazą danych zawierającą sprawdzone informacje. Jeśli system wykryje rozbieżności, automatycznie wprowadza poprawki lub sugeruje alternatywne sformułowania. To podejście ma zapewnić, że treści tworzone przez AI będą bardziej zgodne z rzeczywistością i mniej podatne na rozprzestrzenianie dezinformacji.

Oprócz narzędzia Correction, Microsoft oferuje również funkcję Azure AI Content Safety, która analizuje i filtruje treści generowane przez AI, aby zapobiegać rozprzestrzenianiu szkodliwych lub nieodpowiednich informacji. Podobne rozwiązania rozwija również Google, wprowadzając system Fact Check Explorer, który pozwala użytkownikom na szybkie sprawdzenie wiarygodności informacji poprzez dostęp do sprawdzonych źródeł.

Choć jest to krok w dobrym kierunku, wszystko ma swoje ograniczenia. Przede wszystkim, skuteczność tytułowego narzędzia zależy od jakości i aktualności bazy danych, z którą porównywane są generowane treści. Istnieje ryzyko, że system może nie wykryć najnowszych informacji lub subtelnych niuansów w bardziej złożonych tematach.

Plany na przyszłość

Logo Microsoft na tablicy przed budynkiem otoczonym roślinnością.
Fot. JHVEPhoto / Shutterstock

Microsoft zapewnia, że Correction zostało zaprojektowane z myślą o elastyczności i może być dostosowane do różnych zastosowań. Firma planuje udostępnić narzędzie zarówno dla swoich wewnętrznych projektów, jak i dla zewnętrznych partnerów, co ma przyczynić się do poprawy jakości treści generowanych przez AI w różnych sektorach.

Wprowadzenie tego typu narzędzia wpisuje się w szerszy trend w branży technologicznej, gdzie coraz większą wagę przywiązuje się do etyki i odpowiedzialności w rozwoju sztucznej inteligencji. Firmy takie jak Microsoft, Google czy OpenAI inwestują znaczne środki w badania nad metodami zwiększania wiarygodności i bezpieczeństwa systemów AI.

Niezależnie od potencjalnych ograniczeń, inicjatywa Microsoftu jest postrzegana jako ważny krok w kierunku zwiększenia zaufania do technologii AI. W miarę jak sztuczna inteligencja odgrywa coraz większą rolę w naszym codziennym życiu, narzędzia takie jak Correction mogą okazać się kluczowe w zapewnieniu, że korzystanie z AI będzie nie tylko wygodne, ale i bezpieczne.

Źródło: TechCrunch, Microsoft, Google. Zdjęcie otwierające: Solen Feyissa / Unsplash

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw