ChatGPT

Samsung ma powody, aby nie lubić się z ChatGPT. AI ma być związane z już trzema wyciekami danych

2 minuty czytania
Komentarze

Inżynierowie z Samsung Semiconductor zaczęli korzystać z ChatGPT do szybkiego naprawiania błędów w kodzie źródłowym, co nieoczekiwanie prowadziło do przypadkowego ujawniania poufnych danych. Co ciekawe nie oznacza to wcale, że usługi tego typu staną się tam zakazane – wręcz przeciwnie. Firma planuje teraz stworzyć własną usługę AI, podobną do ChatGPT, do użytku wewnętrznego.

ChatGPT związany z wyciekiem danych Samsunga

Samsung Semiconductor zanotował trzy incydenty związane z wyciekami danych spowodowanymi przez korzystanie z ChatGPT. Wszystkie trzy miały miejsce w ciągu 20 dni, co budzi niepokój. W pierwszym przypadku pracownik Samsung Semiconductor ujawnił kod źródłowy tajnego programu, przesyłając go do ChatGPT w celu naprawienia błędów. W drugim przypadku inny pracownik przesłał do AI testy mające na celu identyfikację wadliwych układów scalonych, co stanowi poufną informację. Optymalizacja tych testów może przyspieszyć procesy testowania i weryfikacji, co pozwala obniżyć koszty. W trzecim przypadku kolejny pracownik użył aplikacji Naver Clova do konwersji nagrania zebrania na dokument, a następnie przekazał go Sztucznej Inteligencji w celu przygotowania prezentacji.

W związku z tym Samsung ostrzegł swoich pracowników o zagrożeniach związanych z korzystaniem z ChatGPT. Firma podkreśla, że dane wprowadzone do tej usługi są przechowywane na zewnętrznych serwerach, co utrudnia odzyskanie danych i zwiększa ryzyko wycieku poufnych informacji. Samsung przygotowuje środki ochrony, aby zapobiec podobnym incydentom w przyszłości. Między innymi, aby ograniczyć ryzyko wycieków danych, firma wprowadziła ograniczenie długości pytań przesyłanych do ChatGPT do 1024 bajtów. Jeśli kolejny incydent wystąpi pomimo wprowadzenia środków ochronnych, dostęp do usługi może zostać zablokowany na sieci firmowej.

Rzecznik Samsung Electronics odmówił potwierdzenia lub zaprzeczenia informacji na temat incydentów, tłumacząc, że jest to sprawa wewnętrzna. Firma zdaje sobie sprawę z zagrożeń związanych z korzystaniem z narzędzi opartych na sztucznej inteligencji i podkreśla konieczność zachowania ostrożności oraz wdrożenia odpowiednich środków ochrony danych.

Źródło: Tomshardware, Twitter

Motyw