NTFS

Japoński uniwersytet stracił 77 TB danych badawczych z powodu głupiego błędu

1 minuta czytania
Komentarze

Utrata danych w wyniku błędu w kopii zapasowej nie jest niczym przyjemnym dla zwykłego użytkownika. Jednak dla japońskiego Uniwersytetu w Kioto to istna tragedia. Ten zgłosił bowiem utratę 77 TB krytycznych danych badawczych. Incydent miał miejsce w przypadku uniwersyteckiego superkomputera, który otrzymał wadliwą aktualizację oprogramowania dla swojego systemu kopii zapasowych, przypadkowo wymazując 34 miliony plików w ciągu dwóch dni.

Superkomputer stracił 77 TB danych

Superkomputer stracił 77 TB danych

Winowajcą tej ogromnej utraty danych był wadliwy skrypt, który pierwotnie miał usunąć stare, niepotrzebne pliki dziennika z superkomputera Cray/HPE uniwersytetu w Kioto w ramach aktualizacji oprogramowania. Skończyło się jednak na usunięciu 77 TB danych badawczych w okresie od 14 do 16 grudnia 2021 roku, z dysku zapasowego /LARGE0 o dużej pojemności. Uniwersytet początkowo szacował utratę do 100 TB danych po tym, jak błędna aktualizacja wymazała prawie wszystkie pliki starsze niż 10 dni. 77 TB danych badawczych, które faktycznie zostały usunięte, zawierało 34 miliony plików, które dotyczyły 14 grup badawczych. Chociaż Uniwersytet w Kioto nie ujawnił natury ani szczegółów wymazanych informacji, przyznał, że pliki należące do 4 grup były nie do odzyskania.

Zobacz też: Premiery samochodów elektrycznych w 2022 roku

Dostawca superkomputera dla uniwersytetu, Hewlett Packard Japan (HPE), przyznał się w 100 procentach do odpowiedzialności za incydent i wystosował list z przeprosinami, opublikowany później przez uniwersytet. Podkreślił on w komunikacie, że zmodyfikowany skrypt został wydany w jego aktualizacji, aby poprawić widoczność i czytelność danych. W pewnym dość pokrętnym sensie się to udało… Rzecz jasna HPE nie było świadome skutków ubocznych działania skryptu. I w ten oto sposób kopia zapasowa była przyczyną utraty danych.

Źródło: TechSpot

Motyw