O ile roboty są już wykorzystywane w konfliktach zbrojnych, tak do tej pory człowiek musiał pociągnąć za spust. A co by było, gdyby sztuczna inteligencja namierzała, wybierała i eliminowała cele. Brzmi jak wizja z Terminatora? Defense Innovation Board – think tank Pentagonu uważa, że są na to gotowi. Skąd taki pomysł? Chińczycy już wdrażają autonomiczną broń, więc Jankesi nie mogą zostać w tyle. DIB ponadto uważa, że Amerykanie mają długie doświadczenie w etycznym stosowaniu nowych technologii, również na polu bitwy, więc poradzą sobie z nowymi wyzwaniami…

Służba nie drużba, wysokie standardy Pentagonu…

służba wojsko

Pentagon zlecił DIB opracowanie raportu o etycznym wykorzystaniu sztucznej inteligencji w służbie amerykańskiego wojska, a eksperci opracowali kilka zasad i wytycznych, które Departament Obrony może wziąć pod uwagę w trakcie implementacji SI w ramy struktur wojskowych. Michael McQuade, ekspert Carnegie Mellon University powiedział w rozmowie z Breaking Defense:

Nie przegap
Bsafer.pl – chroń i kontroluj swoje dane osobowe, zanim będzie za późno
bsafer.pl
Ochrona danych osobowych to poniekąd problem, który jeszcze nie pojawił się w świadomości zbyt wielu osób. Głośno zrobiło się o nim dopiero w momencie, gdy Unia Europejska wprowadziła RODO (Rozporządzenie o Ochronie Danych Osobowych). Jednak głośno było tylko dlatego, że trzeba było się dostosować i miało to wydźwięk nie tak pozytywny, jak oczekiwaliby tego sami […]

Pentagon nie planuje wdrożenia sztucznej inteligencji, aby wyeliminować czynnik ludzki z pola działań. Naszym celem jest nie tyle sama walka, co systemy walki. Wszystko, co nowego w kwestii SI nie oznacza, że człowiek nie jest za nią odpowiedzialny. Na pewno nie możemy mówić: No trudno… Ta maszyna się zepsuła

Dodatkowo McQuade, zwrócił uwagę na wysoką kulturę organizacyjną armii amerykańskiej:

Pentagon posiada ogromną historię, potencjał oraz kulturę w zakresie prowadzenia skomplikowanych, niebezpiecznych operacji. Ma również zasady etyczne, wyspecjalizowany proces inżynieryjny, regularne przeglądy sprzętu po operacji i dobrze sobie radzi z minimalizacją szkód w sprzęcie. To podejście dotyczyć będzie również sztucznej inteligencji. Na przykład amerykańskie okręty wojenne napędzane energią jądrową bezpiecznie pływały przez ponad pięć dekad bez jednego wypadku w reaktorze lub uwolnienia radioaktywności, która zaszkodziłaby zdrowiu ludzkiemu lub środowisku – dodał.

sztuczna inteligencja wojsko

Jesteście przekonani? Dla aktywistów „Stop Killer Robots” jest to absurdalne i niebezpieczne wykorzystanie nowoczesnych technologii. Sceptyczny w kwestiach zastosowania SI był Stephen Hawking czy obecnie Elon Musk, który uważa, że nawet cywilna sztuczna inteligencja może stanowić zagrożenie dla ludzi. Jednak analitycy DIB uspokajają, że nie tylko o aspekt militarny chodzi, a technologia może być wykorzystywana również w usprawnianiu logistyki i organizacji armii. Poza tym, Chińczycy już wdrażają broń autonomiczną, więc Jankesi nie mogą zostać w tyle.

Zobacz też: Roboty i religia

5 zasad wykorzystania SI przez wojsko USA:

  • Odpowiedzialność – ludzie powinni ponosić odpowiedzialność za rozwój oraz skutki działań sztucznej inteligencji w ramach wojska. W myśl tej zasady, za wszelkie wypadki i okrucieństwa związane z funkcjonowaniem SI, odpowiada jej twórca oraz operator;
  • Ostrożność – Departament Obrony powinien podjąć właściwe kroki w celu uniknięcia niezamierzonego błędu lub niedopatrzenia podczas opracowywania, a następnie wdrażania SI do operacji wojskowych;
  • Zrozumiałość – inżynieria sztucznej inteligencji Departamentu Obrony powinna być na tyle zaawansowana, aby specjaliści byli w stanie zrozumieć procesy tej technologii, a następnie je kontrolować;
  • Niezawodność – systemy SI powinny mieć wyraźną, dobrze zdefiniowaną domenę użytkowania, a bezpieczeństwo, ochrona i odporność takich systemów musi być regularnie testowana;
  • Adekwatność – sztuczna inteligencja powinna być zaprojektowana i stworzona w taki sposób, aby w pełni spełniała swoją docelową funkcję i posiadała zdolność do wykrywania oraz unikania niezamierzonych szkód lub zakłóceń.

Zobacz też: Nowy Mi Band już niedługo

Chińskie wojsko korzysta z SI?

wojsko sztuczna inteligencja
Kevin Frayer/Getty Images

Chociaż Chiny podpisały w kwietniu 2018 roku międzynarodowy dokument o niestosowaniu autonomicznej broni na polu bitwy, zainicjowany przez wspomniany Stop Killer Robots, Chińczycy naciskali na podkreślenie w umowie, że nie ma to nic wspólnego z opracowywaniem i rozwojem takiego arsenału w przyszłości. Wszak, sam Xi Jinping zapowiadał, że w najbliższych latach Chiny powinny być liderem rozwoju SI i polecił ścisłą współpracę armii, naukowców i biznesu. Rok po podpisaniu dokumentu – chiński koncern zbrojeniowy Ziyan zaproponował Arabii Saudyjskiej kupno ich nowego autonomicznego drona A3 Blowfish – Rozdymka, mogącego przenosić broń różnego kalibru i wykonywać powierzone zadania w pełni samodzielnie, wraz z eliminacją celów. Wywołało to paniczną reakcję Sekretarza Obrony USA, Marka Espera:

Chińczycy nie tylko używają nowych technologii, żeby prześladować mniejszości i własnych obywateli, teraz chcą eksportować bardzo nowoczesne, niezależne drony na Bliski Wschód. Urządzenia tego typu mogą same decydować kogo zabić. Obawiamy się, że mogą trafić w niepowołane ręce i przyczynić się do dalszej eskalacji konfliktu w tamtym regionie. Nie myślcie sobie, że Ameryka straszy Chińczykami. Oni nie mają regulacji demokratycznych, przed nikim nie odpowiadają i myślą, że mogą przeskoczyć do następnej generacji i zachować pełną kontrolę – powiedział w rozmowie z Breaking Defense.

Co myślicie o tego typu uzbrojeniu? Powinniśmy rozwijać wojskowe SI?

Źródło: cyberdefence24.pl, breakingdefense.com




Mateusz Fronczak

Politolog z wykształcenia, historyk z zainteresowania. Gawędziarz i świadomy konsument kultury popularnej.