AI nie radzi sobie z przewidywaniem pogody

UE może zahamować rozwój Sztucznej Inteligencji – ma jednak ku temu dobre powody

3 minuty czytania
Komentarze

Sztuczna Inteligencja coraz mniej jest technologią przyszłości, a coraz mocniej tkwi w teraźniejszości. Wraz z nią mamy natomiast do czynienia z licznymi zagrożeniami. I nie chodzi tu o rzeczy tak abstrakcyjne jak bunt samoświadomych maszyn. AI w obecnym kształcie również może być wykorzystywane w sposób nieodpowiedni, albo też przybierać taktyki, które okażą się brzemienne w skutkach. 

UE ograniczy rozwój AI

UE ograniczy rozwój AI

Obecnie tak naprawdę nie do końca wiadomo jak konkretne systemy działają. Te bowiem często same się uczą dochodzić do danego rozwiązania. Często ich metoda jest… błędna, chociaż zazwyczaj prowadzi do poprawnego wyniku. Dobrym przykładem jest słynna AI, która odróżniała psy od wilków na zdjęciach. I robiła to świetnie z jednym, dość oczywistym błędem. Po przeanalizowaniu działania systemu okazało się, że Sztuczna Inteligencja nie porównywała ze sobą psów i wilków, a jedynie szukała na zdjęciach śniegu. Kiedy był on obecny, to oznaczała je jako wilki. 

Elementem, który musi zostać uregulowany, jest przewidywalność systemów sztucznej inteligencji. Największe zagrożenie jest dostrzegane właśnie w tym braku przewidywalności, tzn. że algorytm będzie podejmował pewne decyzje w sposób niezamierzony przez tego, który go skonstruował. Systemy, które wiążą się z wysokim ryzykiem, to np. stosowana w medycynie sztuczna ręka chirurga, gdzie SI będzie de facto asystowała w operacji, czy autonomiczne samochody i drony. Tutaj nie może być miejsca na pomyłki.

– powiedział agencji Newseria Biznes Marcin Trepka, radca prawny i partner w kancelarii Baker McKenzie.

Zobacz też: Nexus 6 z czytnikiem linii papilarnych istniał! Apple zepsuło plany Google

Nowe przepisy mają nie tylko ograniczać pole do błędów, ale także określają odpowiedzialność za działania systemów. 

Możemy sobie wyobrazić, że autonomiczny samochód albo dron uszkodzi czyjeś zdrowie czy w skrajnych przypadkach zabije człowieka. Jeśli zdarzy się taki wypadek, kto za to odpowiada? Tu również jest rezolucja Parlamentu Europejskiego przewidująca, że – na zasadzie ryzyka – tę odpowiedzialność ponosi ten, kto z tego rozwiązania korzysta, a na zasadzie dołożenia należytej staranności – ten, który go stworzył. To już jednak trochę inny rodzaj odpowiedzialności.

Podkreśla Ekspert.

Problemy z rozwojem

Oczywiście takie podejście ma także swoje wady. 

Po stronie przedsiębiorstw będzie to oznaczać spore utrudnienia. Po wejściu w życie tych przepisów wprowadzenie systemu SI do obrotu będzie związane z ogromnymi kosztami. Mamy nawet badania niemieckich ośrodków badawczych, które wyliczają, że małe i średnie przedsiębiorstwa chcące zainwestować w system sztucznej inteligencji będą musiały ponieść koszt nawet 400 tys. euro, co będzie kwotą zaporową. Przewiduje się, że koszty związane ze spełnieniem tych wszystkich ograniczeń mogą de facto zablokować rozwój – w przeciwieństwie do zamierzeń projektodawców rozporządzeń, które mają na celu zrównoważony rozwój systemów sztucznej inteligencji.

Dodał radca prawny.

To jednak nie wszystko. Pamiętajmy, że poza Unią Europejską również istnieje świat, który będzie jednak pozbawiony takich ograniczeń. Tym samym nasz region pod tym względem będzie mocno zacofany. Zaś AI to nie jest hermetyczna gałąź rynku, a coś, co może udoskonalić każdą inną. Tym samym przez takie regulacje może ucierpieć cała gospodarka. Dobrym przykładem są tu procesory Samsunga, przy projektowaniu których pomaga AI.

Źródło: Newseria

Motyw