Człowiek kontra sztuczna inteligencja. Kto wygra ten pojedynek?
Pixabay

Człowiek kontra sztuczna inteligencja. Kto wygra ten pojedynek?

Banger był zupełnie zaskoczony, kiedy został zabity po raz pierwszy. Wsiadał za stary pewny siebie - jest jednym z najlepszych w swojej jednostce instruktorem walki na viperach. Ma dwa tysiące godzin przelatanych i przewalczonych w kokpicie F-16. Ale przeciwnik, Heron, latał jak demon. 

Pierwsze starcie. Dwa identyczne F-16 mijają się o kilka metrów lecąc w przeciwnych kierunkach. Banger przewraca maszynę na grzbiet i ściąga drążek. Przeciążenie rośnie. 3g... 4... 5. Maszyna rycząc pędzi w stronę ziemi. Przeciwnik, spóźniony o kilka sekund, wykonuje identyczny manewr. Znów mijają się o kilka metrów. 

Drążek do siebie, przeciążenie przekracza 6g. Banger próbuje wejść na ogon przeciwnika, ale ten wykonuje nadludzko szybki zwrot. Zamiast na ogonie, Banger znajduje się nagle nos w nos z nadlatującym viperem. Sam nie strzela, próbuje uniku. Trochę za późno, kilka pocisków trafia w jego maszynę. 

ZOBACZ: "Przyziemne sprawy robią się bardzo skomplikowane", czyli jak przeżyć półtora roku na Marsie?

Ucieka. Spiralą pędzi w stronę ziemi. Kolejnym szybkim zwrotem próbuje ustawić się w pozycji do strzału. Ale przeciwnik jest szybszy. Błyskawicznie, mimo gwałtownych uników i dużej odległości między maszynami, ustawia F-16 Bangera na celowniku. Długa seria. Koniec. 

Całe starcie trwało 84 sekundy. Przez ten czas Banger nie oddał ani jednego strzału w stronę przeciwnika. A za kolejnymi próbami ginął jeszcze szybciej. Kiedy skupiał się na obronie, jego maszyna spadała w płomieniach w mniej niż minutę. Heron był nie do pokonania. Nieludzko dobry. Dosłownie. 

Pierwszy turniej AlphaDogfight

Tak zakończył się pierwszy turniej AlphaDogfight, w którym należąca do Pentagonu Agencja Obronnych Zaawansowanych Programów Badawczych DARPA sprawdzała, czy sztuczna inteligencja jest w stanie pilotować myśliwiec lepiej, niż doświadczony, ludzki pilot. W pierwszej rundzie turnieju, osiem algorytmów zgłoszonych przez firmy z USA walczyło w symulowanych potyczkach ze sobą nawzajem. Najlepszy z nich - opracowany przez firmę Heron Systems, stanął do symulowanej walki z majorem Davidem "Bangerem" Conleyem z Gwardii Narodowej Dystryktu Kolumbii, absolwentem elitarnej "szkoły asów" - U.S. Air Force Weapons School z bazy Nellis. 

Docelowo amerykańskie wojsko chciałoby, żeby sztuczna inteligencja nie tyle zastępowała, co wspomagała żywych pilotów.

Wyobrażamy sobie, że w przyszłości sztuczna inteligencja weźmie na siebie błyskawiczne manewry podczas walk powietrznych na małych dystansach, zwiększając bezpieczeństwo i efektywność pilotów, którzy będą mogli koordynować działania wielu bezzałogowych systemów w ramach sieci o przytłaczającej skuteczności bojowej - mówił szef programu pilotów AI w DARPA, płk. Daniel "Animal" Javorsek.

Nagrodą dla zwycięskiego zespołu był jego stary hełm z kokpitu myśliwca F-22. 

Amerykanie przerabiają już na bezzałogowe maszyny między innymi stare, wysłużone F-16. W strefie walki taki samolot może albo odwrócić uwagę przeciwnika, albo przejąć na siebie wykonanie najbardziej ryzykownej części zadania, podczas gdy dowodzący misją człowiek pozostaje poza zasięgiem wrogiej broni przeciwlotniczej. A bezzałogowa maszyna, pozbawiona najsłabszego elementu, czyli miękkiego, podatnego na przeciążenia ludzkiego ciała, może wykonywać manewry niedające w walce szans żywemu przeciwnikowi. 

Piloci nie muszą jeszcze jednak, wzorem Jovorska, oddawać hełmów programistom. - Test był fenomenalnym sukcesem - mówi pułkownik, dodając: "Jego wynikom towarzyszy jednak dużo przypisów i zastrzeżeń". Bo symulowany lot to jednak ciągle nie to samo, co lot prawdziwy. 

Biurokracja zdąży przed inżynierami?

Ale ktoś, kto stawia pieniądze przeciw DARPA, rzadko wygrywa. Agencja ma reputację "szalonych naukowców Pentagonu". To jej (a raczej jej poprzedniczki, agencji ARPA) projekt doprowadził do powstania Internetu. To ona zorganizowała w 2004 roku pierwszy w historii rajd autonomicznych samochodów. Wtedy wszyscy myśleli, że to szaleństwo. Z 15 zgłoszonych zespołów żaden nie zdołał pokonać liczącej 240 kilometrów trasy. Rekordzista przejechał... niecałych 8 kilometrów. Klęska? Nic z tych rzeczy. Rok później całą trasę pokonało już pięć pojazdów, a opracowane wtedy technologie leżą dziś u podstaw programów budowy autonomicznych samochodów realizowanych przez wszystkich motoryzacyjnych i technologicznych gigantów. 

Postęp w budowie inteligentnej broni może być równie szybki. A to przeraża nawet samych inżynierów. 

"Tak, jak chemicy i biolodzy nie są zainteresowani budową broni chemicznej czy biologicznej, większość badaczy sztucznej inteligencji nie jest zainteresowana budową broni AI i nie chce, by dziedzina ich badań została zbrukana przez podobne działania prowadzone przez innych" - stwierdza list otwarty podpisany w 2015 roku przez najwybitniejszych twórców sztucznej inteligencji i śmietankę naukowców i inżynierów - od Stephena Hawkinga i noblisty Franka Wilczka, po miliardera Elona Muska czy twórcę Twittera Jacka Dorseya. "Wyścig sztucznie inteligentnych zbrojeń to bardzo zły pomysł i powinien zostać powstrzymany przez wprowadzenie zakazu budowy ofensywnej broni pozbawionej istotnej ludzkiej kontroli". Słowem maszyn, które same mogą podjąć decyzję o otwarciu ognia i odebraniu komuś życie. 

ZOBACZ: Wielkie spowolnienie technologiczne, czyli lata bez przełomów

Traktat zakazujący tworzenia "robotów - zabójców" jest już procedowany przez ONZ. Ale czy biurokracja ma szansę wygrać z tempem inżynierów z Doliny Krzemowej?

Taka broń może pojawić się na polu walki w każdej chwili - tłumaczył w rozmowie z "Horyzontem Zdarzeń" Polsat News Noel Sharkey, znany robotyk i jeden z czołowych działaczy organizacji "Campaign to stop Killer Robots". - Jedyny problem to to, jak bardzo troszczymy się o stosowanie się do praw wojny. Jeśli zupełnie się tym nie przejmujemy, możemy je wprowadzić do walki jutro, ale zabiją wielu cywilów. Jednak ludzie nie powinni sobie wyobrażać terminatorów biegających po polu bitwy z karabinem. To nie będzie tak wyglądać. To skomputeryzowana, konwencjonalna broń. 

W zasadzie nikt publicznie nie mówi, że jest zwolennikiem tego, żeby jakiś algorytm mógł swobodnie podejmować decyzję o zabiciu człowieka. Co nie oznacza, że nie padają argumenty za tym, że tacy "robożołnierze" w pewnych okolicznościach mogliby być lepsi, bardziej "humanitarni" od żywych. Komputer się nie denerwuje, nie boi, nie wpada w gniew, nie mści się. Z drugiej strony, co przyznali choćby twórcy AlphaDogfight, wszystkie algorytmy uczenia maszynowego spisują się doskonale - ale w warunkach laboratoryjnych. Im więcej zmiennych, im więcej chaosu, tym mniejsza skuteczność i więcej błędów. A wojna jest, z definicji, chaosem. 

Dziś dronem steruje dwóch ludzi: jeden go pilotuje, drugi obsługuje czujniki i broń. Patrzą na 5 wielkich monitorów, wybierają cele, sprawdzają, czy to właściwy cel i często się bardzo mylą - kontynuuje Sharkey. - Ale teraz tych operatorów może już w ogóle nie być. Pozostanie tylko sama broń, automatycznie wybierająca co zaatakować. 

Pozorna przewaga

Faktem jest, że wyposażenie broni w samodzielne, podejmujące decyzje "mózgi" może wydawać się wojskowym bardzo atrakcyjnym sposobem na zdobycie przewagi nad przeciwnikiem. Jeśli naprzeciwko siebie staną dwa czołgi, identyczne pod każdym innym względem, za każdym razem wygra ten, który z otwarciem ognia nie będzie czekał na to, żeby ludzki celowniczy zastanowił się, czy obiekt, który widzi, to wroga maszyna, traktor czy stóg siana. To daje ogromną zachętę dla kontynuowania takich badań zwłaszcza, że zdobycie takiej przewagi, po opracowaniu odpowiedniego algorytmu, wymagałoby jedynie stosunkowo drobnych modyfikacji istniejącego już uzbrojenia, a nie miliardowych wydatków na nowe czołgi czy samoloty.

ZOBACZ: Siostra-bliźniaczka Słońca i dwie niemowlęce planety. Czy możliwe, że znajdziemy tam życie?

Ale to przewaga pozorna. Bo oddając kontrolę nad decyzją o otwarciu ognia maszynie, dowódca pozwala jej zdecydować gdzie i kiedy rozpocząć walkę. Taktyczne zwycięstwo - jeden zniszczony czołg - może oznaczać strategiczną klęskę, gdy sprowokowany przeciwnik odpowie zmasowaną ofensywą. Nie mówiąc już o sytuacjach, w których, w regionach o napiętej sytuacji geopolitycznej, głupia decyzja komputera może w sekundę zmienić zimną wojnę w wojnę bardzo gorącą, bez pytania o zdanie generałów. 

To pozwala zdobyć przewagę na krótką metę - tłumaczy Sharkey. - Ale oczywiście to krótkotrwała przewaga. Rozprzestrzenianie się takiej broni będzie błyskawiczne. Będzie trafiać w ręce użytkowników niebędących państwami, będzie ja można po prostu kupować na wolnym rynku. W związku z tym,, planiści wojskowi nie są wcale bardzo podekscytowani tą perspektywą, bo dziś to nie jest broń przewidywalna. Kiedy ją odpalisz, nie masz pewności, gdzie poleci i jaki cel wybierze. Nie przewidzisz, jak się zachowa, a to fatalna wiadomość dla dowódcy. Nie mówimy zresztą o pojedynczej zrobotyzowanej broni szukającej celu. Mówi się o czymś znanym jako mnożnik siły. Oznacza to, że wystrzeliwujesz wiele, wiele broni pracujących wspólnie. O rojach robotów. Jako profesor od sztucznej inteligencji mogę ci powiedzieć, że nikt nie ma zielonego pojęcia co się stanie, kiedy spotkają się dwa takie roje. 

Paradoksem jest to, że to badania tych samych ludzi, którzy protestują przeciw takiej technologii, otwierają jej drzwi. Brytyjska firma DeepMind, znana z uczących się, "kreatywnych" programów, które błyskawicznie opanowują umiejętności gry w gry komputerowe czy planszowe na poziomie arcymistrzowskim, stworzyła techniki "głębokiego uczenia" dziś stosowane przez budującą algorytmy dla myśliwców Heron Systems. Organizacja OpenAI, finansowana między innymi przez Elona Muska, za swój cel przyjęła tworzenie technologii, które pozwolą na stosowanie sztucznej inteligencji na sposoby wyłącznie korzystne dla ludzkości - ale opracowane przez nią metody "głębokiego uczenia", tworzenia "inteligentnych" programów, także stały u podstawy wielu ze zgłoszonych do rywalizacji w DARPA algorytmów.

Trudno jest stworzyć techniki tworzenia sztucznej inteligencji całkowicie nieprzydatne dla wojska, skoro ze swojej definicji AI ma być uniwersalna. Największym problemem może być jednak to, że przez lata właśnie twórcy sztucznej inteligencji starali się przekonać świat, że algorytmy są neutralne, obiektywne, nieomylne. Dla wojskowych perspektywa budowy nieomylnej broni jest, rzecz jasna, kusząca. Tyle, że to marketingowa mrzonka. 

Weźmy na przykład algorytmy rozpoznawania twarzy. Okazuje się, że mylą się bardzo często - tłumaczy Sharkey. - Jeśli jesteś białym mężczyzną, rozpoznają cię w 98 proc. przypadków. Jeśli jesteś kobietą albo masz ciemniejszą skórę, są bezużyteczne. Niedawno ACLU (amerykańska fundacja broniąca praw obywatelskich - red.) przeprowadziło eksperyment: wzięli zdjęcia wszystkich amerykańskich kongresmenów i przepuścili je przez algorytm, który porównywał je z bazą zdjęć przestępców. 28 kongresmenów zostało przez komputer błędnie zidentyfikowanych jako przestępcy. Wyobraźcie sobie, że tak tendencyjne algorytmy zostaną teraz zaprzęgnięte do sterowania maszynami wybierającymi cele na wojnie. A szczerze mówiąc, rzadko prowadzimy wojny przeciw białym ludziom. 

Na razie pytają o zgodę człowieka

Ale pęd do budowy "inteligentnej" broni może okazać się trudny do zatrzymania. Już dziś w wielu miejscach - na przykład na granicy koreańsko-koreańskiej, funkcjonują automatyczne wieżyczki, zdolne do samodzielnego wyszukiwania i namierzania celów. Na razie pytają o zgodę na otwarcie ognia ludzkiego operatora, ale to funkcja, którą można usunąć jedną drobną aktualizacją oprogramowania. 

Brett Darcey, wiceprezes firmy Heron Systems ma nadzieję na zdobycie wojskowego kontraktu, ale sam przyznaje, że brakuje dyskusji nad szerszymi konsekwencjami budowy podobnych systemów. - Chciałbym żyć w świecie, w którym możemy usiąść i przedyskutować to, czy taki system powinien w ogóle istnieć. Ale jeśli USA nie wprowadzi tych technologii, zrobi to ktoś inny - ocenia.

Komentarze