Dawniej wojna kojarzyła się z krzykiem na polu bitwy, szaleńczą szarżą i dowódcą, który w ostatniej chwili zmienia strategię, by pokonać przeciwnika. Dziś coraz częściej zamiast tego mamy algorytmy, drony i sztuczną inteligencję, która decyduje, kogo zniszczyć, a kogo oszczędzić. Wojna zaczyna przypominać zimną kalkulację, w której człowiek jest tylko zbędnym elementem. Zamiast unikać konfliktów, państwa inwestują miliardy w technologie, które uczą się zabijać szybciej, skuteczniej i bardziej bezwzględnie. Czy to naprawdę postęp?
Izrael był jednym z pierwszych państw, które masowo wykorzystało AI do analizy danych zwiadowczych. W 2021 roku, podczas operacji Guardian of the Walls, algorytmy wywiadowcze przetwarzały dane satelitarne, obrazy z dronów i informacje wywiadowcze, pomagając precyzyjnie lokalizować wyrzutnie rakiet Hamasu. Iron Dome, system obrony przeciwrakietowej, przechwytywał ataki z ponad 90% skutecznością, ponieważ AI przewidywała trajektorie pocisków. Sukces? Może dla wojskowych i polityków, którzy na ekranach widzą tylko liczby i statystyki. Dla cywilów była to jednak kolejna krwawa lekcja, że wojna już dawno przestała mieć twarz żołnierza – dziś ma zimne oko kamery i chłodną precyzję kodu.
Amerykanie nie pozostają w tyle. Projekt Thunderforge ma na celu stworzenie AI zdolnej do przewidywania ruchów wroga i optymalizacji strategii bojowych. Algorytmy analizują setki scenariuszy, wyciągają wnioski szybciej niż człowiek i podpowiadają, jak rozmieścić wojska czy zaatakować pozycje przeciwnika. To już nie jest strategia, to wojna zarządzana przez maszynę, w której człowiek staje się zbędnym, emocjonalnym balastem. A jeśli pewnego dnia AI uzna, że lepiej wyeliminować całe populacje niż prowadzić kosztowne operacje wojenne? Kto wtedy wciśnie stop?
Amerykański projekt COA-GPT wykorzystuje zaawansowane modele językowe do szybkiego generowania scenariuszy działań wojskowych, co pozwala na elastyczne dostosowywanie strategii w dynamicznie zmieniających się warunkach pola walki. Takie podejście może znacząco skrócić czas potrzebny na planowanie operacji i zwiększyć efektywność działań bojowych.
Wojsko polskie też idzie z duchem czasu. Ministerstwo Obrony Narodowej przyjęło strategię rozwoju AI do 2039 roku, podkreślając, że najbliższe pięć lat będzie kluczowe dla pozycji kraju w tej dziedzinie. Wskazano na potrzebę zapewnienia rozliczalności decyzji, minimalizacji ryzyka stronniczości systemów AI oraz utrzymania kontroli człowieka nad działaniami tych systemów. Wymaga to wdrożenia odpowiednich środków kontroli i nadzoru nad technologią.
Planowane Centrum Implementacji Sztucznej Inteligencji ma wspierać rozwój AI w armii, a Wojska Obrony Cyberprzestrzeni już korzystają z algorytmów do wykrywania cyberataków. Polska nie ma jeszcze autonomicznych robotów bojowych, ale kto wie, co przyniesie przyszłość? Wojna nie musi odbywać się tylko na polu bitwy – dziś zaczyna się w cyberprzestrzeni, a jutro może przenieść się na ulice miast, gdzie drony będą rozpoznawać zagrożenia i eliminować je bez udziału człowieka.
A jednak pojawia się pytanie: gdzie w tym wszystkim miejsce dla człowieka? AI jest szybka, precyzyjna, działa na zimno i bez emocji. Nie czuje strachu, nie ma dylematów moralnych, nie ma litości. To już nie jest wojna, to mechaniczne ludobójstwo, które można usprawiedliwiać mniejszą ilością strat i większą precyzją. Kogo to obchodzi, skoro w raportach nie pojawią się prawdziwe twarze i historie zamordowanych, lecz tylko statystyki.
Kiedyś wojna była brutalna, ale miała w sobie pewien ludzki wymiar – ludzie walczyli, ale też negocjowali, zawierali rozejmy, okazywali miłosierdzie. Dziś wojna coraz bardziej przypomina grę komputerową, w której dowódcy dostają gotowe decyzje, a ataki przeprowadzają drony sterowane przez AI. To, co miało zwiększyć precyzję i oszczędzać życie, zamienia konflikt w symulację, gdzie każda strona chce jedynie optymalizować eliminację przeciwnika. Czy naprawdę chcemy świata, w którym wojna jest nie tylko nieunikniona, ale także opłacalna, bo pozwala testować nowe technologie zabijania?
Rozwijamy sztuczną inteligencję, zamiast rozwijać dyplomację. Inwestujemy w autonomiczne drony, zamiast inwestować w edukację i pomoc humanitarną. Stawiamy na cyberbroń, zamiast na rozwiązania pokojowe. Gdzieś po drodze zapomnieliśmy, że największa siła nie leży w technologii, ale w zdolności do pokojowego rozwiązywania konfliktów. Może zamiast pytać, czy AI zdehumanizuje wojnę, powinniśmy zapytać, czy my sami już jej nie zdehumanizowaliśmy – i czy w ogóle jeszcze mamy szansę to zatrzymać?