W niniejszym artykule skoncentrowano się na analizie inklinacji systemów sztucznej inteli-
gencji używanych w pomocy humanitarnej, na ataki adwersyjne. Celem analizy było wskaza-
nie istotnych słabości w systemach sztucznej inteligencji za pomocą studium przypadku i jego
symulacji cyberataków. Osiągnięty został niemały progres w pojmowaniu adwersyjnych mani-
pulacji danych i ich implikacji na ustalenia logistyczne, hipotetycznie dążąc do przekierowania
wsparcia z obszarów dotkniętych katastrofą. Metodologia badań obejmuje kompilację testów
bezpieczeństwa w kontekście cyberataków na sztuczne sieci neuronowe, a także interpretację
pozyskanych danych poprzez wykonanie kodu źródłowego programu aplikacji w języku Py-
thon Python. Subsydiarnie wykorzystuje również dane z ogólnodostępnych i globalnych map
OpenStreetMap, przy wykorzystaniu dwóch algorytmów, co uwydatnia holistyczne spojrzenie
na tematykę problemu. Wyniki badań podkreślają pilną potrzebę opracowania efektywnych
metod obronnych ze względu na istotną inklinację systemów sztucznej inteligencji, nie tyl-
ko ograniczając się do trwającego konfliktu w Ukrainie, ale także biorąc pod uwagę aspekt
globalny. Odnosi się to do specyficznych form ataków adwersyjnych, które w ekstremalnych
przypadkach mogą powodować nie tylko nieefektywną relokację zasobów, ale przede wszyst-
kim opóźnienia w dostawach humanitarnych. Opracowane wnioski z analizy otwierają pola
poszukiwań odpowiedzi na wzmocnienie odporności realnych systemów i zarazem receptę
efektywnej pomocy dla ludzi potrzebujących. Niniejsze badanie wskazuje na nowe perspekty-
wy w kontekście systemów bezpieczeństwa sztucznej inteligencji oraz pomocy humanitarnej,
ukazując praktyczne eksplikacje dla wzmocnienia szeroko rozumianej odporności na wszelkie
formy manipulacji, co jest istotne dla zapewnienia efektywnego wsparcia miejscowej ludności.
This article focuses on analyzing the inclinations of artificial intelligence systems, which are
used in humanitarian aid, towards adversarial attacks. The aim of the analysis is to identify si-
gnificant weaknesses in artificial intelligence systems, through a case study and its simulation of
cyber-attacks. A not inconsiderable progress has been made in understanding adversarial data
manipulation and its implications on logistical arrangements, hypothetically seeking to divert
support from affected areas. The research methodology includes the compilation of security
tests, in the context of cyber-attacks on artificial neural networks, as well as the interpretation
of the acquired data through the execution of the application’s source code, in Python. Sub-
sidiarily, also uses data from publicly available and global OpenStreetMap maps, using two
algorithms, which highlights a holistic view of the subject matter of the problem. The findings
highlight the urgent need to develop effective defence methods due to the significant inklings of artificial intelligence systems, not only limited to the ongoing conflict in Ukraine, but also
considering the global aspect. This refers to specific forms of adversarial attacks, which, conse-
quently, in extreme cases, may not only cause inefficient relocation of resources, but, above all,
delays in humanitarian supplies. The conclusions of the analysis developed open up fields of se-
arch for answers for strengthening the resilience of viable systems and, at the same time, a recipe
for effective assistance to people in need. This study points to new perspectives in the context
of artificial intelligence (AI) security systems and humanitarian aid, while at the same time, de-
monstrating practical implications for strengthening resilience to all forms of manipulation in
the broadest sense, which is important for providing effective support to the local population.