Izraelskie i brytyjskie media podają, że armia Izraela używa sztucznej inteligencji (AI) do identyfikacji w Strefie Gazy bojowników Hamasu, którzy są celem ostrzałów lotniczych. Uważają one, że zbyt mały nadzór ludzki nad działaniem systemów AI podnosi liczbę postronnych ofiar - zabitych cywilów.
O działaniu systemu AI o nazwie Lawenda poinformował w środę izraelsko-palestyński portal +972 Magazine, a także brytyjski dziennik "Guardian". Armia izraelska wystosowała oficjalny komunikat, w którym zdementowała te doniesienia.
AI w izraelskiej armii
+972 Magazine rozmawiał z sześcioma oficerami izraelskiego wywiadu, którzy służyli w armii podczas trwającej wojny w Strefie Gazy i poznali sposób, w jaki wojsko używa AI do identyfikacji celów. System Lawenda został zaprojektowany w celu zidentyfikowania wszystkich domniemanych bojowników zbrojnego skrzydła Hamasu i Islamskiego Dżihadu - w tym niższego szczebla - jako celów nalotów. W pierwszych tygodniach wojny w Strefie Gazy armia niemal wyłącznie opierała się na tym systemie, który zidentyfikował co najmniej 37 tys. Palestyńczyków jako domniemanych bojowników. Stali się oni - i ich domy - potencjalnymi celami bombardowań lotniczych - relacjonuje portal.
Jedno ze źródeł powiedziało dziennikarzom, że decyzje AI były często bez zastanowienia zatwierdzane przez wojskowych. Zwykle potrzebowali oni zaledwie 20 sekund na zatwierdzenie ostrzału - tyle, by upewnić się, że człowiek, który ma być zabity jest płci męskiej. Lawenda - jak się uznaje - ma margines błędu wynoszący około 10 procent. Wiadomo też, że system niekiedy identyfikuje jako cele ludzi, którzy są z Hamasem powiązani tylko luźno, albo wcale.
Portal podkreśla, że armia z reguły zabijała podejrzanych wtedy, gdy byli w domu - a więc, z całą rodziną - uznając, że prywatne domy hamasowców są łatwiejszym celem bombardowań. "W rezultacie, jak potwierdzają źródła, tysiące Palestyńczyków, w większości - kobiet i dzieci bądź ludzi nieuczestniczących w walkach - zostało zabitych w izraelskich ostrzałach lotniczych w wyniku decyzji programów AI, zwłaszcza w pierwszych tygodniach wojny" - relacjonuje +972 Magazine.
Mniej precyzyjne bomby, by nie tracić sprzętu na "ludzi mało ważnych"
Źródła portalu utrzymują, że gdy chodziło o młodszych rangą hamasowców armia wybierała do uderzeń mniej precyzyjne bomby, bowiem nie chciała "marnować kosztownych bomb (inteligentnych, precyzyjnych pocisków) na ludzi mało ważnych". Według dwóch źródeł "armia zadecydowała w pierwszych tygodniach wojny, że dopuszczalne było w przypadku niższych rangą członków Hamasu zabicie od 15 do 20 cywilów"; kilkakrotnie też zgodziła się na zabicie ponad stu cywilów w atakach na pojedynczych dowódców Hamasu w randze dowódców batalionu bądź brygady.
"Użycie przez Izrael w wojnie z Hamasem potężnych systemów AI jest wkroczeniem na nieznane terytorium zaawansowanej wojny, co budzi masę pytań natury prawnej i moralnej oraz zmienia relację między personelem wojskowym i maszynami" - ocenił "Guardian". Dziennik przypomniał, że w czasie poprzednich operacji zbrojnych wyznaczanie celów było bardziej pracochłonnym procesem, w którym uczestniczył też doradca prawny. Jednak po atakach Hamasu z 7 października 2023 r. na Izrael "model zatwierdzania ostrzałów przeciwko celom ludzkim gwałtownie przyspieszył" - ocenia dziennik.
Izraelska armia zaprzecza doniesieniom
Armia izraelska w oficjalnym komunikacie cytowanym przez "Guardiana" oświadczyła, że niektóre doniesienia o użyciu systemu Lawenda są "bezpodstawne". Inne zaś "demonstrują błędne zrozumienie dyrektyw armii i prawa międzynarodowego".
Armia zapewniła, że stosuje "rozmaite typy narzędzi i metod" do identyfikowania celów. "Wbrew twierdzeniom (zawartym w artykułach-PAP) siły obronne Izraela nie używają systemu sztucznej inteligencji, który identyfikuje terrorystów bądź próbuje przewidzieć, czy dana osoba jest terrorystą. Systemy informatyczne są jedynie narzędziami używanymi przez analityków w procesie identyfikacji celów" - oświadczyły siły zbrojne. Zapewniły też, że działają zgodnie z prawem międzynarodowym, czego - według nich - nie robi Hamas, "systematycznie wykorzystujący ludność jako żywe tarcze" i prowadzący walki z terenu obiektów cywilnych - "domów mieszkalnych, szpitali, meczetów, szkół i obiektów ONZ".
Wolontariusze z autyzmem
Takie działania mogą być niebezpieczne dla ludności cywilnej, co więcej, jakiś czas temu, Izrael chwalił się, że do jednostek wojskowych przydziela również ludzi z autyzmem. Najczęściej obsługują oni drony, które atakują cele w Strefie Gazy.
W zamian za wolontariat, takim rekrutom oferuje się umiejętności i kontakty, które mogą pomóc im w niezależnej przyszłości w cywilnych zawodach. Do tej pory ponad 300 żołnierzy zostało zrekrutowanych z programu do IDF i służy w 27 różnych jednostkach.
MP
Izraelska armia. Fot. EPA/ABIR SULTAN
Czytaj dalej:
Inne tematy w dziale Polityka