Новини
Ракурс
Ізраїль використовує штучний інтелект для удару по Газі

Ізраїль використовує штучний інтелект для удару по Газі

3 гру 2023, 20:24

Аналізуючи коментарі джерел ізраїльської армії та малопомітні заяви, зроблені представниками ЦАХАЛ, британське видання The Guardian опублікувало дослідження про використання Ізраїлем у війні проти ХАМАС системи штучного інтелекту.


.

Свою першу війну із використанням штучного інтелекту Ізраїль проводив ще 2021 року. Це була 11-денна війна, під час якої представники ізраїльської армії заявили про активне використання машинного навчання та передових обчислень. За підсумками конфлікту у травні 2021 року Ізраїль заявив про небувалий успіх та знищення військової інфраструктури ХАМАС.

Сучасна війна між Ізраїлем та ХАМАС дає ЦАХАЛ безпрецедентні можливості для використання передових військових технологій на театрі бойових дій. The Guardian зібрало та проаналізувало подробиці про використання ізраїльтянами системи штучного інтелекту під назвою «Хабсора», або «Євангеліє" — українською.

До 100 цілей на день

Секретний відділ адміністрації (виявлення та призначення) цілей для завдання ударів був створений у ЦАХАЛ у 2019 році при розвідувальному управлінні. У короткій заяві на веб-сайті ЦАХАЛу стверджувалося, що у війні проти ХАМАС він використовує систему на основі штучного інтелекту, щоб виявляти цілі у швидкому темпі.

ЦАХАЛ заявив, що «завдяки швидкому та автоматичному вилученню інтелектуальних даних», «Євангеліє" дало рекомендації щодо націлення для своїх дослідників «з метою повного збігу між рекомендаціями машини та ідентифікацією, проведеною людиною».

Багато джерел, знайомих із процесами цілевказівки ЦАХАЛу, підтвердили існування механізованого алгоритму, заявивши, що він використовувався для створення автоматизованих рекомендацій для нападу на цілі — такі, як приватні будинки осіб, підозрюваних у діяльності в угрупованнях ХАМАС чи Ісламський джихад.

Авів Кахаві, який займав тоді посаду голови Армії оборони Ізраїлю, заявив, що новий підрозділ, це дивізія, «оснащена можливостями штучного інтелекту» і включає сотні офіцерів і солдатів. В інтерв’ю, опублікованому перед поточною війною, він сказав, що це «машина, яка виробляє величезні обсяги даних більш ефективно, ніж будь-яка людина, і перетворює їх на цілі для удару». За словами Кахаві, «як тільки ця машина була активована» під час 11-денної війни Ізраїлю з ХАМАС у травні 2021 року, вона створювала 100 цілей на день.

Нова дивізія зі штучним інтелектом була створена для розв’язання хронічної проблеми Цахала. У колишніх операціях у Газі в ізраїльській армії нерідко просто не вистачало цілей для завдання ударів, оскільки високопосадовці ХАМАС зникали в тунелях на початку будь-якого нового наступу.

Як повідомляють джерела видання, такі системи, як Євангеліє, дозволили ЦАХАЛу виявляти та атакувати набагато більшу групу молодших оперативників.

Один чиновник, який працював над ухваленням рішень про цілевказання у попередніх операціях у Газі, сказав, що ЦАХАЛ раніше не нападав на будинки молодших членів ХАМАСу. І це змінилося щодо нинішнього конфлікту — тепер удома підозрюваних активістів ХАМАС стають мішенню незалежно від рангу.

Згідно з даними, опублікованими ЦАХАЛом у листопаді, протягом перших 35 днів війни Ізраїль атакував 15 000 об'єктів у Газі, що значно вище, ніж у попередніх військових операціях на цій густонаселеній прибережній території. Для порівняння, у війні 2014 року, яка тривала 51 день, ЦАХАЛ розбомбив від 5000 до 6000 цілей.

«Це справді як фабрика»

Джерела, знайомі з тим, як системи на основі штучного інтелекту були інтегровані в операції Цахала, сказали, що такі інструменти значно прискорили процес створення мети.

Ми готуємо мішені автоматично та працюємо відповідно до контрольного списку. — повідомило джерело, яке раніше працювало в цільовому відділі, виданню +972/Local Call. — Це справді як фабрика. Ми працюємо швидко і немає часу заглиблюватися в ціль. Передбачається, що нас оцінюють, скільки цілей нам вдалося створити.

У короткій заяві ЦАХАЛу про діяльність дивізії з цілевказівки високопосадовець сказав, що підрозділ «здійснює точні атаки на інфраструктуру, пов’язану з ХАМАС, завдаючи при цьому великої шкоди противнику та мінімальної шкоди особам, які не беруть участі в бойових діях».

Колишнє високопоставлене ізраїльське військове джерело розповіло Guardian, що оперативники використовують «дуже точний» вимір швидкості цивільних осіб, які евакуюються із будівлі незадовго до удару. Ми використовуємо алгоритм, щоб оцінити, скільки мирних жителів залишилося. Він дає нам зелений, жовтий, червоний як сигнал світлофора».

Проте експерти в галузі штучного інтелекту та збройних конфліктів, які говорили з Guardian, заявили, що скептично ставляться до тверджень, що системи на основі штучного інтелекту зменшують шкоду цивільному населенню, заохочуючи точніше націлювання.

Погляньте на фізичний ландшафт Гази, — сказав Річард Мойес, дослідник, який очолює групу Article 36, яка бореться за зниження збитків від зброї. — Ми спостерігаємо повсюдну руйнацію міської території за допомогою важкої вибухової зброї, тому заяви про достовірність та обмеженість застосування сили не підтверджуються фактами.

Інше джерело повідомило, що «Євангеліє" дозволило ЦАХАЛу запустити «фабрику масових вбивств», в якій «акцент робиться на кількості, а не на якості». Людське око, за його словами, «оглядатиме цілі перед кожною атакою, але йому не доводиться витрачати на це багато часу».

У деяких експертів, які досліджують штучний інтелект та міжнародне гуманітарне право, таке прискорення викликає низку проблем. Доктор Марта Бо, науковий співробітник Стокгольмського міжнародного інституту дослідження проблем світу, сказала, що навіть якщо «люди перебувають у курсі», існує ризик того, що у них виникне «схильність до автоматизації» та «надмірна залежність від системи, яка дуже впливає на складні людські рішення».

Мойес з Article 36 сказав, що, спираючись на такі інструменти, як «Євангеліє", командирам «передається список цілей, створений комп’ютером», і вони «необов'язково знають, як цей список був створений, або мають можливість адекватно аналізувати та ставити під сумнів рекомендації щодо націлення».

Джерело: Ракурс


Помітили помилку?
Виділіть і натисніть Ctrl / Cmd + Enter






Загрузка...