Эксперт объяснил, как защитить гражданских во время боев в городе
Война все чаще перемещается в города и приобретает высокотехнологичный характер — с применением дронов, алгоритмов и автономных систем. В таких условиях демократические государства сталкиваются со сложной дилеммой: как одновременно защищать собственных граждан и соблюдать нормы международного гуманитарного права, особенно когда противник сознательно действует среди гражданского населения.
Об этом сообщил эксперт по противодействию БПЛА и обороне воздушного пространства, полковник ВВС Израиля (резерв) Авив Бар Зохар в колонке для Новини.LIVE.
Операционные дилеммы в плотной городской застройке
Когда демократическое государство применяет роботизированные платформы в густонаселенном городе и пытается сохранить верность МГП и военной этике, возникает несколько уровней риска.
В невооруженных ролях — разведка, наблюдение, сбор данных - летающие или наземные носители обычно не создают значительного юридического давления. Вероятность нарушения базовых принципов на этом этапе ограничена, а дополнительная "картина с воздуха" иногда помогает, наоборот, уменьшить вред для мирных жителей.
Когда речь идет о дистанционно управляемых комплексах, где человек остается в контуре, их в правовом смысле можно в основном рассматривать как классические пилотируемые средства поражения. В Израиле такие аппараты нередко называют самолетами с дистанционным экипажем, а не просто дронами. Намеренно подчеркивается: определяющим является не место оператора, а то, что именно человек реально контролирует решение о применении силы. В этом случае структура юридического анализа почти не меняется.
Настоящая дилемма начинается с летальных автономных платформ. Особенно когда противник сознательно встраивается в жилые кварталы, держит боекомплекты в подвалах домов или выходит на пуски с территории школ и больниц. В такой реальности есть серьезный риск, что алгоритм не сможет с достаточной надежностью отличить комбатанта от гражданского лица. А значит, базовый принцип МГП — различение — может оказаться невыполненным.
Поэтому любая демократия, которая задумывается над применением полностью автономных ударных платформ, где именно машина выбирает цель и самостоятельно применяет силу, сначала должна ответить на вопрос: обеспечено ли различение на практике. И только потом переходить к анализу пропорциональности, мер предосторожности и других принципов гуманитарного права.
"Красные линии" и ориентиры для командиров и операторов
Авив Бар Зохар отметил, что есть несколько принципов, которые, по моему мнению, должны направлять решения на всех уровнях управления.
Первый — устойчивая связь между человеком и технологией. Это, возможно, один из самых сложных вызовов для современных армий. Такая связь не может строиться на слепом энтузиазме в отношении "умной" техники. Она основывается на предсказуемости и понимании поведения платформы: что она делает в типичной ситуации, где ошибается, как ведет себя в предельных сценариях.
Второй — содержательное участие человека. Даже если автономный комплекс выполняет значительную часть задачи, включая потенциальное финальное применение силы, человек должен оставаться в контуре принятия решения. Это позволяет проследить последний человеческий шаг, сравнить намерение командира с фактическим поведением машины и затем объяснить, почему именно она сработала так, как сработала. Для этого все ключевые действия должны записываться и сохраняться, даже если носитель будет уничтожен во время операции.
Третий ориентир — возможность прервать миссию на любом этапе. Командир или оператор должны иметь реальный, а не декоративный контроль над остановкой процесса. Если платформа уже вышла за пределы этого контроля, это означает, что предел допустимого использования пройден.
Где право отстает от городского боя
С правовой стороны самые большие пробелы возникают не из-за того, что средства новые, а из-за характера современных конфликтов. Это уже не классические столкновения между армиями государств. Противник сознательно смешивается с гражданскими, использует "живые щиты", не носит форму, запускает ракеты или беспилотники с территории больниц, школ или государственных учреждений.
Формально в МГП существуют нормы, способные охватить значительную часть этих ситуаций. Однако базовое предположение о четком разделении между мирным населением и комбатантами часто не соответствует реальности боевых действий. Примеры масштабных разрушений жилых районов, которые мы видели в последние годы в секторе Газа, показывают, как трудно обеспечить практическое воплощение принципов различения и пропорциональности в условиях, когда гражданские и участники боевых действий физически перемешаны.
Второй пласт — вопрос, нужны ли технологически специфические режимы именно для автономных ударных платформ. В 2024 году Генеральная Ассамблея получила доклад Генерального секретаря ООН о летальных автономных системах, где государства, среди прочего, отмечали проблемы надежности, точности и способности таких решений различать военные и гражданские цели. В том же году в рамках Конвенции о некоторых видах обычного оружия государства в Группе правительственных экспертов вышли на предварительный консенсус относительно рабочей характеристики летальной автономной системы: как комплекса, способного самостоятельно выбирать и поражать цели без участия оператора.
По мнению эксперта, в большинстве случаев следует применять и толковать уже существующие нормы, а не конструировать новый режим под каждую технологию. Но будут ситуации, где узкие, адресные правила все же станут неизбежными — и дискуссии последних лет об автономном вооружении это подтверждают.
Правила применения и C2 для автономных решений
Государства могут и должны прописывать правила применения силы и процедуры командования даже там, где на поле боя присутствуют автономные платформы.
Для этого необходимо очень четкое понимание ограничений. Операторы должны проходить структурированное обучение и знать, что именно комплекс умеет, а чего не делает вообще. Здесь уместна аналогия с большими языковыми моделями: они способны придумывать факты, но если пользователь понимает их границы, инструмент остается пригодным для работы.
Доверие между пользователем и технологией формирует эффективность боевого применения. Содержательное участие человека должно сохраняться, а ответственность не может ограничиваться только оператором, который нажимает кнопку. Она распространяется на командиров и на оборонную индустрию, создающую эти решения. Командиры должны не просто "подписать документ о МГП", а реально применять эти принципы при планировании и выполнении операций.
В то же время нужно честно признать: если противник целенаправленно использует "живые щиты" и прячется за гражданской инфраструктурой, избежать жертв среди мирного населения всегда не удается. В отдельных случаях военная необходимость преобладает, и люди, которые не участвовали в боевых действиях, к сожалению, могут стать частью допустимого побочного ущерба в рамках гуманитарного права. Эта реальность существует независимо от того, применяется ли автономная платформа или "классический" вид оружия.
Ключевые риски городского боя с автономными системами
- Масштаб ошибок алгоритмов часто остается невидимым до момента, когда последствия становятся политически и морально неприемлемыми. Расследования по применению цифровых инструментов для автоматизированного отбора тысяч целей в Газе показали, как соблазн ускорить цикл поражения может сочетаться с минимальным участием человека и высокими человеческими потерями.
- Нормализация высокого побочного ущерба. Часть инструментов цифрового таргетинга в недавних операциях, по оценкам правозащитников и экспертов ООН, могла использовать неполные данные и слишком широкие допуски в отношении гибели гражданских, что ставит под сомнение соответствие таких практик принципам различения и пропорциональности.
- Размывание ответственности между разработчиками, командирами и алгоритмами. Когда решение фактически принимает техническая система, у соблазна сказать "так решила машина" появляется очень опасное измерение. Именно поэтому часть государств в своих представлениях в ООН прямо подчеркивает необходимость понятных стандартов подотчетности для автономного вооружения.
- Гонка вооружений в сфере автономии создает дополнительное давление на демократии: они видят, как недемократические режимы экспериментируют с менее жесткими ограничениями, и оказываются между желанием не отставать технологически и обязательством перед собственным обществом оставаться в рамках МГП.
Подотчетность и проверка решений
Ключевые элементы подотчетности начинаются задолго до первого боевого применения. Промышленные разработчики должны получить четкие рамки: какие правила применения силы закладываются в алгоритм, какие интерфейсы будут у пользователей, как технически кодируются ограничения, связанные с гуманитарным правом.
Подразделения должны быть обучены не только пользоваться AI-решениями, но и понимать право вооруженных конфликтов на практическом уровне. Сама техника должна оставаться максимально объяснимой и трассируемой: с возможностью остановки в любой момент, регистрацией аномалий и фиксацией всех ключевых решений.
Доверие к таким решениям строится во времени. Демократиям не стоит прыгать сразу в полностью летальные автономные платформы. Логичная траектория - начинать с более простых функций: наблюдение, обнаружение, невооруженные сценарии. Только после этого, шаг за шагом, можно переходить к более чувствительным приложениям.
Автономия не отменяет ответственности. Она лишь делает еще более важными три вещи: честный взгляд на реальность городского боя, понятные правила для алгоритмов и людей и готовность потом объяснить каждый выстрел — даже если его совершил не пилот, а код.
Напомним, что посол Украины в Европейском Союзе Всеволод Ченцов отметил, что оккупанты все чаще добавляют искусственный интеллект в свои ударные дроны Shahed, и объяснил зачем.
А ранее искусственный интеллект показал, какой именно вид будут иметь Авдеевка, Бахмут и Покровск после победы Украины в войне с Россией.
Читайте Новини.LIVE!