Фото Павла Сарычева\НГ-Online
В Женеве прошла встреча Группы правительственных экспертов по смертоносным автономным системам оружия, учрежденной в рамках юридического документа с длинным названием, сокращенно именуемого Конвенцией о негуманном оружии (КНО). Сама Конвенция – заключенный еще в 1980 году рамочный договор, дополненный несколькими протоколами, запрещающими или ограничивающими применение в военных действиях конкретных средств поражения живой силы, таких как осколки, которые в человеческом теле невозможно обнаружить с помощью рентгеноскопии, зажигательное оружие, ослепляющие лазеры и др. С ними все относительно ясно, чего не скажешь об автономном оружии.
В основе проблемы лежит исключение человека из принятия решения об убийстве себе подобных. Даже при использовании современных, удаленно управляемых аппаратов, к примеру, разведывательно-ударных беспилотников, барражирующих в воздушном пространстве над Афганистаном или Сомали в ожидании появления лакомой наземной цели, над ними постоянно осуществляет контроль экипаж. Пусть он и находится на безопасном расстоянии от района боевого патрулирования, и если ему что-то и угрожает, так это сквозняк от кондиционера. Да, такой бой скорее напоминает компьютерную «стрелялку»: экипаж видит обстановку на экране монитора и управляет аппаратом и огнем с помощью джойстика. И все же именно человек осуществляет доразведку цели, принимает решение о применении оружия и оценивает его результативность.
Дальше – сложнее. Как можно было понять гуманитарию из бесед со специалистами по программному обеспечению, «железу» и тактике, в недалеком будущем реален сценарий, когда автоматизация процессов управления позволит одному экипажу контролировать работу звена или более крупной тактической единицы беспилотных аппаратов, которые обнаруживают, классифицируют цели, выявляют наиболее выгодные из них, но при этом человек либо сам дает команду на открытие огня, либо, если такая функция заложена в машину, может в любой момент вмешаться и не позволить ей применить средство поражения. Здесь, впрочем, уместна оговорка: если такой сценарий воплощается в жизнь, машина будет принимать решения во много раз быстрее человека.
Ну и, наконец, полная независимость машины от человека, относительно которой как с точки зрения ее достижимости, так и целесообразности, согласия среди ученых, разработчиков, военных, дипломатов и юристов не наблюдается.
Одни специалисты в области искусственного интеллекта утверждают, что создание и запуск в производство компактного и полностью автономного машинного супермозга – дело нескольких ближайших лет, другие – что для питания скопища рукотворных нейронов потенциальной боевой платформе придется таскать за собой источник питания размером и весом с груженый железнодорожный вагон.
Одни военные, по большей части штабные, уже встраивают «роботизированные ударные комплексы» (термин из отечественной Военной доктрины образца 2014 года) в планы боевого применения, другие, с «полевым» опытом, осторожно оговариваются, мол, тактическая ценность системы оружия в глазах командира определяется полным пониманием ее возможностей и уверенностью в ее надежности и предсказуемости. Важность последнего свойства можно проиллюстрировать упрощенным примером: как рассказывали автору на одной фирме, занимающейся разработкой военных наземных платформ, с десяток лет назад в боевых условиях на их удаленно управляемое изделие, предназначенное для разведки и уничтожения мин, умельцы попытались приладить ручной пулемет. На уточняющий вопрос об изменении поведения машины под воздействием перераспределенной весовой нагрузки и колебаний при стрельбе был дан уклончивый ответ: «Оператор успел укрыться».
Впрочем, с тех пор фирма стала выпускать не только платформы, гармонизированные с установленным на них оружием, но и конверсионные домашние роботы-пылесосы. Но проблема взаимодействия человека и чрезмерно интеллектуальной машины в боевой среде не имеет упрощенного ответа: логика их действий может быть разной и не обязательно обоюдопонятной, да и при последующем разборе ситуации с человека можно потребовать объяснения принятого им решения, а вот как того же потребовать от машины – не ясно.
Ну а что же дипломаты и юристы? В ходе дискуссий в Женеве явно выделялись два подхода: радикальный (упредительно-запретительный) и консервативный (осторожно-неторопливый). Сторонники первого, а это преимущественно государства, участвующие в Движении неприсоединения, настаивают на скорейшем, предвосхищающем производство и развертывание автономных систем юридическом запрете, оформленном новым дополнительным протоколом к КНО.
Сторонники второго, ряды которых не очень стройны, полагают, что в отсутствие объекта, иными словами, пусть и не запущенных в производство и развернутых, но хотя бы разработанных и испытанных систем, невозможно договориться о содержании и пределах ограничений и запретов. Консультации, не исключая в перспективе и предметные переговоры, надо продолжать, но пока же следует сосредоточиться на национальных процедурах проверки разрабатываемых систем на предмет их соответствия действующим нормам международного права.
По мнению автора, в ситуации, когда отсутствуют не только отработанные образцы, но и согласие относительно ряда концептуальных понятий, начиная с содержания термина «автономия», параметров человеческого контроля над машиной, критических функций, которые нельзя отдавать полностью на ее усмотрение, говорить о формулировании ясного и определенного договора не приходится. В противном случае, как уже бывало при согласовании текстов договоров о современных и технически сложных системах вооружений, некоторые их положения будут отражать, как выразился знакомый переговорщик, «согласие не соглашаться».
Правильнее было бы ставить достижимые цели, для начала выработать свод руководящих принципов, постепенно насыщая его предметным содержанием, договориться о терминах, распространить на разрабатываемые системы и их компоненты меры экспортного контроля, попробовать адаптировать опыт недоговорных мер доверия и режимов контроля над ракетными технологиями и распространением технологий двойного назначения.