Министерство обороны США утвердило этические принципы использования систем и средств искусственного интеллекта (ИИ) в различных областях своей деятельности, как боевого, так и не боевого характера. Об этом 24 января сообщила пресс-служба военного ведомства.
Осенью 2019 года, говорится в пресс-релизе, после 15-месячного периода выработки этических норм создания и применения ИИ, осуществлявшегося Советом МО по инновациям на базе проведения консультаций с ведущими экспертами по разумным машинам в коммерческой индустрии, в правительстве, в академических кругах и в общественных организациях, рекомендации были переданы министру обороны Марку Эсперу.
Вероятность того, что системы ИИ в ближайшем будущем сами смогут без непосредственного участия человека формулировать и выполнять боевые задачи, вызвала ожесточенные споры и критику в адрес военных как в США, так и за их пределами. И накал этих дискуссий не ослабевает до сих пор. Однако, по мнению экспертов Пентагона, принятие этических норм использования ИИ в военной сфере полностью отвечает стратегическим целям и задачам ВС США.
Отныне руководство МО будет руководствоваться пятью основными принципами, создания, внедрения и применения систем ИИ, включающими «ответственность», «соразмерность» «понятность», «надежность» и «управляемость».
Принцип ответственности предполагает, что сотрудники МО, отвечающие за разработку боевых машин с ИИ, должны будут в самой высокой степени проявлять здравый смысл и осторожность при их создании.
Под соразмерностью в Пентагоне понимаются необходимые меры, позволяющие исключить возможность полностью самостоятельного принятия интеллектуальными машинами решений и их выхода из-под контроля операторов.
Понятность систем ИИ должна состоять в том, что контролирующие их функционирование операторы должны будут владеть необходимыми технологиями и навыками, обеспечивающими прозрачность реализуемых интеллектуальными машинами процедур и документального оформления производимых ими действий.
Надежными системы ИИ станут тогда, когда им будут приданы строго очерченные функции, и они будут постоянно проходить испытания в ходе разработки и в процессе эксплуатации.
Принцип управляемости систем ИИ заключается в том, что в любых условиях у операторов будет сохраняться возможность отключения боевых машин, оснащенных интеллектуальными устройствами, которые проявляют «незапланированное поведение».
Комментируя принятое решение министр обороны Марк Эспер заявил, что США совместно с союзниками и партнерами «должны ускорить внедрение искусственного интеллекта, должны лидировать в его применении в целях национальной безопасности», чтобы обеспечивать решение стратегических задач, чтобы войска могли «побеждать на полях сражениях будущего и защищать международный порядок, основанный на правилах». По его словам, новые технологии не должны повлиять на «ответственное и законное» поведение военнослужащих.
В сентябре прошлого года начальник Объединенного центра искусственного интеллекта генерал-лейтенант Джек Шэнэхэн заявил, что системами ИИ не будут оснащаться пункты управления стратегическими вооружениями. По его словам, за запуски баллистических ракет всегда будут отвечать люди, потому что решение о применении оружия массового уничтожения должно быть исключительной прерогативой человека.
комментарии(0)