0
16482
Газета Интернет-версия

23.03.2020 22:12:00

Киберпреступник с большим будущим

Информационную безопасность ждет много работы

Игорь Шашкин

Об авторе: Игорь Сергеевич Шашкин – блогер, автоинженер.

Тэги: ии, искусственный интеллект, роботы, общество, разум, компьютеры, технологии, кибербезопасность, безопасность


ии, искусственный интеллект, роботы, общество, разум, компьютеры, технологии, кибербезопасность, безопасность Вот он, первый искусственный интеллект, ставший человеком, правда – преступником. Фото Depositphotos/PhotoXPress.ru

Преступления, совершаемые с использованием искусственного интеллекта, а также проблемы квалификации и расследования таких правонарушений сегодня уже не вызывают удивление в рядах профессиональных юристов. Другое дело – это вопросы, которые появляются при изучении тех или иных ранее не исследуемых процессов, связанных с применением на практике так называемого искусственного интеллекта (ИИ).

В прошлом году в «Вестнике Сибирского юридического института МВД России» была опубликована статья двух авторов из Красноярского государственного аграрного университета. Кандидаты юридических наук Елена Ерахтина и Василий Тирранен анализировали «Преступления, совершаемые с использованием искусственного интеллекта: проблемы квалификации и расследования».

По их мнению, киберпреступность в XXI веке представляет одну из наиболее серьезных угроз – как для информационной безопасности государства, так и для его экономического развития, являясь одной из важнейших проблем современности. Быстрое развитие цифровых технологий во всех направлениях науки и техники спровоцировало рост организованной высокотехнологичной преступности, отвоевывающей свои позиции в преступном мире.

Трудно не согласиться с тем, что киберпреступления, в отличие от «нецифровых» проделок нарушителей закона, намного сложнее понять и объяснить. В первую очередь это определяется тем, что нарушения закона в кибернетическом пространстве сами по себе требуют как от преступника, так и от правоохранителя определенной квалификации не только в области юриспруденции, но и в сфере информационных технологий.

Несмотря на то что современные цифровые технологии открывают значительные возможности для развития государств, межгосударственных объединений, различных организаций и граждан, они также создают новые возможности для традиционных преступлений и почву для роста уже и организованной киберпреступности.

К актуальным угрозам информационной безопасности со стороны потенциальных киберпреступников, по мнению авторов, относятся действия, порожденные высокотехнологичной организованной преступностью с использованием искусственного интеллекта, включая искусственные нейронные сети.

Использование этого инструмента в преступной деятельности определяет новый уровень угрозы информационной безопасности, что требует готовности правоприменителя к борьбе с такой угрозой.

Для понимания преступлений, совершаемых с подключением искусственного интеллекта, необходимо определить, что понимается под искусственным интеллектом и, так сказать, под «естественным разумом».

Кто из них быстрее

Сегодня уже многим ясно, что человеческий мозг обрабатывает информацию способом, принципиально отличающимся от применяемых обычными компьютерами методов обработки. Образно говоря, наш мозг представляет собой сложный нелинейный параллельный компьютер, в котором нейроны мозга создают соединения друг с другом в различных комбинациях. При этом количество соединений может доходить до 100 тыс.

Мозг человека организует работу нейронов так, чтобы они выполняли свои функции (распознавание образов, обработка сигналов органов чувств, моторика тела) во много раз быстрее, чем это могут позволить современные суперкомпьютеры. Эта скорость возникает за счет выстраивания нелинейных параллельных связей между элементами взаимодействия.

А современный искусственный интеллект способен к обучению лишь на примерах человека. И только потом ИИ начинает дальнейшее самостоятельное обобщение данных. При этом он способен адаптироваться к изменению свойств объекта управления и подстраиваться к внезапно изменившимся условиям внешней среды. Причем ему свойственна высочайшая устойчивость к повреждению своих элементов при использовании нейросетевой архитектуры. В настоящее время во многих системах для принятия решений и управления процессами применяются как раз искусственные нейросети.

До недавнего времени использование искусственного интеллекта в преступной деятельности было ограничено в силу, с одной стороны, недостаточной автоматизации современной жизни, с другой – из-за объемности и ресурсоемкости самообучающихся алгоритмов.

Однако с повсеместным внедрением «умной» техники в повседневную жизнь и развитием информационных технологий, в частности искусственных нейронных сетей, эти проблемы отошли в прошлое, позволив внедрить искусственный интеллект во вредоносные компьютерные программы.

Эти программы (условно называемые компьютерными вирусами) так же, как и человеческий интеллект, подвержены влиянию такого серьезного эволюционного фактора, как конкуренция, и развиваются под воздействием последней. Даже отдельные компьютерные вирусы уже обладают некоторыми признаками искусственного интеллекта.

К таким признакам относится адаптация, позволяющая изменять действия в меняющихся условиях. Еще для вторжения в законную кибердеятельность важна мимикрия (маскировка под легальные программы). При этом использование самообучающихся алгоритмов не должно стать заметным и медленным при использовании вредоносных программ. Иначе они будут уничтожены и вытеснены.

Это лишь сжатое и поверхностное объяснение тех атак и тех противодействий, которыми в технологическом смысле можно защитить свою законную деятельность от наглых атак.

А с уголовно-правовой точки зрения ключевым вопросом использования искусственного интеллекта и нейронных сетей при совершении киберпреступлений, как считают авторы статьи, остается вопрос определения умысла при совершении незаконных деяний.

Быстрый не значит честный

Примерно об этом интересную и весьма нескучную статью написал Илья Мосечкин из Вятского государственного университета. Ее тема: «Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления». Работа опубликована в «Вестнике Санкт-Петербургского университета».

Анонс начинается с фразы: «Статья посвящена исследованию возможности признания искусственного интеллекта в качестве субъекта преступления и привлечения его к уголовной ответственности».

Так и видится, как в зале суда на скамье подсудимых с наглым видом расселся этот, с позволения сказать, матерый рецидивист.

Действительно, правовое использование достижений робототехники и программирования, в том числе беспилотных транспортных средств, должным образом не урегулировано. Поскольку законодатели сталкиваются с данной сферой впервые, может возникнуть множество проблем, имеющих отношение к определению сущности таких явлений и направлений совершенствования столь необычного законодательства. Уже сейчас робототехника и кибернетика ставят вопросы, ответы на которые не так очевидны. И среди них ищет для себя ответы Илья Мосечкин. Например, он хотел бы знать следующее:

– может ли робот (искусственный интеллект) выступать в качестве личности или он должен оставаться в статусе вещи (как, например, домашние животные);

– кто должен нести ответственность за противоправные действия, совершенные роботом (искусственным интеллектом);

– кому принадлежат права на вещи или произведения, созданные роботом (искусственным интеллектом).

Дальнейшее знакомство с работой убеждает, что деятельность, осуществляемая полностью или частично с помощью ИИ, способна представлять общественную опасность и причинять вред межчеловеческим отношениям, охраняемым законом. Например, беспилотник намеренно или невольно может посягать на условия, обеспечивающие безопасность дорожного движения. Нейронная сеть – взломщик намеренно вскрывает пароли и другие защиты в сфере компьютерной информации, собственности, нарушая конституционные права и свободы человека. Наконец, деятельность искусственного интеллекта может впрямую причинять вред жизни и здоровью граждан.

К последнему вопросу автор приводит просто трагический случай: «В зарубежной литературе приводится пример, когда робот, участвующий в производстве мотоциклов, ошибочно счел одного из работников угрозой его задачам и, используя гидравлическую «руку», причинил работнику смерть путем сдавливания о примыкающее оборудование».

Далее Мосечкин сообщает, что исследуемая тема не позволяет привести достаточно значимую статистику, поскольку количество совершенных преступлений, правонарушений или любых инцидентов с использованием искусственного интеллекта пока еще у нас невелико. Но он уверен, что в ближайшем будущем ИИ будет значительно усложнен и его влияние, расширение роли в нашей жизни будет только возрастать. Поэтому, не предприняв попыток урегулирования проблемных вопросов сегодня, мы рискуем оказаться в сложной ситуации.

А поскольку искусственный интеллект уже сейчас применяется во многих областях, число которых будет расти, автор делает смелый вывод о том, что и противоправная деятельность потенциально станет осуществляться практически во всех сферах. Если же развитая система искусственного интеллекта будет управлять антропоморфным (человекообразным) телом, то не исключается совершение ИИ общественно опасных деяний, предусмотренных любыми статьями Уголовного кодекса РФ. Он верит, что это станет возможным в недалеком будущем, учитывая интенсивность развития кибернетики, если только не введут соответствующего законодательного запрета. Если рассматривать такую ситуацию с позиции анализа объективных признаков состава преступления, то, очевидно, юридическая ответственность искусственного интеллекта не будет отличаться от человека.

Учитывая настоящий уровень развития искусственного интеллекта и его роль в деятельности людей, было бы абсурдно настаивать на необходимости привлечения системы к ответственности. Программное обеспечение, например, беспилотного транспорта или устройства для автоматической биржевой торговли не обладает самосознанием или должной степенью самосознания, что исключает субъективную противоправность, а также достижение целей наказания.

В таких случаях эффективнее перепрограммирование или замена устройства без использования уголовно-правового механизма. Собственно, применяя уголовное наказание для подобных устройств, можно лишь достичь цели предупреждения совершения преступлений. В меньшей степени – восстановления социальной справедливости, и крайне маловероятно – исправления осужденного.

Закон есть закон

Искусственный интеллект причиняет и в дальнейшем неизбежно будет причинять вред охраняемым общественным отношениям, что обусловливает и актуализирует проблему уголовно-правовой защиты таких отношений. В зависимости от юридической оценки конкретной ситуации можно выделить ряд субъектов, деятельность которых в сочетании с использованием ИИ способна быть основанием для привлечения их к уголовной ответственности.

1. Производитель искусственного интеллекта. Поскольку создание программного обеспечения подразумевает разработку системы ограничений для функционирования и самообучения искусственного интеллекта, исключение возможных ошибок и т.д.

2. Производитель или продавец продукции, оснащенной искусственным интеллектом.

3. Пользователь продукции, оснащенной искусственным интеллектом.

4. Иные лица. Например, противоправное вмешательство в работу ИИ представителей киберпреступности.

5. И наконец, сам искусственный интеллект. Самообучение программы способно обладать неким непредсказуемым эффектом, вызывая нежелательные реакции.

«Но в настоящий момент реализация уголовной ответственности по отношению к системе искусственного интеллекта нецелесообразна, – считает Илья Мосечкин, – поскольку последняя еще не столь значительно отличается от иных программ и не обладает должным уровнем».

Он тут же удачно находит аналогию: «С тем же успехом можно привлекать к ответственности домашних животных, совершивших опасные деяния».

Проведенное исследование проблем реализации уголовной ответственности за совершение деяний, связанных с использованием искусственного интеллекта, позволило сформулировать следующие выводы.

1. Уголовное законодательство запаздывает в области регулирования отношений, связанных с использованием систем искусственного интеллекта.

2. Деятельность искусственного интеллекта может представлять общественную опасность и причинять вред общественным отношениям, охраняемым законом.

3. Искусственный интеллект своими действиями (бездействием) может полностью реализовать объективную сторону ряда составов преступлений, предусмотренных отечественным уголовным законодательством, а в будущем, при наличии антропоморфного тела, перечень таких составов будет существенно расширен, вплоть до охвата всей Особенной части УК РФ.

4. В настоящее время содержание вины искусственного интеллекта весьма отдаленно напоминает содержание интеллектуальных и волевых элементов деятельности человека и характеризуется в большей степени небрежностью. Дальше сходство будет усиливаться и позволит говорить о наличии противоправности в поведении искусственного разума.

5. Перечень возможных субъектов преступлений, совершаемых с использованием систем искусственного интеллекта, уже был приведен выше. Но искусственный интеллект сможет стать полноправным субъектом преступления, если достигнет самосознания личности, признанной таковой законодательно. В этом случае Илья Мосечкин считает целесообразным использовать термин «искусственное лицо», по аналогии с физическими и юридическими лицами из рода человеческого.

Осталось решить: такое превращение искусственного интеллекта в человеческий разум будет для ИИ наградой или наказанием.


Оставлять комментарии могут только авторизованные пользователи.

Вам необходимо Войти или Зарегистрироваться

комментарии(0)


Вы можете оставить комментарии.


Комментарии отключены - материал старше 3 дней

Читайте также


В Южной Корее ввели и отменили военное положение

В Южной Корее ввели и отменили военное положение

Юрий Паниев

Юн Сок Ёль заявил, что хочет остановить гражданскую войну

0
1339
Курьеры проезжают мимо заводов

Курьеры проезжают мимо заводов

Анастасия Башкатова

Платформенная экономика перетягивает здоровых и сильных из экономики традиционной

0
1273
Бербок предъявила Пекину ультиматум

Бербок предъявила Пекину ультиматум

Олег Никифоров

Глава МИД ФРГ считает, что поддержка России не в интересах Китая

0
1208
Народовластие: три иллюзии, три опасности, три угрозы

Народовластие: три иллюзии, три опасности, три угрозы

Михаил Емельянов

Общество как сложный иерархизированный организм есть носитель суверенитета

0
926

Другие новости