0
6473
Газета Экономика Интернет-версия

31.10.2025 18:09:00

Китай модернизировал подходы к безопасности искусственного интеллекта

Тэги: сбер, ии, китай, технологии, кибербезопасность


сбер, ии, китай, технологии, кибербезопасность Иллюстрация Pixabay.com

В конце сентября в Китае прошла Национальная неделя кибербезопасности, включавшая форум высшего уровня о передовых технологиях в сфере защиты цифровой среды и крупную выставку по кибербезопасности. В рамках мероприятия была представлена вторая версия «Рамочной структуры управления безопасностью искусственного интеллекта» (AI Safety Governance Framework 2.0).

Главная цель документа, разработанного под эгидой Управления по вопросам киберпространства Китая совместно с научными институтами и компаниями, – создание общей основы для управления рисками, связанными с искусственным интеллектом (ИИ), а также содействие международному сотрудничеству в этой сфере. Новая версия базируется на версии 1.0, опубликованной в сентябре 2024 года, но учитывает стремительное развитие технологий ИИ за прошедшее время и служит ответом на новые возможности и вызовы в этой сфере.

Документ совершенствует классификацию и градацию рисков ИИ. Так, вводятся пять уровней: минимальный, ограниченный, значительный, серьезный и критический уровни, что позволяет более точно определить необходимость регулирования в каждом конкретном случае.

Выделяются несколько типов рисков ИИ. Внутренние риски ИИ связаны с самой технологией искусственного интеллекта, включая нестабильность, предвзятость, уязвимости к атакам и проблемы с прозрачностью решений. Риски применения этой технологии возникают при интеграции ИИ в системы – имеется в виду некорректное использование, недостаточное управление доступом, отсутствие должного контроля человека и несоответствие культуре организации. Упомянуты также производные риски от применения ИИ – в том числе такие косвенные социальные и экологические последствия, как нарушение структуры занятости и высокое потребление ресурсов – энергии, воды.

В документе также формулируются базовые принципы управления безопасностью искусственного интеллекта. Среди них – инклюзивность и осмотрительность, гибкое управление на основе рисков, интеграция технологий и управления, открытость и сотрудничество, надежное применение и предотвращение потери контроля. Кроме того, закрепляется обязательный непрерывный мониторинг новых рисков и подчеркивается необходимость многостороннего и трансграничного сотрудничества в сфере ИИ-безопасности.

Нововведения отражают реакцию на новые риски, вызванные стремительной эволюцией ИИ, и подчеркивают наиболее сложные проблемы управления технологией в настоящее время, пояснил вице-президент Института исследований технологий и стратегий Чэнь Цзин. Главным отличием второй версии документа, по его словам, является переход от «статического соблюдения» к «динамическому управлению». Это представляет собой существенный сдвиг в управленческом мышлении в данной области.

Китайский подход отличается от модели Европейского Союза, который выбрал более жесткий, юридически обязательный EU AI Act, и США, практикующих более децентрализованный подход. Китайская рамочная программа занимает скорее промежуточную позицию.

Весь мир сегодня ищет различные пути регулирования технологий ИИ и обеспечения их безопасного развития, констатирует генеральный секретарь Международного альянса искусственного интеллекта (AI Alliance Network) Андрей Незнамов. Комментируя китайскую рамочную программу по регулированию безопасности ИИ, он отмечает, что ее цель – показать безопасность китайских разработок и задать свои стандарты проверки моделей на безопасность в качестве универсальных. «Однако стоит отметить, что информации о применении этой модели оценок рисков крайне мало, а имеющаяся информация пока доступна в основном на китайском языке», – добавил эксперт.

«Внимание к вопросам регулирования и обеспечения безопасности разработок важно и для России, как и в продвижении отечественных ИИ-решений, включая большие языковые модели, – подчеркнул Андрей Незнамов. – Регулирование должно учитывать развитие технологий в стране и не вводить барьеры, которые задавят индустрию. Вопросы безопасности ИИ, в частности, предусмотрены Кодексом этики в сфере ИИ, Декларацией об ответственном генеративном ИИ и другими документами. Активные участники принятия и развития таких документов – многие российские технологические компании, включая Сбер».


Читайте также


Путин и Лукашенко подписали семь документов по интеграции

Путин и Лукашенко подписали семь документов по интеграции

Иван Родин

Россия и Белоруссия провели юбилейное заседание Высшего государственного совета Союзного государства

0
2504
В конфликт между Киевом и Будапештом добавилась военная составляющая

В конфликт между Киевом и Будапештом добавилась военная составляющая

Наталья Приходко

На Украине скептически оценивают потенциал венгерской армии

0
2425
Военные беспилотники Пекина угрожают партнерам Вашингтона

Военные беспилотники Пекина угрожают партнерам Вашингтона

Владимир Скосырев

Разведывательный дрон помогает Китаю репетировать высадку на Тайване

0
1891
Исследуя белого медведя

Исследуя белого медведя

Елена Крапчатова

Экспедиции "Роснефти" позволили собрать уникальные данные об арктическом хищнике

0
2041