0
5154
Газета Экономика Интернет-версия

31.10.2025 18:09:00

Китай модернизировал подходы к безопасности искусственного интеллекта

Тэги: сбер, ии, китай, технологии, кибербезопасность


сбер, ии, китай, технологии, кибербезопасность Иллюстрация Pixabay.com

В конце сентября в Китае прошла Национальная неделя кибербезопасности, включавшая форум высшего уровня о передовых технологиях в сфере защиты цифровой среды и крупную выставку по кибербезопасности. В рамках мероприятия была представлена вторая версия «Рамочной структуры управления безопасностью искусственного интеллекта» (AI Safety Governance Framework 2.0).

Главная цель документа, разработанного под эгидой Управления по вопросам киберпространства Китая совместно с научными институтами и компаниями, – создание общей основы для управления рисками, связанными с искусственным интеллектом (ИИ), а также содействие международному сотрудничеству в этой сфере. Новая версия базируется на версии 1.0, опубликованной в сентябре 2024 года, но учитывает стремительное развитие технологий ИИ за прошедшее время и служит ответом на новые возможности и вызовы в этой сфере.

Документ совершенствует классификацию и градацию рисков ИИ. Так, вводятся пять уровней: минимальный, ограниченный, значительный, серьезный и критический уровни, что позволяет более точно определить необходимость регулирования в каждом конкретном случае.

Выделяются несколько типов рисков ИИ. Внутренние риски ИИ связаны с самой технологией искусственного интеллекта, включая нестабильность, предвзятость, уязвимости к атакам и проблемы с прозрачностью решений. Риски применения этой технологии возникают при интеграции ИИ в системы – имеется в виду некорректное использование, недостаточное управление доступом, отсутствие должного контроля человека и несоответствие культуре организации. Упомянуты также производные риски от применения ИИ – в том числе такие косвенные социальные и экологические последствия, как нарушение структуры занятости и высокое потребление ресурсов – энергии, воды.

В документе также формулируются базовые принципы управления безопасностью искусственного интеллекта. Среди них – инклюзивность и осмотрительность, гибкое управление на основе рисков, интеграция технологий и управления, открытость и сотрудничество, надежное применение и предотвращение потери контроля. Кроме того, закрепляется обязательный непрерывный мониторинг новых рисков и подчеркивается необходимость многостороннего и трансграничного сотрудничества в сфере ИИ-безопасности.

Нововведения отражают реакцию на новые риски, вызванные стремительной эволюцией ИИ, и подчеркивают наиболее сложные проблемы управления технологией в настоящее время, пояснил вице-президент Института исследований технологий и стратегий Чэнь Цзин. Главным отличием второй версии документа, по его словам, является переход от «статического соблюдения» к «динамическому управлению». Это представляет собой существенный сдвиг в управленческом мышлении в данной области.

Китайский подход отличается от модели Европейского Союза, который выбрал более жесткий, юридически обязательный EU AI Act, и США, практикующих более децентрализованный подход. Китайская рамочная программа занимает скорее промежуточную позицию.

Весь мир сегодня ищет различные пути регулирования технологий ИИ и обеспечения их безопасного развития, констатирует генеральный секретарь Международного альянса искусственного интеллекта (AI Alliance Network) Андрей Незнамов. Комментируя китайскую рамочную программу по регулированию безопасности ИИ, он отмечает, что ее цель – показать безопасность китайских разработок и задать свои стандарты проверки моделей на безопасность в качестве универсальных. «Однако стоит отметить, что информации о применении этой модели оценок рисков крайне мало, а имеющаяся информация пока доступна в основном на китайском языке», – добавил эксперт.

«Внимание к вопросам регулирования и обеспечения безопасности разработок важно и для России, как и в продвижении отечественных ИИ-решений, включая большие языковые модели, – подчеркнул Андрей Незнамов. – Регулирование должно учитывать развитие технологий в стране и не вводить барьеры, которые задавят индустрию. Вопросы безопасности ИИ, в частности, предусмотрены Кодексом этики в сфере ИИ, Декларацией об ответственном генеративном ИИ и другими документами. Активные участники принятия и развития таких документов – многие российские технологические компании, включая Сбер».


Читайте также


"Яблоко" отбрасывают от думских выборов

"Яблоко" отбрасывают от думских выборов

Дарья Гармоненко

Иван Родин

Рыбаков возглавить партсписок не сможет, Явлинский – вряд ли захочет

0
741
Белый дом рассматривает варианты завершения конфликта между Россией и Украиной

Белый дом рассматривает варианты завершения конфликта между Россией и Украиной

Геннадий Петров

В Европе и Америке разгораются споры о мирном плане, про который ничего толком не известно

0
1384
Китай потеснил США в Африке

Китай потеснил США в Африке

Владимир Скосырев

Вашингтон бойкотирует саммит G20 в ЮАР

0
664
 ВЫСТАВКА  "По старой дружбе. Шаржи из коллекции Музея кино"

ВЫСТАВКА "По старой дружбе. Шаржи из коллекции Музея кино"

0
383

Другие новости