0
5054
Газета Я так вижу Интернет-версия

29.07.2025 13:10:00

10 этических вопросов об ИИ, которые мы действительно себе задаем

Андрей Незнамов

Об авторе: Андрей Незнамов – управляющий директор Центра человекоцентричного AI Сбербанка, председатель Комиссии по реализации Кодекса этики в сфере ИИ.

Тэги: ии, искуственный интеллект, этика, кодекс


ии, искуственный интеллект, этика, кодекс Фото Reuters

Искусственный интеллект (ИИ) давно перестал быть абстракцией. Он уже активно используется в бизнесе, медицине, образовании, праве – и именно поэтому вызывает не только интерес, но и серьезные вопросы.

В прошлом году вышла «Белая книга этики в сфере ИИ» – инициатива комиссии по реализации Кодекса этики в сфере ИИ на базе Альянса в сфере ИИ, поддержанная крупнейшими участниками российского AI-сообщества, включая Сбер, Яндекс, МТС и другие. В основу книги легли более 40 вопросов, выявленных в ходе масштабного социального опроса, а также дополненных и проанализированных экспертным сообществом. Книга опирается на научные исследования, международный опыт, практические кейсы и реальные вызовы, с которыми сталкиваются разработчики и пользователи ИИ. Вот 10 вопросов – тех, что действительно волнуют пользователей, разработчиков, бизнес и научное сообщество, и ответы, которые даются в книге.

1. Какое решение должен принять беспилотный транспорт, если полностью избежать ущерба невозможно?

Классический пример – так называемая «проблема вагонетки», адаптированная для беспилотного транспорта. Но ключевое здесь – не искать «правильный» алгоритм, а признать: подобные решения не могут быть отданы на откуп машине. Принципы, по которым действует ИИ, задает человек. Именно поэтому необходимы общественные обсуждения, этические рамки и ответственность тех, кто проектирует и внедряет системы.

2. Этично ли создавать цифровые копии людей?

Современные технологии позволяют воссоздать лицо, голос, манеру поведения – но где проходит граница допустимого? Использование цифровых двойников возможно только с информированного согласия самого человека. Если речь идет об умерших, важны уважение к памяти и воле, а также соблюдение прав наследников. Принцип добровольности и этической допустимости – ключевой.

3. Почему ИИ называют «черным ящиком» – и можно ли объяснить, как он принимает решения?

Многие ИИ-модели устроены настолько сложно, что даже разработчикам бывает трудно точно объяснить, почему система пришла к тому или иному выводу. Чем глубже и многослойнее модель (например, нейросеть с миллиардами параметров), тем труднее понять внутреннюю логику ее работы. Именно поэтому в сферах, влияющих на права и судьбы людей, особенно важно развивать методы объяснимости: аудит моделей.

4. Всегда ли человек должен знать, что он взаимодействует с ИИ?

Да – особенно в тех случаях, когда это может повлиять на восприятие информации или принятие решений: в медицине, образовании, праве. Однако в некоторых повседневных сценариях – например, при использовании голосовых помощников или рекомендательных систем – факт взаимодействия с ИИ очевиден и не требует отдельного указания. Здесь важно разумно соотносить информирование и уместность.

5. Приведет ли ИИ к массовому сокращению рабочих мест?

ИИ действительно трансформирует рынок труда, автоматизируя рутинные задачи. Но, как и в предыдущие эпохи технологических изменений, исчезновение одних профессий сопровождается появлением новых. Ответственность государства и бизнеса – в обеспечении переобучения, развитии цифровых компетенций и создании условий для справедливого перехода.

6. Должен ли человек всегда иметь возможность оспорить решение ИИ?

Право оспорить решение, принятое с использованием ИИ, считается одной из фундаментальных концепций в вопросах этичного использования ИИ, но оно не является универсальным для всех случаев применения ИИ. ИИ не может быть последней инстанцией. Необходимы процедуры оспаривания, возможность пересмотра, обращение к специалисту.

7. Может ли ИИ быть предвзятым – и кто за это отвечает?

Да. ИИ учится на данных, собранных в человеческом обществе – и, как следствие, может унаследовать и воспроизводить уже существующую предвзятость. Если в обучающей выборке уже содержится искажение или неравенство, ИИ может непреднамеренно закреплять дискриминацию – по полу, возрасту, этнической принадлежности, социальному статусу. Основная ответственность лежит на разработчиках – формирование архитектур моделей, подборка и очищение данных, аудит справедливости и контроль качества решений. Но не меньшее значение имеет и то, как система применяется: пользователи должны понимать риски и нести ответственность за этичное применение технологий и помогать разработчику сообщениями о замеченных этических нарушениях.

8. Кто отвечает, если ИИ нанес вред?

Особенно остро этот вопрос стоит в медицине и других чувствительных сферах. Главная ответственность лежит на тех, кто использует ИИ как часть своей профессиональной практики – то есть на операторах, например, врачах, организациях, которые принимают решения на его основе. Вместе с тем, свою долю ответственности несут разработчики, интеграторы и все участники жизненного цикла ИИ-систем. Необходима документация, этическая экспертиза и механизмы отслеживания ошибок.

9. Может ли ИИ заменить судью?

ИИ способен ускорять анализ данных, помогать в формулировке правовых позиций. Но судебное решение – это не только логика, но и контекст, гуманность, умение учитывать уникальные обстоятельства. Поэтому ИИ может быть инструментом, но не полноценной заменой человека в сфере правосудия.

10. Этично ли использовать ИИ для социального рейтингования?

Алгоритмы, оценивающие «надежность» или «благонадежность» граждан, вызывают серьезные опасения. Они могут приводить к дискриминации, ограничению прав, социальной сегрегации. Применение таких систем требует широкого общественного, крайней прозрачности, обсуждения и добровольности. Технологии не должны подменять собой принципы равенства и достоинства.

Этика – это не надстройка, а фундамент. «Белая книга» – приглашение к разговору, а не приговор технологиям. Это попытка соединить здравый смысл, научную точность и человеческое достоинство. Искусственный интеллект – не чуждый разум, а наше зеркало. Главное – не забывать смотреть в него честно.


Читайте также


Страны ЕС готовят полный запрет российского нефтяного экспорта через балтийские порты

Страны ЕС готовят полный запрет российского нефтяного экспорта через балтийские порты

Михаил Сергеев

Любое судно может быть объявлено принадлежащим к теневому флоту и захвачено военными стран НАТО

0
3609
Об усилении армии задумались даже в нейтральной Швейцарии

Об усилении армии задумались даже в нейтральной Швейцарии

Надежда Мельникова

Власти намерены увеличить расходы на оборону за счет повышения налогов

0
2043
Патриарх Кирилл дал отпор мракобесию

Патриарх Кирилл дал отпор мракобесию

Милена Фаустова

К гадалке не ходи

0
2524
В Белоруссии практически не осталось оппозиционных структур

В Белоруссии практически не осталось оппозиционных структур

Дмитрий Тараторин

Снижение количества дел, связанных с экстремизмом, не радует социологов

0
2377