0
12237
Газета Интернет-версия

23.11.2021 18:44:00

В России принят моральный кодекс строителей нейросетей

Гуманизированный искусственный интеллект

Тэги: ии, искусственный интеллект, боты, технологии, компьютеры, общество, этика


ии, искусственный интеллект, боты, технологии, компьютеры, общество, этика К 2024 году рост мировой экономики, обеспеченный решениями в области ИИ, достигнет триллиона долларов. Фото Reuters

Темой ноября, предпоследнего месяца Года науки и технологий в России, был выбран искусственный интеллект (ИИ; английская аббревиатура – AI, artificial intelligence). Именно к этому месяцу были «подверстаны» несколько крупных инициатив и мероприятий, связанных с развитием исследований и технологий в области ИИ.

Капитализация ИИ

Английский экономист Дэниел Сасскинд свою работу A World Without Work («Будущее без работы», 2020) начинает с такой констатации: «…культурные сдвиги уже произошли: пандемия сделала нас приветливее по отношению к технологиям, и это новое отношение, вероятно, сохранится».

Утверждение английского экономиста заведомо обречено на жесточайшую полемику. По крайней мере в обыденной жизни мы с вами можем найти большое количество примеров технологического вандализма, тихого (или не очень) сопротивления появлению новых гаджетов, прежде всего цифровых… Протесты против «чипизации», против QR-кодов, против «таблетки Илона Маска», массовое движение антиваксеров – то, что на виду и на слуху.

И все-таки все перечисленное – и многое неперечисленное – это только локальные флуктуации в монотонном процессе обрастания/врастания человеческой цивилизации в технологическую оболочку. Любопытно в связи с этим отметить, что книга Дэниела Сасскинда стала первой, полный перевод которой сделан интернет-переводчиком, то есть нейросетью, искусственным интеллектом. Программному алгоритму потребовалось 40 секунд, чтобы полностью перевести 352-страничный текст. Цепная реакция запущена. В минувшем октябре редакция сайта американской газеты Miami Herald наняла на работу нейросеть вместо уволившегося ранее журналиста. Первая заметка, подготовленная (лучше сказать – сгенерированная) Miami Herald Bot, вышла 15 октября. За первый день работы бот выдал «в печать» четыре заметки.

Очевидно, что нейросети занимают в нашей жизни все более прочное, более того – доминирующее положение. С этим уже нельзя не считаться.

14 октября 2019 года президент РФ Владимир Путин подписал указ об утверждении Национальной стратегии развития искусственного интеллекта на период до 2030 года. Необходимость в таком доктринальном документе в самой стратегии обосновывается вполне лапидарно: «По оценкам международных экспертов, инвестиции в технологии искусственного интеллекта выросли с 2014 по 2017 год в три раза и составили около 40 млрд долл. В 2018 году мировой рынок технологических решений, разработанных на основе искусственного интеллекта, составил 21,5 млрд долл. и, по прогнозам экспертов, к 2024 году достигнет почти 140 млрд долл. ... Ожидается, что благодаря внедрению таких решений рост мировой экономики в 2024 году составит не менее 1 трлн долл.».

За два года оценки капитализации ИИ сдвинулись существенно. По данным ноябрьского выпуска «Ежемесячного дайджеста Годнауки.РФ», оценка роста мировой экономики в 2024 году, обеспеченного решениями в области ИИ, достигает триллиона долларов. А оценка рынка ИИ в мире в 2024 году – 140 млрд долл.

Помощник президента РФ Максим Орешкин, выступая в ноябре на конференции AI Journey 2021, обрисовал такую перспективу: «По разным оценкам (есть, например, оценка Всемирного экономического форума), в областях, связанных с искусственным интеллектом, до 2025 года в мире будет создано 95 млн рабочих мест. По нашим оценкам, на Россию придется около 3 млн рабочих мест».

Киберэтика

Но история с ИИ заслуживает внимания на уровне специальной национальной стратегии не только своими экономическими параметрами. Более того, вполне может оказаться, что экономические показатели – это цветочки.

Куда менее предсказуемы для общества эволюционные, социально-психологические и этические последствия развития систем на основе ИИ. В той же Национальной стратегии тревога за будущее сосуществование под сенью ИИ заявлена открыто:

«Основными принципами развития и использования технологий искусственного интеллекта, соблюдение которых обязательно при реализации настоящей стратегии, являются:

а) защита прав и свобод человека: обеспечение защиты гарантированных российским и международным законодательством прав и свобод человека, в том числе права на труд, и предоставление гражданам возможности получать знания и приобретать навыки для успешной адаптации к условиям цифровой экономики;

б) безопасность: недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта…»

То есть вопросы киберэтики как минимум становятся не менее значимыми, чем вопросы биоэтики. Мало того, можно предположить, что био- и киберэтика уже в среднесрочной перспективе сольются в некую единую область знания. Не случайно в декабре 2019 года, на полях форума «Глобальное технологическое лидерство», тогдашний вице-премьер правительства РФ Максим Акимов заявил: «Искусственный интеллект – квазисубъект. Именно поэтому важно четко определить, что он может, а что нет, провести границу между экспертной поддержкой человеческих решений и принятием решения за человека».

15-10-1480.jpg
Взаимодействие человека с нейронной сетью
превращается в полноценный диалог
двух субъектов.  Фото Pexels
И вот месяц назад, 26 октября 2021 года, другой вице-премьер Дмитрий Чернышенко на первом международном форуме «Этика искусственного интеллекта: начало доверия» приветствовал подписание Кодекса в сфере искусственного интеллекта. «Пока у части общества неоднозначное отношение к таким технологиям, и это то, над чем нам надо работать. Опираясь на лучшие практики, Россия входит в десятку стран, для которых этичность развития важнейшей технологии XXI века имеет государственное значение», – заявил Чернышенко. В подписании кодекса приняли около 20 организаций.

Опасения Дмитрия Чернышенко насчет неоднозначного восприятия технологий ИИ в современном российском обществе совершенно обоснованы. Согласно только что опубликованному исследованию Международной лаборатории прикладного сетевого анализа НИУ «Высшая школа экономики» и компании Aventica, более 70% опрошенных видят реальную угрозу утечек персональных данных именно в использовании электронных девайсов, в частности – микрочипов-имплантов RFID (Radio Frequency IDentification, радиочастотная идентификация).

Младший научный сотрудник лаборатории Станислав Моисеев, представляя результаты этого исследования на научном семинаре, отметил: «Особенно активно вопрос чипирования людей начал обсуждаться в разгар пандемии, точнее – массовой вакцинации от COVID-19… Согласились бы имплантировать себе микрочип для медицинских целей только 37% респондентов, для целей идентификации – 22%, для оплаты покупок – 13%. 22% ответили, что согласились бы только в том случае, если бы были уверены, что с помощью чипа их не смогут отслеживать по GPS».

В то же время Дмитрий Чернышенко не случайно приводит и более оптимистические результаты социологических опросов: около 48% россиян доверяют ИИ (опрос ВЦИОМа, июнь 2021 года). Для сравнения: в США, Германии, Австралии, Канаде и Великобритании 72% опрошенных не доверяют технологиям ИИ (опрос КПГМ, март 2021 года).

Кодекс ботов

Принятый Кодекс в сфере ИИ как раз и призван, насколько это возможно, развеять общественные страхи. Ректор университета «Иннополис» Александр Тормасов в комментарии для Telegram-канала НОП подчеркивает: «Разработанный кодекс содержит этические принципы и стандарты поведения всех, кто работает в сфере ИИ. Документ распространяется на все отношения, связанные с этическими аспектами создания, внедрения и использования технологий ИИ на всех этапах жизненного цикла, которые не урегулированы законодательством Российской Федерации или актами технического регулирования. Все рекомендации рассчитаны на системы искусственного интеллекта, которые применяются исключительно в гражданских целях».

Принципы этики и правила поведения, заложенные в Кодекс в сфере искусственного интеллекта, в общем-то, очевидны:

– главный приоритет развития технологий ИИ в защите интересов и прав людей и отдельного человека;

– необходимо осознавать ответственность при создании и использовании ИИ;

– ответственность за последствия применения ИИ всегда несет человек;

– технологии ИИ нужно применять по назначению и внедрять там, где это принесет пользу людям;

– интересы развития технологий ИИ выше интересов конкуренции;

– важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.

Как все кодексы вообще, Кодекс в сфере ИИ относится к какой-то идеальной модели. «По большому счету, когда энтузиасты говорят, что ОН, ИИ, будет в миллион раз мощнее человеческого, вся наша суета с его регулированием бесполезна, – отметил, комментируя для «НГ» создание кодекса, доктор философских наук, профессор Нижегородского госуниверситета им. Н.И. Лобачевского Владимир Кутырев. – Но ведь с принципиальной точки зрения и жизнь любого сущего бесполезна. Поэтому Кодекс этики ИИ, наверное, благо, хотя бы что-то надо делать, пусть это будет полезное заблуждение».

С чего-то и в самом деле пора начинать.

Директор Института системного программирования им. Иванникова РАН, академик Арутюн Аветисян, один из разработчиков Кодекса этики ИИ, не случайно подчеркивает: «Очень важно, чтобы мы могли не просто доверять ИИ, а чтобы это была «проверяемая доверенность». Чтобы мы могли доверять именно потому, что можем технологически проверить. Например, что можно использовать беспилотный автомобиль, или он напрямую не может использоваться, и все-таки водитель должен сидеть и контролировать процесс. Пока мы технологически не можем обеспечить такую проверку, ни о каком доверии не может быть и речи».

Другими словами, научно-технологической дискурс ИИ постепенно замещается сугубо морально-этическим. А это, в свою очередь, значит, что де-факто монолог человека-разработчика по поводу принципов создания ИИ превращается в его диалог с созданной нейронной сетью как с субъектом. Естественный биошовинизм человека разумного, присущий ему онтологически, оказывается посрамленным.

Например, ЮНЕСКО применяет к системам ИИ уже такой термин – «алгоритмическая справедливость». «Искусственный интеллект вызывает серьезную обеспокоенность по поводу предвзятости, стереотипов и дискриминации, – отмечалось в официальном пресс-релизе ЮНЕСКО после согласования проекта новой модели этического развития и внедрения искусственного интеллекта в июле 2021 года. – Все чаще решения как в государственной, так и в частной сферах принимаются на основе анализа, проводимого ИИ. ЮНЕСКО призвала к развитию ИИ таким образом, чтобы обеспечить справедливые результаты».

Теперь ждем, когда ИИ сгенирирует свой кодекс этики по отношению к нам с вами, к Homo Sapiense. И кто будет контролировать его исполнение. Проблему очень четко формулирует доктор философских наук, профессор, руководитель Школы философии факультета гуманитарных наук НИУ «Высшая школа экономики» Владимир Порус: «Интерес к искусственному интеллекту (ИИ) стигматизирует лишь слабость интеллекта естественного (ИЕ). Последний передоверяет принятие решения ИИ, который вовсе не просит об этом и может принять решение, которое будет направлено против ИЕ».

А профессор Владимир Кутырев еще более радикален: «Надо быть дураком, чтобы не понимать, что искусственный интеллект нас победит!» 


Оставлять комментарии могут только авторизованные пользователи.

Вам необходимо Войти или Зарегистрироваться

комментарии(0)


Вы можете оставить комментарии.


Комментарии отключены - материал старше 3 дней

Читайте также


Зеленые теряют популярность, но это может быть временным отступлением

Зеленые теряют популярность, но это может быть временным отступлением

Данила Моисеев

Экологическая повестка стала прочно определять политические реалии стран Запада

0
1286
Константин Ремчуков. Продажи золотых слитков и монет выросли в Китае на 27%

Константин Ремчуков. Продажи золотых слитков и монет выросли в Китае на 27%

Константин Ремчуков

Мониторинг ситуации в Китайской Народной Республике по состоянию на 6 мая 2024 г.

0
2071
Российский искусственный интеллект должен стать умнее через несколько лет

Российский искусственный интеллект должен стать умнее через несколько лет

Анастасия Башкатова

Только чат-ботов для цифрового прорыва недостаточно

0
2354
В Киеве опровергли риски дефолта

В Киеве опровергли риски дефолта

Наталья Приходко

Украина снова хочет использовать активы РФ для покрытия собственных долгов

0
2607

Другие новости