К 2024 году рост мировой экономики, обеспеченный решениями в области ИИ, достигнет триллиона долларов. Фото Reuters
Темой ноября, предпоследнего месяца Года науки и технологий в России, был выбран искусственный интеллект (ИИ; английская аббревиатура – AI, artificial intelligence). Именно к этому месяцу были «подверстаны» несколько крупных инициатив и мероприятий, связанных с развитием исследований и технологий в области ИИ.
Капитализация ИИ
Английский экономист Дэниел Сасскинд свою работу A World Without Work («Будущее без работы», 2020) начинает с такой констатации: «…культурные сдвиги уже произошли: пандемия сделала нас приветливее по отношению к технологиям, и это новое отношение, вероятно, сохранится».
Утверждение английского экономиста заведомо обречено на жесточайшую полемику. По крайней мере в обыденной жизни мы с вами можем найти большое количество примеров технологического вандализма, тихого (или не очень) сопротивления появлению новых гаджетов, прежде всего цифровых… Протесты против «чипизации», против QR-кодов, против «таблетки Илона Маска», массовое движение антиваксеров – то, что на виду и на слуху.
И все-таки все перечисленное – и многое неперечисленное – это только локальные флуктуации в монотонном процессе обрастания/врастания человеческой цивилизации в технологическую оболочку. Любопытно в связи с этим отметить, что книга Дэниела Сасскинда стала первой, полный перевод которой сделан интернет-переводчиком, то есть нейросетью, искусственным интеллектом. Программному алгоритму потребовалось 40 секунд, чтобы полностью перевести 352-страничный текст. Цепная реакция запущена. В минувшем октябре редакция сайта американской газеты Miami Herald наняла на работу нейросеть вместо уволившегося ранее журналиста. Первая заметка, подготовленная (лучше сказать – сгенерированная) Miami Herald Bot, вышла 15 октября. За первый день работы бот выдал «в печать» четыре заметки.
Очевидно, что нейросети занимают в нашей жизни все более прочное, более того – доминирующее положение. С этим уже нельзя не считаться.
14 октября 2019 года президент РФ Владимир Путин подписал указ об утверждении Национальной стратегии развития искусственного интеллекта на период до 2030 года. Необходимость в таком доктринальном документе в самой стратегии обосновывается вполне лапидарно: «По оценкам международных экспертов, инвестиции в технологии искусственного интеллекта выросли с 2014 по 2017 год в три раза и составили около 40 млрд долл. В 2018 году мировой рынок технологических решений, разработанных на основе искусственного интеллекта, составил 21,5 млрд долл. и, по прогнозам экспертов, к 2024 году достигнет почти 140 млрд долл. ... Ожидается, что благодаря внедрению таких решений рост мировой экономики в 2024 году составит не менее 1 трлн долл.».
За два года оценки капитализации ИИ сдвинулись существенно. По данным ноябрьского выпуска «Ежемесячного дайджеста Годнауки.РФ», оценка роста мировой экономики в 2024 году, обеспеченного решениями в области ИИ, достигает триллиона долларов. А оценка рынка ИИ в мире в 2024 году – 140 млрд долл.
Помощник президента РФ Максим Орешкин, выступая в ноябре на конференции AI Journey 2021, обрисовал такую перспективу: «По разным оценкам (есть, например, оценка Всемирного экономического форума), в областях, связанных с искусственным интеллектом, до 2025 года в мире будет создано 95 млн рабочих мест. По нашим оценкам, на Россию придется около 3 млн рабочих мест».
Киберэтика
Но история с ИИ заслуживает внимания на уровне специальной национальной стратегии не только своими экономическими параметрами. Более того, вполне может оказаться, что экономические показатели – это цветочки.
Куда менее предсказуемы для общества эволюционные, социально-психологические и этические последствия развития систем на основе ИИ. В той же Национальной стратегии тревога за будущее сосуществование под сенью ИИ заявлена открыто:
«Основными принципами развития и использования технологий искусственного интеллекта, соблюдение которых обязательно при реализации настоящей стратегии, являются:
а) защита прав и свобод человека: обеспечение защиты гарантированных российским и международным законодательством прав и свобод человека, в том числе права на труд, и предоставление гражданам возможности получать знания и приобретать навыки для успешной адаптации к условиям цифровой экономики;
б) безопасность: недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта…»
То есть вопросы киберэтики как минимум становятся не менее значимыми, чем вопросы биоэтики. Мало того, можно предположить, что био- и киберэтика уже в среднесрочной перспективе сольются в некую единую область знания. Не случайно в декабре 2019 года, на полях форума «Глобальное технологическое лидерство», тогдашний вице-премьер правительства РФ Максим Акимов заявил: «Искусственный интеллект – квазисубъект. Именно поэтому важно четко определить, что он может, а что нет, провести границу между экспертной поддержкой человеческих решений и принятием решения за человека».
Взаимодействие человека с нейронной сетью превращается в полноценный диалог двух субъектов. Фото Pexels |
Опасения Дмитрия Чернышенко насчет неоднозначного восприятия технологий ИИ в современном российском обществе совершенно обоснованы. Согласно только что опубликованному исследованию Международной лаборатории прикладного сетевого анализа НИУ «Высшая школа экономики» и компании Aventica, более 70% опрошенных видят реальную угрозу утечек персональных данных именно в использовании электронных девайсов, в частности – микрочипов-имплантов RFID (Radio Frequency IDentification, радиочастотная идентификация).
Младший научный сотрудник лаборатории Станислав Моисеев, представляя результаты этого исследования на научном семинаре, отметил: «Особенно активно вопрос чипирования людей начал обсуждаться в разгар пандемии, точнее – массовой вакцинации от COVID-19… Согласились бы имплантировать себе микрочип для медицинских целей только 37% респондентов, для целей идентификации – 22%, для оплаты покупок – 13%. 22% ответили, что согласились бы только в том случае, если бы были уверены, что с помощью чипа их не смогут отслеживать по GPS».
В то же время Дмитрий Чернышенко не случайно приводит и более оптимистические результаты социологических опросов: около 48% россиян доверяют ИИ (опрос ВЦИОМа, июнь 2021 года). Для сравнения: в США, Германии, Австралии, Канаде и Великобритании 72% опрошенных не доверяют технологиям ИИ (опрос КПГМ, март 2021 года).
Кодекс ботов
Принятый Кодекс в сфере ИИ как раз и призван, насколько это возможно, развеять общественные страхи. Ректор университета «Иннополис» Александр Тормасов в комментарии для Telegram-канала НОП подчеркивает: «Разработанный кодекс содержит этические принципы и стандарты поведения всех, кто работает в сфере ИИ. Документ распространяется на все отношения, связанные с этическими аспектами создания, внедрения и использования технологий ИИ на всех этапах жизненного цикла, которые не урегулированы законодательством Российской Федерации или актами технического регулирования. Все рекомендации рассчитаны на системы искусственного интеллекта, которые применяются исключительно в гражданских целях».
Принципы этики и правила поведения, заложенные в Кодекс в сфере искусственного интеллекта, в общем-то, очевидны:
– главный приоритет развития технологий ИИ в защите интересов и прав людей и отдельного человека;
– необходимо осознавать ответственность при создании и использовании ИИ;
– ответственность за последствия применения ИИ всегда несет человек;
– технологии ИИ нужно применять по назначению и внедрять там, где это принесет пользу людям;
– интересы развития технологий ИИ выше интересов конкуренции;
– важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.
Как все кодексы вообще, Кодекс в сфере ИИ относится к какой-то идеальной модели. «По большому счету, когда энтузиасты говорят, что ОН, ИИ, будет в миллион раз мощнее человеческого, вся наша суета с его регулированием бесполезна, – отметил, комментируя для «НГ» создание кодекса, доктор философских наук, профессор Нижегородского госуниверситета им. Н.И. Лобачевского Владимир Кутырев. – Но ведь с принципиальной точки зрения и жизнь любого сущего бесполезна. Поэтому Кодекс этики ИИ, наверное, благо, хотя бы что-то надо делать, пусть это будет полезное заблуждение».
С чего-то и в самом деле пора начинать.
Директор Института системного программирования им. Иванникова РАН, академик Арутюн Аветисян, один из разработчиков Кодекса этики ИИ, не случайно подчеркивает: «Очень важно, чтобы мы могли не просто доверять ИИ, а чтобы это была «проверяемая доверенность». Чтобы мы могли доверять именно потому, что можем технологически проверить. Например, что можно использовать беспилотный автомобиль, или он напрямую не может использоваться, и все-таки водитель должен сидеть и контролировать процесс. Пока мы технологически не можем обеспечить такую проверку, ни о каком доверии не может быть и речи».
Другими словами, научно-технологической дискурс ИИ постепенно замещается сугубо морально-этическим. А это, в свою очередь, значит, что де-факто монолог человека-разработчика по поводу принципов создания ИИ превращается в его диалог с созданной нейронной сетью как с субъектом. Естественный биошовинизм человека разумного, присущий ему онтологически, оказывается посрамленным.
Например, ЮНЕСКО применяет к системам ИИ уже такой термин – «алгоритмическая справедливость». «Искусственный интеллект вызывает серьезную обеспокоенность по поводу предвзятости, стереотипов и дискриминации, – отмечалось в официальном пресс-релизе ЮНЕСКО после согласования проекта новой модели этического развития и внедрения искусственного интеллекта в июле 2021 года. – Все чаще решения как в государственной, так и в частной сферах принимаются на основе анализа, проводимого ИИ. ЮНЕСКО призвала к развитию ИИ таким образом, чтобы обеспечить справедливые результаты».
Теперь ждем, когда ИИ сгенирирует свой кодекс этики по отношению к нам с вами, к Homo Sapiense. И кто будет контролировать его исполнение. Проблему очень четко формулирует доктор философских наук, профессор, руководитель Школы философии факультета гуманитарных наук НИУ «Высшая школа экономики» Владимир Порус: «Интерес к искусственному интеллекту (ИИ) стигматизирует лишь слабость интеллекта естественного (ИЕ). Последний передоверяет принятие решения ИИ, который вовсе не просит об этом и может принять решение, которое будет направлено против ИЕ».
А профессор Владимир Кутырев еще более радикален: «Надо быть дураком, чтобы не понимать, что искусственный интеллект нас победит!»
комментарии(0)