Появление «сильного» искусственного интеллекта может привести к созданию мыслящих негуманоидных организмов с логикой мышления и поведением, непонятными для человека. Рисунок Андрея Ткаченко
В начале 1960-х годов польский социальный философ, футуролог и писатель-фантаст Станислав Лем в своей работе «Сумма технологий» отмечал: «Если бы человек действительно решился преобразовать самое себя под давлением созданных собственными руками технологий, если бы он признал своим преемником робота с совершенным кристаллическим мозгом, то это было бы его самым большим безумием. Это означало бы фактически самое настоящее коллективное самоубийство расы, прикрытое видимостью ее продолжения в мыслящих машинах, представляющих собой часть созданной технологии».
И далее: «Так в конечном счете человек позволил бы технологии, им же созданной, вытеснить его оттуда, где он обитал, из его экологической ниши. Эта технология стала бы тогда чем-то вроде нового синтетического вида, устраняющего с исторической арены вид, менее приспособленный».
Чужая рациональность негуманоидных организмов
В истории цивилизации при всем ее позитивном потенциале появилось немало технологических процессов, имеющих весьма негативные последствия для человека, особенно для его среды обитания. Некоторые из проблем, порожденных ими, приобрели сегодня глобальные масштабы. Однако то, о чем писал Лем, касается угрозы для существования человека как такового – как вида Homo sapiens.
Тревогу относительно будущего человека, сохранения гуманистического начала научно-технического прогресса неоднократно высказывали и многие другие мыслители, общественные деятели, писатели-фантасты. Сегодня этот вопрос – безусловно, дискуссионный – в условиях развития технологий искусственного интеллекта (ИИ) требует еще более активного, тщательного, многопланового, многоуровневого рассмотрения как учеными, так и общественными и политическими деятелями, бизнесом, военными профессионалами.
Со значительной степенью вероятности можно предположить, что к научно-технологическим решениям в области создания искусственного интеллекта, «мыслящих машин» разработчики могут подойти в горизонте ближайших 20–30 лет. Просматривается выход на технологии «сильного» искусственного интеллекта, соизмеримого по своим возможностям с человеческим мозгом, и достижения новых прорывных результатов в робототехнике, особенно сенсорике и мехатронике, в микроэлектронике, в автономных источниках энергии, в других областях науки и техники.
«Сильный» искусственный интеллект («универсальный (сильный) искусственный интеллект», как назван он в Национальной стратегии развития ИИ в РФ) – это ИИ, максимально возможно имитирующий поведение человека, способный решать широкий круг задач. Под «слабым» искусственным интеллектом подразумеваются технологии и системы ИИ, призванные решать различные сравнительно узкоспециализированные задачи.
Не следует исключать появление таких направлений развития «сильного» ИИ, которые будут вести к созданию мыслящих негуманоидных организмов с логикой мышления и поведением, непонятными для человека. Как отмечает один из крупнейших отечественных философов, академик РАН Владислав Александрович Лекторский, возглавляющий Научный совет по методологии искусственного интеллекта и когнитивных исследований при Президиуме РАН, «сегодня в лице систем ИИ человек имеет дело с такого рода рациональностью, которая нередко ему чужда, в ряде случаев она непонятна и грозит ему лишением фундаментальных человеческих качеств».
В связи с этим Лекторский справедливо отмечает, что может быть только один выход: «Разработка таких систем ИИ, которые не враждебны, а доброжелательны в отношении человека, которые будут не хозяевами человека, а его помощниками. Это означает включение в программы искусственных интеллектуальных систем моральных норм (так называемый этичный и «доверенный» ИИ)», а также «предполагает разработку моральными философами и моральными психологами таких норм, учитывая при этом, что нормы, принятые в разных культурах, могут в чем-то различаться, что существуют, например, разногласия в понимании социальной справедливости, политических свобод и других ценностей».
Здесь нельзя не вспомнить о четырех мощных законах робототехники, которые в свое время предложил и популяризировал в своих широко известных научно-фантастических произведениях Айзек Азимов и о которых нередко вспоминали и вспоминают серьезные ученые и разработчики технологий ИИ и робототехники разных стран. Эти законы носили прежде всего этический характер. Вот эти три закона роботехники, впервые сформулированные Айзеком Азимовым в фантастическом рассказе «Хоровод» (1942):
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности, поскольку это не противоречит Первому и Второму Законам».
Альтернатива, но не аналог мозга
Замечание Лекторского о различии моральных и этических норм представляется исключительно важным с точки зрения обоснованности надежд на выработку общих моральных норм в современном весьма конфликтном и идеологизированном мире. Но даже если это гипотетически возможно, очевидно, что далее потребуется решение не менее сложной задачи – перевод моральных норм на язык математики и программирования, с внедрением соответствующих технических норм, утвержденных, возможно, даже в законодательном порядке.
Возникает вопрос: не проскочит ли международное сообщество, человечество те «развилки», когда оно могло бы принять кодифицированные «нормы морали» для ИИ, трансформированные в четкие технические нормы, в соответствии с которыми осуществлялась бы верификация и валидизация соответствующих технологий, обеспечивался бы их доверенный характер.
Можно полностью согласиться с академиком Лекторским, считающим, что разработка и использование систем ИИ ставит человека перед необходимостью нового понимания самого себя, своих возможностей и границ этих возможностей, перед необходимостью самосохранения и саморазвития. Развитие систем искусственного интеллекта в острейшей форме ставит главный мировоззренческий вопрос: «Что есть человек?» С этим тесно связан вопрос о том, что собой представляет человеческий мозг.
Академик АН СССР и РФ Наталья Петровна Бехтерева (1924–2008) к концу своей длительной и очень плодотворной работы по исследованию мозга человека пришла к неутешительному выводу, что он непознаваем. Но здесь можно высказать предположение: непознаваемость человеческого мозга отнюдь не исключает создания альтернативы этому мозгу, не являющейся ему аналогом.
Развивать технологии ИИ, в том числе в автономных системах в военной сфере, необходимо с учетом морально-этических критериев. Изображение сгенерировано нейросетью Kandinsky 2.2 |
Вторая волна в развитии ИИ-исследований пришлась на 1970–1980-е годы. К началу 1990-х годов пик активности спал: в мире резко сократилось финансирование соответствующих НИР. В 1990-е годы вторая волна развития ИИ в основном сошла на нет. Но она принесла значимые результаты. В частности, появилось понятие супер-ЭВМ (суперкомпьютер). И это стало отражением появления вычислительных машин этого класса в СССР и США (соответственно «Эльбрус» и «Крэй»).
Третья волна в развитии ИИ – это уже феномен прежде всего последних 10–15 лет. Она радикально превосходит по своей мощи две предыдущие – по затрачиваемым средствам, по масштабам и интенсивности исследований, по вниманию к тематике ИИ высшего руководства многих государств. В целом ряде стран активно ведутся работы по использованию технологий искусственного интеллекта в военной сфере: можно уже определить более 20 таких направлений.
Огромно внимание к ИИ многочисленных энтузиастов бизнеса, увидевших в этой области едва ли не бескрайние возможности. Некоторые специалисты считают, что, с другой стороны, есть и обратная связь: одним из важнейших «драйверов» развития технологий ИИ оказались такие высокодоходные коммерческие продукты, как, например, компьютерные игры.
ИИ вписывается в киберпространство
Заместитель президента РАН, академик Талия Ярулловна Хабриева (она возглавляет Отделение общественных наук РАН) обоснованно пишет, что с экономической точки зрения человек, конкурирующий с ИИ, проигрывает. Эту конкуренцию «можно выдержать во многом при помощи правовой идеологии, этики и права, которые для защиты человека, вероятно, будут вступать в противоречие с экономическим базисом и технологическим укладом». Соответственно «одной из важнейших задач юридической доктрины видится поиск путей преодоления этого противоречия в пользу человека. Возможными направлениями этого поиска могут стать аксиология и антропология права».
Интерес многих разработчиков к искусственному интеллекту подогрело одно событие 2015 года: компьютерная программа AlphaGo одержала победу над трехкратным чемпионом Европы Фань Хуэйем по игре в го. Эта логическая настольная игра с глубоким стратегическим содержанием, возникшая в Древнем Китае, считается более сложной, чем шахматы. Сильный отзвук этот эпизод получил в Китае, особенно среди молодежи. Возможно, это повлияло на то, что Китай сделал внушительную заявку на мировое лидерство в области ИИ, что крайне алармистски воспринято в США с их претензиями и амбициями на сохранение ведущих позиций в высоких технологиях.
Развитие технологий искусственного интеллекта переплетается с бурно развивающимся киберпространством, включающим в себя телекоммуникационные сети, компьютерные системы, программно-алгоритмическое обеспечение, смартфоны и др.
Киберпространство стало ареной все нарастающей деятельности криминальных групп и целых криминальных сообществ. В нем ведутся разного рода операции, за которыми стоят и государственные акторы. Возникли понятия «кибервойны», боевых операций в киберпространстве, оборонительных, наступательных.
Важной чертой развития киберпространства являются распределенные системы (облачные технологии, технологии «блокчейн» и др.), появление спутниковых систем связи нового поколения, рост мощностей ЭВМ, включенных в сети, количественный рост смартфонов и их совершенствование. Системы искусственного интеллекта с соответствующими сопутствующими возможностями, рисками и проблемами все активнее вписываются в технологии киберпространства.
ИИ как возможный субъект
Очевидно, что в настоящее время более интенсивно, чем это предполагалось еще 10–15 лет назад во многих научно-технологических прогнозах, идет развитие технологии «слабого» искусственного интеллекта. По некоторым, заслуживающим внимания оценкам процесс разработки и применения технологий «слабого» ИИ принимает лавинообразный характер. Он сопрягается, в частности, с радикальным ростом мощностей супер-ЭВМ, использующих микропроцессорные решения на графической архитектуре (с соответствующим программным обеспечением). Обеспечена широкая доступность супер-ЭВМ для исследований и разработок в области ИИ. «Слабый» ИИ связан с многообразными коммерческими приложениями, а также с использованием его в военной области и применительно к ряду сфер государственной безопасности.
Функциональная нацеленность технологий ИИ сегодня разнообразна. Это задачи автоматического и автоматизированного приема, передачи, накопления, обработки информации и управления. В числе этих задач, как отмечает академик РАН Сергей Николаевич Васильев, распознавание видеообразов и речи, анализ трехмерных сцен, автоматизация рассуждений, межъязыковый перевод естественно-языковых и других текстов и речи, машинное обучение, выявление закономерностей, визуализация и анализ больших данных, семантические модели и вычисления, управление в сетях и сетями, облачные вычисления, интернет вещей…
Появление (может, относительно внезапное) систем «сильного» ИИ в качестве «мыслящих альтернатив человеку», о чем писал Станислав Лем, можно со значительной степенью вероятности ожидать сразу в нескольких странах в условиях острейшего соперничества в науке и высоких технологиях, обусловленного как геополитическими, так и коммерческо-экономическими факторами. Как предполагают некоторые ученые и специалисты, это может быть связано с созданием дееспособных квантовых компьютеров.
Со стороны многих ученых, политиков звучат все более настойчивые требования государственного регулирования (в том числе на международном уровне) развития и использования технологий ИИ с учетом морально-этических критериев и соображений. Особенно это относится к применению систем искусственного интеллекта в автономных системах в военной сфере.
Серьезную озабоченность по вопросам нарастания рисков неконтролируемого использования технологий ИИ высказывают даже представители «большого бизнеса» (в том числе такой авторитетный визионер, как Илон Маск).
На это обращало свое внимание и высшее руководство РФ в лице президента Владимира Путина, который, как отметил академик Васильев, акцентировал внимание на необходимости создания «свода этических правил» взаимодействия между людьми и продуктами.
24 ноября 2023 года на Международной конференции по искусственному интеллекту и машинному обучению Artificial Intelligence Journey 2023 («Путешествие в мир искусственного интеллекта») на тему «Революция генеративного ИИ: новые возможности» Путин отметил, что «нужно следить за тем, чтобы обеспечить безопасность, разумность создания и применения таких технологий». Президент подчеркнул: «…опорой здесь должна служить в том числе и прежде всего традиционная культура. Она самый естественный этический регулятор технологического прогресса, как и идеалы добра, уважения к человеку, о которых писали Толстой, Достоевский, Чехов, такие выдающиеся писатели-фантасты, как Беляев и Ефремов».
Нельзя не обратить внимания на усилия Китая по формулированию международной повестки дня в области регулирования технологий ИИ (с заявкой КНР на мировое лидерство в сфере ИИ, о котором говорилось выше).
Пока перспективы международного регулирования развития технологий ИИ, особенно в свете той «гибридной войны», которую ведут против России США и их союзники, выглядят весьма проблематично.
Многие зарубежные и отечественные ученые и даже политики регулярно заявляют о важности нацеленных на решение проблем ИИ исследований в области гуманитарных и общественных наук, совмещения их с тем, что имеет место в развитии технологий ИИ, в соответствующих областях естественных и технических наук, математики. Здесь требуются очень значительные усилия – как интеллектуальные, так и организационно-управленческие. Причем в сравнительно сжатые исторические сроки с учетом всей отработки стоящих здесь проблем.