Патриарх Кирилл предложил законодателям принять ограничительные меры в отношении новейших и потенциально опасных технологий. Фото с сайта www.patriarchia.ru
Не совсем случайным представляется относительное совпадение по времени следующих событий. Во-первых, «революция» в технологиях искусственного интеллекта, которую произвела общедоступная программа DeepSeek. Во-вторых, выступление патриарха Кирилла на Рождественских парламентских слушаниях, где больше всего времени было уделено теме технологического прогресса. В-третьих, публикация Департаментом вероучения, культуры и образования Ватикана заявления о соотношении между искусственным и человеческим интеллектом под названием «Antiqua et nova».
«Сегодня ни для кого уже не секрет, что искусственный интеллект становится тем, что все больше и больше будет определять наше культурное пространство, – сказал глава РПЦ, выступая в Государственной думе 30 января. Ватиканское заявление было опубликовано 14 января. DeepSeek произвел фурор в мире 20 января своей новой, улучшенной версией R1.
«НГР» решили обратиться к новой программе, чтобы узнать мнение машинного разума о том, что про него говорят христианские лидеры. Мы использовали чаты как новейшей версии R1, так и предыдущий вариант V3. Выяснилось, что ранняя версия всячески избегает конкретики, дает общие характеристики, а более новая модификация бота проявляет тенденцию к структурированию ответов, да еще и пытается корректировать формулировки вопросов. Как тут не согласиться с патриархом Кириллом? «Если верить прогнозам некоторых экспертов, в скором времени может появиться поколение более продвинутых машинных моделей, получивших название «Всеобщий искусственный интеллект», которые будут способны думать и учиться – учиться, то есть совершенствоваться, – как человек. И если такой искусственный интеллект поставить рядом с обычным человеческим, кто будет выигрывать? Конечно, искусственный интеллект!» – предостерег глава РПЦ.
На вопрос «НГР» «Что патриарх Московский и всея Руси Кирилл и папа Римский Франциск говорят об опасностях искусственного интеллекта?» DeepSeek-V3 ответил: «Патриарх Кирилл в своих выступлениях неоднократно обращал внимание на этические и духовные аспекты развития технологий, включая ИИ. Он предупреждает, что бездумное использование технологий может привести к утрате человечности, потере моральных ориентиров и угрозе свободе личности. Патриарх подчеркивает, что технологии должны служить человеку, а не подчинять его себе, и призывает к ответственному подходу в их разработке и применении. Папа Римский Франциск также выражал озабоченность по поводу ИИ. Он отмечал, что технологии могут быть использованы как во благо, так и во вред, и призывал к этическому регулированию их развития. Папа подчеркивал, что ИИ не должен заменять человеческое достоинство и моральные ценности, а также предупреждал о рисках, связанных с потерей рабочих мест и усилением социального неравенства. В своих выступлениях он призывал к глобальному диалогу о том, как использовать технологии для общего блага».
DeepSeek-R1 идет чуть дальше. Он анализирует общее и различия в выступлениях двух духовных лидеров. Объединяет позиции, по мнению чат-бота, акцент на этическом регулировании технологий и предостережение против утраты человечности в цифровую эпоху. Различия же «связаны с контекстом: папа акцентирует социальные аспекты (бедность, неравенство), а патриарх – духовно-нравственные риски (потеря веры, смыслов)». Интересно, что при запросе на источники высказываний версия, представленная в конце 2024 года, выдает пруфы, датированные не ранее 2023 года, а свежий вариант робота – более актуальные ссылки, причем приводит цитаты дословно.
На вопрос «Угрожает ли искусственный интеллект христианской религии и вере людей в Бога?» DeepSeek-V3 ответил пространно и охотно, а DeepSeek-R1 раз за разом выдавал ошибку. Вот что написал бот-«старичок»: «Искусственный интеллект сам по себе не представляет прямой угрозы христианской религии или вере людей в Бога. Вера – это глубоко личное и духовное явление, которое основывается на внутренних убеждениях, опыте и отношениях человека с Богом. ИИ как технология не обладает сознанием, духовностью или способностью влиять на веру человека, если только сам человек не позволит этому случиться».
«Однако есть несколько аспектов, которые могут вызывать вопросы или дискуссии в религиозных кругах, – продолжил робот. – Этические вопросы: развитие ИИ поднимает вопросы о морали, ответственности и роли человека в мире. Христианские мыслители могут обсуждать, как ИИ влияет на понимание человеческой природы, созданной по образу и подобию Божьему. Искушение замены духовности технологиями: некоторые могут опасаться, что люди начнут полагаться на технологии, вместо того чтобы искать ответы в молитве, вере и отношениях с Богом.
Например, использование ИИ для предсказаний или принятия решений может восприниматься как попытка заменить Божественное провидение. Философские и теологические вызовы: ИИ может поднимать вопросы о том, что значит быть человеком, что такое сознание и душа. Эти вопросы могут стимулировать богословские дискуссии, но они не обязательно угрожают вере, если рассматриваются в контексте христианского мировоззрения. Манипуляции и дезинформация: если ИИ будет использоваться для распространения ложной информации или манипуляции общественным мнением, это может повлиять на восприятие религии. Однако это скорее вопрос этического использования технологий, а не самой веры». «Главное – помнить, что вера находится в сердце человека, а не в технологиях», – написала нейросеть.
Вспомним, что сказал патриарх Кирилл в Госдуме. «Практически все крупные западные программы искусственного интеллекта, к сожалению, направлены на пропаганду так называемой политкорректности, становясь инструментом политической манипуляции. Это означает, что такие программы отнюдь не нейтральны аксиологически: они воспроизводят и внедряют конкретную ценностную парадигму. Отечественный искусственный интеллект должен быть суверенным, как суверенны наше государство и наша культура», – считает глава РПЦ. Хотя DeepSeek разработан в Китае, его мнение по вопросам, интересующим «НГР», почти во всем совпадает со сказанным патриархом Кириллом. Так что в этом смысле можно быть спокойными.
И еще одно тревожное предупреждение патриарха Кирилла: «Всякий раз, говоря об искусственном интеллекте, мы должны мысленно «зажигать красный свет» в своем сознании: не все так просто! Вы знаете, что сказано в Священном Писании: в конце человеческой истории придет антихрист, то есть личность, которая будет противостоять Христу, противостоять всему тому, что принес Бог в жизнь человечества. Всеобщая глобальная власть антихриста будет преследовать достижение самых опасных целей, которые приведут к концу человеческой цивилизации. И мы должны помнить, что ведь антихрист не с неба явится и не из преисподней выйдет. Он не сможет явиться в окружении, которое будет его отторгать, – он может прийти и обрести силу только в обществе, которое будет его поддерживать. И еще неизвестно, какой может быть роль искусственного интеллекта в приближении этой апокалиптической картины».
В связи с этим «НГР» задали модной нейросети такой вопрос: «Распознает ли искусственный интеллект добро и зло?» От продвинутого DeepSeek-R1 мы тут же получили «выволочку». «Ключевой вопрос не «может ли ИИ различать добро и зло», а «какие ценности встроены в его систему и кто за них отвечает», – сурово отозвался чат-бот. – Моральные суждения остаются прерогативой человека – ИИ лишь инструмент для реализации этих принципов».
Предшественник этой цифровой новинки оказался вежливее и велеречиво, но несколько уклончиво изложил свое видение: «Искусственный интеллект сам по себе не обладает способностью распознавать добро и зло в моральном или этическом смысле. Он функционирует на основе алгоритмов и данных, которые ему предоставлены. ИИ может анализировать информацию, выявлять закономерности и принимать решения, но его понимание «добра» и «зла» ограничено тем, как эти понятия были запрограммированы или обучены в его модели». Чат привел примеры: «Если ИИ обучен на данных, где определенные действия или слова классифицируются как «добрые» или «злые», он может использовать эти данные для анализа и классификации новых ситуаций. Однако ИИ не обладает сознанием, эмоциями или внутренним пониманием морали, как человек». «Вопросы этики и морали в ИИ активно обсуждаются, и разработчики стараются внедрять принципы, которые помогут ИИ принимать решения, соответствующие общечеловеческим ценностям. Но окончательная ответственность за эти решения лежит на людях, которые создают и используют ИИ», – резюмировал ИИ.
В сухом остатке общения с роботом у «НГР» осталось твердое убеждение, что судить об этих результатах читатель должен сам. Если машинный разум и способен хотя бы отчасти заменить производительные силы человеческого разума в разных сферах, включая рассуждения о Боге, добре и зле, то делать окончательные выводы за наших читателей мы бездушной машине не позволим.