0
12264
Газета Факты и комментарии Интернет-версия

04.02.2025 16:32:00

Искусственный интеллект ответил на претензии патриарха Кирилла и папы Франциска

Машинный разум добру и злу внимает равнодушно

Тэги: искусственный интеллект, deepseek, нейросеть, патриарх кирилл, рождественские чтения, парламентские встречи, государственная дума, технологии, антихрист, конец света


искусственный интеллект, deepseek, нейросеть, патриарх кирилл, рождественские чтения, парламентские встречи, государственная дума, технологии, антихрист, конец света Патриарх Кирилл предложил законодателям принять ограничительные меры в отношении новейших и потенциально опасных технологий. Фото с сайта www.patriarchia.ru

Не совсем случайным представляется относительное совпадение по времени следующих событий. Во-первых, «революция» в технологиях искусственного интеллекта, которую произвела общедоступная программа DeepSeek. Во-вторых, выступление патриарха Кирилла на Рождественских парламентских слушаниях, где больше всего времени было уделено теме технологического прогресса. В-третьих, публикация Департаментом вероучения, культуры и образования Ватикана заявления о соотношении между искусственным и человеческим интеллектом под названием «Antiqua et nova».

«Сегодня ни для кого уже не секрет, что искусственный интеллект становится тем, что все больше и больше будет определять наше культурное пространство, – сказал глава РПЦ, выступая в Государственной думе 30 января. Ватиканское заявление было опубликовано 14 января. DeepSeek произвел фурор в мире 20 января своей новой, улучшенной версией R1.

«НГР» решили обратиться к новой программе, чтобы узнать мнение машинного разума о том, что про него говорят христианские лидеры. Мы использовали чаты как новейшей версии R1, так и предыдущий вариант V3. Выяснилось, что ранняя версия всячески избегает конкретики, дает общие характеристики, а более новая модификация бота проявляет тенденцию к структурированию ответов, да еще и пытается корректировать формулировки вопросов. Как тут не согласиться с патриархом Кириллом? «Если верить прогнозам некоторых экспертов, в скором времени может появиться поколение более продвинутых машинных моделей, получивших название «Всеобщий искусственный интеллект», которые будут способны думать и учиться – учиться, то есть совершенствоваться, – как человек. И если такой искусственный интеллект поставить рядом с обычным человеческим, кто будет выигрывать? Конечно, искусственный интеллект!» – предостерег глава РПЦ.

На вопрос «НГР» «Что патриарх Московский и всея Руси Кирилл и папа Римский Франциск говорят об опасностях искусственного интеллекта?» DeepSeek-V3 ответил: «Патриарх Кирилл в своих выступлениях неоднократно обращал внимание на этические и духовные аспекты развития технологий, включая ИИ. Он предупреждает, что бездумное использование технологий может привести к утрате человечности, потере моральных ориентиров и угрозе свободе личности. Патриарх подчеркивает, что технологии должны служить человеку, а не подчинять его себе, и призывает к ответственному подходу в их разработке и применении. Папа Римский Франциск также выражал озабоченность по поводу ИИ. Он отмечал, что технологии могут быть использованы как во благо, так и во вред, и призывал к этическому регулированию их развития. Папа подчеркивал, что ИИ не должен заменять человеческое достоинство и моральные ценности, а также предупреждал о рисках, связанных с потерей рабочих мест и усилением социального неравенства. В своих выступлениях он призывал к глобальному диалогу о том, как использовать технологии для общего блага».

DeepSeek-R1 идет чуть дальше. Он анализирует общее и различия в выступлениях двух духовных лидеров. Объединяет позиции, по мнению чат-бота, акцент на этическом регулировании технологий и предостережение против утраты человечности в цифровую эпоху. Различия же «связаны с контекстом: папа акцентирует социальные аспекты (бедность, неравенство), а патриарх – духовно-нравственные риски (потеря веры, смыслов)». Интересно, что при запросе на источники высказываний версия, представленная в конце 2024 года, выдает пруфы, датированные не ранее 2023 года, а свежий вариант робота – более актуальные ссылки, причем приводит цитаты дословно.

На вопрос «Угрожает ли искусственный интеллект христианской религии и вере людей в Бога?» DeepSeek-V3 ответил пространно и охотно, а DeepSeek-R1 раз за разом выдавал ошибку. Вот что написал бот-«старичок»: «Искусственный интеллект сам по себе не представляет прямой угрозы христианской религии или вере людей в Бога. Вера – это глубоко личное и духовное явление, которое основывается на внутренних убеждениях, опыте и отношениях человека с Богом. ИИ как технология не обладает сознанием, духовностью или способностью влиять на веру человека, если только сам человек не позволит этому случиться».

«Однако есть несколько аспектов, которые могут вызывать вопросы или дискуссии в религиозных кругах, – продолжил робот. – Этические вопросы: развитие ИИ поднимает вопросы о морали, ответственности и роли человека в мире. Христианские мыслители могут обсуждать, как ИИ влияет на понимание человеческой природы, созданной по образу и подобию Божьему. Искушение замены духовности технологиями: некоторые могут опасаться, что люди начнут полагаться на технологии, вместо того чтобы искать ответы в молитве, вере и отношениях с Богом. 

Например, использование ИИ для предсказаний или принятия решений может восприниматься как попытка заменить Божественное провидение. Философские и теологические вызовы: ИИ может поднимать вопросы о том, что значит быть человеком, что такое сознание и душа. Эти вопросы могут стимулировать богословские дискуссии, но они не обязательно угрожают вере, если рассматриваются в контексте христианского мировоззрения. Манипуляции и дезинформация: если ИИ будет использоваться для распространения ложной информации или манипуляции общественным мнением, это может повлиять на восприятие религии. Однако это скорее вопрос этического использования технологий, а не самой веры». «Главное – помнить, что вера находится в сердце человека, а не в технологиях», – написала нейросеть.

Вспомним, что сказал патриарх Кирилл в Госдуме. «Практически все крупные западные программы искусственного интеллекта, к сожалению, направлены на пропаганду так называемой политкорректности, становясь инструментом политической манипуляции. Это означает, что такие программы отнюдь не нейтральны аксиологически: они воспроизводят и внедряют конкретную ценностную парадигму. Отечественный искусственный интеллект должен быть суверенным, как суверенны наше государство и наша культура», – считает глава РПЦ. Хотя DeepSeek разработан в Китае, его мнение по вопросам, интересующим «НГР», почти во всем совпадает со сказанным патриархом Кириллом. Так что в этом смысле можно быть спокойными.

И еще одно тревожное предупреждение патриарха Кирилла: «Всякий раз, говоря об искусственном интеллекте, мы должны мысленно «зажигать красный свет» в своем сознании: не все так просто! Вы знаете, что сказано в Священном Писании: в конце человеческой истории придет антихрист, то есть личность, которая будет противостоять Христу, противостоять всему тому, что принес Бог в жизнь человечества. Всеобщая глобальная власть антихриста будет преследовать достижение самых опасных целей, которые приведут к концу человеческой цивилизации. И мы должны помнить, что ведь антихрист не с неба явится и не из преисподней выйдет. Он не сможет явиться в окружении, которое будет его отторгать, – он может прийти и обрести силу только в обществе, которое будет его поддерживать. И еще неизвестно, какой может быть роль искусственного интеллекта в приближении этой апокалиптической картины».

В связи с этим «НГР» задали модной нейросети такой вопрос: «Распознает ли искусственный интеллект добро и зло?» От продвинутого DeepSeek-R1 мы тут же получили «выволочку». «Ключевой вопрос не «может ли ИИ различать добро и зло», а «какие ценности встроены в его систему и кто за них отвечает», – сурово отозвался чат-бот. – Моральные суждения остаются прерогативой человека – ИИ лишь инструмент для реализации этих принципов».

Предшественник этой цифровой новинки оказался вежливее и велеречиво, но несколько уклончиво изложил свое видение: «Искусственный интеллект сам по себе не обладает способностью распознавать добро и зло в моральном или этическом смысле. Он функционирует на основе алгоритмов и данных, которые ему предоставлены. ИИ может анализировать информацию, выявлять закономерности и принимать решения, но его понимание «добра» и «зла» ограничено тем, как эти понятия были запрограммированы или обучены в его модели». Чат привел примеры: «Если ИИ обучен на данных, где определенные действия или слова классифицируются как «добрые» или «злые», он может использовать эти данные для анализа и классификации новых ситуаций. Однако ИИ не обладает сознанием, эмоциями или внутренним пониманием морали, как человек». «Вопросы этики и морали в ИИ активно обсуждаются, и разработчики стараются внедрять принципы, которые помогут ИИ принимать решения, соответствующие общечеловеческим ценностям. Но окончательная ответственность за эти решения лежит на людях, которые создают и используют ИИ», – резюмировал ИИ.

В сухом остатке общения с роботом у «НГР» осталось твердое убеждение, что судить об этих результатах читатель должен сам. Если машинный разум и способен хотя бы отчасти заменить производительные силы человеческого разума в разных сферах, включая рассуждения о Боге, добре и зле, то делать окончательные выводы за наших читателей мы бездушной машине не позволим.


Читайте также


"Магнаты" информационного общества ломают мировую политическую иерархию

"Магнаты" информационного общества ломают мировую политическую иерархию

Михаил Емельянов

Тектонические изменения происходят во власти не только в США

0
2990
Иго евразийского прошлого и этнокультурные «войны»

Иго евразийского прошлого и этнокультурные «войны»

Андрей Мельников

Неуловима историческая правда в дискуссиях о Руси и Золотой Орде

0
4512
Нейросети способны вызывать финансовый кризис за несколько минут

Нейросети способны вызывать финансовый кризис за несколько минут

Анастасия Башкатова

Центральным банкам предстоит подготовиться к массовым галлюцинациям ИИ-агентов

0
2572
Искусственный интеллект под контролем алюминщиков

Искусственный интеллект под контролем алюминщиков

Ярослав Вилков

РУСАЛ активно внедряет собственные нейросетевые модели в производство

0
4365

Другие новости