0
4162
Газета КАРТ-БЛАНШ Интернет-версия

27.05.2024 18:40:00

Естественные страсти по искусственному интеллекту

ИИ обладает своеобразной самочинностью, чего нет ни у каких других продуктов человеческой деятельности

Василий Резаев

Об авторе: Андрей Владимирович Резаев – доктор философских наук, профессор, редактор монографии «От искусственного интеллекта к искусственной социальности: новые исследовательские проблемы современной социальной аналитики» (М., 2021).

Тэги: социальная аналитика, проблемы, риски, искусственный интеллект, инструменты, повседневная жизнь, мнение


социальная аналитика, проблемы, риски, искусственный интеллект, инструменты, повседневная жизнь, мнение Фото Reuters

Мы принимаем тезис о том, что рассуждения о технологиях и внедрении в повседневную жизнь общества инструментов искусственного интеллекта (ИИ) – дело профессионалов. Разумеется, не все читатели «НГ» являются таковыми. Тем не менее считаем необходимым обратить внимание на несколько существенных моментов, характеризующих вхождение ИИ в повседневность.

Для этого сформулируем пять тезисов, две проблемы, которые необходимо решать не завтра, а уже сегодня, и три принципа регуляции ИИ.

Итак, тезисы.

1. Не следует рассматривать ИИ как «продукт», как «нечто», такое же как, например, самолет, или автомобиль, или телефон. У ИИ есть своеобразная самочинность, самостоятельность, чего нет ни у каких других продуктов человеческой деятельности. Инструменты ИИ могут самообучаться, взаимодействовать с другими машинами, принимать функциональные решения без участия человека, выступать самостоятельным агентом при производстве продуктов, связанных с написанием текстов и изображением.

2. История техники учит тому, что человек начинает регулировать технологические новшества для использования в повседневной жизни после каких-либо серьезных происшествий. Другими словами, для того чтобы те, кто будет регулировать ИИ, проснулись или стали серьезно делать свое дело, должен произойти какой-либо существенный кризис, может быть, трагедия.

3. В ситуации с ИИ сложно понять, в чем может проявиться настоящий кризис. Скорее всего регуляторы, законодатели начнут что-то делать и, очевидно, сразу и немедленно вводить запреты после того, как, например, полностью нарушится логика и практика избирательного процесса во властные структуры. По крайней мере именно это плюс получение прибылей (пример: иск газеты The New York Times к компании Open AI по поводу того, что последняя использует публикации в газете для обучения своих инструментов ИИ и не платит) пока заботит тех, кто может хоть как-то регулировать развитие ИИ в других странах.

4. С одной стороны, интернет практически стал единственным источником информации, ненадежным, но дешевым. А с другой – инструменты ИИ, удешевляя и делая интернет более доступным источником, одновременно дисквалифицирует, убивает его как источник истинной информации. В поисках истинной информации в интернете люди будут получать в лучшем случае редактируемую в чьих-то интересах информацию или в норме – информацию, которая будет в чем-то истинна, а в чем-то ложна. В худшем случае любая информация из интернета будет ложной, но выглядеть как истинная.

5. Сущность происходящих изменений (положительных и отрицательных), которые зависят от внедрения технологий ИИ, имеет абсолютно социальный характер. Отсюда призыв лидеров и ведущих разработчиков современных инструментов ИИ, прозвучавший год назад о необходимости сделать паузу, приостановиться и оглядеться (март 2023), не был услышан именно теми, кем этот призыв должен был быть услышан в первую очередь – социальными учеными, политиками, людьми, принимающими решения в отношении социальной и гуманитарной проблематики развития ИИ.

Теперь – проблемы, связанные с ИИ.

1. Главное в сегодняшней ситуации – определить кто, как и чему будет обучать тех, кто обязательно станет регулировать использование ИИ.

Сейчас эти люди обучаются с помощью того же интернета, социальных медиа, очень отрывистых контактов на различных выставках, форумах, саммитах – это в лучшем случае. В худшем – не обучаются нигде и будут действовать как прикажут.

2. Очевидно, что сегодня организациями, которые хоть что-то понимают в ИИ, являются именно те организации, которые создают технологии и инструменты искусственного интеллекта. Университеты намного отстают от этих организаций по ресурсам и возможностям. У университетов нет ни экономических ресурсов, ни технологических возможностей стать такой организацией. Зато есть интеллектуальные ресурсы, которые должны быть привлечены к работе. Таким образом, на нынешнем этапе регулирования принципиальным становится объединение интеллектуальных ресурсов университетов и производителей продуктов ИИ в новой организационной структуре, нацеленной на выработку формальных правил внедрения ИИ в повседневную жизнь общества.

Принципы регуляции.

Первый принцип: регуляция применения ИИ в повседневной жизни – постоянный процесс, а не одно (несколько) – моментные действия запретительного характера. Регулятивные механизмы внедрения инструментов ИИ, особенно на начальных этапах, когда еще в какой-то мере работает самоконтроль производителей продуктов ИИ, должны быть ориентированы не на «Запретить», а на «Создать», «Организовать».

Второй принцип (задача) состоит в том, чтобы создать социальные институты (то есть определить и зафиксировать формальные правила) и организации, где эти правила будут вырабатывать, и самое главное – эти организации должны определять и контролировать логику и логистику внедрения этих правил игры и их исполнение.

Безусловно, и вне всякого исключения, данные организации должны быть внешними по отношению к тем учреждениям, компаниям, где разрабатываются и производятся инструменты искусственного интеллекта.

Третий принцип (задача) состоит в том, что следует регулировать не развитие ИИ, а взаимоотношения между людьми, которые изобретают, внедряют и применяют ИИ в повседневной жизни. Основное внимание обращать на то, как применение инструментов ИИ в повседневной жизни общества влияет на формирование и развитие общественных отношений между людьми. Реализация данного принципа предполагает необходимость участия социальных ученых в разработке правил внедрения искусственного интеллекта в повседневность. Именно представители социального и гуманитарного знания должны определить систему координат, методологию и логику эмпирических исследований, в которых фиксировать отрицательные эффекты применения ИИ в повседневности, работать на опережение и определять возможные запретные зоны (табу-зоны) использования ИИ в обществе.

Но как бы там ни было, надо понимать, что принципиальные риски, как всегда в использовании новых технологий, будут исходить не от искусственного интеллекта, а от человеческой глупости и человеческих страстей. 


Читайте также


В России уже зарегистрированы 37 медицинских изделий на основе ИИ

В России уже зарегистрированы 37 медицинских изделий на основе ИИ

0
1577
Прифронтовые выборы пройдут в Курской области – и по всей стране

Прифронтовые выборы пройдут в Курской области – и по всей стране

Дарья Гармоненко

Иван Родин

Ради безопасности избирателей применяются досрочное голосование, ограниченное видеонаблюдение и административная деполитизация

0
2419
На информатику, не сдав физику, теперь не поступишь

На информатику, не сдав физику, теперь не поступишь

Наталья Савицкая

Университеты объединяются с крупными компаниями для подготовки специалистов в области искусственного интеллекта

0
4167
КПРФ до конца СВО не выйдет из красного электорального коридора

КПРФ до конца СВО не выйдет из красного электорального коридора

Дарья Гармоненко

Левую риторику о сходстве внутренних «власовцев» с внешними «бандеровцами» власть пока игнорирует

0
2952

Другие новости