0
366
Газета В мире Интернет-версия

22.10.2025 19:26:00

Теперь и принц Гарри осознал опасность искусственного интеллекта

Не дать технологии превзойти человека призывают ученые, общественные деятели и члены королевской семьи

Тэги: технологии на основе ии, угрозы для человека, потенциальные опасности, сверхинтеллект, запрет, принц гарри


технологии на основе ии, угрозы для человека, потенциальные опасности, сверхинтеллект, запрет, принц гарри Британский принц Гарри, прежде чем присоединиться к призыву не допустить появления сверхинтеллекта, внимательно изучал, как работает механизм на основе ИИ. Фото Reuters

Угрозы, которыми чревато развитие технологий на основе искусственного интеллекта (ИИ), начинают беспокоить все больше людей. Этим беспокойством проникнуто послание, поддержанное и членами британской королевской семьи – принцем Гарри и его женой Меган. Оно предупреждает о потенциальной опасности разработки систем ИИ, которые могут превзойти человеческие когнитивные способности (так называемого глубокого искусственного интеллекта, или сверхинтеллекта), и призывает к приостановке таких исследований.

Институт будущего жизни (Future of Life Institute, FLI) опубликовал 22 октября послание, адресованное IT-корпорациям, правительствам. Оно призывает запретить дальнейшие разработки так называемого искусственного сверхинтеллекта (ИСИ). Если обычные системы ИИ создаются с целью имитации деятельности человеческого мозга, то ИСИ уже используется для систем, которые должны превзойти уровень челоческого интеллекта. Такие пока не разработаны, однако перспектива их появления начинает беспокоить умы.

Заявление от FLI подписала уже тысяча человек. Самые известные среди них: герцог и герцогиня Сассекские – принц Гарри и его жена Меган. Они наряду с учеными-компьютерщиками, экономистами и политиками говорят о потенциальной опасности разработки ИСИ.

«Мы призываем к запрету на разработку сверхинтеллекта, который не должен быть снят до тех пор, пока не будет достигнут широкий научный консенсус относительно того, что это будет осуществляться безопасно и контролируемо, а также пока не будет получена сильная общественная поддержка», – говорится в тексте послания FLI.

Опасения подписантов не беспочвенны. Исключая фантастические сценарии «восстания машин», системы ИИ в будущем могут действительно серьезно изменить мир. В первую очередь они будут влиять на рынок труда, что в пространстве государства может оказаться катастрофой. Цена за возможность максимизировать прибыль и эффективность производств из-за повсеместного внедрения машин, работающих на основе ИИ, может оказаться слишком велика. Безработица и, как следствие, социальные проблемы в конечном итоге могут привести к маргинализации целых социальных слоев населения, опасаются в FLI.

Не может не беспокоить и нестабильность ИИ. Если предельно упростить принцип работы таких систем, то можно сказать, что он построен на математической вероятности. На основе огромных баз данных ИИ изучает закономерности и частоту использования тех или иных символов, когда, например, работает с текстом. Такая сложная система создает феномен «черного ящика», когда сами разработчики не знают, как конкретно генерируется ответ (в случае с нейросетями, «подвидом» ИИ) или как «принимается решение» о том или ином действии в случае с механизмами и машинами. В случае с ИСИ можно представить, насколько велик будет масштаб проблемы. На слуху случаи, когда нейросети «сходили с ума» и действовали вразрез с заданными правилами или выдавали бессмысленные ответы.

Исходя из этого, неудивительны попытки таких некоммерческих организаций, как FLI, замедлить процесс развития ИИ. В марте 2023 года этим научно-исследовательским институтом было опубликовано письмо под названием «Приостановка гигантских экспериментов с ИИ: открытое письмо». Оно призывало на шесть месяцев заморозить дальнейшую разработку ИИ. Именно тогда все крупные корпорации боролись за создание более совершенной, мощной и «умной» модели. Письмо подписали бывший руководитель Департамента эффективности правительства и предприниматель Илон Маск, генеральные директора лабораторий искусственного интеллекта Коннор Лихи (соучредитель EleutherAI) и Эмад Мостак (Stability AI, перестал быть соучредителем в 2024 году).

В условиях, когда сами разработчики предупреждают о потенциальных угрозах, исходящих от ИИ, неудивительно, что к ним подключаются политики и некоммерческие организации. Остается надеяться, что их опасениям и замечаниям в офисах основных корпораций, ответственных за создание систем ИИ, внемлют, а не продолжат гнаться за прибылью и званием «передовой компании» в этой области.


Читайте также


В Италии готовится запрет паранджи и никаба

В Италии готовится запрет паранджи и никаба

Александр Тараканов

Правящая партия объявила о начале борьбы с "чуждыми сообществами"

0
2242
Фетва о курьерах доставила неприятности

Фетва о курьерах доставила неприятности

Андрей Мельников

Решение мусульманских богословов назвали противоречащим Конституции

0
4064
Россия расширяет запрет на экспорт нефтепродуктов

Россия расширяет запрет на экспорт нефтепродуктов

Михаил Сергеев

Вместо собственного бензина на заправках в РФ появится импортное топливо

0
3568
В чем следовало бы согласиться с Набиуллиной

В чем следовало бы согласиться с Набиуллиной

Даут Налоев

О негативных последствиях самодеятельной блокировки банками клиентских счетов

0
1621

Другие новости