Профессор Жданов оценил использование искусственного интеллекта кибермошенниками

«Сейчас самая азартная охота идет за так называемыми метаданными»

По мнению многих западных аналитиков, искусственный интеллект (ИИ) в наступающем 2025 году буквально преобразуют технологический ландшафт. Причем, далеко не всегда это пойдет на пользу законопослушным гражданам. Какие угрозы видят на Западе в искусственном интеллекте, рассказал Юрий Жданов, профессор, доктор юридических наук, заведующий кафедрой Международного права РГСУ, заслуженный юрист России.

«Сейчас самая азартная охота идет за так называемыми метаданными»

– Юрий Николаевич, это на Западе менталитет такой – сразу в чем-то новом видеть для себя угрозу? Странно, ведь последние полтысячи лет технический прогресс шел именно с их стороны.

– Менталитет тут ни при чем – жизнь такая. Реальность такова, что многими новейшими технологиями сразу же овладевают преступники. Не минула сия чаша и разработки в области искусственного интеллекта.

Редко проходит неделя без сообщений об утечке данных, атаке со стороны мошенников. Недавно компания Microsoft сообщила о 2,75-кратном увеличении попыток программ-вымогателей в этом году, в то время, как исследования прогнозируют, что глобальные кибератаки по итогам 2024 года, вырастут на 105% по сравнению с 2020 годом.

Когда-то такие атаки требовали значительного количества времени и инвестиций, злоумышленникам приходилось, например, выявлять важные цели, изучать схемы коммуникации и изучать документы компаний. Но теперь машины могут выполнить эту подготовительную работу за меньшее время.

И вот Google Cloud недавно представил прогноз кибербезопасности на 2025 год, который предлагает всесторонний на то, как компании могут опережать возникающие риски. В отчете представлены аналитические данные многочисленных групп Google Cloud по безопасности. Они дают более или менее четкие и реалистичные прогнозы относительно того, что должно быть приоритетным в следующем году.

По их мнению, революция в области искусственного интеллекта окажется палкой о двух концах. По мере того, как возможности ИИ становятся все более доступными в течение 2025 года, предприятиям будет все труднее защищаться от киберпреступников, в чьих руках тоже окажется этот продукт технического прогресса.

– Какие существуют опасения?

– Поскольку ИИ продолжает развиваться, злоумышленники быстро интегрируют его в свои арсеналы. Как сказано в отчете Google Cloud, быстрое внедрение инструментов на основе ИИ, в частности больших языковых моделей, позволит преступникам создавать весьма убедительные фишинговые, вишинговые и SMS-мошенничества, делая традиционные механизмы защиты менее эффективными.

Глубокие подделки (дипфейки) уже используются для обмана пользователей, обхода проверок безопасности и содействия мошенничеству, и в отчете прогнозируется, что эта тенденция будет лишь расти. Кроме того, на подпольных форумах, вероятно, возрастет спрос на нерегулируемые LLM, позволяющие мошенникам экспериментировать с исследованиями уязвимостей, разработкой кода и разведкой. Роль искусственного интеллекта в информационных операциях возрастет. Генеративные инструменты искусственного интеллекта станут еще более распространенными в информационных операциях, а субъекты угроз будут использовать их для создания убедительного, кажущегося аутентичным, контента в беспрецедентных масштабах. Искусственный интеллект будет поддерживать разработку поддельных статей, веб-сайтов и неподлинных персонажей, увеличивая масштаб и изощренность кампаний по дезинформации. В отчете подчеркивается, что в 2025 году ожидается усиление этой тенденции, из-за чего организациям и отдельным лицам будет сложнее отличать правду от манипуляций.

– Какие угрозы считаются наиболее опасными?

– Авторы отчета считают, что в 2025 году организации столкнутся с ростом числа вредоносных заказных программ. Ожидается, что субъекты угроз продолжат внедрять специализированные экосистемы вредоносных программ, нацеленные на встроенные системы, такие, как брандмауэры, VPN-шлюзы и сетевые устройства – области, где традиционные платформы обнаружения конечных точек и реагирования неэффективны. Эти скрытые операции с вредоносными программами предназначены для использования встроенных функций целевых платформ, что значительно усложняет обнаружение и реагирование для защитников. Похоже, атакам программ-вымогателей и случаям вымогательства не видно конца. Программы-вымогатели, которые уже являются глобальной угрозой, как ожидается, останутся одной из самых разрушительных форм киберпреступности в 2025 году.

– Кто в первую очередь окажется объектом таких атак?

– Это очевидно: наиболее важные и уязвимые инфраструктуры. Вот только один пример: сектор здравоохранения особенно сильно пострадал в 2024 году: киберпреступники прерывали уход за пациентами, приостанавливали лабораторные тесты и вызывали массовые сбои. Количество предложений по программному обеспечению-вымогателю как услуге продолжает расти.

Опять же распространение инструментов «как услуга» продолжит «демократизировать» киберпреступность, что позволит даже менее квалифицированным специалистам проводить изощренные атаки. Киберпреступникам больше не нужны передовые технические навыки для проведения успешных атак. Благодаря легкодоступным фишинговым наборам, вредоносному ПО и инструментам, управляемым ИИ, все большее число участников смогут совершать киберпреступления с большей эффективностью. Это расширит ландшафт угроз – привлечет криминальных, не очень обученных неофитов. Кто-то где-то и прорвется.

А есть еще транспорт, энергетика, в том числе – атомная, другие жизненно важные социальные и экономические сферы.

– Какие приемы используют киберпреступники с помощью искусственного интеллекта?

– Например, более сложные глубокие подделки. Я уже про это упоминал. Использование глубоких подделок – вымышленных, но убедительных изображений или видео реальных людей – растет. Есть отчет Ofcom за 2024 год. Там констатируется, что 60% людей в Великобритании столкнулись, по крайней мере, с одним дипфейком. Делается вывод, что к 2026 году 30% организаций сочтут свои текущие инструменты аутентификации или цифровой идентификации неадекватными для борьбы с глубокими подделками. И это по данным исследовательской консалтинговой компании Gartner.

Следующий год может стать годом, когда дипфейки станут мейнстримом. Марко Перейро, глобальный руководитель отдела кибербезопасности ИТ-компании Capgemini, весьма этой ситуацией озабочен: «Если у вас на видеозвонке есть кто-то, кто выглядит как генеральный директор, звучит как генеральный директор, имеет соответствующее образование – все, что нужно, чтобы обмануть вас, это сказать: «О, моя камера плохо работает».

Когда-то глубокие подделки сопровождались явными признаками того, что пользователи общались с цифровым самозванцем, скажем, это могла быть сбивчивая речь или нос, плавающий не на своем месте. Но по мере совершенствования технологии, глубокие подделки становится значительно труднее обнаружить. Это плохая новость для предприятий, которые уже становятся объектами специализированных фишинговых атак, использующих эту технологию.

Примеры успешных дипфейков попали в заголовки газет. Например, один сотрудник в Гонконге перевел кибержулью около 20 миллионов фунтов стерлингов после того, как был одурачен мошенником, выдававшим себя за топ-менеджера. Для киберпреступников простой анализ затрат и выгод показывает, что атаки на высокоценные цели стоят затраченных усилий, предупреждают эксперты.

– Смею предположить, что к помощи искусственного интеллекта прибегают не только мошенники, но и спецслужбы?

– Странно было бы иначе. Как писал Шекспир, «чтоб мысль врага узнать, вскрывают сердце, а письма – и подавно».

В отчете Google Cloud показано, что дезинформация будет влиять на различные спецоперации и в 2025 году. В последнее время контролируемые государством веб-сайты выдавали себя за местные новостные агентства, создавая сеть фейковых новостных сайтов, предназначенных для манипулирования общественным мнением по всему миру. Ожидается, что это также будет продолжаться и развиваться, поскольку многие государства будут прибегать к распространению стратегической дезинформации на фоне продолжающихся геополитических конфликтов по всему миру.

– Неужели искусственный интеллект нужен спецслужбам только для распространения дезинформации, так называемых дипфейков? Как-то мелковато.

– Нет, конечно. В первую очередь, конечно, это разведка. Всякие там дипфейки – это уже реализация добытой информации. Вы удивитесь, но сейчас самая азартная охота идет за так называемыми метаданными.

– Что это?

– Метаданные – это исходные факты о полученной информации. Попытаюсь популярно объяснить. Содержимое добытого или перехваченного текстового сообщения – это собственно данные. А метаданные включают информацию, как и когда было отправлено это сообщение, откуда оно было отправлено, кто его отправил и кому. И было ли оно получено, была ли на него реакция. Нередко это оказывается важнее, чем сам текст сообщения.

Да, один фрагмент метаданных сам по себе почти бесполезен. Но когда машины анализируют объемы метаданных, возникают закономерности, которые зачастую являются более показательными, чем, повторюсь, содержание самих сообщений. Вот такая специфика электронной разведки.

Такого рода данные собирались «Пятью глазами» – разведывательными агентствами США, Канады, Великобритании, Австралии и Новой Зеландии. Кстати, об этом стало известно в результате утечек от Эдварда Сноудена. Только за это его так ненавидят англосаксы.

По словам Кристин Гэдсби, директора по информационной безопасности BlackBerry, наблюдение и защита метаданных станут основной тенденцией в 2025 году. Поскольку метаданные являются частью приливов и отливов ежедневного интернет-трафика, их невероятно сложно обезопасить. Как вы защищаете, казалось бы, безобидные фрагменты информации? По сути, никак.

Гэдсби утверждает: «Люди по-прежнему полагаются на рекомендации по зашифрованному общению. Это обеспечивает безопасность части проблемы, но оставляет открытой часть метаданных. Ваш IP-адрес по-прежнему открыт, и к вашему местоположению можно получить доступ. Злоумышленники из национальных государств собираются использовать это в том числе и во время войны.

Масштабные атаки на метаданные уже ведутся. Например, несколько телекоммуникационных компаний США отражают масштабный взлом, организованный китайской группой Salt Typhoon, которая нацелена на метаданные миллионов американцев. Поскольку метаданные – это язык машин, вычислительные инструменты очень хороши в их сборе и осмыслении. Искусственный интеллект сможет соединять точки A с B, C и D и позволит злоумышленникам передавать эти данные отдельным лицам. То, на анализ чего человеку потребовалось бы два года, с помощью искусственного интеллекта займет две минуты».

–​ Это намек на то, что уже используются квантовые технологии?

– Скажем так, уже идут такие эксперименты. Но их результаты обнадеживают, перспектива есть. И эта перспектива позволяет спецслужбам и, конечно же, злоумышленникам использовать принцип: сохраняйте добытую информацию сейчас, расшифруйте позже.

– Это о чем?

– Именно о квантовых технологиях. Как вы помните, именно шифрование сделало возможной современную цифровую экономику. Например, никто из нас не стал бы вводить номера своих кредитных карт в Amazon, если бы они хранились в виде обычного текста, доступного для просмотра любому. Вместо этого эти данные шифруются и становятся доступными только с помощью секретного ключа. Таким образом защищены почти все наши конфиденциальные цифровые данные. Но что, если бы все эти шифровки были взломаны в одночасье? Увы, на заре эры квантовых вычислений это вполне реальная возможность.

Роберта Фаук, технический директор Arqit, компании, занимающейся постквантовой безопасностью, говорит, что «Q-Day» – момент, когда квантовые компьютеры смогут взломать текущие процессы шифрования, – может наступить всего через несколько лет. Хотя квантовые вычисления все еще находятся в зачаточном – якобы - состоянии, важный алгоритм, неотъемлемая часть его функциональности, теперь способен вычислять целые числа простых множителей быстрее, чем любая доступная сегодня вычислительная система. Это означает, что сложный ряд чисел, лежащий в основе криптографических систем, на которые мы все полагаемся, может быть быстро и легко взломан. Учитывая, что эти возможности не за горами, злоумышленникам – особенно противникам национальных государств, которые разрабатывают свои собственные квантовые системы, - логично собирать зашифрованные данные сейчас, которые они смогут расшифровать позже, когда технология будет готова.

Фаук предупреждает: «Технологически развитые государства вкладывают значительные средства в квантовые исследования и кибербезопасность и, вероятно, собирают зашифрованные данные уже сейчас, ожидая, что квантовые компьютеры расшифруют их в ближайшем будущем. Конфиденциальная долгосрочная информация, такая, как военные планы, интеллектуальная собственность и личные записи, подвергается особому риску – все, что передается по общедоступным сетям, может быть уязвимым».

–​ Но ведь искусственный интеллект может помочь в защите от киберпреступников?

– Безусловно. Как говорил Тарас Бульба, я тебя породил, я тебя и убью.

Так как киберпреступники и государственные структуры продолжают внедрять инновации, индустрии кибербезопасности необходимо оставаться гибкой и упреждающей перед лицом меняющихся угроз. Это включает в себя использование облачных решений, внедрение надежного управления идентификацией и подготовку к возможной угрозе квантовых вычислений. Оставаясь информированными и проактивными, организации смогут создавать более надежную защиту и ориентироваться во все более сложном цифровом ландшафте 2025 года и последующих лет.

Авторы отчета Google Cloud достаточно оптимистично предполагают, что искусственный интеллект должен сыграть решающую роль в усилении кибербезопасности. Автоматизируя анализ сложных отчетов и оптимизируя рабочие процессы, ИИ помогает командам безопасности работать более эффективно. В 2025 году ландшафт кибербезопасности вступит в промежуточную стадию полуавтономных операций, где ИИ помогает человеку принимать решения, расставляя приоритеты в оповещениях и позволяя защитникам сосредоточиться на наиболее критичных угрозах.

– И все же не очень радостный прогноз. Преобладает тенденция к длительному и изнурительному противостоянию. И даже не знаешь, радоваться или горевать от пришествия ИИ в наш мир. Россия тоже пребывает в пессимизме по поводу перспектив применения искусственного интеллекта?

– Отнюдь. Угрозы мы понимаем и, как надо, отреагируем. Но мы больше видим пользы от ИИ. Как раз на днях, с 11 по 13 декабря в Москве прошла международная конференция «Путешествие в мир искусственного интеллекта», в которой принял участие Президент России Владимир Путин. Глава государства посетил выставку, посвященную развитию технологий генеративного искусственного интеллекта. Так, на стенде «GigaChat и умные устройства» главе государства продемонстрировали возможности сервиса на основе ИИ, в частности, умное кольцо, которое собирает биометрические показатели и интерпретирует их с помощью GigaChat. На стенде GigaChat «Итоги года с Президентом» рассказали об использовании ИИ для обработки обращений граждан, которые поступают на «Прямую линию». Такая практика применяется впервые: нейросеть помогает объединенной редакции обрабатывать массив обращений граждан в десятки раз быстрее.

– Что обсуждалось на конференции?

– Как сообщил Герман Греф, на конференции были подняты пять важнейших проблем, решить которые можно и нужно с помощью ИИ. Во-первых, это благоустройство городов, дороги, парковки, городская среда, инфраструктура. Во-вторых, государственное управление: эффективность управления, расходование государственных средств, проблема медленного исполнения судебных решений. В-третьих, образование: устаревшие методики обучения, стресс у детей из-за большого количества экзаменов, большая нагрузка на учителей. В-четвертых, социальное обслуживание и защита: недостаток информации о действующих льготах и сложности с получением этих льгот. И, в-пятых, медицина: доступность медицинских услуг и их качество. В общем, почувствуйте разницу.

–​ О киберпреступности что-то говорили?

– А как же. Герман Греф сказал, что, к сожалению, бандиты с использованием искусственного интеллекта через мессенджеры проникают в кошельки граждан. Чтобы противодействовать в том числе и этому, создана международная организация: «Сегодня 15 стран объединяются для того, чтобы сделать эту работу открытой, прозрачной и, как говорят специалисты, чтобы искусственный интеллект был выровненным, чтобы он был адекватным тому состоянию общества и этим запросам общества, которые сегодня существуют».

– Что это за объединение пятнадцати стран?

– Пять лет назад здесь, на конференции, был создан российский Альянс искусственного интеллекта, в который на сегодняшний день уже вошли более 800 российских компаний. И все они подписали, в том числе, Кодекс этики при разработке ИИ. На нынешней конференции по инициативе российского Альянса ИИ рождается следующий уровень кооперации – это международный альянс. Он объединяет национальные ассоциации в сфере искусственного интеллекта со всего мира. На конференции присутствовали 15 ассоциаций, которые согласились подписать соответствующий меморандум.

Согласитесь, совсем иная, нестандартная для Запада концепция. Хотя и достаточно простая – только вместе мы победим.

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру