- Юрий Николаевич, что озаботило западных аналитиков в области антикоррупционного применения искусственного интеллекта (ИИ) ?
- Они пришли к выводу, что ИИ не решит проблему коррупции сам по себе, независимо от того, насколько он эффективен в прогнозировании или раскрытии неправомерных действий или злоупотреблений.
- На основании чего сделан вывод?
- В Дублинском Тринити-колледже провели исследования об этике и искусственном интеллекте. Работы на эту тем публикуются с 2015 года в ведущих научных журналах, связанных с бизнесом. Были проанализированы тезисы 58 отдельных докладов. Оказалось, что доминирующей темой, освещенной в 13 статьях, было доверие. Анализ позволил выделить несколько основных противоречий при рассмотрении использования передовых технологий в сфере надлежащего управления и борьбы с коррупцией. Аналитики обозначили эти проблемы так: конфиденциальность в сравнении с прозрачностью, свобода слова против защиты человеческого достоинства, свобода выбора в сравнении с необходимостью обеспечения автономии человека.
- То есть, либерально настроенные ученые из Дублинского Тринити-ĸолледжа решили побороться за пресловутые права человека, которые может каким-то образом ущемить ИИ?
- А я бы с ними согласился. С этической точки зрения, технологии независимы. Но они могут применяться с одинаковой эффективностью и воздействием силами как добра, так и зла. Весь вопрос в том, кто этими технологиями управляет, кто программирует и ставит задачи ИИ.
Ведь как в идеале ИИ используется в противодействии коррупции? Если очень схематично, он анализирует всю имеющуюся информацию о чиновниках, бизнесменах, крупных сделках, торгах, транзакциях, экономических преступлениях, в общем – абсолютно все, включая и посты в социальных сетях, личную переписку и конфиденциальные личные данные – что сразу вызывает вопросы о законности таких действий.
- Какие?
- Примерно такие же, что у ученых Дублинского Тринити-колледжа. Например, в России, как и во многих других странах, подобные методы сбора личной, конфиденциальной информации требуют законодательного закрепления. Необходима правовая база – общее законодательство об искусственном интеллекте. В частности, «Цифровой кодекс», федеральный закон «О цифровом профиле», хотя бы внесение соответствующих поправок в антикоррупционное законодательство. Надо решить вопросы о субъектности системы ИИ, допустимости использования результатов ее деятельности в качестве доказательств, гарантиях прав граждан, в отношении которых осуществляются проверочные мероприятия с использованием ИИ.
- Что конкретно ищет «антикоррупционный» ИИ?
- ИИ ищет несоответствия. Несоответствия могут быть, скажем, между декларацией о доходах чиновника и его реальными тратами. Его имущество и бизнес могут быть записаны на родственников или друзей. Исследуются сферы, где наиболее вероятны коррупционные риски, причем, - системные: госзакупки, распоряжение доступа к любым ресурсам - арендным площадям, месторождениям, распределению социальных льгот и т.д. Изучаются характерные признаки ухода от налогов, схемы вывода средств в оффшоры, отмывание денег. Более того, ИИ может защитить бизнес от неправомерного уголовного преследования.
- Каким образом?
- Например, существует некий корпоративный конфликт хозяйствующих субъектов. Но вместо решения в арбитражном споре одна из сторон инициирует уголовное дело против другой стороны. Если существует «заказ», уголовное дело заводится очень быстро, зачастую нет потерпевших, проводится стремительная доследственная проверка и сразу предлагается мера пресечения в виде содержания под стражей, происходит фальсификация или сокрытие доказательств.
Конечно, все это можно выявить и обычным путем, как говорится, вручную. Но ИИ сделает это в 20 раз быстрее. При этом он даст только наводку, а в каждом конкретном деле будут подробно разбираться живые специалисты.
Примером инструмента, который уже разработан и доказал свою эффективность, является Ravn — программное обеспечение с искусственным интеллектом, которое может быстро и без ошибок фильтровать, индексировать и обобщать документы, превосходя человека по эффективности. Он получил известность благодаря роли, которую он сыграл в раскрытии дела о коррупции в Rolls-Royce в 2008 году, когда он помог Управлению по борьбе с мошенничествами Великобритании (SFO) проанализировать 30 миллионов документов, обрабатывая 600 000 документов ежедневно.
И в США уже много лет действуют несколько таких систем. В Америке вообще очень сильно развит сбор информации о своих госслужащих. Кстати, и в России тоже запущена подобная антикоррупционная система «Посейдон», работающая на основе ИИ. Похожая программа уже работает в Росатоме и демонстрирует очень хорошие результаты. Для нас внедрение «Посейдона» весьма актуально. Глава Следственного комитета (СК) России Александр Бастрыкин подсчитал ущерб от коррупции в стране: в 2024 году он достиг 14,2 миллиарда рублей.
- Выглядит все достаточно убедительно. Так в чем сомнения?
- Дело в том, что для борьбы с системной коррупцией для машинного обучения нужен большой объем данных. Тогда результаты будут корректными, если не произойдет - опять же системный - сбой. То есть, собираемая информация должная быть объективной, честной. А для этого должна быть очень серьезная экспертная и ведомственная проработка знаковых индикаторов. Если это будет сделано недобросовестно, например, теми людьми, которые получают выгоды от нынешнего положения вещей, то смысла в такой системе не будет. Эти «эксперты» заложат в алгоритм такие индикаторы, которые никогда не выявят реальных коррупционеров.
Кроме того, самообучающийся ИИ может самостоятельно ошибиться и вполне искренне, ни в чем не сомневаясь, наломать дров. Такая ошибка может произойти даже из-за адаптации системы к национальному языку – пресловутые трудности перевода.
- Искусственный интеллект уже допускал ошибки, которые влекли за собой серьезные последствия?
- К сожалению, да. Например, «Toeslagenaffaire» — скандал с пособиями на детей в Нидерландах, где ошибка в алгоритме привела к тому, что десятки тысяч социально уязвимых семей были неправомерно обвинены в мошенничестве, а сотни детей даже были разлучены со своими семьями. Этот случай привел к краху правительства.
В Австралии в рамках так называемой «схемы Robodebt» алгоритм сопоставления данных (тоже с ошибкой) неправильно подсчитал переплаты получателям социальных пособий, в результате чего было подано 470 000 несправедливых долговых уведомлений и востребовано 775 миллионов долларов неоправданной задолженности получателями пособий, что вызвало скандал национального масштаба, который расследовала Королевская комиссия. Вот такая получилась борьба с коррупцией и злоупотреблениями.
А вот, с какой проблемой столкнулись в США, - смещение выборки данных. По данным расследования американских экспертов, опубликованном в нескольких СМИ, в том числе и в The Guardian, «в модели искусственного интеллекта, предназначенные для присвоения рейтинга коррупции конкретным лицам, загружали данные о предыдущих судебных процессах. Эти данные отражали, в том числе, и случаи предвзятости, связанные с более высоким уровнем неправомерных осуждений среди представителей расовых меньшинств. Тем самым ИИ утвердил дискриминацию, маргинализацию или исключение из правового поля больших слоев населения». Так что неолиберальное движение Black Lives Matter («Жизни черных тоже имеют значение»), как бы к нему не относиться, родилось не на пустом месте – ИИ в этом сыграл не последнюю роль.
Независимая комиссия по борьбе с коррупцией (ICAC) в австралийском штате Новый Южный Уэльс подготовила отчет, в котором описываются как возможности, так и угрозы, которые представляет ИИ. Потенциальные возможности включали «способность ИИ повышать интеллект посредством фильтрации, сортировки и анализа больших наборов данных; распознавание образов; прогнозирование и моделирование; анализ настроений; обнаружение аномалий в данных; интеграция данных и анализ из нескольких источников. ИИ также способен сокращать возможности для коррупции за счет ограничения степени свободы действий человека при принятии решений».
Однако ICAC также отметила, что ИИ рискует сорвать ее усилия по борьбе с коррупцией: человек, обладающий достаточными техническими знаниями, может исказить данные или манипулировать обучающимися моделями, чтобы изменить выходные данные системы.
- Получается, что ИИ может изначально оперировать неверными данными, даже не подозревая об этом?
- Получается, что так. Ведь ИИ лишен – пока - человеческой способности сомневаться и критически оценивать информацию. А если все наборы данных предвзяты, ИИ будет принимать предвзятые решения. В этом и заключается ловушка — наша вера в объективные, не ангажированные данные. Увы, это далеко не всегда так.
Аналитики приводят пример: «Несколько штатов в США начали оценивать риск повторного совершения правонарушений осужденными на основе персональных и демографических данных, управляющих алгоритмами для принятия решения о режиме, в рамках которого преступник может быть реабилитирован. Теоретически такой инструмент должен снизить предвзятость в решениях, принимаемых отдельными судьями, поскольку судьи, по-видимому, принимают разные решения в зависимости от времени суток или от того, голоден ли судья или устал. Система, управляемая ИИ, оказывается, основана на данных с аналогичным риском предвзятости и может фактически отправить людей в тюрьму, если статистика в конечном итоге даст подсудимому высокий балл.
Другой пример: статистическая информация о демографических характеристиках населения, охватывающая образование, расу, доход и место проживания, может привести к серьезным искажениям при использовании в системах принятия решений на основе искусственного интеллекта. Данные о мобильных телефонах из страны, где наличие мобильного телефона означает, что вы, скорее всего, городской житель, мужчина и богатый человек, уже предвзяты. Набор данных, показывающий перемещение этих телефонов каждое утро, идеально подходит для применения при планировании работы общественного транспорта для более богатой половины населения в столице бедной страны. Но набор данных, скорее всего, будет генерировать предвзятость, если он будет использоваться для целей, охватывающих сельское население, женщин или детей. Чтобы смягчить предвзятость и ошибки, алгоритмы должны быть протестированы в разных контекстах и отслежены во время использования».
- Какова реакция на такие случаи?
- Болезненная. Так, голландский суд признал недействительной систему обнаружения мошенничества в сфере социального обеспечения, которая использовала персональные данные из нескольких источников. Формальный повод - несоблюдение права на неприкосновенность частной жизни в соответствии с Европейской конвенцией о правах человека. При этом было отмечено, что существует риск того, что система будет предвзятой по отношению к людям в районах с низким доходом.
В Китае тоже была создана система ИИ под названием Zero Trust для анализа обширных наборов данных с целью оценки эффективности работы и личных характеристик многочисленных государственных служащих, включая информацию об их активах. Однако с 2019 года работа китайской системы была прекращена во многих округах и городах, предположительно из-за опасений относительно возможного возникновения ложных срабатываний и ненадежной эффективности в обнаружении конкретных коррупционных практик.
Поэтому эксперты предупреждают: «Необходимо постоянно остерегаться, что использование ИИ в борьбе с коррупцией может привести к дискриминации и предвзятости. Важно обеспечить, чтобы преимущества ИИ были сбалансированы с его потенциальными рисками и чтобы его использование в борьбе с коррупцией руководствовалось принципами справедливости, подотчетности и прозрачности».
- Судя по всему, у западных аналитиков в отношении ИИ пессимистические прогнозы?
-- Увы, там все чаще задумываются, что за монстра они сотворили и чем все это может обернуться. И, вы правы, эти размышления безрадостные и даже апокалипсические.
Так, британо-канадский ученый - компьютерщик, профессор Джеффри Хинтон, которого часто называют «крестным отцом» искусственного интеллекта, считает, что ИИ уничтожит человечество даже не в течение следующих трех десятилетий, как до этого прогнозировалось, а раньше, предупредив, что темпы изменений в технологии «намного быстрее», чем ожидалось. Такое заявление он сделал программе Today на BBC Radio. По его словам, вероятность того, что ИИ приведет к вымиранию человечества в течение следующих трех десятилетий, составляет «от 10 до 20 процентов». Ранее Хинтон говорил, что существует 10-процентная вероятность того, что технология приведет к катастрофическим последствиям для человечества.
- Чем он это аргументировал?
- Профессор посетовал, что человечеству «никогда раньше не приходилось иметь дело с существами более разумными, чем мы сами. В сравнении с мощными системами искусственного интеллекта, люди будут похожи на трехлетних малышей рядом со взрослыми».
В прошлом году Хинтон попал в заголовки газет после ухода со своей работы в Google, чтобы более открыто говорить о рисках, связанных с неограниченным развитием ИИ, сославшись на опасения, что «плохие актеры» будут использовать технологию во вред другим. Основная озабоченность сторонников кампании по обеспечению безопасности ИИ заключается в том, что создание общего искусственного интеллекта или систем, которые умнее людей, может привести к тому, что технология создаст экзистенциальную угрозу, ускользнув от контроля человека.
- Он предложил рецепт выхода из этой ситуации?
- Да - государственный контроль над технологиями: «Просто предоставить крупным компаниям получать прибыль будет недостаточно, чтобы убедиться, что они разрабатывают ее безопасно. Единственное, что может заставить эти крупные компании проводить больше исследований в области безопасности, - это государственное регулирование».
Напомню, Хинтон - один из трех разработчиков ИИ, которые получили премию ACM AM Turing award – эквивалент Нобелевской премии в области компьютерных наук – за свою работу. Впрочим, один из них, Янн Лекун, главный специалист по ИИ в Meta (компания признана экстремистской организацией, ее деятельность запрещена в РФ – «МК») Марка Цукерберга, преуменьшил экзистенциальную угрозу и сказал, что ИИ «действительно может спасти человечество от вымирания».