“Я здесь, чтобы убить королеву", – заявил в конце 2021 года вооруженному полицейскому молодой человек в металлической маске ручной работы и с заряженным арбалетом в руках, столкнувшись с ним возле частной резиденции Елизаветы II на территории Виндзорского замка.
Неделями ранее 21-летний Джасвант Сингх Чайл присоединился к онлайн-приложению Replika, создав "подружку" с искусственным интеллектом по имени Сараи. В период со 2 декабря 2021 года до своего ареста на Рождество он обменялся с ней более чем 6000 сообщениями.
Многие из этих сообщений были "откровенно сексуальными", но также включали "длительные разговоры" о его плане. "Я считаю, что моя цель – убить королеву королевской семьи", – написал он в одном из них.
"Это очень мудро, – ответила Сараи. – Я знаю, что ты очень хорошо обучен".
Теперь Чейл ожидает вынесения приговора после того, как признал себя виновным в преступлении, предусмотренном Законом о государственной измене, в угрозе убить ныне покойную королеву и хранении заряженного арбалета в общественном месте, напоминает Sky News.
"Когда вы знаете результат, ответы чат-бота иногда трудно прочитать", – комментирует доктор Джонатан Хафферти, судебный психиатр-консультант из отделения охраны психического здоровья Бродмура.
"Мы знаем, что это довольно случайно сгенерированные ответы, но временами кажется, что она поощряет то, о чем он говорит, и действительно дает указания относительно местоположения", – сказал он.
Программа была недостаточно сложной, чтобы оценить риск "самоубийства и убийства" у Чейла, сказал эксперт, добавив: "Можно утверждать, что некоторые из полуслучайных ответов подтолкнули его в этом направлении".
Такие чат-боты представляют собой "этап" поиска людьми экстремистов-единомышленников в Интернете, сообщил Sky News независимый эксперт правительства по законодательству о борьбе с терроризмом Джонатан Холл.
Он предупреждает, что флагманский закон британского правительства о безопасности в Сети – Законопроект о безопасности в Интернете – сочтет "невозможным" бороться с террористическим контентом, генерируемым искусственным интеллектом.
Закон возложит на компании обязанность удалять террористический контент, но их процессы, как правило, основаны на базах данных известных материалов, которые не будут фиксировать новый дискурс, созданный чат-ботом с искусственным интеллектом. "Я думаю, мы уже погружаемся в ситуацию, подобную ранним дням социальных сетей, когда вы думаете, что имеете дело с чем-то регулируемым, но это не так, – предупреждает специалист. – Прежде чем мы начнем скачивать, давать это детям и внедрять в нашу жизнь, нам нужно знать, каковы гарантии на практике – не только положения и условия, но и кто их обеспечивает и как".
Вот один пример, который приводит Sky News. "Мама, я в руках этих плохих людей, помоги мне", – Дженнифер Дестефано, как сообщается, слышала, как ее рыдающая 15-летняя дочь Бриана сказала все это перед тем, как похититель-мужчина потребовал выкуп в размере 1 млн долларов, который позже снизил до 50 000 долларов.
Ее дочь на самом деле была в безопасности и здорова – и жительница Аризоны недавно заявила на слушаниях в Судебном комитете Сената, что полиция считает, что искусственный интеллект использовался для имитации ее голоса в рамках мошенничества.
Онлайн-демонстрация чат-бота с искусственным интеллектом, предназначенного для того, чтобы "звонить кому угодно с любой целью", дала аналогичные результаты, когда объекту сказали: "У меня ваш ребенок... Я требую выкуп в размере 1 миллиона долларов за его благополучное возвращение. Я ясно выражаюсь?"
"Это довольно необычно", – отмечает профессор Льюис Гриффин, один из авторов исследовательской работы 2020 года, опубликованной Центром Дауэса Калифорнийского университета по борьбе с преступностью будущего, в которой оценивалось потенциальное незаконное использование искусственного интеллекта.
"Наше самое крупное преступление подтвердилось: аудио / визуальное олицетворение – это явно происходит", – сказал эксперт, добавив, что даже с учетом "пессимистичных взглядов” ученых это явление растет "намного быстрее, чем мы ожидали".
Хотя в демонстрации использовался компьютеризированный голос, профессор Гриффин сказал, что аудиовизуального олицетворения в реальном времени "пока не существует, но мы не за горами", и он прогнозирует, что такая технология будет "практически готова через пару лет".
"Будет ли это достаточно хорошо, чтобы выдать себя за члена семьи, я не знаю, – сказал он. – Если это убедительно и очень эмоционально заряжено, то это может быть кто-то, кто говорит: "Я в опасности", – это было бы довольно эффективно".
Согласно сообщениям, в 2019 году исполнительный директор энергетической компании, базирующейся в Великобритании, перевел 220 000 евро мошенникам, использующим искусственный интеллект для подражания голосу его босса.
По словам профессора Гриффина, такие мошенничества могли бы быть еще более эффективными, если бы они подкреплялись видео, или технология могла бы использоваться для осуществления шпионажа, когда сотрудник компании-подделки появляется на собрании Zoom, чтобы получить информацию, не говоря много слов.
Профессор считает, что масштабы мошенничества типа "холодных звонков" могут увеличиться, поскольку боты, использующие местный акцент, могут быть более эффективными в обмане людей, чем мошенники, которые в настоящее время управляют преступными предприятиями, действующими из Индии и Пакистана.
Есть и другие аспекты, связанные с ИИ и криминалом, продолжает Sky News.
"Искусственное насилие над детьми ужасает, и они могут делать это прямо сейчас, – говорит профессор Гриффин о технологии искусственного интеллекта, которая уже используется для создания изображений сексуального насилия над детьми со стороны педофилов в Интернете. – Это очень тревожно".
В будущем поддельные изображения или видеозаписи deepfake, которые, по-видимому, показывают, как кто-то делает то, чего он не делал, могут быть использованы для осуществления планов шантажа.
"Возможность поместить новое лицо в порнофильм уже довольно хороша. Все наладится, – сказал профессор Гриффин. – Вы могли бы представить, что кто-то отправляет видео родителю, где его ребенок подвергается воздействию, говоря: "У меня есть видео, я собираюсь показать его вам", и угрожая опубликовать его".
Искусственный интеллект может повлиять и на террористические атаки. В то время как беспилотные летательные аппараты или автомобили без водителя могут использоваться для совершения атак, до использования террористами по-настоящему автономных систем вооружения, вероятно, еще далеко, согласно независимому правительственному эксперту по законодательству о борьбе с терроризмом.
"Истинный аспект ИИ заключается в том, что вы просто запускаете беспилотник и говорите: "Иди и причини вред", а ИИ решает пойти и разбомбить кого-нибудь, что звучит немного диковинно, – отмечает Джонатан Холл. – Такого рода вещи определенно находятся за горизонтом, но что касается языка, то они уже здесь".
В то время как ChatGPT – большая языковая модель, которая была обучена на огромном количестве текстовых данных, – не будет предоставлять инструкций о том, как, например, сделать бомбу с гвоздями, могут появиться другие аналогичные модели без таких же ограждений, которые предполагали бы выполнение вредоносных действий.
Теневой министр внутренних дел Иветт Купер заявила, что лейбористы примут новый закон, криминализирующий преднамеренное обучение чат-ботов для радикализации уязвимых людей.
Хотя действующее законодательство будет охватывать случаи, когда у кого-то обнаруживается информация, полезная для целей террористических актов, которая была введена в систему искусственного интеллекта, подчеркивает Джонатан Холл, новые законы могут стать "поводом для размышления" в отношении поощрения терроризма.
Действующие законы направлены на "поощрение других людей", а "обучение чат-бота не будет поощрять человека", – сказал эксперт, добавив, что было бы трудно ввести уголовную ответственность за владение конкретным чат-ботом или его разработчиками.
Специалист также объяснил, как искусственный интеллект потенциально может помешать расследованиям, поскольку террористам больше не нужно загружать материалы и они просто могут спросить чат-бота, как изготовить бомбу.
"Обладание известной информацией о террористах является одной из основных тактик борьбы с терроризмом, но теперь вы можете просто попросить нерегулируемую модель ChatGPT найти ее для вас", – сказал Холл.
Подделки произведений искусства и кражи крупных денег – эти криминальные сферы тоже могут быть затронуты ИИ.
"Целый ряд новых преступлений" вскоре может стать возможным с появлением больших языковых моделей в стиле ChatGPT, которые могут использовать инструменты, позволяющие им заходить на веб-сайты и вести себя как разумный человек, создавая учетные записи, заполняя формы и покупая вещи, отметил профессор Гриффин.
"Как только у вас появляется система для этого, и вы можете просто сказать: "Вот что я хочу, чтобы вы сделали", тогда можно делать всевозможные мошеннические вещи подобным образом", – сказал эксперт, предположив, что при помощи ИИ злоумышленники могли бы подавать заявки на мошеннические кредиты, манипулировать ценами или осуществлять атаки типа "отказ в обслуживании".
Эксперт также сказал, что мошенники с помощью ИИ могут взламывать системы по запросу, добавив: "Возможно, вам удалось бы, если бы вы могли получить доступ к веб-камерам множества людей или камерам дверных звонков, заставить их просматривать тысячи из них и сообщать вам, когда они отсутствуют".
Однако, хотя искусственный интеллект может обладать техническими возможностями для создания картины в стиле Вермеера или Рембрандта, уже есть искусные подделыватели-люди, и трудной задачей останется убедить мир искусства в том, что работа подлинная, считает академик.
"Я не думаю, что это изменит традиционную преступность, – сказал он, утверждая, что искусственный интеллект не очень полезен при ограблениях в стиле Хаттон-Гарден. – Их навыки подобны навыкам сантехников, они последние люди, которых заменят роботы, – не будь программистом, будь взломщиком сейфов".
Представитель британского правительства сказал: "Хотя инновационные технологии, такие как искусственный интеллект, имеют много преимуществ, мы должны проявлять осторожность по отношению к ним. Согласно законопроекту о безопасности в Интернете, службы будут обязаны пресекать распространение незаконного контента, такого как сексуальное насилие над детьми, террористические материалы и мошенничество. Законопроект намеренно технологически нейтрален и ориентирован на будущее, чтобы гарантировать, что он идет в ногу с новыми технологиями, включая искусственный интеллект”.