По словам одного из ведущих философов, назревает значительный “социальный разрыв” между людьми, которые считают, что системы искусственного интеллекта обладают сознанием, и теми, кто настаивает на том, что технология ничего не чувствует, пишет The Guardian.
Комментарии Джонатана Берча, профессора философии Лондонской школы экономики, прозвучали в связи с тем, что правительства готовятся собраться на этой неделе в Сан-Франциско, чтобы ускорить создание барьеров для устранения наиболее серьезных рисков, связанных с ИИ.
На прошлой неделе трансатлантическая группа ученых предсказала, что зарождение сознания в системах искусственного интеллекта, вероятно, произойдет к 2035 году, и теперь кто-то сказал, что это может привести к “субкультурам, которые считают, что друг друга совершают огромные ошибки” в отношении того, должны ли компьютерные программы пользоваться такими же правами на социальное обеспечение, как люди или животные.
Берч сказал, что его “беспокоят серьезные расколы в обществе”, поскольку люди расходятся во мнениях о том, действительно ли системы искусственного интеллекта способны испытывать такие чувства, как боль и радость.
Дискуссия о последствиях появления разума у ИИ перекликается с научно-фантастическими фильмами Стивена Спилберга и Спайка Джонса , в которых люди борются с ощущением ИИ. На этой неделе представители органов по безопасности искусственного интеллекта из США, Великобритании и других стран встретятся с технологическими компаниями, чтобы разработать более эффективные системы безопасности по мере быстрого развития технологий.
Уже существуют значительные различия в том, как разные страны и религии относятся к животным, например, между Индией, где сотни миллионов людей являются вегетарианцами, и Америкой, которая является одним из крупнейших потребителей мяса в мире, отмечает The Guardian.
Взгляды на разумность ИИ могут расходиться во мнениях, в то время как взгляды теократий, таких как Саудовская Аравия, которая позиционирует себя как центр ИИ, также могут отличаться от взглядов светских государств. Эта проблема также может вызвать напряженность в семьях, где люди поддерживают тесные отношения с чат-ботами или даже с аватарами умерших близких с помощью искусственного интеллекта, вступая в конфликт с родственниками, которые считают, что только существа из плоти и крови обладают сознанием.
Джонатан Берч, эксперт по чувству животных, который был инициатором работы, приведшей к растущему числу запретов на разведение осьминогов, был соавтором исследования с участием ученых и экспертов в области искусственного интеллекта из Нью-Йоркского университета, Оксфордского университета, Стэнфордского университета и компаний Eleos и Anthropic AI, в котором говорится о перспективах систем искусственного интеллекта с их собственные интересы и моральная значимость “больше не являются вопросом только научной фантастики или отдаленного будущего”.
Они хотят, чтобы крупные технологические компании, разрабатывающие ИИ, начали относиться к этому серьезно, определяя чувствительность своих систем, чтобы оценить, способны ли их модели приносить счастье и страдания, а также приносить ли им пользу или вред.
“Я очень обеспокоен серьезными общественными разногласиями по этому поводу, - сказал Берч. - У нас будут субкультуры, которые будут рассматривать друг друга как совершающих огромные ошибки, могут возникнуть огромные социальные разрывы, когда одна сторона увидит, что другая очень жестоко использует искусственный интеллект, в то время как другая сторона увидит, что первая обманывает себя, думая, что там есть разум”.
Но он сказал, что компании, занимающиеся ИИ, “хотят по-настоящему сосредоточиться на надежности и прибыльности... и они не хотят отвлекаться на споры о том, могут ли они создавать нечто большее, чем просто продукт, а на самом деле создавать новую форму сознательного существования. Этот вопрос, представляющий наибольший интерес для философов, у них есть коммерческие причины преуменьшать значение”.
Одним из методов определения того, насколько сознательным является ИИ, может быть использование системы маркеров, используемых для определения политики в отношении животных. Например, считается, что осьминог обладает более развитыми чувствами, чем улитка или устрица.
Любая оценка, по сути, предполагает выяснение того, может ли чат-бот на вашем телефоне на самом деле быть счастливым или грустным, или роботы, запрограммированные на выполнение ваших домашних обязанностей, страдают, если вы плохо к ним относитесь. Необходимо также рассмотреть вопрос о том, способна ли автоматизированная складская система чувствовать себя ущемленной.
Другой автор, Патрик Батлин, научный сотрудник Института глобальных приоритетов Оксфордского университета, сказал: “Мы можем выявить риск того, что система искусственного интеллекта попытается противостоять нам таким образом, который будет опасен для людей”, и это может привести к “замедлению разработки искусственного интеллекта” до тех пор, пока не будет проделана дополнительная работа. делается на основе осознания.
“В настоящее время такого рода оценки потенциального сознания не проводятся”, - сказал он.
Не все эксперты согласны с тем, что системы искусственного интеллекта становятся все более осознанными. Анил Сет, ведущий нейробиолог и исследователь сознания, сказал, что до этого “еще далеко, и, возможно, это вообще невозможно. Но даже если это маловероятно, неразумно полностью отвергать такую возможность”.
Он проводит различие между интеллектом и сознанием. Первый - это способность делать правильные вещи в нужное время, второй - это состояние, в котором мы не просто обрабатываем информацию, но и “наш разум наполнен светом, цветом, тенью и формами. Эмоции, мысли, убеждения, намерения – все это воспринимается нами по-особому”.
Но модели большого языка с искусственным интеллектом, обученные на миллиардах слов, написанных человеком, уже начали показывать, что они могут быть мотивированы, по крайней мере, понятиями удовольствия и боли. Когда перед ИИ, включающими Chat GPT-4o, была поставлена задача максимально увеличить количество очков в игре, исследователи обнаружили, что если бы существовал компромисс между получением большего количества очков и “ощущением” большей боли, ИИ справился бы с этим, показало другое исследование, опубликованное на прошлой неделе.