Будущее человечества под угрозой: темпы развития искусственного интеллекта названы «ужасающими»

Исследователь безопасности обеспокоен «очень рискованной авантюрой» ИИ

Бывший исследователь безопасности компании OpenAI называет темпы развития искусственного интеллекта "ужасающими". Стивен Адлер выражает обеспокоенность тем, что индустрия ИИ идет на "очень рискованную авантюру" и ставит под сомнение будущее всего человечества.

Исследователь безопасности обеспокоен «очень рискованной авантюрой» ИИ

Экс-исследователь по безопасности в OpenAI говорит, что он “в ужасе” от темпов развития искусственного интеллекта, и предупреждает, что эта индустрия делает “очень рискованную ставку” на эту технологию.

Стивен Адлер выразил обеспокоенность по поводу компаний, стремящихся быстро развить общий искусственный интеллект (AGI) - теоретический термин, обозначающий системы, которые не уступают или превосходят людей в решении любых интеллектуальных задач.

Адлер, покинувший OpenAI в ноябре, написал в серии постов на X, что ему “очень понравилось” в американской компании, и он будет скучать по “многим ее аспектам”. Однако он сказал, что технология развивается так быстро, что это вызывает сомнения в будущем человечества, пишет The Guardian.

“Я в ужасе от темпов развития искусственного интеллекта в наши дни, - сказал он. - Когда я думаю о том, где я буду растить семью в будущем или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?”

Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями. Другие, такие как Ян Лекун, главный специалист Meta по искусственному интеллекту, преуменьшают угрозу существованию, заявляя, что ИИ “в действительности может спасти человечество от вымирания”.

Согласно профилю Адлера в соцсетях, за свою четырехлетнюю карьеру в OpenAI он руководил исследованиями, связанными с безопасностью, для “первых запусков продуктов” и “более перспективных систем искусственного интеллекта”, отмечает The Guardian.

Говоря о развитии “сильного искусственного интеллекта” (AGI), основной цели компании OpenAI, Адлер добавил: “Гонка AGI - это очень рискованная авантюра с огромными недостатками”. Адлер сказал, что ни у одной исследовательской лаборатории нет решения для настройки ИИ – процесса, обеспечивающего соответствие систем набору человеческих ценностей, – и что индустрия, возможно, развивается слишком быстро, чтобы найти такое решение: “Чем быстрее мы работаем, тем меньше вероятность, что кто-то найдет его вовремя”.

Публикации Адлера появились после того, как китайская компания DeepSeek, которая также стремится развивать AGI, потрясла технологическую индустрию США, представив модель, которая конкурирует с технологией OpenAI, несмотря на то, что для ее разработки было затрачено явно меньше ресурсов.

Предупреждая о том, что отрасль, по-видимому, “застряла в очень плохом равновесии”, Адлер сказал, что необходимы “реальные правила безопасности”: “Даже если лаборатория действительно хочет ответственно подходить к разработке AGI, другие все равно могут сократить время, чтобы наверстать упущенное, что может привести к катастрофическим последствиям”.

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру