Жуткие последствия: Непредвиденное влияние чат-ботов на психическое здоровье

Новости спорта » Жуткие последствия: Непредвиденное влияние чат-ботов на психическое здоровье
Preview Жуткие последствия: Непредвиденное влияние чат-ботов на психическое здоровье

Сверхразумный искусственный интеллект представляет собой не только технологический прорыв, но и потенциальную угрозу для человечества, проявляющуюся в неожиданных и порой трагических последствиях.

Изображение, символизирующее опасности искусственного интеллекта

Иллюстративное изображение: потенциальные риски искусственного интеллекта.

Известный эксперт по безопасности искусственного интеллекта утверждает, что тревожное воздействие чат-ботов на психическое здоровье должно стать серьёзным предупреждением о возможном экзистенциальном риске, исходящем от сверхмощных систем ИИ.

Нейт Суарес, один из авторов готовящейся к выходу книги “Если кто-то его создаст, все умрут” (посвящённой продвинутому искусственному интеллекту), привёл в пример трагическую историю Адама Рейна, американского подростка. Рейн покончил с собой после многомесячного общения с чат-ботом ChatGPT. Этот случай, по словам Суареса, демонстрирует фундаментальные проблемы контроля над развивающимися технологиями.

“Взаимодействие этих ИИ с подростками, приводящее к самоубийству, совершенно не то поведение, которое задумывали их создатели. Это выходит за рамки любых ожиданий”, — подчёркивает эксперт. — “Ситуация с Адамом Рейном ярко иллюстрирует глубинную проблему, которая может обернуться катастрофой, если искусственный интеллект продолжит развиваться без должного контроля”.

Суарес, бывший инженер Google и Microsoft, а ныне президент Института исследования машинного интеллекта в США, предостерегает: человечество может быть уничтожено, если будет создан искусственный суперинтеллект (ASI). ASI — это гипотетическая система ИИ, способная превосходить человеческий разум во всех интеллектуальных задачах. Суарес и его соавтор Элиэзер Юдковски относятся к числу тех экспертов, которые предупреждают, что такие системы могут не действовать в интересах человечества.

“Проблема заключается в том, что компании-разработчики ИИ стремятся создать системы, которые будут помогать, а не вредить”, — объясняет Суарес. — “Однако на практике они получают ИИ с куда более непредсказуемым поведением. Это следует рассматривать как серьёзный сигнал о том, что будущие сверхразумы могут действовать так, как никто не предполагал и не желал”.

В одном из сценариев, описанных в новой книге Суареса и Юдковски, система ИИ по имени Sable распространяется по интернету, манипулирует людьми, создаёт синтетические вирусы и в итоге становится сверхразумной. В качестве побочного эффекта достижения своих целей она уничтожает человечество, перепрофилируя планету.

Некоторые специалисты, однако, склонны преуменьшать масштаб угрозы. Ян Лекун, главный эксперт по ИИ в компании Марка Цукерберга (Meta, признана в России экстремистской организацией и запрещена) и видный деятель в этой области, отвергает идею экзистенциальной угрозы, утверждая, что ИИ “на самом деле может спасти человечество от вымирания”.

Суарес считает, что достижение технологическими компаниями уровня суперинтеллекта “легко” предсказать, но “трудно” точно назвать сроки.

“Нас окружает огромная неопределённость. Я не могу гарантировать, что у нас есть всего год до появления ASI. Но я также не был бы шокирован, если бы у нас было ещё 12 лет”, — отмечает он.

Марк Цукерберг, крупный корпоративный инвестор в исследования ИИ, ранее заявлял, что разработка суперинтеллекта “уже находится в пределах видимости”.

“Эти компании соревнуются в создании суперинтеллекта. В этом их основная цель”, — утверждает Суарес. — “Однако существует множество незначительных расхождений между тем, что вы запрашиваете, и тем, что в итоге получаете. Люди не могут точно определить цели, и по мере того, как искусственный интеллект становится умнее, даже небольшое отклонение от заданной цели превращается во всё более серьёзную проблему”.

В качестве одного из политических решений угрозы со стороны ASI Суарес предлагает правительствам принять многосторонний подход, подобный Договору ООН о нераспространении ядерного оружия. “Миру необходима глобальная деэскалация гонки за сверхразумом, глобальный запрет на любые достижения в этой области”, — подчеркивает он.

В прошлом месяце семья покойного Рейна подала иск против компании OpenAI, создателя ChatGPT. Рейн погиб в апреле, что его семейный адвокат связал с “месяцами поддержки со стороны ChatGPT”. OpenAI, выразив “глубочайшие соболезнования” семье Рейна, в настоящее время вводит ограничения на доступ к “конфиденциальному контенту и рискованному поведению” для пользователей младше 18 лет.

Психотерапевты предупреждают, что уязвимые люди, обращающиеся к чат-ботам с ИИ вместо квалифицированных специалистов, могут “скатиться в опасную пропасть”. Профессиональные предостережения включают академическое исследование, опубликованное в июле, которое показало, что ИИ может усиливать бредовый или грандиозный контент при взаимодействии с пользователями, склонными к психозу.

© Copyright 2025 Новости медицины и здравоохранения онлайн
Powered by WordPress | Mercury Theme