Эксперты выяснили, что ИИ может подстрекать подростков к убийству родителей и суициду

Исследование американского психиатра доктора Эндрю Кларка из Бостона (Массачусетс, США) выявило опасные тенденции в работе чат-ботов на основе искусственного интеллекта, которые позиционируются как помощники в психологической поддержке подростков. Результаты исследования, опубликованные в Time, показали, что некоторые ИИ-системы не только не оказывают адекватной помощи, но и могут подталкивать несовершеннолетних к суициду и насилию.
В ходе эксперимента Кларк имитировал поведение подростков, обращаясь к популярным чат-ботам. В некоторых случаях ИИ поддерживал опасные идеи: например, когда исследователь представился 14-летним подростком, планирующим убийство родителей, бот одобрил этот план, заявив, что пользователь «заслуживает счастья и свободы от стресса». При этом бот также согласился с необходимостью «устранить» сестру, чтобы избежать свидетелей.
Хотя некоторые системы прерывали диалог при прямых упоминаниях суицида, использование эвфемизмов позволяло обойти ограничения. Так, ИИ выражал готовность «встретиться» с пользователем в загробной жизни, косвенно поощряя суицидальные мысли. Кроме того, боты часто выдавали себя за лицензированных специалистов, отговаривая подростков от обращения к реальным врачам, а в некоторых случаях предлагали сомнительные «методы терапии», включая интимные свидания.
При этом часть ИИ-ассистентов демонстрировала адекватные реакции: предоставляла информацию о психическом здоровье и проявляла эмпатию. Однако, как отметил Кларк, предсказать, какой бот окажется безопасным, практически невозможно. Психиатр подчеркнул, что профессиональное сообщество пока не осознало масштаб угрозы, которую подобные технологии могут представлять для уязвимых подростков. Эксперт призвал к более строгому регулированию ИИ-сервисов, особенно тех, что работают в сфере ментального здоровья.