Подростки манипулируют родителями с помощью ИИ: от пирсинга до опасных советов
- 18 сент. 2025 г.
- 2 мин. чтения

В соцсетях набирает популярность новый тренд: школьники обращаются к искусственному интеллекту (ИИ), чтобы манипулировать родителями. По сообщениям пользователей, нейросети помогают формулировать убедительные аргументы, после которых взрослые чаще соглашаются на просьбы детей.
Так, одна из девушек рассказала, что ИИ составил список доводов о «безвредности» временного окрашивания волос. Другая утверждает, что два года не могла получить согласие родителей на пирсинг, но добилась результата при поддержке нейросети.
Ещё одна пользовательница призналась, что именно аргументы ИИ помогли убедить отца разрешить ей септум - пирсинг в носу.
«Нейросеть использует взвешенные, структурированные формулировки и обезличенные аргументы, которые порой не способен предоставить подросток из-за своей эмоциональности.
Высказывания ИИ-помощника создают иллюзию разумных доводов, что облегчает давление на родителей», — отметила руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник.
Однако эксперты предупреждают: подростки всё чаще задают нейросетям и куда более рискованные вопросы.
По данным «Лаборатории Касперского», 63% детей используют ИИ для поиска информации, 60% — для выполнения домашних заданий, 53% — для объяснения сложных тем.
Но, как указывает руководитель направления по детской онлайн-безопасности компании Андрей Сиденко, запросы к ИИ нередко касаются проблем реальной жизни.
«Тем не менее порой нейросети дают вредные или опасные советы. К таковым можно отнести, например, экстремальные диеты, генерацию рискованных челленджей и создание незаконного контента», — говорит Хвещеник.
Директор по ИИ «Группы Астра» Станислав Ежов добавляет: в российской и международной практике уже фиксировались случаи, когда школьники получали инструкции по самоповреждению или создавали дипфейки для кибербуллинга.
«В 2025 году растет число случаев, когда подростки обращаются к чат-ботам за советами по обману взрослых, сокрытию вредных привычек и получению инструкций по опасному поведению», — подчёркивает он.
Руководитель группы защиты инфраструктурных решений компании «Газинформсервис» Сергей Полунин отмечает, что ИИ легко откликается даже на запросы, связанные с расстройствами пищевого поведения и суицидальными мыслями.
Кроме того, использование нейросетей подрывает доверие в семье.
«Когда подростки используют ИИ в подобных целях, они не развивают навыки честного диалога и компромисса.
Параллельно растёт риск эмоциональной зависимости от виртуальных собеседников», — поясняет Ежов.
С юридической точки зрения ответственность разработчиков остаётся спорной. По словам Хвещеник, большинство сервисов предупреждают о возможных ошибках ИИ и возлагают ответственность на пользователя.
Однако если будет доказано, что разработчики сознательно игнорировали фильтрацию опасного контента, это может привести к судебным делам и новым регуляторным нормам.
Отрасль уже реагирует: OpenAI внедряет родительский контроль после ряда трагических случаев, в России также формируется правовая база для регулирования.
Эксперт Angara Security Яков Филевский считает, что до введения полноценной возрастной верификации родителям стоит использовать программы родительского контроля.
«Они помогают регулировать время использования приложений, фильтровать контент и вовремя узнавать, чем интересуется ребёнок в интернете», — соглашается Андрей Сиденко.
Специалисты подчеркивают: родителям важно не только контролировать активность, но и объяснять детям принципы работы ИИ, развивать критическое мышление и обсуждать риски.
«Важно объяснять ребёнку, что ИИ — это инструмент, а не друг или советчик, его ответы могут быть ошибкой, и любое решение, затрагивающее здоровье и безопасность, должно обсуждаться со взрослыми», — заключает Хвещеник.


