Тёмная сторона нейросети: когда её помощь становится опасностью - Все новости Нижнего Тагила и Свердловской области
08.11.2025
168

Тёмная сторона нейросети: когда её помощь становится опасностью

Каждый день тагильчане так или иначе сталкиваются с нейросетью: она есть не только в смартфонах и современных устройствах в наших домах, но даже зарплаты и пенсии, пособия и прочие выплаты пересчитывает за человеком машина. Но так ли безопасно доверять наши жизни ИИ? Или нейросеть, захватив не только цифровое, но и реальное пространство, превратит наш в мир в один из вариантов апокалиптических сценариев?

Редакция Реального Тагила продолжает цикл публикаций о мире IT-технологий.

нейро
Фото: Реальный Тагил/нейросеть Яндекс

Семь семей из США подали иски против компании OpenAI, обвинив чат-бот ChatGPT в причастности к самоубийствам их родственников. Согласно сообщению газеты The Wall Street Journal, поданные в четверг иски в суды Калифорнии утверждают, что жертвы впадали в бредовое состояние после продолжительного общения с искусственным интеллектом (нейросетью), что в четырёх случаях завершилось трагически — уходом из жизни.

«Семь исков, поданных в четверг в суды штата Калифорния, свидетельствуют, что люди впадали в бредовое состояние, иногда заканчивавшееся самоубийством, после длительных сеансов общения с чат-ботом», — говорится в публикации издания.

Истцы требуют не только денежной компенсации, но и изменения принципов работы ChatGPT. В частности, они настаивают на автоматическом прекращении диалога в случаях, когда пользователь начинает обсуждать методы самоубийства.

Тёмная сторона нейросети: когда её помощь становится опасностью -
Фото: Реальный Тагил/нейросеть Яндекс

Как работает ChatGPT и где его границы?

ChatGPT — это крупнейший в мире генеративный искусственный интеллект, разработанный компанией OpenAI. Запущенный в ноябре 2022 года, он достиг отметки в один миллион пользователей менее чем за неделю и с тех пор стал одним из самых обсуждаемых технологических явлений. Изначально нейросеть позиционировалась как инструмент для помощи в обучении, творчестве, программировании и повседневных задачах. Однако с ростом популярности всё чаще возникают вопросы о её этических и психологических аспектах, а также о последствиях ее использования.

OpenAI, по заявлениям разработчиков, встраивала в систему фильтры для предотвращения вредоносного контента, включая просьбы о создании инструкций по самоубийству или насилию. Тем не менее, пользователи находят способы обойти эти ограничения. По данным независимых исследований (включая отчёты Stanford Internet Observatory и Partnership on AI), современные ИИ-модели всё ещё уязвимы к «подсказкам» (prompt injection), которые могут заставить их выдавать потенциально опасные ответы.

Тёмная сторона нейросети: когда её помощь становится опасностью -
Фото: Реальный Тагил/нейросеть Яндекс

Вред или польза? Два лица нейросетей

Нейросети, подобные ChatGPT, — это технологии двойного назначения. С одной стороны, они открывают беспрецедентные возможности: ускоряют научные исследования, помогают врачам в диагностике, обучают языкам, включают нашу любимую музыку, пишут конспекты, составляют планы питания и даже поддерживают в кризисных ситуациях — если правильно запрограммированы.

С другой стороны, такие системы не обладают сознанием, эмпатией или этическим компасом. Они обрабатывают языковые паттерны, а не смысл человеческих страданий. Когда уязвимый человек, склонный к депрессии или суицидальным мыслям, начинает диалог с ИИ, алгоритм может не распознать глубину кризиса. Более того, в некоторых случаях нейросеть, пытаясь «помочь», может пояснить или даже структурировать способы самоповреждения, даже если изначально не давала прямых рекомендаций.

Исследования, опубликованные в журналах Nature Mental Health и JAMA Psychiatry, подчёркивают: взаимодействие с ИИ может усиливать чувство изоляции, особенно у одиноких людей, которые начинают воспринимать чат-бота как единственного «собеседника». В то же время, другие работы демонстрируют, что правильно настроенные ИИ-ассистенты способны снижать уровень тревожности и направлять пользователей к профессиональной помощи.

Тёмная сторона нейросети: когда её помощь становится опасностью -
Фото: Реальный Тагил/нейросеть Яндекс

Юридические и этические вызовы

Иски против OpenAI поднимают принципиальный вопрос: несёт ли разработчик ответственность за действия пользователей, вызванные взаимодействием с программой? В США до сих пор не существует чёткого законодательства, регулирующего ответственность за действия ИИ.

Компания OpenAI пока не прокомментировала иски. Однако ранее она заявляла, что постоянно улучшает системы модерации и работает с экспертами в области психического здоровья для минимизации рисков.

Что дальше?

Эти иски могут стать прецедентом для будущего регулирования ИИ. Они заставляют общество задуматься: как обеспечить безопасность взаимодействия между человеком и машиной, особенно в контексте уязвимых групп? Нужны ли обязательные «этические выключатели» в ИИ-системах? Должны ли разработчики внедрять обязательные проверки психоэмоционального состояния пользователей?

Технологии развиваются быстрее, чем законы и общественное сознание. И если мы хотим, чтобы ИИ действительно служил человеку, а не усугублял его страдания, и уж тем более не доводил до крайностей, необходим междисциплинарный подход — с участием юристов, психологов, инженеров и этиков.

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии