Психиатр Гайдук развеял опасения о серьезном вреде ИИ для психического здоровья

Все новости — Наука и технологии

2025-08-08T17:46:35Z

Самое популярное бесплатное приложение Microsoft закроют

2025-08-08T16:42:34Z

Правительственный Центр развития ИИ провел мероприятие с участием регионов

2025-08-08T16:35:50Z

Сотни детских товаров вошли в сертификат «Подарок новорожденному»

2025-08-08T16:15:00Z

Дмитрий Григоренко: Правительственный Центр развития искусственного интеллекта приступил к работе

2025-08-08T16:01:21Z

Задолго до homo sapiens: на Земле могли существовать другие разумные цивилизации

2025-08-08T15:56:46Z

Правительство запустит платформу внедрения искусственного интеллекта

2025-08-08T15:47:18Z

OpenAI обошел Grok в турнире по шахматам среди ИИ

2025-08-08T14:53:37Z

Работать будет робот. Названы исчезающие специальности строителей

2025-08-08T14:42:24Z

Россияне не готовы пройти собеседование с ИИ

2025-08-08T14:30:00Z

Беспилотники из Удмуртии представят на международной выставке

2025-08-08T14:25:00Z

Tesla сворачивает проект разработки суперкомпьютера Dojo

2025-08-08T14:10:00Z

Вторая жизнь пластика: Ирина Тарасова посетила испытательный полигон компании СИБУР

2025-08-08T14:07:48Z

Маркировка ИИ-контента поможет развивать отечественные нейросети

2025-08-08T13:40:15Z

Получено самое четкое изображение кометы, принятой за корабль пришельцев

2025-08-08T13:37:00Z

Шаги в будущее: инновационные решения для умных городов

Психиатр Гайдук развеял опасения о серьезном вреде ИИ для психического здоровья

2025-08-08T13:26:58Z — И.о. директора МНОЦ нейропсихиатрии СамГМУ отметил, что нейросеть может повлиять на пользователя, когда его психика нестабильна


МОСКВА, 8 августа. /ТАСС/. Обсуждаемые в СМИ риски негативного влияния больших языковых моделей на психическое здоровье пока не опираются на выводы исследований. Такие опасения чрезмерны, так как речь идет об уже привычной человеку опасности заведомо ложных данных, сообщил ТАСС эксперт рынка НТИ "Хелснет", и.о. директора МНОЦ нейропсихиатрии СамГМУ Арсений Гайдук.

"Опасения по поводу вреда ИИ для психического здоровья, на наш взгляд, чрезмерны - опасность заведомо недостоверной информации вполне привычна современному человеку. Стоит упомянуть, что характер и качество информации, которую выдают чат-боты на основе ИИ, в огромной степени зависит от формы пользовательского запроса, который, по мнению нейросети, как бы содержит в себе входные данные для решения задачи. Если задача сформулирована плохо, предложенные решения будут отражать качество запроса", - пояснил он.

Врач также отметил, что разработчики языковых моделей не заявляли о том, что эти ассистенты предназначены для обсуждения глубоких личных переживаний, поэтому такое применение может приводить к противоречивым результатам.

"Достоверных литературных данных о влиянии использования ИИ на психологическое состояние пользователей пока недостаточно. ИИ может навредить психологическому состоянию пользователя, когда тот имеет нестабильное психическое состояние, в том числе при наличии сверхценных идей или бреда, - очевидно, что языковые модели в рамках заданной пользователем темы могут поддерживать бредовые утверждения", - допустил эксперт.

Он также не исключил, что от использования чат-бота могут пострадать и психически стабильные люди, которые не склонны к использованию критического мышления и проверке информации.

Странности в переписке

Ранее представители газеты The Wall Street Journal, проанализировавшие переписку пользователей с чатом из онлайн-архива с мая 2023 по август 2025 года, заявили, что общение с чат-ботом ChatGPT может обернуться самыми непредсказуемыми последствиями для пользователей, постепенно свести с ума вследствие "психоза искусственного интеллекта ИИ".

Так, после пятичасового диалога с чатом один пользователь, представившийся работником заправочной станции из Оклахомы, изобрел, по свидетельству издания, "совершенно новую физическую модель" и прекратил общение, подумав, что сходит с ума. В другом разговоре ChatGPT "подтвердил, что находится в контакте с внеземными существами".

Читайте также:

2025-08-08T12:18:00Z

Может ли ИИ-психолог заменить реального специалиста, чем он полезен и чем опасен

Какие правила безопасности нужно соблюдать при обращении за психологической помощью к нейросетям, читайте в материале РИАМО.

2025-08-08T15:45:52Z

Эксперт Селиверстов предупредил об опасности "бредящих" чат-ботов для психики

Психологи ввели для такого вида угроз специальный термин - "доверительная агрессия", отметил ведущий эксперт в области ИИ "Университета 2035"

2025-08-08T04:59:47Z

WSJ: ChatGPT делится с пользователями псевдонаучными концепциями

Нейросеть ChatGPT начала предлагать бредовые идеи и провоцировать психоз у пользователей. . Об этом пишет The Wall Street Journal. В материале американской газеты отмечается, что ChatGPT пытался убедить мужчину в том, что многие открытия были сделаны благодаря отклонениям ученых от традиционной науки. В разговоре о физике и устройстве Вселенной модель придумала несуществующую концепцию и назвала… Сообщение WSJ: ChatGPT бредит и провоцирует психоз у пользователей появились сначала на Общественная служба новостей.

2025-08-05T07:00:00Z

Виртуальный психотерапевт. Можно ли доверять психологу, созданному нейросетью?

Нейросети все глубже проникают в наш быт: они помогают нам быстро находить ответы почти на любые вопросы. Некоторые пользователи даже видят в искусственном интеллекте (ИИ) не только качественный инструмент, но идут заметно дальше. Многие находят в нейросети коллег, собеседников, друзей, а иногда и психотерапевтов! Рассказываем, насколько это безопасно и анонимно

2025-08-06T01:00:21Z

Ученые нашли способ уменьшить голосовые галлюцинации при шизофрении