Виртуальный психотерапевт. Можно ли доверять психологу, созданному нейросетью?

Все новости — Наука и технологии

2025-08-05T11:21:00Z

Компания Navio разработала фотореалистичный симулятор

2025-08-05T11:20:59Z

Путин: состояние экономики России позволяет достичь технологического лидерства

2025-08-05T11:20:01Z

Ученые из МГУ провели уникальную фотосессию Луны с помощью наноспутника

2025-08-05T11:07:52Z

Белый дом: Трамп сравнил разработки в сфере ИИ с космической гонкой

2025-08-05T11:04:18Z

Московские компании впервые представили свои видеоигры на China Joy

2025-08-05T10:59:00Z

«Выбираю будущее»: школьники ознакомились с работой татарстанских предприятий

2025-08-05T10:36:16Z

Медвежонок Умка станет талисманом Большой Арктической экспедиции

2025-08-05T10:29:52Z

Академик Сергеев объяснил, как микромир может изменить судьбу человечества

2025-08-05T09:42:22Z

Почти 200 тыс. россиян присоединились к мобильной игре «Скажи по-русски»

2025-08-05T09:07:28Z

Нет должной отдачи: Лукашенко рассказал, где ученые недоработали

2025-08-05T09:00:00Z

Путешествия во времени возможны, но есть нюанс

2025-08-05T08:54:52Z

В Тихом океане появилось первое в мире управляемое ИИ островное государство

2025-08-05T08:51:51Z

Компания бывшего владельца «Техносилы» купит за $223 млн разработчика ИИ

2025-08-05T08:50:00Z

Ученые выявили 3 прямых доказательства существования более высоких цивилизаций

2025-08-05T08:31:00Z

Директор «ТуБи» Ерхов назвал главными навыками будущего умение работать с ИИ и цифровыми сервисами

Виртуальный психотерапевт. Можно ли доверять психологу, созданному нейросетью?

Виртуальный психотерапевт. Можно ли доверять психологу, созданному нейросетью?

2025-08-05T07:00:00Z — Нейросети все глубже проникают в наш быт: они помогают нам быстро находить ответы почти на любые вопросы. Некоторые пользователи даже видят в искусственном интеллекте (ИИ) не только качественный инструмент, но идут заметно дальше. Многие находят в нейросети коллег, собеседников, друзей, а иногда и психотерапевтов! Рассказываем, насколько это безопасно и анонимно


Друг ex machina

Да, уже есть немалое количество проявлений ИИ, которые не просто ведут осмысленный диалог, но и генерируют эксклюзивные аватары для виртуального общения. Что уж говорить, есть нейросети, которые имитируют манеру речи самых разных реальных и нереальных персонажей — начиная с Альберта Эйнштейна и заканчивая Шерлоком Холмсом.

Вероятно, величайший детектив в истории литературы и смог бы с легкостью разобрать ваш психологический портрет, но есть и нейросети, которые изначально задуманы как виртуальные помощники в вопросах довольно личного характера. Но в основном, конечно, пользователи обращаются к наиболее популярным языковым моделям.

Мечтают ли люди об электропсихологах?

Психолог, доктор философских наук и академический директор ООО "Онлайн институт Смарт" Дарья Гребенюк высоко оценивает подготовленность нейросетей и их способность к обучению, но считает, что они не могут дать экспертную оценку состоянию человека. "При общении с психологом или к консультантом-человеком у вас происходит живое общение либо даже общение посредством дистанционных форм связи. Существуют же понятия "вербалики" и "невербалики", и это очень хорошо считывают специалисты", — заявляет психолог. Она напоминает, что машина не способна понять состояние пользователя, его переживания и все, что предшествует диалогу с ним.

Гребенюк уверена, что главное преимущество настоящего психотерапевта (человека) — умение задать уточняющие вопросы, ориентируясь на интонацию и поведение человека. "Грубо говоря, каждая буковка вашего сообщения для нейросети — это определенный зашифрованный код, который она считывает, не более. Там нет оценочных суждений. Для нее это просто четкий запрос, на который она дает нам четкий ответ", — считает психолог.

Но если вы все-таки решитесь обратиться к искусственному интеллекту за советом, то необходимо понимать, что находится в его компетенциях. Да, вы сможете получить конструктивный ответ на вопросы околопсихологического характера — к примеру, узнать отличия клинического психолога от медицинского или бихевиористов от гештальтистов. "В этом случае можно понять, какие специалисты существуют на рынке психологии, какие новые направления существуют на рынке психологических услуг. Но если вы хотите получить четкий ответ на ваши проблемы, как вам их решить, то, безусловно, нет", — говорит Гребенюк. Также, по ее словам, нужно учитывать, что [и живые] психологи не дают советы о том, как жить. Их задача — вывести человека в нужное русло при принятии решений.

Саму тенденцию обращаться к нейросети как к психологу эксперт связывает именно с видимыми безопасностью и анонимностью вопросов. Пользователи часто боятся делиться своими проблемами из-за домыслов о неэтичности или нетактичности. Гребенюк же это называет "сделкой с совестью". "Вы вроде как себя обелили, вывернули и задали вопрос искусственному интеллекту ровно так, как вы его хотели спросить живого. А живой психолог в этот же момент мог бы вывести вас на более откровенный разговор и в этом случае получить чистые данные", — считает она.

Бегущие по лезвию анонимности

Помимо того, что неясно, может ли дать нейросеть компетентный ответ, ставится под вопрос и анонимность. Недавно генеральный директор OpenAI Сэм Альтман, создатель одной из самых популярных нейросетей ChatGPT, поднял вопрос об откровенных диалогах с искусственным интеллектом. Он обратил внимание на то, что очень большое количество пользователей обращается к нейросетям с советами по разным темам, но не смог гарантировать полную анонимность. "Если вы поговорите с ChatGPT о самых сокровенных вещах, а потом будет какой-нибудь судебный иск или что-то в этом роде, от нас могут потребовать предоставить эту информацию", — говорит Альтман. С его точки зрения, в общении с ИИ должна соблюдаться та же концепция конфиденциальности, что и в общении с психотерапевтом, и эта тема требует особого внимания.

Профессор Центра ИИ Сколтеха, заведующий Лабораторией доверенного ИИ Иван Тюкин рассказывает, что прецеденты, связанные с разглашением переписок с ChatGPT, уже были. "Самый громкий, на моей памяти, это история двух нью-йоркских адвокатов, оштрафованных на $5 тыс. за то, что они сослались на несуществующие прецеденты, сгенерированные ChatGPT. Именно раскрытие переписки с нейросетью сыграло ключевую роль: судья запросил историю диалога с моделью и увидел, как были сфабрикованы "дела", — говорит он.

А вот что касается именно нейросетевой психотерапии, то проблемных ситуаций на законодательном уровне с ней не было. Хотя, по словам профессора, зарубежные СМИ регулярно предупреждают о возможных рисках. "Два года назад в Los Angeles Times писали, что большинство психочат-приложений не подпадают под HIPAA (американский закон "О мобильности и подотчетности медицинского страхования" — прим. ТАСС) и могут хранить тексты "бесконечно и без шифрования", — предостерегает он.

Как оказалось, еще с 2023 года у ChatGPT была функция, позволяющая пользователям открывать содержание своей переписки поисковым системам. При общении с нейросетью можно было выбрать галочку с текстом "Сделать этот чат доступным", из-за чего диалог можно было найти при запросе в поисковике. Эта возможность была обнаружена только в начале августа этого года, и, после того как интернет накрыло волной возмущений, OpenAI решила отключить функцию, ссылаясь на ее экспериментальный характер.

Сколько хранятся наши секреты?

Тюкин небезосновательно считает, что необходимо устанавливать рамки общения с нейросетями. "Разговор с ИИ не защищен врачебной или адвокатской тайной. Все, что вы напишете, потенциально может оказаться в руках модератора, правоохранителей или в обучающих выборках", — говорит эксперт. По его словам, обращаться к ИИ для получения банальных житейских советов вполне допустимо, но если речь о травмах, диагнозах, юридических спорах — то предпочтительнее либо анонимизировать детали, либо выбрать сервис, который подписывает с пользователем отдельное соглашение о неиспользовании данных для обучения нейросети.

Немаловажно учитывать, что данные, которые пользователь сообщает ChatGPT, официально хранятся 30 дней, после чего безвозвратно удаляются. А вот что касается DeepSeek, то данные хранятся ровно столько, сколько необходимо для работы сервиса, — фактически ровно столько, сколько существует ваш аккаунт. "После удаления профиля компания обещает "удалить или обезличить" переписку, но точных сроков не называет, а по запросу государственных органов доступ к этим данным могут предоставить значительно проще, чем на Западе", — говорит Тюкин.

Российская нейросеть GigaChat тоже действует по похожим условиям. По словам профессора, пользователь автоматически выдает бессрочную неэксклюзивную лицензию на хранение и техническое копирование всего, что он сгенерировал в чате. "Персональные данные могут обрабатываться весь период действия соглашения и дальше, если это требуется для выполнения законных обязательств. Формально история переписки может жить годами, пока существует ваш аккаунт или пока Сбер (владелец GigaChat — прим. ТАСС) обязан что-то хранить для регуляторов, а серверы находятся в России, поэтому доступ госорганов упрощен", — заявляет эксперт. Также он обращает внимание на то, что в марте 2025 года Госдума в первом чтении одобрила поправки, которые обяжут онлайн-платформы в российской юрисдикции хранить переписку и метаданные не год, а три. В случае если данный закон будет принят, то минимальный срок "забвения" для сервисов по типу GigaChat вырастет еще.

Резюмируя, можно сказать — общаться с ИИ можно и порой даже полезно. Но помните — любое ваше слово может быть использовано против вас.

Даниил Хмелевской

Читайте также:

2025-08-02T13:54:06Z

Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов

Современные системы искусственного интеллекта, включая нейросети, всё чаще используются в качестве виртуальных психологов, однако такие сервисы могут нести серьёзные риски утечки персональной информации. Об этом RT рассказал Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.

2025-08-02T18:09:00Z

Эксперт предостерег о рисках утечки данных при использовании ИИ-психологов

Современные системы искусственного интеллекта, включая нейросети, всё чаще применяются в роли виртуальных психологов. Однако такие сервисы могут представлять серьёзные риски утечки персональной информации. Об этом в  интервью RT сообщил Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.

2025-08-03T03:00:00Z

Цифровые аферы: Life.ru узнал, как распознать нейросетевого двойника и защитить себя от кражи данных

В России наблюдается тревожная тенденция использования нейросетевых двойников в мошеннических схемах. Член Комитета Госдумы по информационной политике и федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин рассказал Life.ru, что современные ИИ-инструменты способны воспроизводить внешность, мимику и голос конкретного человека, что открывает злоумышленникам возможность создавать правдоподобные видеообращения от имени известных личностей или даже близких.

2025-08-04T13:17:09Z

Психолог Миллер заявила, что ложные убеждения мешают людям в поиске партнера

Психолог Миллер заявила, что ложные убеждения мешают людям в поиске партнера

2025-08-02T14:51:38Z

Психолог Лебедева: не надо вести переговоры с мошенниками

Психолог Елена Лебедева в комментарии «МК» пояснила, как следует вести себя с мошенниками:- Несмотря на постоянные предупреждения о действиях мошенников, люди продолжают попадаться на их «удочку», потому что мошенники разрабатывают все новые и новые схемы