2025-09-24T12:57:49Z
В МЭР не считают, что ИИ повлияет на безработицу или ударит по рынку труда
2025-09-24T12:37:30Z
Искусственный интеллект подтвердил, что Ветхий Завет писал не один человек
2025-09-24T12:31:04Z
Из космоса вернулись семена для эксперимента школьников России и Беларуси
2025-09-24T12:26:27Z
Минобрнауки: ученые из-за рубежа проявляют интерес к РФ как научной сверхдержаве
2025-09-24T12:21:43Z
ФМБА представило делегации из Никарагуа передовые научные разработки и опыт в области нейротехнологий
2025-09-24T12:19:54Z
Почти каждый второй ученый в России моложе 40 лет
2025-09-24T12:13:52Z
Всего один классический ДВС попал в топ-10 лучших моторов 2025 года
2025-09-24T12:01:56Z
Представители 57 стран подали заявки на участие в марафоне "Знание.Первые"
2025-09-24T11:58:35Z
Первый российский препарат от рака исследуют для лечения опухолей мозга
2025-09-24T11:51:00Z
Xiaomi 17 Pro со вторым экраном уже рекламирует автогигант BYD
2025-09-24T11:47:00Z
Режиссер Чадов: не верю в масштабирование ИИ в кино
2025-09-24T11:35:58Z
Астроном новосибирского университета запечатлел комету, открытую в 2025 году
2025-09-24T11:22:14Z
Российский и китайский вузы открыли программу подготовки разработчиков ПО
2025-09-24T11:07:10Z
В Max с начала тестирования зарегистрировали более 1,5 тыс. каналов авторов "А+"
2025-09-24T11:05:36Z
Ученые ФИЦ Биотехнологии РАН нашли белки для борьбы с дегенерацией сетчатки глаз
2025-09-23T17:45:34Z — За год число повторов фейков в ответах нейросетей почти удвоилось. Десять ведущих ИИ-моделей в августе показывали ложные факты в 35% запросов против 18% годом ранее. Интеграция онлайн-поиска сделала ответы чат-ботов более быстрыми, но повысила их уязвимость. Эксперты указывают, что можно самостоятельно научить нейросеть избегать непроверенных фактов.
За год число повторов фейков в ответах нейросетей почти удвоилось. Десять ведущих ИИ-моделей в августе показывали ложные факты в 35% запросов против 18% годом ранее. Интеграция онлайн-поиска сделала ответы чат-ботов более быстрыми, но повысила их уязвимость. Эксперты указывают, что можно самостоятельно научить нейросеть избегать непроверенных фактов.
По данным NewsGuard, в трети случаев ИИ-модели дают ложные утверждения в ответах на вопросы, которые связаны с новостями. Популярные нейросети не фильтруют и не проверяют информацию на достоверность - вся проверка фактов остается за пользователями.
Депутат Госдумы Антон Немкин - член Комитета по информационной политике, информационным технологиям и связи, отмечает, что распространение фейков через нейросети опасно прежде всего тем, что пользователи склонны доверять ответам ИИ как "объективным" и "нейтральным".
Если модель сообщает недостоверные факты, они могут быстро распространяться в социальных сетях, мессенджерах и СМИ, превращаясь в источник дезинформации. Особенно серьезные риски возникают в сферах здравоохранения, финансов и политики, где искажение информации может привести к крайне серьезным последствиям, указывает депутат.
Такой масштаб работы нейросетей многократно увеличивает возможный ущерб. Использование информации из недостоверных источников может привести к бесчисленным копированиям и созданию "фейков из фейков".
"Нейросети учатся предсказывать наиболее вероятное продолжение различных текстов и таким образом обобщают информацию и формулируют ответ для пользователя. Если нейросеть обучалась на достаточном объеме данных по запросу, она ответит верно. Но если вопрос будет по специфической области знаний, то нейросеть постарается сгенерировать ответ максимально правдоподобно. Часто в таких случаях и получаются галлюцинации", - рассказал руководитель качества нейросети "Алисы" Никита Рыжиков.
Новый взгляд на проблему "галлюцинаций" представили исследователи из OpenAI и Технологического института Джорджии. Они указывают, что для борьбы с ложными ответами нужно поменять подход к обучению и оценке моделей. По их мнению, чтобы улучшить ответы, нужно поощрять модель, когда она признает факт невозможности дать точный ответ. Получается, что разработчики должны научить ИИ-модель признавать ошибки и честно говорить об этом пользователю.
Также ключевую роль играет качество наборов данных. В них содержатся петабайты сведений, которые невозможно полностью разметить и проверить. Такие данные попадают в обучение и снижают точность.
Антон Кузнецов - директор Института прикладных компьютерных наук ИТМО, рассказал, что существует такое понятие, как "температура нейросети" - это параметр, определяющий степень случайности или креативности ответа. Чем она выше, тем более творчески ИИ будет подходить к генерации, чем ниже, тем, соответственно, в результате будут встречаться наиболее предсказуемые ответы.
"Если поставить минимальную температуру, а для большинства чат-ботов это можно сделать, дописав в промпт (запрос) фразу "ответь с T=0.1", то ответ будет максимально близок к тому, что нейросеть получила из обучающих данных, но вероятность галлюцинаций все равно остается. Недавно появились думающие модели, которые пытаются рассуждать - опровергать и верифицировать собственные результаты. Если не удается подтвердить факты, то генерация запускается еще раз", - отмечает Кузнецов.
2025-09-23T14:20:00Z
2025-09-22T19:31:06Z
Большинство респондентов переживают, что технологию используют мошенники, чтобы украсть деньги, взять кредит или обмануть близких - исследование сервиса коммуникаций Контур.Толк и продуктовой группы Контур.Эгида. В их опросе приняли участие 1200 работающих россиян.
2025-09-23T20:47:01Z
2025-09-23T04:52:56Z
Почти треть россиян начали возвращать просроченные долги чаще благодаря коммуникациям с нейросетями, которые напоминали им о задолженности, рассказали РИА Новости аналитики финансового маркетплейса "Выберу.ру".
2025-09-23T16:47:12Z
По данным минцифры, сегодня до 90% телефонных звонков мошенников блокируются. Но, увы, идет диверсификация атак. Профи охотятся за лакомым, нападая на госсектор и состоятельную аудиторию, и поручают при этом сбор данных "про запас" подросткам. Предлагая им вести мониторинг и взламывать сайты школ, вузов и досуговых центров. По данным Альянса по защите детей в цифровой среде, в 2025 году в 74 раза возросло втягивание детей в совершение киберпреступлений относительно 2023 года. Дропперство (передача своей банковской карты), установка вредоносных ПО, заражение вирусами ПО, поджоги банкоматов - все это часто делают несовершеннолетние. Из 1,8 миллиона россиян, которым грозят уголовные сроки за дропперство, до 37% - дети.