Последние исследования показывают, что ИИ всё чаще использует материалы из научных статей, которые отозваны за ошибки и фальсификации

Все новости — Наука и технологии

2025-09-24T09:51:42Z

Женщина выиграла в лотерею благодаря искусственному интеллекту

2025-09-24T09:45:44Z

RuStore и Московский кластер видеоигр запускают акселератор для разработчиков игр

2025-09-24T09:41:00Z

Омоложение на биодобавках: кто такой биохакер Брайан Джонсон и как он молодеет

2025-09-24T09:30:00Z

Новый этап развития российской микроэлектроники: первый отечественный фотолитограф на 350 нм готов к запуску в серию

2025-09-24T09:29:00Z

«Король съемки с контровым светом». Глава Xiaomi показал, как снимают Xiaomi 17 Pro Max и Xiaomi 17 Pro

2025-09-24T09:21:08Z

Alibaba интегрирует ПО Nvidia Robotics в свою платформу ИИ

2025-09-24T09:08:56Z

Кабмин учредил национальную премию в области IT "Цифровые решения"

2025-09-24T09:05:57Z

Правительство РФ учредило национальную премию "Цифровые решения" в сфере ИТ

2025-09-24T09:05:00Z

Дмитрий Григоренко: Правительство учредило национальную премию в области информационных технологий

2025-09-24T09:01:00Z

Выпить кофе на крыше с красивым видом: в 2ГИС запустили ИИ-поиск заведений по настроению и атмосфере

2025-09-24T08:57:00Z

Xiaomi 17, Xiaomi 17 Pro и Xiaomi 17 Pro Max получат совершенно новую оптическую систему и совершенно новый сенсор Light Hunter 950L с HDR в 16,5 ступеней экспозиции

2025-09-24T08:53:00Z

Исследователь генетики старения из Казани стал одним из самых цитируемых ученых мира

2025-09-24T08:49:19Z

ИРИ: 80% российских игровых студий используют ИИ при разработке игр

2025-09-24T08:47:54Z

С помощью БАС. Оператор обеспечил связью финал конкурса по поиску людей

2025-09-24T08:32:00Z

ИИ-сервис для протоколирования совещаний разработали в Дубне

Последние исследования показывают, что ИИ всё чаще использует материалы из научных статей, которые отозваны за ошибки и фальсификации

2025-09-23T14:20:00Z


Новые исследования выявили серьёзную проблему в работе искусственного интеллекта: многие модели, включая популярные чат-боты, при ответах на вопросы опираются на данные из научных статей, которые были официально отозваны или признаны недостоверными. Это касается медицины, биологии и других областей науки, где отозванные публикации продолжают использоваться ИИ для формулировки рекомендаций и объяснений.

Команда исследователей из Университета Теннесси (США) провела тесты с использованием 21 отозванной статьи по медицинской визуализации и обнаружила, что современные версии ChatGPT (например, GPT-4o) при цитировании упоминали эти недействительные источники в ряде случаев, причём чаще, чем предупреждали об их статусе. Другое исследование показало, что при проверке более чем 200 отклонённых и недостоверных работ многие ИИ-модели не сообщали об их статусе, а порой признавали спорные утверждения верными. Значимо, что большинство таких исследований проводилось на версиях моделей с ограниченным знанием и без доступа к информации в интернете.

Иллюстрация: Gemini

Исследователи подчёркивают важность внедрения механизмов распознавания отозванных работ и интеграции таких данных из научных баз в обучающие и поисковые алгоритмы искусственного интеллекта. Некоторые компании уже начали обновлять базы данных своих моделей, чтобы минимизировать использование недостоверных источников, но проблема остаётся актуальной.

Профессор Юань Фу из Иллинойского университета отмечает: «Значимость отличия отозванных публикаций очевидна, особенно когда ИИ влияет на решения в медицине и технологиях. Мы должны повышать осведомлённость как среди специалистов, так и широкой аудитории, чтобы не допустить слепого доверия к генеративным моделям». OpenAI и другие крупные разработчики пока не дали развёрнутых комментариев по этому вопросу, но в научном сообществе призывают к сотрудничеству и интеграции более прозрачных и проверяемых систем работы с научной информацией.

Эта ситуация вызывает серьёзные опасения, ведь ИИ всё чаще используется для научных обзоров, помощи исследователям и формулировки научных гипотез. Возможность получения устаревшей или неверной информации может подорвать доверие к таким системам и привести к распространению ошибок в научном и прикладном контексте.

Читайте также:

2025-09-23T14:54:00Z

Коалиция из более 200 лидеров науки, 10 Нобелевских лауреатов и учёных из OpenAI, Google DeepMind и Anthropic призывает ООН установить юридически обязательные «красные линии» для развития искусственного интеллекта

2025-09-22T21:01:00Z

Искусный разум: треть IT-специалистов перейдут на отечественные нейросети до конца года

С чем это связано и какая часть айтишников уже использует российские ИИ-инструменты на практике

2025-09-23T17:45:34Z

Число повторов фейков в ответах нейросетей почти удвоилось

За год число повторов фейков в ответах нейросетей почти удвоилось. Десять ведущих ИИ-моделей в августе показывали ложные факты в 35% запросов против 18% годом ранее. Интеграция онлайн-поиска сделала ответы чат-ботов более быстрыми, но повысила их уязвимость. Эксперты указывают, что можно самостоятельно научить нейросеть избегать непроверенных фактов.

2025-09-23T06:15:43Z

Будущее ИИ-компаний под угрозой

2025-09-23T05:00:00Z

Саратовские ученые нашли способ сделать нейросеть человечнее

Приблизить эффективность искусственного интеллекта к принципам работы человеческого мозга может помочь новое открытие ученых СГУ. Результаты исследования опубликованы в журнале The European Physical Journal Special Topics.